Resúmenes por Área


Cargando resúmenes...

Área VII: Ingeniería e Industria

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Abundez Romero Abel Edrei, Universidad Autónoma del Estado de México
Asesor: Dra. Mirvana Elizabeth González Macias, Universidad Autónoma de Baja California

BIOMECáNICA ANáLISIS DEL MOVIMIENTO Y POSTURA


BIOMECáNICA ANáLISIS DEL MOVIMIENTO Y POSTURA

Abundez Romero Abel Edrei, Universidad Autónoma del Estado de México. Asesor: Dra. Mirvana Elizabeth González Macias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El proyecto se enfoca en analizar la marcha humana, una forma de locomoción con actividad alternante de los miembros inferiores y equilibrio dinámico. La marcha se describe en un ciclo repetitivo que se divide en fases de apoyo y balanceo. Además, a biomecánica, una ciencia interdisciplinaria, se dedica al estudio de las fuerzas internas y externas que afectan el movimiento y los movimientos asociados. La investigación se centra en analizar errores en la estimación de parámetros corporales, procesamiento de datos cinemáticos y medición de fuerza de reacción del suelo en la marcha humana. En la actualidad se cuentan con distintos sistemas de captura de movimiento humano, sin embargo, algunos de estos sistemas tardan horas en entregar los resultados. Por lo que se plantea la necesidad de desarrollar un sistema que a partir de las trayectorias de los marcadores del modelo Plug in Gait de VICON sea capaz de determinar parámetros espaciotemporales y cinemáticos útiles para realizar una evaluación de diagnóstico.



METODOLOGÍA

Para este estudio se utilizó el sistema de captura de movimiento 3D Vicon, está integrado por once cámaras Vicon infrarrojas, 2 cámaras Vicon Bonita 720c y el software Vicon Nexus, para la captura y procesamiento de los datos de movimiento. Se utilizó en témplate de cuerpo completo, que consiste en colocar 39 marcadores reflectantes pasivos en puntos específicos del cuerpo para rastrear el movimiento en tiempo real. Además, se realizaron mediciones antropométricas para evaluar diferentes aspectos relacionados con la salud y la composición corporal del participante, mediciones que requiere el software Nexus, la evaluación biomecánica se llevó a cabo en el laboratorio de Biomecánica y Ergonomía en la Facultad de Deportes de la Universidad Autónoma de Baja California. Los datos cinemáticos y espacio-temporales de la marcha se registraron utilizando cuatro plataformas de fuerza, el sujeto camino a lo largo del laboratorio aproximadamente 6 metros a una velocidad autoseleccionada. Se evaluaron las variables como la longitud de zancada, longitud de paso, velocidad, cadencia, base de apoyo, apoyo simple y doble, ángulo del tobillo, rodilla y cadera. Para la comprensión de cada uno de los conceptos a trabajarse en la investigación se utilizó el software Motion Kinematic & Kinetic analyzer (Mokka), el cual permitió la visualización 3D de la marcha, formado por los marcadores posicionados en puntos estratégicos de cuerpo del sujeto de investigación, así como la identificación de la posición de algunos marcadores con referencia al SubFrame. El análisis biomecánico se realizó utilizando la herramienta Excel y se generaron gráficas para interpretar los resultados. Una vez identificado cada uno de los parámetros en Excel, se desarrolló el programa en Matlab, dando de entra el archivo de las trayectorias y ángulos de Vicon.


CONCLUSIONES

Se destaca que, durante el análisis de las gráficas generadas a partir de los datos de movimiento, se pudo observar la presencia de una patología de la marcha en algunos participantes. Estas alteraciones en el patrón de caminado fueron identificadas a partir de las diferencias en las variables cinemáticas y espacio-temporales de la marcha, así como en las medidas de simetría asociadas. La detección de esta patología de la marcha es de gran relevancia, ya que puede tener implicaciones importantes en el diagnóstico y elección de tratamientos para los pacientes con condiciones médicas relacionadas con el sistema neuromuscular. Además, esta información puede contribuir al desarrollo de estrategias de rehabilitación y mejora del rendimiento en deportistas y personas con discapacidad.
Abundis Patiño Joseph Daniel, Universidad Autónoma de Occidente
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

ANáLISIS DE SEñALES SíSMICAS


ANáLISIS DE SEñALES SíSMICAS

Abundis Patiño Joseph Daniel, Universidad Autónoma de Occidente. Salto Cruz Anahi, Instituto Politécnico Nacional. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El estudio de los sismos es de suma importancia ya que nos permite comprender mejor la dinámica interna de la Tierra y cómo interactúa con la corteza terrestre. Esta comprensión es esencial para predecir y mitigar los efectos destructivos de los terremotos en nuestras comunidades. Al analizar los patrones y las características de los sismos, los científicos pueden desarrollar modelos más precisos para anticipar cuándo y dónde podrían ocurrir sismos en el futuro. En el caso de nuestro país, los sismos han tenido un impacto devastador debido a nuestra ubicación geográfica. Los terremotos pueden provocar la destrucción de infraestructuras, pérdida de vidas y graves consecuencias socioeconómicas, y es por ello que es particularmente imprescindible un profundo estudio de estos eventos, para así estar mejor preparados para sus arribos, como para ser capaces de predecirlos con mayor precisión y antelación, para ayudar a mantenernos seguros.



METODOLOGÍA

Como bien se ha mencionado, uno de los factores más importantes al arribo de un sismo, es el aviso a los ciudadanos, para así comenzar con los protocolos de emergencia. Dado esto, puede hacerse mención de como las redes neuronales y la inteligencia artificial han sido una gran herramienta al momento de la detección de actividad sísmica. Esto, porque este tipo de modelos de aprendizaje automático pueden realizar un análisis de una gran cantidad de datos en tiempo real, e identificar los patrones que se presentan al momento de la llegada de un sismo. Al identificar estos comportamientos previos a la llegada de un sismo, es que se pueden emitir alertas tempranas, para así darle a la sociedad una alerta temprana y darles un mayor margen de tiempo para la correcta realización de los protocolos de emergencia ante la situación.


CONCLUSIONES

Una vez realizada la red neuronal, se comenzó a ejecutar una serie de entrenamientos los cuales tenían un diferente conjunto de datos en cada prueba, esto, con la finalidad de verificar el correcto funcionamiento y la generalización de ésta.  La red neuronal logró un margen de error aceptable en la predicción de los valores de la Onda P y Onda S (valores de suma importancia en la detección de sismos) y demostró una capacidad de generalización. Esto se evidenció mediante la consistencia de los resultados en los datos de entrenamiento y los datos de prueba, sugiriendo que la red estaba aprendiendo patrones relevantes de manera efectiva.
Acosta Chavez Luis Angel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo

ESTIMACIÓN DE LA PRODUCCIÓN DE SEDIMENTOS EN LA CUENCA DEL LAGO DE PÁTZCUARO


ESTIMACIÓN DE LA PRODUCCIÓN DE SEDIMENTOS EN LA CUENCA DEL LAGO DE PÁTZCUARO

Acosta Chavez Luis Angel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El Lago de Pátzcuaro, ubicado en la región central de México, es un ecosistema de gran importancia ecológica y socioeconómica para la región. Sin embargo, enfrenta un desafío significativo debido al proceso de sedimentación que afecta negativamente su capacidad de retención de agua y la calidad de su ecosistema acuático. La acumulación excesiva de sedimentos en el lecho del lago y en sus afluentes puede provocar la disminución de la profundidad y el volumen del agua, alterando la biodiversidad, reduciendo la pesca y afectando el abastecimiento de agua para las comunidades circundantes. El objetivo principal de este proyecto es realizar una modelación hidrológica en la cuenca del Lago de Pátzcuaro para entender mejor los procesos de erosión y sedimentación que ocurren en la región. Mediante la implementación de metodologías y herramientas de análisis, se pretende cuantificar la generación de sedimentos y sus fuentes principales, identificar áreas críticas de erosión y proponer estrategias de manejo y conservación para mitigar los impactos negativos de la sedimentación en el ecosistema lacustre.



METODOLOGÍA

La metodología empleada para la modelación de sedimentos en la cuenca del Lago de Pátzcuaro ha seguido varias etapas clave. En primer lugar, se realizaron cursos de capacitación para adquirir el dominio de dos programas esenciales en el estudio: QGIS, un Sistema de Información Geográfica (SIG) de código abierto y gratuito que permite visualizar, editar y analizar datos geoespaciales y QSWAT, la extensión de SWAT para el programa QGIS, donde SWAT (Soil and Water Assessment Tool), es un modelo hidrológico ampliamente utilizado para evaluar el impacto de las prácticas de manejo de tierras en la calidad del agua y la disponibilidad de recursos hídricos en cuencas hidrográficas. Estas herramientas proporcionan funcionalidades para la manipulación de datos geoespaciales, creación de mapas temáticos y modelación hidrológica, lo que permitió tener una mejor comprensión del territorio y sus características. Posteriormente, se llevó a cabo un análisis espacial basado en datos georreferenciados para establecer la delimitación adecuada de la cuenca del lago y seleccionar las estaciones meteorológicas más relevantes. Mediante pruebas estadísticas, se identificaron las estaciones que brindarían la información más representativa y confiable para el análisis de datos de precipitación. Una vez definidas las estaciones y recopilados los datos necesarios, se procedió a investigar y aplicar la ecuación Universal Soil Loss Equation (USLE), un método ampliamente utilizado para estimar la pérdida de suelo en una cuenca. La USLE se define como E = R * K * LS * C * P, donde "E" representa la tasa de erosión del suelo. El factor de erosividad de la lluvia (R) mide la capacidad de la precipitación para causar erosión. Se relaciona con la intensidad y frecuencia de las lluvias, y se cuantifica en unidades de energía de erosión. El factor de erodabilidad del suelo (K) se refiere a la susceptibilidad del suelo a ser erosionado por la acción de la lluvia y el escurrimiento superficial. Depende de las características físicas del suelo, como su textura, estructura y contenido de materia orgánica. El factor topográfico (LS) tiene en cuenta las características de la pendiente y longitud de las laderas en la cuenca. Cuanto mayor sea la pendiente y longitud, mayor será la erosión del suelo. El factor de vegetación (C) representa la efectividad de las plantas como cubierta protectora del suelo frente a la energía de impacto de las gotas de lluvia y la fuerza del flujo superficial. El factor de prácticas de conservación del suelo (P) refleja el efecto de las prácticas de manejo implementadas para conservar el suelo y reducir la erosión. En nuestro caso, se toma el factor P con un valor igual a 1. En paralelo, se realizaron esfuerzos para obtener y clasificar datos relevantes sobre el tipo y uso del suelo en la cuenca del Lago de Pátzcuaro. Se emplearon datos proporcionados por la FAO y mapas proporcionados por el Instituto Nacional de Estadística y Geografía (INEGI). Estos datos, junto con los datos de precipitación y temperatura, se incorporaron en el modelo SWAT para llevar a cabo la simulación de la generación de sedimentos en la cuenca.


CONCLUSIONES

Hasta la fecha, se ha logrado un avance significativo en el proceso de modelación hidrológica para la cuenca del Lago de Pátzcuaro. La implementación de la ecuación USLE ha permitido identificar áreas críticas donde la erosión del suelo es más pronunciada y, por lo tanto, se generan mayores cantidades de sedimentos. Aunque la modelación hidrológica está en curso, se espera que una vez completada y calibrada con ayuda de la estación hidrométrica de Santiago Undameo, se obtendrán datos más precisos y confiables sobre la generación de sedimentos en la cuenca. La comparación de los resultados obtenidos mediante la ecuación USLE y el modelo SWAT proporcionará una mejor comprensión de los procesos erosivos y de sedimentación en la región. Con base en estos resultados, se anticipa que el proyecto contribuirá significativamente al desarrollo de medidas de manejo y conservación que ayuden a mitigar los efectos negativos de la sedimentación en el Lago de Pátzcuaro.
Acosta Cruz Ronny Xavier, Instituto Tecnológico de Puebla
Asesor: Dr. José Roberto Razo Hernández, Instituto Tecnológico Superior de Irapuato

MODELADO Y SIMULACION DE PANELES SOLARES FOTOVOLTAICOS EN MATLAB-SIMULINK


MODELADO Y SIMULACION DE PANELES SOLARES FOTOVOLTAICOS EN MATLAB-SIMULINK

Acosta Cruz Ronny Xavier, Instituto Tecnológico de Puebla. Asesor: Dr. José Roberto Razo Hernández, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Optimización del rendimiento de paneles solares bajo condiciones variables Precisión y confianza en el modelado matemático de paneles solares bajo condiciones variables El modelado matemático y simulación de paneles solares a diferentes ángulos de inclinación, temperaturas e irradiancia solar es una herramienta valiosa para entender el comportamiento y la eficiencia de los paneles en diversas situaciones. Sin embargo, existe una problemática crítica en relación con la precisión y confianza de los resultados obtenidos. Desafíos: Variabilidad en la calidad de los paneles: Los paneles solares fabricados por diferentes empresas o en distintas condiciones pueden mostrar variaciones en su rendimiento, incluso con idénticas condiciones ambientales. Incorporar esta variabilidad en los modelos es esencial para representar con precisión la realidad, pero también presenta desafíos adicionales. Disponibilidad de datos climáticos a largo plazo: Las  simulaciones para evaluar el rendimiento de los paneles solares en diferentes ubicaciones requieren datos climáticos históricos a largo plazo, como irradiación solar y temperatura. Sin embargo, en ciertas áreas geográficas, estos datos pueden ser limitados o difíciles de obtener. Modelado de sistemas complejos: En aplicaciones prácticas, los paneles solares suelen estar conectados en sistemas complejos, como matrices o instalaciones fotovoltaicas a gran escala. Modelar adecuadamente el comportamiento de estos sistemas en función de múltiples paneles, orientaciones y sombreado mutuo es una tarea desafiante. La resolución a las problemáticas es fundamental para garantizar que el modelo matemático y la simulación de paneles solares sean confiables y precisos, para que a su vez se impulse a desarrollar tecnologías fotovoltaicas mas eficientes, los cuales contribuirán a aumentar la adopción de energía solar renovable y sostenible en el panorama energético



METODOLOGÍA

La investigación se realizó en el laboratorio de maestría en eléctrica ubicada en el instituto tecnológico superior de Irapuato (ITESI), para lo cual se consultaron diferentes artículos científicos de diferentes autores para llegar a resolver la hipótesis de modelado y simulado de sistemas fotovoltaicos. Teniendo un artículo en específico acerca de las interpretaciones matemáticas de cada uno de los 5 parámetros que de la distribución de elementos de un panel solar, las cuales son: resistencia de shunt, corriente de cortocircuito de celda, corriente de saturación del diodo, resistencia en serie y corriente fotónica. Se empieza a plantear la simulación en el software de Simulink de cada una de las ecuaciones de los parámetros mencionados. Teniendo los diagramas de bloques en el software de Simulink, se implementaron 4 paneles solares para analizar el comportamiento de corriente - voltaje, asi como de potencia - voltaje de acuerdo con las instrucciones dadas se aplicaron 3 angulos de inclinación de 72°, 45° y 30° respectivamente. Se realiza una prueba de campo al panel solar que se tiene en el laboratorio de maestría Fig. 17, sus especificaciones se tienen en la tabla 3, de la tercera sección, para la cual se realizó 4 mediciones a diferentes angulos de inclinación, irradiación y temperatura ambiente. Se realiza un análisis teórico de los resultados obtenidos de los 4 paneles solares implementados a sus diferentes angulos de inclinación y comparando con la prueba de campo realizada


CONCLUSIONES

Se realizo un modelo esquematizado para los 5 parámetros (Rsh, Isc, Isd, Rs y Iph) fundamentales del SFV en el software de Simulink a través de Matlab, partiendo de su modelo matemático. Como resultados obtenidos en las 4 implementaciones de paneles solares se describen el comportamiento que se tiene ante cambios de la orientación e inclinación de la celda tanto para lo que es la corriente como para la potencia generada, también por el numero de celdas colocadas, ya que surgieron de 1 a 6 paneles conectados las cuales coinciden de una manera bastante aproximada con los resultados obtenidos en condiciones estándares y nominales de los SFV comerciales. Esta implementación de simulación nos ayuda a conocer el comportamiento de los SFV, ya que es una herramienta muy útil para dimensionar los SFV, ya que a través de ello podemos obtener simulaciones de corriente y potencia generadas. Para concluir con la simulación aun se puede implementar lo que es ya instalando en sistema interconectado a la red e inclusive al área residencial, eso será otro artículo acerca de la continuidad de la implementación y se podrá evaluar de manera más eficaz y en condiciones reales de implementación y variables en de sus condiciones ambientales dependiendo de su instalación.
Acosta Griego Yesenia, Universidad de Sonora
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

DECODIFICACIóN DE SEñALES CEREBRALES DURANTE LECTURA SILENCIOSA Y HABLA IMAGINADA


DECODIFICACIóN DE SEñALES CEREBRALES DURANTE LECTURA SILENCIOSA Y HABLA IMAGINADA

Acosta Griego Yesenia, Universidad de Sonora. Arellano Fonseca María Regina, Universidad de Sonora. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La Esclerosis Lateral Amiotrófica (ELA) es una enfermedad degenerativa neuromuscular, afectando a las neuronas que controlan los músculos voluntarios; se comporta de manera progresiva afectando a las células nerviosas del cerebro y de la médula espinal. Debido a cómo progresa la enfermedad sobre la acción de los músculos voluntarios, los pacientes pueden quedar totalmente paralizados, sin embargo, la sensibilidad y la inteligencia quedan intactas. Los principales síntomas son: Dificultad para caminar Tropiezos y caídas Dificultad al tragar Calambres y/o contracción de los músculos La enfermedad suele atacar entre los 40-60 años y afecta a más hombres que a mujeres. Las personas afectadas con ELA pueden tener problemas al mover los labios, la lengua, el bajo paladar o las cuerdas vocales, haciendo el habla una actividad complicada o incluso imposible. Lo que hace que se desarrolle este procedimiento experimental para poder diferenciar, gracias a las señales cerebrales, las palabras que está queriendo comunicar un paciente con esta enfermedad.



METODOLOGÍA

El experimento actualmente se está realizando en 3 distintos grupos: Jóvenes sanos (18-39 años) Adultos sanos (+40 años) Adultos con la enfermedad (+40 años) En el presente proyecto, solamente se trabajó con el primer grupo mencionado. El objetivo de este proyecto es recolectar señales cerebrales utilizando métodos no invasivos durante la lectura silenciosa y el habla imaginada de cuatro palabras en español: Si, Negativo, Bebida y Baño. Estas señales recolectadas serán utilizadas en la investigación titulada Multimodal speech decoding for patients with amiotrophycal lateral sclerosis. Antes de iniciar con la recolección de señales en cada participante, se aseguró de que cada uno de ellos firmará un Consentimiento Informado el cual explicaba con claridad que se realizaría en el experimento y cuáles eran sus objetivos, así como también se pedía el consentimiento para poder tomar fotografías y hacer uso de ellas para distintos fines (mostrarlas a participantes, añadirlas a alguna presentación o publicación científica, etc.) además, se realizaron algunas preguntas como su edad, si son diestros o zurdos o si tiene algún padecimiento neurológico diagnosticado. Durante el experimento el participante se sentara delante de un monitor (la distancia entre el monitor y el participante fue la misma para todos), se colocaron 16 electrodos de encefalograma, además del electrodo Tierra, todos los electrodos fueron distribuidos a lo largo del cuero cabelludo junto con la cantidad necesaria de gel conductor. También se hizo uso de un electrodo de Referencia el cual se colocó en la oreja de los participantes. Una vez ya colocados todos los electrodos y el participante se encuentre lo más cómodo posible, se explicó con más claridad en qué consiste el experimento: Primeramente aparece una cruz en el centro de la pantalla llamada Fixation, esta cruz tiene el objetivo de que el participante se enfoque en la pantalla porque se está apunto de comenzar. Saldrá una pantalla en negro, esta no tiene algún significado. Después, saldrá la primera palabra, en este momento es cuando se realiza la lectura silenciosa. Lo siguiente será una pantalla en negro, cuando esta aparezca se realizara el habla imaginada; el participante deberá repetir en su mente la palabra que salió anteriormente, la indicación que se da es que debe de pronunciar la palabra en su mente casi como si quisiera pronunciarla con su voz, pero no moverá su boca ni nada por el estilo. Se repetirá lo del punto 3 y 4 con otras palabras y el participante tendrá que hacer lo mismo. (Cabe aclarar que las palabras no tienen un orden en específico, se colocan aleatoriamente.) Después de un tiempo determinado saldrá un punto en el centro de la pantalla, este indica Descanso, en este momento el participante podrá parpadear todo lo que necesite, moverse un poco, rascarse, apretar la mandíbula, etc., acciones que tiene que evitar realizar lo más que pueda mientras no salga esto en la pantalla porque cada una de estas acciones afecta la lectura de las señales y la exactitud de estas. Se repite todo el proceso. El experimento consiste en 6 corridas con mínimo 3 minutos de descanso entre ellas. El tiempo de duración aproximado del experimento es de 1 hora y media. Después de la recolección de los datos de cada participante, las señales son procesadas en el software Matlab para observar si es posible diferenciar entre la lectura silenciosa y el habla imaginada, así como también si se puede determinar automáticamente qué palabra leyó o pronunció el participante, no obstante, esta parte del proyecto aún sigue en desarrollo.


CONCLUSIONES

Durante este verano de investigación obtuvimos conocimientos teóricos y experimentales del registro de señales EEG, se logró con éxito registrar las señales EEG de más de 25 participantes así como conocimientos de la enfermedad ELA. Actualmente se encuentra en proceso el desarrollo del procesamiento de las señales obtenidas en las corridas en el software Matlab y se espera igualmente tener éxito en esta parte del proyecto. Esperamos que el grupo el cual fue asignado a nosotras sea de gran ayuda en la investigación titulada Multimodal speech decoding for patients with amiotrophycal lateral sclerosis y se pueda ayudar a muchas personas que padecen esta enfermedad a poder comunicarse lo mejor posible. Nos encontramos muy agradecidas de haber tenido y aprovechado esta oportunidad la cual nos ayudó a conocer un rubro más de nuestro campo laboral, ser encargadas de un experimento y ser reconocidas de parte de nuestros asesores por nuestro trabajo, esperamos más oportunidades así en un futuro.
Acosta Santos Jesús Benjamín, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

DESARROLLO DE PROGRAMAS EN PYTHON PARA LA SOLUCIóN DE PROBLEMAS CLáSICOS DE INGENIERíA QUíMICA.


DESARROLLO DE PROGRAMAS EN PYTHON PARA LA SOLUCIóN DE PROBLEMAS CLáSICOS DE INGENIERíA QUíMICA.

Acosta Santos Jesús Benjamín, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los lenguajes de programación han sido una gran ayuda y un gran avance en muchos campos, Desde la creación de aplicaciones y sitios web, hasta la automatización de procesos industriales. La programación ha cambiado la forma en que interactuamos con el mundo y ha abierto un sinfín de posibilidades para la innovación. Y la ingeniería química no es una excepción. En el campo de la ciencia y la investigación, la programación ha acelerado el proceso de recopilación y análisis de datos, permitiendo avances más rápidos en campos como la medicina, la biología y la física. Gracias a la programación, los científicos pueden modelar sistemas complejos, simular experimentos y obtener resultados precisos. Los cálculos teóricos desempeñan un papel fundamental en la industria química al brindar una base sólida para el diseño, desarrollo y optimización de procesos y productos. Estas herramientas matemáticas y computacionales permiten a los químicos y a los ingenieros analizar y comprender con precisión los fenómenos y las reacciones químicas que ocurren en una amplia gama de aplicaciones industriales. En la industria, hay muchas veces donde es necesario calcular una aproximación teórica de un proceso o funcionamiento de algún sistema en particular, aunque es cierto que la teoría tiene sus límites, es siempre importante tener una idea concisa plasmada en papel antes de poder llevarlo a la práctica. De este modo surge el proyecto de resolución de problemas relacionados a la ingeniería química mediante la utilización de Python, que nos ayuda a automatizar y simplificar muchos procedimientos y cálculos vistos en la carrera, haciéndonos capaces de realizarlos en segundos, con un simple botón, facilitando así su uso constante.



METODOLOGÍA

El primer paso fue la repartición de módulos de datos termodinámicos en Python, se escogió Pyromat, y se comenzó con su investigación y acoplamiento a sus funciones, métodos, entre otras cosas. A la vez, se comenzó con la redacción de un manual de usuario del módulo, en caso de necesitarlo para algún futuro. Se comenzó la resolución de problemas con los cálculos de una turbina, utilizando Pyromat para mediante este problema, poner en práctica todo lo aprendido en la investigación anterior y así poder realizar los cálculos correspondientes de manera más eficiente. Una vez terminado, se dio inicio a trabajar con problemas de ciclos reales e ideales de Rankine, jugando con sus eficiencias, recirculaciones, obteniendo todos los resultados requeridos, e incluso se realizó una gráfica representando los pasos por el sistema, esto ayudó a una mayor comprensión del módulo junto con la actualización de su respectivo manual. Terminando con los ciclos, se prosiguió a ir por el proyecto grande, que consistía en la automatización de ecuaciones de estado. El profesor nos proporcionó cinco programas anteriormente realizados por ´el para 5 diferentes ecuaciones de estado: Van der Waals, Redlich-Kwong, Peng Robinson, Lee-Kesler y Dieterichi, programas los cuales le pedían al usuario todos los datos necesarios de una sustancia, y nuestro trabajo era optimizar y automatizar la parte de ingreso manual de datos con el respectivo módulo. La primera limitación a la que se llegó fue que, para poder realizar todo el programa, son necesarias las temperaturas y presiones críticas de las sustancias a tratar, datos los cuales Pyromat solo posee ocho en su base de datos, las cuales son muy pocas para poder trabajar en un rango cómodo, por lo cual se optó por usar el módulo chemicals el cual cuenta con una base de datos amplia para datos críticos de sustancias. Una vez aplicado este ajuste, se automatizó cada uno de los programas solamente para sustancias puras. Ya terminado esta etapa, ahora realizamos lo mismo, pero para mezclas binarias y multicomponentes con las ecuaciones, posteriormente a todas estas ecuaciones, se les agregó el cálculo de datos utilizando valores pseudocríticos y cálculo de fugacidades. Al final, se realizó una revisión de los programas realizados mediante la comparación de problemas encontrados en referencias bibliográficas de distintos libros, una vez que se constataron que eran resultados parecidos y fiables, se determinó la conclusión del proyecto.


CONCLUSIONES

Durante este verano de investigación se adquirieron conocimientos sobre distintas herramientas que serán de gran ayuda en un futuro, conocimientos que han dejado claro que la programación con Python es una herramienta imprescindible en la ingeniería química moderna. La capacidad de implementar algoritmos, optimizar procesos y analizar grandes conjuntos de datos ha demostrado ser inestimable para mejorar la eficiencia, la seguridad y la sostenibilidad en la industria química.
Adauto Marciano Erik David, Instituto Tecnológico Superior de Pánuco
Asesor: Mtro. Manuel Antonio Arenas Méndez, Instituto Tecnológico Superior de Pánuco

SISTEMA IOT PARA MONITOREO DE SENSORES AMBIENTALES


SISTEMA IOT PARA MONITOREO DE SENSORES AMBIENTALES

Adauto Marciano Erik David, Instituto Tecnológico Superior de Pánuco. Gomez Perez Luis Edmundo, Instituto Tecnológico Superior de Pánuco. Asesor: Mtro. Manuel Antonio Arenas Méndez, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

El agua dulce, uno de los recursos más preciados de nuestro planeta, desempeña un papel fundamental para el sostenimiento de la vida en todas sus formas. Sin embargo, uno de los desafíos actuales radica en la invasión de la salinidad derivada del agua de mar en los ríos, lo cual repercute significativamente en la vegetación y fauna asociadas a estos ecosistemas, agravada por la escasez de lluvias, constituye un tema de gran relevancia en la actualidad (Gutiérrez, 2004). La incertidumbre sobre la calidad del agua en nuestras comunidades es una consecuencia directa de esta invasión de salinidad. El impacto negativo de utilizar agua con niveles elevados de salinidad afecta severamente diversas actividades, siendo la agricultura uno de los sectores más perjudicados. La presencia excesiva de sales en el agua de riego puede comprometer el crecimiento y rendimiento de los cultivos, poniendo en riesgo la seguridad alimentaria y el sustento económico de las comunidades agrícolas (SINC, 2016). Esta problemática nos a encaminado a que abordemos en este proyecto, se centra en la falta de un sistema eficiente y continuo para el monitoreo de la calidad del agua en el río de Pánuco Veracruz, México. La salinidad, turbidez y temperatura son indicadores cruciales de la salud ambiental de los cuerpos de agua y, en el caso de los ríos, pueden estar directamente relacionados con la conservación de la biodiversidad acuática y la sostenibilidad del ecosistema.



METODOLOGÍA

El sistema IoT consiste en monitorear algunas características importantes en el río Pánuco, como lo son la salinidad, turbidez y temperatura, para esto, se utilizó un diseño compacto de 3 sensores, con la finalidad de hacer una recolección de datos cada hora, el cual se ve reflejado en un servidor diseñado principalmente para sistemas IoT llamado ThingSpeak de esta manera tenemos una visualización en tiempo real de el estado del agua en el río. Para llegar a tener un sistema completamente optimo primero se realizó una investigación para la elección de sensores, los cuales son de bajo costo y con una buena precisión, la primordial para el lugar donde se van a desempeñar, la siguiente parte es escoger un microcontrolador capaz de realizar las funciones requeridas para esto optamos por usar una TTGO T-Call SIM800L, la cual nos permite conectarnos a internet por medio de una SIM card con plan de datos. De esta forma se almacenan los datos del monitero localmente en una unidad de memoria extraíble (SD) y al mismo tiempo se envían a la nube mediante la plataforma de ThingSpeak, el sistema cuenta con una pantalla oled de bajo consumo que nos permite observar los valores en tiempo real de los sensores. Otro punto muy importante el cual se tiene que abordar es la alimentación eléctrica para el consumo general del sistema, para ello se implementaron 2 celdas solares de 3.3 V. cada una conectadas en serie las cuales con un modulo de carga de baterías alimentan a la batería principal del sistema, de esta manera el sistema toma energía solar durante el día, en cuanto la luz del sol comienza a decaer, toma energía de la batería implantada. Otra alternativa que utilizamos fue el uso de la función "hibernar" para el sistema, que activa el bajo consumo de energía, solo cuando es necesario. Esto es crucial para ahorrar energía y asegurarnos de que el sistema no se quede inoperativo debido a la falta de la misma. Para la protección del sistema IoT se utilizó una caja de plástico con protección UV y resistente al agua (IP67) para asegurarnos de que no existan posibles fallos ocasionados por estos motivos. Finalmente, se llevaron a cabo pruebas del sistema IoT mediante su implementación en el río Pánuco, con el objetivo de verificar su eficacia y funcionamiento en condiciones reales.


CONCLUSIONES

Durante esta estancia de verano y el desarrollo e implementación del sistema IoT para el monitoreo del río Pánuco, hemos aprendido la importancia de la tecnología y su papel fundamental en la preservación de nuestros recursos naturales. La ardua investigación y selección de sensores, junto con la elección de un microcontrolador eficiente y la integración de energía solar, han sido aspectos fundamentales para garantizar un monitoreo estable y preciso de las características del agua en el rio. Esperamos que este sistema IoT brinde información precisa y actualizada sobre las condiciones del río Pánuco. REFERENCIAS: Gutiérrez, M., & Carreón-Hernández, E. (2004). Salinidad en el bajo Río Conchos:aportes y tendencias. Terra Latinoamericana, 22(4), 499-506. SINC. (26 de Febrero de 2016). Las actividades humanas aumentan la salinidad dela gua dulce. SINC Ciencia Contada en Español. Recuperado de: https://www.agenciasinc.es/Noticias/Las-actividades-humanas-aumentan-la-salinidad-del-agua-dulce#:~:text=Las%20actividades%20humanas%20como%20la,cient%C3%ADficos%20en%20la%20revista%20Science.
Agudelo Ortiz Estefanía, Instituto Tecnológico Metropolitano
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

UN ENFOQUE DE CIENCIA DE DATOS PARA COMPRENDER LAS MUERTES DEL SISTEMA NERVIOSO Y SU RELACIóN CON LOS FACTORES SOCIOECONóMICOS EN LA CIUDAD DE MéXICO


UN ENFOQUE DE CIENCIA DE DATOS PARA COMPRENDER LAS MUERTES DEL SISTEMA NERVIOSO Y SU RELACIóN CON LOS FACTORES SOCIOECONóMICOS EN LA CIUDAD DE MéXICO

Agudelo Ortiz Estefanía, Instituto Tecnológico Metropolitano. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El impacto de las enfermedades del sistema nervioso en la salud pública es una preocupación global. Estudios internacionales resaltan la importancia de analizar factores sociodemográficos para comprender su incidencia y distribución, lo cual es clave para formular políticas y estrategias de intervención. La ciencia de datos y el aprendizaje automático han revolucionado el abordaje de problemas de salud pública, y en esta pasantía de investigación nos enfocamos en analizar datos de defunciones por enfermedades del sistema nervioso en la Ciudad De México. Utilizando técnicas de aprendizaje no supervisado, como el algoritmo K-means, identificamos patrones complejos y relaciones entre variables que aportan valiosa información para mejorar la salud pública.



METODOLOGÍA

Tras una revisión exhaustiva de la literatura científica y los recursos disponibles sobre el uso de datos abiertos de salud en proyectos de análisis espacio-temporal, centrándome en las enfermedades relacionadas con el sistema nervioso, surgió una pregunta de investigación fundamental: ¿Existe alguna relación entre los factores socioeconómicos y la incidencia de enfermedades del sistema nervioso en los diferentes municipios de la Ciudad de México? Para abordar esta cuestión, me familiaricé con los conjuntos de datos abiertos proporcionados por la Secretaría de Salud (DGIS) y el Instituto Nacional de Estadística y Geografía (INEGI). Enfoqué mi atención en los datos de defunciones proporcionados por la Secretaría de Salud y el censo de la población de la Ciudad de México proporcionado por el INEGI. A través del análisis espacial, exploré la estructura, formato y contenido de estos datos con el objetivo de entender cómo se relacionan los factores socioeconómicos con la incidencia de enfermedades del sistema nervioso en diferentes áreas geográficas. Durante el proceso de preprocesamiento, realicé una limpieza exhaustiva para eliminar errores y duplicados, además de integrar diversas fuentes de datos y estandarizar formatos para facilitar el análisis posterior. Se utilizó una técnica de minería de datos denominada "Modelo de aprendizaje no supervisado". Donde se desarrolló un modelo no supervisado bajo el algoritmo de clustering para estimar la posible relación entre el estrato socioeconómico y las muertes por enfermedades del sistema nervioso. Este enfoque permitió agrupar los municipios en diferentes categorías según sus características socioeconómicas y analizar cómo se asociaban con las tasas de defunciones por enfermedades del sistema nervioso. Los resultados del clustering proporcionaron una comprensión inicial de patrones y tendencias que pueden estar relacionados con la incidencia de estas enfermedades en diferentes estratos socioeconómicos. Como resultado, se visualizan gráficas y dashboard para presentar de manera efectiva los hallazgos, permitiendo visualizar la relación entre los factores socioeconómicos y la incidencia de enfermedades del sistema nervioso en diferentes áreas de la Ciudad de México. Para concluir, se realizó refinamiento en las visualizaciones de los dashboard y en los resultados para poder garantizar cohesión y precisión, donde en una presentación se dieron a conocer los hallazgos claves del proyecto y se sintetizaron las contribuciones fundamentales del proyecto.   


CONCLUSIONES

En este proyecto, usé el algoritmo K-Means para realizar clustering en las bases de datos, de los cuales obtuve 11,143 muestras con el fin de identificar patrones y segmentar grupos. Analizando los resultados logré concluir lo siguiente: En el resultado 1. Técnica de reducción de dimensionalidad, se puede observar como cada cluster se super posiciona encima de otro, lo que podría indicar que el número de clusters seleccionado no es el más adecuado para representar la estructura subyacente de los datos. Es posible que aumentar o disminuir el número de clusters pueda conducir a resultados más claros. Adicionalmente no hay una distribución equilibrada en la gráfica lo que podría significar que en este proyecto hubo algún error de segmentación. La gráfica Silhouette Plot del K-means clustering fue una herramienta fundamental en este análisis. Al observar la línea del Average Silhouette Score, se evidenció que los clusters obtenidos no presentan una cohesión óptima, ya que el valor se encuentra cercano a 0.1. Esto sugiere que se deben realizar ajustes en el número de clusters y mejorar el preprocesamiento de los datos para obtener resultados más precisos. Una de las limitaciones fue el preprocesamiento de los datos. Si bien se aplicaron algunas técnicas de normalización y selección de características, es necesario explorar opciones adicionales para eliminar posibles fuentes de ruido o sesgo que puedan estar afectando los resultados. Aunque los resultados obtenidos en este estudio brindan una visión inicial de la estructura de los datos mediante clustering, reconozco que aún hay margen para mejorar la definición de los clusters. Es necesario profundizar en el análisis, realizar ajustes en el número de clusters y emplear técnicas de preprocesamiento más sofisticadas para lograr resultados más claros y significativos
Aguila Ortega Josué Daniel, Instituto Politécnico Nacional
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

DETECCIóN DE CATARATAS OCULARES POR MEDIO DE VISIóN POR COMPUTADORA


DETECCIóN DE CATARATAS OCULARES POR MEDIO DE VISIóN POR COMPUTADORA

Aguila Ortega Josué Daniel, Instituto Politécnico Nacional. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las cataratas oculares, conocidas simplemente como cataratas, son una afección ocular en la cual el cristalino del ojo se vuelve opaco o menos transparente. El cristalino es la lente natural del ojo que se encuentra justo detrás de la pupila y es responsable de enfocar la luz en la retina, permitiendo una visión clara y nítida. Con el tiempo, debido a factores como la edad, lesiones o condiciones médicas, las proteínas en el cristalino pueden agruparse y formar pequeñas opacidades que oscurecen la lente. Estas opacidades impiden que la luz pase de manera adecuada a través del cristalino y llegue a la retina, lo que resulta en una visión borrosa o nublada. Datos obtenidos del Instituto Nacional de Estadística y Geografía en el 2020 señalan que en México existen poco más de 2 millones de personas afectadas por algún problema ocular, entre estos, las cataratas se encuentran entre los 6 primeros lugares de estas afecciones. Las cataratas pueden afectar uno o ambos ojos y pueden desarrollarse de manera gradual o repentina. Los síntomas incluyen visión borrosa, visión doble, sensibilidad a la luz y dificultad para ver con poca luz. Si no se trata, las cataratas pueden empeorar y conducir a una pérdida significativa de la visión lo que provocaría una perdida parcial en la capacidad de interacción con el entorno de la persona afectada.



METODOLOGÍA

Se ocupó una base de datos obtenida de la página Kaggle, que contiene 300 imágenes de fondos oculares sanos y 100 imágenes de fondos oculares que son afectados por catarata, al momento de obtenerlas, se clasificaron en dos diferentes carpetas para separar las positivas a cataratas de las imágenes con ojos sanos. Despues de clasificarlas, se encontró con el dilema de como iba a detectar una catarata, asi que, se decidió que la mejor opción era utilizar técnicas de clustering, dentro de este podría separar las imágenes sanas de las imágenes con cataratas, para lograr separar estas imágenes dentro del cluster, se tomó una pequeña parte de la imagen, aquella que presentase mayor brillo, y se recortó de la imagen para obtenerla por separado. Seguido de eso se obtuvo un promedio de los canales de color de cada píxel RGB (Red, Green, Blue) para obtener un solo canal con estas tres características. Ahora ya con los canales promedio de cada una de las imágenes originales se podían separar y clasificar las imagenes por medio de estos tres canales; sobre todo se observaba una clara diferencia en el canal Green, entonces fue un indicativo de que si había una diferencia de coloratura entre estas dos clases de imágenes. Seguido de obtener estos datos lo que se realizó fue traducir estos datos para poder colocarlos dentro del cluster, al ser tres datos se realizó un entorno gráfico de tres dimensiones en donde en cada uno de los ejes X,Y,Z se colocaría uno de los tres canales de color respectivamente obteniendo una coordenada especifica por cada una de las imágenes. Teniendo estos dos grupos, al momento de ingresar una imagen nueva simplemente era necesario repetir el proceso anterior perro para esa imagen en concreto, una vez obtenidos sus canales de color se calculaba la distancia hacia los centros de las nubes de datos y se obtenía a que centro estaba más cerca, si al centro de las coordenadas de las imágenes sanas o aquellas que presentaban catarata, con ese dato podía inferir si se trataba de un ojo sano o de un ojo que presenta catarata, ademas con esta información tambien se puede obtener la gravedad de la catarata si es el caso.


CONCLUSIONES

Con este proyecto se logró obtener un sistema que permite reducir el tiempo, drásticamente, de detección de cataratas, ademas de que permitirá a la gente detectarlas a tiempo para poder tratarlas antes de que sufran de ceguera total o parcial. Ademas en esta estancia de investigación se logró obtener conocimientos de visión por computadora, inteligencia artificial, organización de datos, entre otras habilidades que pueden ser aplicados a casos reales como es el que se acaba de presentar.
Aguilar Arias Ubaldo, Universidad Autónoma de Sinaloa
Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla

AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR


AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR

Aguilar Arias Ubaldo, Universidad Autónoma de Sinaloa. Aguilar Chávez Mauricio, Instituto Tecnológico de La Piedad. Alvarado Moreno Juan Antonio, Universidad Autónoma de Sinaloa. Martínez Vázquez Enrique, Benemérita Universidad Autónoma de Puebla. Pérez Chávez Diana Lizette, Instituto Tecnológico de Colima. Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas de la sociedad actual es el cambio climático el cual es el principal causante de que las temperaturas se eleven año con año, así mismo el aumento de sequías, fuertes tormentas y más riesgos para la salud.  El principal problema que se detectó al momento de pensar en nuestra sociedad fue el no saber con exactitud las condiciones en las que se encuentra un lugar en específico, es de suma importancia conocer estos datos para prevenir posibles problemas de salud que se puedan presentar, tales como insolación, golpes de calor, o problemas de salud al estar en entornos húmedos. Para la realización de este proyecto se obtendrán los parámetros de temperatura, humedad y luminosidad y se utilizará una cámara para monitorear en tiempo de real el entorno, cabe destacar que cada uno de los parámetros se muestra en una interfaz.



METODOLOGÍA

Para el accionamiento de los motores, controlar su sentido de giro y velocidad se usan componentes electrónicos conocidos como puentes H. En base a una investigación hecha en libros y otras fuentes, es que se llegó a la conclusión de colocar un puente H para controlar 2 motores, esta decisión se genera debido a que si se conectan todos los motores a un solo puente H, este se dañara, ya que los motores pueden consumir hasta 5 A de corriente eléctrica. Además, la energía utilizada para alimentar los motores y todos los componentes electrónicos del prototipo se obtiene  a través de un panel solar y a su vez, almacena energía en una batería recargable de 12V. Cada motor puede funcionar con un voltaje máximo de 7 VDC, es por ello que se opta por usar reguladores de tensión y con ello obtener los 7 VDC. Por otra parte, se tiene la limitante de que los reguladores de tensión funcionan en un rango de 0-3 A, por lo cual se usará un regulador para alimentar cada puente H para que los motores tengan un rango de consumo de corriente de 0 a 1.5 A como máximo. Con este arreglo entre los reguladores y los puentes H se evita que los componentes electrónicos mencionados se dañen por el consumo excesivo de corriente.  En la programación, para la integración del sistema embebido, se analizan las diferentes opciones disponibles en el laboratorio, como el ESP32, el Arduino nano, un Raspberry pi, entre otros. El Raspberry Pi se utiliza como primeras pruebas para determinar sus limitaciones y diferencias comparado al ESP32. Durante el periodo de investigación y programación, el Raspberry pi se descarta, por lo tanto se sustituye por un ESP32 por sus capacidades de WiFi y la fácil manipulación de este, por lo que se da como tarea experimentar y comprobar los diferentes sensores que serán posteriormente utilizados para el sensado de variables del automóvil, de modo de este pueda tomar lecturas precisas y sin problemas.  El siguiente trabajo de programación es la determinación de qué software o aplicación será utilizada para el monitoreo y control a distancia del automóvil. A partir de es paso, la programación se realiza en diferentes interfaces, de las cuales se buscaba lo siguiente: Comunicación WiFi entre la interfaz y el automóvil. Permitir manipular tanto entradas, como salidas y una cámara web, con un número grande de variables accionadas vía inalámbrica. Lectura de los sensores y con una estética visualmente agradable para el usuario. Activación a distancia de los motores para lograr el movimiento adecuado. Visualización de la cámara implementada, logrando obtener imagen del entorno del automóvil. Interfaz visualmente cómoda, sencilla y que todos los integrantes del proyecto pudieran manejar sin instalación de softwares. En base a los requisitos se programa en Visual Studio para la creación de una interfaz en lenguaje C#, descartando algunas opciones como página web ip, MyAppInventor, y todas las páginas de nubes IoT por ser limitadas en cuanto lo que se puede hacer sin una suscripción.  Con las primeras pruebas de algunas interfaces, se empiezan las pruebas para la interacción entre el usuario y el automóvil, donde se realizan primeros ajustes tanto en la potencia como en la programación.  Una vez concluida la programación del software y el sistema embebido, la potencia y la estructura general el automóvil es sacado a diferentes entornos para hacer las pruebas. Finalmente se realiza el esquema eléctrico con todas las partes involucradas en el automóvil.


CONCLUSIONES

Con el prototipo desarrollado es posible realizar el reconocimiento y sensado de terrenos sin la necesidad de que el ser humano esté presente en ellos, para así observar el cambio de clima en lugares específicos. Para obtener dichos resultados se empezó con la observación de los componentes que se necesitan para obtener una idea central del proyecto; contando con que la base del proyecto, es que este pueda sensar en cualquier parte de las instalaciones de la BUAP y a su vez pueda ser cargado por un panel solar una vez que este no sea utilizado.  Una vez contada con la idea general para la realización del automóvil se llevaron a cabo diferentes investigaciones para poder obtener el resultado final y así poder comprobar que por medio de la ESP32 se puede realizar la conexión de la red interna que se encuentra en este con la red de la BUAP, otro de los objetivos es que se muestran los datos correspondientes de los sensores en la interfaz realizada y que por medio del panel se cargue la batería que cuenta el automóvil. En resumen podemos decir que los objetivos planteados se realizaron con éxito a excepción de la conexión de la ESP con la red de la BUAP debido a la inestabilidad de este y que la ESP32 no se vuelve a reconectar, sino que se tiene que volver a cargar por medio de la laptop, es por ello que con este trabajo se pueden ir realizando modificaciones, al iguala eu implementar más cosas en este, ya que es muy versátil.
Aguilar Chávez Mauricio, Instituto Tecnológico de La Piedad
Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla

AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR


AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR

Aguilar Arias Ubaldo, Universidad Autónoma de Sinaloa. Aguilar Chávez Mauricio, Instituto Tecnológico de La Piedad. Alvarado Moreno Juan Antonio, Universidad Autónoma de Sinaloa. Martínez Vázquez Enrique, Benemérita Universidad Autónoma de Puebla. Pérez Chávez Diana Lizette, Instituto Tecnológico de Colima. Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas de la sociedad actual es el cambio climático el cual es el principal causante de que las temperaturas se eleven año con año, así mismo el aumento de sequías, fuertes tormentas y más riesgos para la salud.  El principal problema que se detectó al momento de pensar en nuestra sociedad fue el no saber con exactitud las condiciones en las que se encuentra un lugar en específico, es de suma importancia conocer estos datos para prevenir posibles problemas de salud que se puedan presentar, tales como insolación, golpes de calor, o problemas de salud al estar en entornos húmedos. Para la realización de este proyecto se obtendrán los parámetros de temperatura, humedad y luminosidad y se utilizará una cámara para monitorear en tiempo de real el entorno, cabe destacar que cada uno de los parámetros se muestra en una interfaz.



METODOLOGÍA

Para el accionamiento de los motores, controlar su sentido de giro y velocidad se usan componentes electrónicos conocidos como puentes H. En base a una investigación hecha en libros y otras fuentes, es que se llegó a la conclusión de colocar un puente H para controlar 2 motores, esta decisión se genera debido a que si se conectan todos los motores a un solo puente H, este se dañara, ya que los motores pueden consumir hasta 5 A de corriente eléctrica. Además, la energía utilizada para alimentar los motores y todos los componentes electrónicos del prototipo se obtiene  a través de un panel solar y a su vez, almacena energía en una batería recargable de 12V. Cada motor puede funcionar con un voltaje máximo de 7 VDC, es por ello que se opta por usar reguladores de tensión y con ello obtener los 7 VDC. Por otra parte, se tiene la limitante de que los reguladores de tensión funcionan en un rango de 0-3 A, por lo cual se usará un regulador para alimentar cada puente H para que los motores tengan un rango de consumo de corriente de 0 a 1.5 A como máximo. Con este arreglo entre los reguladores y los puentes H se evita que los componentes electrónicos mencionados se dañen por el consumo excesivo de corriente.  En la programación, para la integración del sistema embebido, se analizan las diferentes opciones disponibles en el laboratorio, como el ESP32, el Arduino nano, un Raspberry pi, entre otros. El Raspberry Pi se utiliza como primeras pruebas para determinar sus limitaciones y diferencias comparado al ESP32. Durante el periodo de investigación y programación, el Raspberry pi se descarta, por lo tanto se sustituye por un ESP32 por sus capacidades de WiFi y la fácil manipulación de este, por lo que se da como tarea experimentar y comprobar los diferentes sensores que serán posteriormente utilizados para el sensado de variables del automóvil, de modo de este pueda tomar lecturas precisas y sin problemas.  El siguiente trabajo de programación es la determinación de qué software o aplicación será utilizada para el monitoreo y control a distancia del automóvil. A partir de es paso, la programación se realiza en diferentes interfaces, de las cuales se buscaba lo siguiente: Comunicación WiFi entre la interfaz y el automóvil. Permitir manipular tanto entradas, como salidas y una cámara web, con un número grande de variables accionadas vía inalámbrica. Lectura de los sensores y con una estética visualmente agradable para el usuario. Activación a distancia de los motores para lograr el movimiento adecuado. Visualización de la cámara implementada, logrando obtener imagen del entorno del automóvil. Interfaz visualmente cómoda, sencilla y que todos los integrantes del proyecto pudieran manejar sin instalación de softwares. En base a los requisitos se programa en Visual Studio para la creación de una interfaz en lenguaje C#, descartando algunas opciones como página web ip, MyAppInventor, y todas las páginas de nubes IoT por ser limitadas en cuanto lo que se puede hacer sin una suscripción.  Con las primeras pruebas de algunas interfaces, se empiezan las pruebas para la interacción entre el usuario y el automóvil, donde se realizan primeros ajustes tanto en la potencia como en la programación.  Una vez concluida la programación del software y el sistema embebido, la potencia y la estructura general el automóvil es sacado a diferentes entornos para hacer las pruebas. Finalmente se realiza el esquema eléctrico con todas las partes involucradas en el automóvil.


CONCLUSIONES

Con el prototipo desarrollado es posible realizar el reconocimiento y sensado de terrenos sin la necesidad de que el ser humano esté presente en ellos, para así observar el cambio de clima en lugares específicos. Para obtener dichos resultados se empezó con la observación de los componentes que se necesitan para obtener una idea central del proyecto; contando con que la base del proyecto, es que este pueda sensar en cualquier parte de las instalaciones de la BUAP y a su vez pueda ser cargado por un panel solar una vez que este no sea utilizado.  Una vez contada con la idea general para la realización del automóvil se llevaron a cabo diferentes investigaciones para poder obtener el resultado final y así poder comprobar que por medio de la ESP32 se puede realizar la conexión de la red interna que se encuentra en este con la red de la BUAP, otro de los objetivos es que se muestran los datos correspondientes de los sensores en la interfaz realizada y que por medio del panel se cargue la batería que cuenta el automóvil. En resumen podemos decir que los objetivos planteados se realizaron con éxito a excepción de la conexión de la ESP con la red de la BUAP debido a la inestabilidad de este y que la ESP32 no se vuelve a reconectar, sino que se tiene que volver a cargar por medio de la laptop, es por ello que con este trabajo se pueden ir realizando modificaciones, al iguala eu implementar más cosas en este, ya que es muy versátil.
Aguilar Contreras Luis Fernando, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mg. John William Grimaldo Guerrero, Universidad de la Costa

ANÁLISIS DEL COMPORTAMIENTO DEL CONSUMO DE ENERGÍA EN MÉXICO SEGÚN LA FUENTE DE GENERACIÓN


ANÁLISIS DEL COMPORTAMIENTO DEL CONSUMO DE ENERGÍA EN MÉXICO SEGÚN LA FUENTE DE GENERACIÓN

Aguilar Contreras Luis Fernando, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mg. John William Grimaldo Guerrero, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El estudio de la política energética y el desarrollo sostenible es esencial en un mundo donde enfrentamos desafíos urgentes. Por un lado, la escasez de recursos energéticos no renovables nos obliga a buscar fuentes alternativas y sostenibles para garantizar un suministro energético a largo plazo. Por otro lado, tenemos la lucha contra el cambio climático, impulsado en gran medida por la quema de combustibles fósiles; esto ha exigido adoptar políticas energéticas que promuevan la transición hacia fuentes limpias y renovables.  Este tipo de políticas no solo contribuye a la mitigación del calentamiento global, sino que también permite abordar paralelamente temas como la seguridad energética y la inseguridad económica. Al diversificar las fuentes de energía y la promoción de tecnologías más eficientes, podemos fortalecer la resiliencia de nuestras sociedades y proteger nuestra economía de la volatilidad de los precios energéticos y los conflictos geopolíticos.  México ha presentados dos reformas energéticas una en el 2013 y otra en el 2021; estudiar el impacto que tuvo la primera, y los nuevos retos que tendrá que afrontar la segunda es una pieza clave para la toma de decisiones, cuidar los recursos naturales y realizar una transición energética más sostenible y equitativa. La presente investigación presenta los resultados de una revisión de la política energética en México y un análisis del comportamiento futuro de la capacidad instalada para la generación de energía eléctrica y de la demanda de energía en México; estos resultados permiten construir una línea base del comportamiento actual de la política energética mexicana y analizar el estado de la seguridad energética. 



METODOLOGÍA

Esta investigación utilizó una metodología de tres fases. Inicia con la presentación de las reformas energéticas que se han implementado en México y que se han usado para favorecer la transición energética. En la segunda fase se realiza un análisis del comportamiento histórico del consumo de energía en México. Finalmente, se realiza un análisis de comportamiento futuro de la demanda energética y del crecimiento del parque generador. 


CONCLUSIONES

las políticas energéticas implementadas en México para fomentar la transición hacia fuentes más limpias y sostenibles, reducir la dependencia de los combustibles fósiles y mitigar los efectos del cambio climático. Se destaca el aumento en la generación de energía mediante el gas natural y las energías renovables, como plantas solares y eólicas. Sin embargo, se reconoce que aún queda trabajo por hacer para lograr una transición energética completa. Se menciona la importancia del papel de la política energética en esta evolución, con reformas destinadas a aumentar la eficiencia, promover las energías limpias y garantizar la seguridad energética. A pesar de los avances, también se mencionan desafíos y controversias en torno a las decisiones políticas, lo que requiere ajustes y adaptaciones para alcanzar los objetivos establecidos. Se hace referencia a la reforma energética implementada en 2013, que buscó aumentar la inversión privada y diversificar la matriz energética con más energías renovables. También se menciona la promoción de actividades para mejorar la eficiencia energética y reducir las emisiones de gases de efecto invernadero en los sectores industrial, transporte y residencial. Se resalta el crecimiento del sector residencial, la industria manufacturera y el parque vehicular, lo que ha llevado a un aumento en las necesidades energéticas del país y la importancia de fortalecer las empresas estatales para garantizar la seguridad energética. El texto muestra que México ha experimentado un cambio de paradigma en sus fuentes de generación de energía en los últimos años, incluyendo el aumento del uso de gas natural y el impulso de energías renovables. Sin embargo, se señala la alta dependencia de la industria petrolera para satisfacer la demanda de gas y petróleo, lo que plantea inquietudes sobre la baja participación de las energías renovables en la matriz energética. Además, se mencionan leyes como la Ley para el Aprovechamiento Sustentable de la Energía (LASE) y la Ley para el Aprovechamiento de Energías Renovables y el Financiamiento de la Transición Energética (LAERFTE), que han sido implementadas para promover la eficiencia energética y el uso de energías limpias. En general, el texto destaca los esfuerzos realizados por el gobierno mexicano para mejorar las condiciones de prestación de servicios energéticos y avanzar hacia una matriz energética más sostenible, pero también señala los desafíos pendientes para lograr una transición energética completa y reducir la dependencia de los combustibles fósiles.
Aguilar Correa José Gustavo, Instituto Tecnológico de Tepic
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

MACHINE LEARNING ORIENTADO A LA SALUD MENTAL: MODELO CLASIFICATORIO ENTRENADO CON DATOS DE LA DGIS E INEGI (2019-2021)


MACHINE LEARNING ORIENTADO A LA SALUD MENTAL: MODELO CLASIFICATORIO ENTRENADO CON DATOS DE LA DGIS E INEGI (2019-2021)

Aguilar Correa José Gustavo, Instituto Tecnológico de Tepic. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El campo de Machine Learning ha experimentado un crecimiento exponencial en las últimas décadas, y su aplicación en el ámbito de la salud ha sido objeto de un interés creciente a nivel internacional.  Diversos estudios han explorado aplicaciones de ML en la detección y diagnóstico de trastornos mentales, la salud pública, el tratamiento y apoyo, y la administración clínica e investigación. Estas investigaciones han demostrado el potencial del ML para mejorar la detección temprana de trastornos mentales, proporcionar intervenciones más personalizadas y mejorar la comprensión de los factores que influyen en la salud mental de la población. En el presente informe, tiene como objetivo enfocarse en la aplicación del Machine Learning en el ámbito de la salud mental. Esta área de investigación ha sido objeto de especial atención debido a su impacto significativo en la calidad de vida de las personas y en la sociedad en general. La detección y el diagnóstico preciso de trastornos mentales, así como el diseño de estrategias de prevención y tratamiento efectivas, son aspectos cruciales para abordar los desafíos que plantea la salud mental en la actualidad.



METODOLOGÍA

La metodología utilizada en este proyecto involucra los siguientes pasos: Revisión exhaustiva de la literatura científica y recursos disponibles sobre datos de defunciones por trastornos mentales (DGIS)  y datos del censo poblacional (INEGI). Preprocesamiento de los datos de salud y calidad del aire, incluyendo fusión de los datos abiertos, creación de reportes. Análisis descriptivo para identificar patrones espaciales y temporales relevantes. Aplicación de transformaciones para las características numéricas (Standard Scaler) y categóricas (One Hot Encoder). Uso de técnicas de reducción de dimensionalidad (PCA y Truncated SVD), así como reducción de clases para mejorar la exactitud de la predicción del modelo. Sobremuestreo para balancear la distribución de clases y creación de particiones para entrenamiento y para validación. Usar la partición de entrenamiento para comparar algoritmos y aplicar el que mejor resultados genere. Aplicación de técnicas de minería de datos y aprendizaje automático para descubrir patrones y tendencias ocultas. Desarrollo de modelos predictivos para evaluación con respecto a los datos de la partición de validación.  


CONCLUSIONES

A lo largo de este desarrollo, se trabajó en diversos aspectos del modelado de datos y aprendizaje automático. Lo más resaltable es que se logró enfrentar y resolver varios desafíos comunes en esta área, como el desequilibrio de clases mediante técnicas de oversampling, la comparación y selección de modelos a través de la validación cruzada, etc. A lo largo del viaje, se presentaron errores y desafíos técnicos, pero con persistencia, se logró obtener un modelo con un rendimiento del 82% de exactitud en sus predicciones, lo cual es una métrica relevante para evaluar su desempeño. Respecto a lo que se puede mejorar, analizando los resultados finales de las gráficas, se observó que se pudo  haber hecho una mejor clasificación de datos categóricos  y numéricos, así como un mejor manejo de clases para ingresar mejores datos sintéticos, aunque dados los resultados de las pruebas, se puede afirmar que en general, se obtuvieron resultados satisfactorios. Un modelo predictivo que empareja datos de defunciones por trastornos mentales y de comportamiento con datos sociodemográficos del censo de INEGI puede tener varias aplicaciones y utilidades: Identificación de factores de riesgo (El modelo puede ayudar a identificar los factores sociodemográficos que están asociados con un mayor riesgo de defunciones por trastornos mentales y de comportamiento), planificación de servicios de salud mental, evaluación de las políticas de salud, entre otras. Pero la que considero más relevante dadas las carencias que presenta el modelo (conjuntos de datos poco abarcadores y uso de librerías más didácticas que útiles en un ámbito profesional), la principal utilidad sería que puede servir como base para investigaciones adicionales sobre la relación entre factores sociodemográficos y defunciones por trastornos mentales y de comportamiento. Basándonos en los resultados obtenidos y considerando que el modelo ya presenta un rendimiento aceptable, algunos cambios que podrían mejorar aún más el modelo podrían ser: Mejora de la calidad de los datos: Revisar y mejorar la calidad de los datos, identificando y corrigiendo posibles errores, valores atípicos o datos faltantes. Esto puede ayudar a que el modelo se entrene con datos más precisos y confiables. Incorporación de más datos: Si es posible, buscar y agregar más datos a los conjuntos de entrenamiento y prueba para aumentar la representatividad de las clases minoritarias y mejorar la generalización del modelo. Exploración de otras técnicas de modelado: Probar otras técnicas de modelado, como RandomForest, SVM u otros algoritmos de clasificación, para evaluar si alguno de ellos ofrece un rendimiento aún mejor. Optimización del preprocesamiento: Refinar el preprocesamiento de datos, incluyendo técnicas de normalización, estandarización o codificación de variables categóricas, para mejorar la calidad y la representación de los datos de entrada al modelo. Optimización del preprocesamiento: Refinar el preprocesamiento de datos, incluyendo técnicas de normalización, estandarización o codificación de variables categóricas, para mejorar la calidad y la representación de los datos de entrada al modelo.
Aguilar Cruz Emmanuel, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Edwin Nadir Castrillo Osorio, Universidad Nacional Autónoma de Nicaragua, Managua

SISMOALERT: DESARROLLO DE UN PROTOTIPO PARA ESTIMACIóN DE MACROSISMICIDAD. APORTANDO A LA MICROZONIFICACIÓN SÍSMICA DE MANAGUA.


SISMOALERT: DESARROLLO DE UN PROTOTIPO PARA ESTIMACIóN DE MACROSISMICIDAD. APORTANDO A LA MICROZONIFICACIÓN SÍSMICA DE MANAGUA.

Aguilar Cruz Emmanuel, Instituto Tecnológico Superior de Huauchinango. Garcia Cruz Edgardo, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Edwin Nadir Castrillo Osorio, Universidad Nacional Autónoma de Nicaragua, Managua



PLANTEAMIENTO DEL PROBLEMA

Los sismos representan uno de los desastres naturales más devastadores y potencialmente mortales en muchas partes del mundo; la detección temprana y el monitoreo en tiempo real de las vibraciones sísmicas son fundamentales para tomar medidas preventivas y reducir los daños causados ​​por estos eventos, sin embargo, la mayoría de los dispositivos de detección y monitoreo disponibles en el mercado son costosos, lo que limita su accesibilidad y distribución en áreas propensas a sismo con recursos financieros limitados. El objetivo de esta investigación es contribuir a los avances del proyecto de microzonificación sísmica de Nicaragua apoyando con mediciones de vibración ambiental para posteriormente dar inicio con el desarrollo de un prototipo de dispositivo capaz de detectar, registrar y enviar datos de vibraciones sísmicas con buena resolución y estudio de precisión, a la vez que se busca reducir significativamente los costos de producción, logrando su implementación en zonas de alto riesgo sísmico.



METODOLOGÍA

Se trabajó con el acelerógrafo McSeis MT Neo y tres sismómetros de alta precisión para la adquisición de datos H/V, la cual fue de gran importancia en el avance para el desarrollo del dispositivo, ya que partiendo de este equipo de trabajo se tomaron las características y las necesidades que debía cumplir el diseño del prototipo, por otro lado, se determinó el uso del acelerómetro LIS3DH siendo este el sensor base para el desarrollo del dispositivo sensorial en 3D. Se procedió a la adquisición de datos sísmicos en 30 coordenadas específicas dentro de la ciudad de Managua donde se utilizó el acelerógrafo y los sismómetros en contacto directo con el suelo, siguiendo orientaciones especificadas para el sensor 1 (norte-sur), para el sensor 2 (este-oeste) y para el sensor 3 (sin dirección específica); los datos obtenidos se almacenaron en una unidad de memoria para su posterior análisis. Se llevó a cabo el procesamiento de los datos registrados para obtener la relación espectral entre las aceleraciones en las direcciones horizontal y vertical, en función de la frecuencia, se realizaron análisis comparativos para identificar las zonas de amplificación de ondas sísmicas dentro de la ciudad de Managua, enfocándonos en los resultados se comenzó con la elaboración del dispositivo de la siguiente manera: El desarrollo del dispositivo sensorial se inició mediante el uso de un software especializado en modelado 3D, donde se llevó a cabo el diseño del prototipo; se seleccionó el acelerómetro LIS3DH como el sensor base para capturar las vibraciones sísmicas, este sensor, ampliamente utilizado en el área de ingeniería sísmica, promete proporcionar mediciones confiables y de buena calidad, durante la fase de implementación, se trabajó en la programación del microcontrolador ESP32, el cual se encargará de adquirir y procesar las señales del acelerómetro, asegurando una interacción sin problemas entre ambos componentes, el diseño 3D y la elección del sensor base se llevaron a cabo con un enfoque en la optimización de costos. Para llevar a cabo la implementación del dispositivo sensorial, se procedió con la configuración meticulosa del entorno de desarrollo, en primer lugar, se configuró el software de programación y depuración específico para el microcontrolador ESP32 dentro del entorno de programación de Arduino IDE, garantizando una plataforma de desarrollo amigable y de fácil manejo, además, se realizaron las instalaciones necesarias de controladores y bibliotecas requeridas para establecer una interacción efectiva con el hardware del microcontrolador: al optimizar el entorno de desarrollo de esta manera, se busca facilitar el proceso de programación y depuración, lo que a su vez contribuye a alcanzar los objetivos de eficacia y asequibilidad del dispositivo sensorial para la detección y registro de vibraciones sísmicas en tiempo real. Para la implementación del dispositivo sensorial, se procedió con la programación inicial, dando como resultado el primer código de un programa que permite adquirir datos del sensor LIS3DH mediante el microcontrolador ESP32, el objetivo principal de este código es habilitar la capacidad del dispositivo para capturar y procesar las señales provenientes del acelerómetro de manera efectiva, durante esta etapa, se establecieron las instrucciones y comandos necesarios para que el microcontrolador interactuara con el sensor LIS3DH, garantizando una correcta lectura de las señales. La programación se enfocó en asegurar la confiabilidad de la adquisición de datos, permitiendo obtener información relevante y precisa sobre las vibraciones sísmicas registradas por el dispositivo, este paso inicial es fundamental para el desarrollo continuo del prototipo y se considera un paso importante en la búsqueda del dispositivo, contribuyendo así a la identificación temprana de zonas de alto riesgo sísmico y a la prevención de desastres naturales.


CONCLUSIONES

Participar en un proyecto innovador y relevante para la sociedad, como lo es el desarrollo de este dispositivo, nos ha brindado la satisfacción de contribuir con nuestros conocimientos en un campo de gran importancia para la seguridad y bienestar de la comunidad nicaragüense, sin embargo, al ser un proyecto con gran responsabilidad y al verse involucradas diferentes variables a considerar, se ha visto la manera de continuar con el proyecto para poder llevar a cabo la elaboración de dicho dispositivo. Cabe destacar el valioso apoyo y orientación recibidos durante toda la estancia, tanto del investigador Nadir Castrillo Osorio como de los demás miembros del equipo, su respaldo y retroalimentación fueron fundamentales para mejorar el desempeño y enriquecer la comprensión del tema del proyecto, esta colaboración nos ha permitido adquirir nuevas habilidades y competencias, reforzando nuestra formación académica y ampliando nuestra perspectiva profesional.
Aguilar Galicia Ariadna Zaide, Universidad Politécnica de Texcoco
Asesor: Dra. Ma. del Rocio Maciel Arellano, Universidad de Guadalajara

MOVILIDAD NO MOTORIZADA


MOVILIDAD NO MOTORIZADA

Aguilar Galicia Ariadna Zaide, Universidad Politécnica de Texcoco. Asesor: Dra. Ma. del Rocio Maciel Arellano, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Predecir la severidad de un accidente ciclista en una vía del estado de Guadalajara.



METODOLOGÍA

La movilidad activa comprende todos los viajes basados en la actividad física humana, es decir, aquellos traslados que se realizan caminando, en silla de ruedas, usando la bicicleta, patines, patinetas, etc. que pueden servir tanto para mover personas como mercancías. Estos viajes juegan un papel fundamental en la salud y habitabilidad de la ciudad, debido a que no emiten contaminantes o ruido, son virtualmente gratuitos y conectan a las personas con su contexto inmediato, ayudándoles a crear comunidades más fuertes. En el contexto de la pandemia, estas características se vuelven de suma importancia para garantizar el bienestar de la población. Tanto la movilidad ciclista como peatonal se han convertido una recomendación directa de la OMS para mejorar la actividad física de las personas en su vida diaria y llevar un estilo de vida más sano 26, así como para prevenir la propagación de la enfermedad COVID-19. Sin embargo, la posibilidad de moverse de manera activa a través del AMG se ve obstaculizada por el entorno físico actual de sus calles, la falta de infraestructura que garantice su seguridad y las largas distancias que separan a las personas de sus destinos.


CONCLUSIONES

Para hacer frente a la magnitud y los impactos del cambio climático, se requieren emprender acciones de mitigación, las cuales tienen como objetivo reducir las emisiones de GEI y aumentar su captura y almacenamiento; y acciones de adaptación, para enfrentar los efectos potenciales del cambio climático y disminuir los daños que ocasionan. Por su parte, las acciones incluidas en la Estrategia 2, Implementar un sistema metropolitano de transporte integrado, eficiente y de calidad, mediante el incremento de infraestructura para la movilidad masiva y no motorizada, se orientan en fortalecer un modelo integral de movilidad inclusiva que garantice el desplazamiento de personas con calidad, seguridad y eficiencia, así como afianzar una movilidad privada baja en emisiones.
Aguilar Marin Daniel, Universidad Tecnológica de Huejotzingo
Asesor: Mtra. Maria Gabriela Pérez Ramos, Universidad Tecnológica de Huejotzingo

PROCESO DE INGENIERÍA INVERSA PARA EL MOTOR DIDACTICO MINDBLOWN: IMPRESIÓN 3D


PROCESO DE INGENIERÍA INVERSA PARA EL MOTOR DIDACTICO MINDBLOWN: IMPRESIÓN 3D

Aguilar Marin Daniel, Universidad Tecnológica de Huejotzingo. Beristain Rueda Gonzalo, Universidad Tecnológica de Huejotzingo. Martinez Piña Demetrio Francisco, Universidad Tecnológica de Huejotzingo. Asesor: Mtra. Maria Gabriela Pérez Ramos, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

El trabajo a describe el proceso de ingeniería inversa para el diseño y desarrollo de motor didáctico Mindblown. Cabe destacar que es un proyecto que se presenta en tres etapas: Escaneo, digitalización e impresión. De tal manera que el alcance puede estar limitado a presentar solo una de ellas. Se presentan los objetivos del trabajo de investigación, en el marco teórico un acercamiento a la importancia del proceso de ingeniería inversa, la metodología que se plantea del proceso de impresión del prototipo didáctico Mindblown. Planteamiento del problema La Universidad Tecnológica de Huejotzingo (UTH), se encuentra en una zona industrial, que demanda estudiantes con las competencias de Innovación y mejora de procesos, por lo que en la carrera de Procesos Industriales estudiantes se desarrollan competencias para satisfacer las necesidades de la Industria Automotriz. Entre ellas optimizar los tiempos de desarrollo de productos, por lo que el diseño y desarrollo de prototipos rápidos a través del proceso de ingeniería inversa permite reducir costos de investigación. De tal manera que es necesario que los prototipos cumplan con especificaciones de calidad, de allí la importancia de sistematizar el proceso desde el escaneo, digitalización e impresión en 3D. La pregunta de investigación es:¿Qué factores aseguran el proceso de impresión?   Objetivo general Describir el proceso de impresión en 3D, de partes de motor didáctico MindBlown. Objetivos específicos Proceso para imprimir piezas de motor en 3D: Configuración del archivo de Impresión en 3D Calibrar impresora e imprimir   Alcances El alcance del trabajo describe únicamente el proceso de impresión en 3D  



METODOLOGÍA

Marco teórico La ingeniería inversa es un modo eficaz de crear diseños digitales a partir de una pieza física y puede ser una valiosa herramienta de creación de prototipos, junto con tecnologías como el escaneo 3D y la impresión 3D. Los escáneres miden objetos complejos con mucha rapidez, y pueden acelerar tu proceso de trabajo de diseño de forma considerable cuando hay referencias reales involucradas. Con la capacidad de capturar y modificar formas físicas, puedes diseñas piezas impresas en 3D que encajen perfectamente en productos de todo tipo. Para crear un modelo 3D del objeto, el objeto debe medirse utilizando tecnologías de escaneo 3D (CMM, escáneres láser, digitalizadores de luz estructurada). Una vez realizada la operación de escaneado, es posible reconstruir el modelo 3D utilizando 3D CAD, CAM, CAE u otro software. (Guañuna Zamora Stefano Danilo Guañuna Zamora Stefano Danilo, 2022) De acuerdo con la página de Formlabs describe el proceso de ingeniería inversa en 7 pasos Preparar el objeto para el escaneo Realiza el escaneo 3D del objeto Refina la malla Importa la malla en el software CAD Extrae las superficies importantes Integra los nuevos objetos Imprime en 3D el nuevo diseño (Formlabs, 2023)   Metodología del proceso de impresión de piezas de motor en 3D A continuación, se describe el proceso general para la impresión de las piezas del motor 3D Configuración del archivo de Impresión en 3D Abrir Software Ultimaker Cura Seleccionar archivo que anteriormente digitalizado y rediseñado Simular vista previa a impresión Configurar la pieza a imprimir (relleno, velocidad de impresión, base, temperatura de boquilla y base, porcentaje de relleno Guardar en archivo .gcode Copiar archivo a memoria SD Introducir SD a impresora SeeMeCNC   Calibrar Impresora e imprimir objeto Precalentar impresora con temperatura seleccionada en el software Seleccionar pieza copiada en dispositivo SD Imprimir objeto


CONCLUSIONES

La ingeniería inversa es un método de solución y de aprendizaje, ya que debe estudiar y analizar un objeto para entender cada uno de los componentes que lo conforman, de tal manera que se den soluciones a posibles fallas, se pueda mejorar o empezar de cero. Tal es el caso del motor MINDBLOWN, del cual al inicio se tenía el alcance re realizar completo el modelo, sin embrago a lo largo del proceso se identificaron factores a considerar en cada una de las etapas, por lo que se decidió solo hacer el proceso de: Bloque de 4 cilindros, pistones con bielas, árbol de elevas y Carter Durante el proceso de impresión de las piezas del motor MINDBLOWN se identificaron factores a controlar en cada una de las etapas, en la impresión es necesario calibrar siempre la maquina para que se impriman las piezas de forma correcta, también verificar siempre que el archivo este en formato (.gcode) En la impresión se obtuvieron las piezas con una alta resistencia a esfuerzos, pero las piezas tienen un poco de variación en las dimensioes de las piezas, pero no afectan el funcionamiento Finalmente se realizaron las pruebas de ensamble con las piezas originales, identificando algunos factores a controlar, como lo son las dimensiones y la configuración del archivo para imprimir, el tipo de filamento y pigmentación.
Aguilar Mendoza Yessica del Rosario, Universidad de Guadalajara
Asesor: Mtra. Yara Segura de Jesús, Instituto Tecnológico de Toluca

DISEñO DE CARRITO PARA IDENTIFICACIóN DE PLAGA EN CULTIVO DE FRIJOL EN LA AGRICULTURA MEXICANA DE LA REGIóN NORTE.


DISEñO DE CARRITO PARA IDENTIFICACIóN DE PLAGA EN CULTIVO DE FRIJOL EN LA AGRICULTURA MEXICANA DE LA REGIóN NORTE.

Aguilar Mendoza Yessica del Rosario, Universidad de Guadalajara. Asesor: Mtra. Yara Segura de Jesús, Instituto Tecnológico de Toluca



PLANTEAMIENTO DEL PROBLEMA

El frijol (Phaseolus vulgaris) es uno de los cultivos más importantes en el norte de México, desempeñando un papel crucial en la seguridad alimentaria y económica de la región. Sin embargo, su producción enfrenta numerosos desafíos, entre ellos, la presencia de plagas que afectan negativamente la productividad y calidad del cultivo. El norte de México se caracteriza por su clima semiárido y suelos susceptibles a la erosión, lo que crea un ambiente propicio para el desarrollo y propagación de diversas plagas que afectan al frijol. Además, la intensificación agrícola y el uso frecuente de prácticas monoculturales han contribuido al aumento de la presencia de plagas y a la disminución de la biodiversidad en los campos de cultivo. Y el combatir este tipo de problema puede llegar a ser muy costoso y poco efectivo, pues no se tiene conocimiento con certeza de cuales plagas en especifico son las que están atacando, ocasionando que los insecticidas comúnmente usados terminen dañando los cultivos y generando más contaminación en la combustión del tractor en vano al no servir de nada la distribución del insecticida. El escarabajo del frijol es la plaga con la que se centrara en un inicio el prototipo, pues esta es de las más agresivas en la región de Pinos un municipio del estado de Zacatecas, pues este insecto causa daños en el cultivo en sus estados de larva y adulto. Comen la lámina inferior de las hojas y dejan casi intacta la capa superior, dándole un aspecto esquelético. Cuando hay altas poblaciones, estos insectos atacan las vainas y los tallos, llegando a causar la muerte de las plantas



METODOLOGÍA

En el norte de México el cultivo del frijol se ve gravemente afectado por los diferentes tipos de plagas que habitan en la región, en base a esto se planteó la investigación de estos organismos para poder realizar el diseño de un prototipo que pueda detectar estas y en consecuente deshacerse de ellas por medio pulverización ecofriendly. Primeramente, se realizará un enfoque en la plaga el escarabajo de frijol, por la cual el frijol se ve mayormente afectado en la región norte del municipio de Pinos, Zacatecas. Pues esta pone sus huevecillos en el follaje de la planta del frijol, el follaje son las hojas amplias, grandes y puntiagudas que tienen la tarea de recoger los nutrientes del sol, posteriormente al salir la vaina le dan sombra para que al desarrollarse no se dañen. Si bien las hojas son las primeras en salir y evidentemente las primeras que comienzan a agredir estos organismos. El diseño del prototipo realizado en el software SolidWorks estará establecido por una caja de control, la cual contendrá la caja de circuitos y un depósito que contendrá un repelente ecológico para poder evitar que las plagas lleguen a la planta. Pues este estará compuesto por agua y el hueso molido del aguacate pues este ultimo contiene una cantidad elevada de taninos, siendo sustancias naturales que contienen componentes tóxicos, con un sabor amargo y desagradable para muchos insectos. Para poder reconocer que organismo es el que se encuentra en el cultivo será mediante una cámara pequeña al frente para poder visualizar las plantas y lo que se encuentre en ellas, esta contará con base de datos de la plaga para poder identificarla, su programación será en lenguaje C++ en el software Python. El funcionamiento del prototipo se busca ser de forma autónoma, donde este trabajara de forma que al colocarlo en el surco del cultivo de frijol avanzara analizando el follaje y revisando si se encuentra algún escarabajo en él, huevecillos o larvas. Al detectar alguno el prototipo se detendrá para poder asegurarse de que los aspersores rocíen bien la planta. El tiempo mas accesible para poder realizar el procedimiento de análisis esperando obtener mejor certeza seria llevando a cabo el primero en la etapa de germinación a floración (de 27 a 45 días) y un segundo en la etapa de floración a aparición de la vaina (37 a 38 días).     


CONCLUSIONES

En el transcurso de la estancia se logró adquirir conocimientos del como realizar investigaciones de fuentes infalibles, además de cómo obtener la información necesaria. Cabe mencionar que se adquirieron conocimientos en el software SolidWorks donde se desempeñó el diseño el proyecto realizandolo desde cero, cada una de sus partes. Además de haber conocido diversos funcionamientos y elementos de metal mecánica.  Debido al periodo del Programa Delfín se logró trabajar parte de lo paneado, posteriormente se continuará trabajando en el proyecto para lograr obtener los parámetros y demás información necesaria para que de tal manera sea posible implementar la identificación de la plaga.
Aguilar Pacheco Rogelio Alberto, Universidad de Guadalajara
Asesor: Mg. Natalia Johanna Viloria Perez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

ELABORACIóN DE UN PRODUCTO COSMéTICO A BASE DE ACEITE DEL FRUTO COROZO DE UN TIPO DE PALMA ACEITERA AFRICANA (ELAEIS GUINEENSIS)


ELABORACIóN DE UN PRODUCTO COSMéTICO A BASE DE ACEITE DEL FRUTO COROZO DE UN TIPO DE PALMA ACEITERA AFRICANA (ELAEIS GUINEENSIS)

Aguilar Pacheco Rogelio Alberto, Universidad de Guadalajara. Asesor: Mg. Natalia Johanna Viloria Perez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

El cuidado del cabello ha sido una parte esencial de la rutina de belleza y bienestar humano a lo largo de la historia. Diferentes culturas han desarrollado prácticas y técnicas únicas para mantener y embellecer sus cabelleras, transmitiendo estos conocimientos de generación en generación. Un ejemplo paradigmático de esta rica tradición capilar se encuentra arraigado en la comunidad de San Basilio de Palenque, donde la manteca negrita ha sido el secreto ancestral para el cuidado y embellecimiento del cabello durante varios siglos. El objetivo de este estudio es abordar una problemática relevante en el ámbito de "Industria, innovación e infraestructura". En la comunidad de San Basilio de Palenque, se utiliza la manteca negrita cruda para moldear el cabello, sin someterla a ningún tratamiento ni estudio previo. Con esta investigación, buscamos mejorar la utilización de la manteca negrita, dándole una presentación más atractiva y eliminando el olor característico de grasa que puede quedar en el cabello al usarla en su forma cruda.



METODOLOGÍA

Se llevaron a cabo pruebas de caracterización en la manteca cruda, incluyendo el índice de saponificación y la acidez, con el objetivo de estudiar el comportamiento de la grasa. Utilizando los resultados obtenidos en la caracterización, se llevó a cabo una cuidadosa selección de los ingredientes base para el acondicionador, así como una precisa determinación de las proporciones y concentraciones adecuadas de dichos ingredientes. Una vez que se obtuvo la formulación deseada, se procedió a la elaboración del acondicionador sólido. Para ello, se pesaron las materias primas y se mezclaron en un recipiente. Luego, se sometieron a calentamiento mediante baño maría, mientras se agitaban constantemente para lograr una solución homogénea. Finalmente, la mezcla del acondicionador se vertió en moldes y se dejó reposar hasta que se solidificó por completo.


CONCLUSIONES

A través de este estudio se logró desarrollar un acondicionador capilar innovador, basado en el aceite del fruto corozo de un tipo de palma aceitera africana (Elaeis guineensis), se obtuvo una formulación efectiva que permite la integración de todos los componentes en el acondicionador. La investigación resalta el potencial de este acondicionador como una opción natural y efectiva para mejorar la salud y apariencia capilar, abriendo la posibilidad de futuras aplicaciones en la industria cosmética.
Aguilar Palomares Maria de Jesús, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES DE INFORMáTICA DE AGUA POTABLE EN CAPASU.”


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES DE INFORMáTICA DE AGUA POTABLE EN CAPASU.”

Aguilar Palomares Maria de Jesús, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En la investigación se presentaron diferentes barreras en la organización de CAPASU respecto a la productividad de los trabajadores con los recursos que se tenia por lo que se intentó aplicar la mejora continua para que la organización sea más eficiente con el lean service.



METODOLOGÍA

La metodología utilizada fue el lean service donde se planeó, verificó, analizó y mejoró los procesos para que la organización mejore en sus distintas áreas con los recursos que ya se tenia para hacerla más productiva.


CONCLUSIONES

Se hizo la realización de diagramas de flujo, formatos para que él área tenga más control y organización. Al igual que se propuestas para la implementación de nuevos desarrollos.
Aguilar Reyes Brayan Jazheel, Instituto Tecnológico de Morelia
Asesor: Mg. Carlos Alejandro Ramirez Gómez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

DESARROLLO DE UN SISTEMA DE SUPERVISIÓN - CONTROL PARA GENERACIÓN DE ENERGÍA, A TRAVÉS DE INTERNET OF THINGS - IOT


DESARROLLO DE UN SISTEMA DE SUPERVISIÓN - CONTROL PARA GENERACIÓN DE ENERGÍA, A TRAVÉS DE INTERNET OF THINGS - IOT

Aguilar Reyes Brayan Jazheel, Instituto Tecnológico de Morelia. Sanjuan Camarena Julio César, Universidad Tecnológica de Nayarit. Velázquez Villasana Francisco Alejandro, Instituto Tecnológico de Morelia. Asesor: Mg. Carlos Alejandro Ramirez Gómez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los sistemas de autogeneración de energía a partir de fuentes renovables, como la energía solar fotovoltaica y eólica, están diseñados para funcionar sin la supervisión permanente de un profesional. Sin embargo, estos sistemas todavía requieren de inspecciones regulares para garantizar su correcto funcionamiento, ya que están expuestos a la intemperie y pueden sufrir fallas y problemas que afecten su rendimiento y vida útil.



METODOLOGÍA

Se diseñó un módulo para los sensores y se utilizó el software Proteus, programa en el cual se simuló el funcionamiento de estos para lograr un diseño eficiente.Para el diseño del sistema solar fotovoltaico fue necesario tomar en cuenta ciertos cálculos que nos permitieron establecer la cantidad de paneles, tipo de controlador, numero de baterías e inversor, cabe mencionar  que esto está sujeto a las necesidades que se requieran, otros datos muy importantes que se tomaron fue la hora solar pico que hay en la región asi como los días de autonomía, para poder validar y entender el funcionamiento se utilizó el software SharpDevelop que nos permitió realizar una simulación de este sistema para poder implementarlo físicamente.  La elección de la plataforma BLINK en la cual pudimos realizar nuestra base de datos, es muy didáctica, simple e intuitiva.Se realizó la conexión de los 3 sensores de voltaje y 3 sensores de corriente, además se adaptó una caja riel para el módulo de sensores y de la placa arduino Mega. Se utilizó un contenedor metálico con compuerta manual adaptando un sistema de empotramiento tipo RIEL DIN OMEGA y cableado eléctrico por medio de canaletas. Se continuó con la programación de la tarjeta Arduino para la realización de las primeras pruebas de recolección de datos. y posterior en envio a la tarjeta que nos ayudara a subir los datos a la nube, la cual ya recibe los datos de los sensores que le envia la tarjeta Arduino. Lo siguiente es subir los datos a la nube para poder visualizarlo de manera gráfica.


CONCLUSIONES

El impacto del proyecto es positivo ya que este busca implementar una red de IOT que permita al centro de formación monitorear y controlar los diferentes sistemas de energía con fuente renovables y de esta manera garantizar su buen funcionamiento y mejorar su vida útil. Esto da un paso a estrategias relacionadas con la economía del comportamiento que fomenta una ayuda para mejores decisiones frente al cuidado del medio ambiente a través de energías renovables. Tener un monitoreo en tiempo real con la red IOT en los sistemas fotovoltaicos es una manera de administrar el consumo, así mismo gestionar el progreso de las tareas de mantenimiento y control en caso de que surja algún evento fuera de lo normal e intervenir con anticipación personalmente para llevar a cabo el soporte. Queda pendiente la visualización de datos en la plataforma BLINK.
Aguilar Valladares Nohemy, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

IMPACTO E IMPORTANCIA DE LOS RECURSOS EDUCATIVOS ABIERTOS (REA) EN LA EDUCACIóN Y SU CONTRIBUCIóN AL CUARTO OBJETIVO (EDUCACIóN DE CALIDAD) DE DESARROLLO SOSTENIBLE (ODS) DE LA UNESCO.


IMPACTO E IMPORTANCIA DE LOS RECURSOS EDUCATIVOS ABIERTOS (REA) EN LA EDUCACIóN Y SU CONTRIBUCIóN AL CUARTO OBJETIVO (EDUCACIóN DE CALIDAD) DE DESARROLLO SOSTENIBLE (ODS) DE LA UNESCO.

Aguilar Valladares Nohemy, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual de la educación, la disponibilidad y acceso a recursos educativos de calidad desempeñan un papel fundamental en el aprendizaje efectivo. Los Recursos Educativos Abiertos (REA) han surgido como una respuesta prometedora para abordar la problemática de la falta de materiales educativos accesibles, actualizados y de libre acceso. Los REA son recursos de enseñanza, aprendizaje e investigación que se encuentran bajo licencias abiertas, permitiendo su uso, adaptación y distribución sin restricciones de copyright. A pesar de sus potenciales beneficios, existen desafíos significativos en la implementación y evaluación de los REA en el sistema educativo actual. El objetivo de esta investigación es analizar la implementación y efectividad de los Recursos Educativos Abiertos (REA) en el sistema educativo y evaluar cómo están impactando en el aprendizaje de los estudiantes y el trabajo de los docentes.



METODOLOGÍA

La presente estancia virtual de investigación se llevó a cabo en la Facultad de Ciencias de la Computación en la Benemérita Universidad Autónoma de Puebla, con el objetivo de analizar la importancia e impacto de los Recursos Educativos Abiertos (REA) en la educación. Los REA son recursos de enseñanza, aprendizaje e investigación que se encuentran bajo una licencia abierta, lo que permite su acceso, uso, adaptación y distribución de forma gratuita. El propósito de esta investigación es promover el cuarto Objetivo de Desarrollo Sustentable (ODS) de la UNESCO (Educación de Calidad), que se enfoca en garantizar una educación inclusiva, equitativa y de calidad, y promover oportunidades de aprendizaje para todos. Los REA juegan un papel crucial en la democratización de la educación y la promoción de la igualdad de oportunidades. Su importancia radica en: Acceso y Equidad: Los REA permiten el acceso a recursos educativos de calidad para personas de todas las edades, ubicaciones geográficas y niveles socioeconómicos. Esto favorece la inclusión y equidad en la educación. Reducción de Barreras Económicas: Al ser gratuitos, los REA disminuyen la dependencia de costosos materiales educativos, lo que beneficia especialmente a estudiantes con recursos limitados. Flexibilidad y Adaptabilidad: Los REA se pueden adaptar y modificar según las necesidades del estudiante o el docente, lo que facilita la personalización del aprendizaje. Colaboración y Compartir Conocimiento: Los REA fomentan la colaboración entre docentes y estudiantes, promoviendo una cultura de compartir conocimiento y experiencias.   El cuarto Objetivo de Desarrollo Sostenible (ODS) de la UNESCO es "Garantizar una educación inclusiva, equitativa y de calidad, y promover oportunidades de aprendizaje durante toda la vida para todos". Los REA contribuyen significativamente a la consecución de este ODS al: Facilitar el Acceso a la Educación: Los REA permiten que las personas tengan acceso a materiales educativos sin restricciones de tiempo o lugar, promoviendo una educación inclusiva. Apoyar la Calidad Educativa: Los REA proporcionan recursos de alta calidad, desarrollados y revisados por expertos, mejorando la experiencia de aprendizaje. Reducir Desigualdades Educativas: Los REA reducen las brechas educativas entre países y comunidades, al ofrecer recursos asequibles y adaptados a diversas realidades.   Como resultado de esta investigación, se desarrolló un Recurso Educativo Abierto en Exelearning que tiene como objetivo informar a estudiantes de secundaria hasta universidad sobre los REA y cómo crear sus propios recursos educativos abiertos. El REA incluye los siguientes contenidos: Definición y Características de los REA. Beneficios e Importancia de los REA en la Educación. Ejemplos de REA exitosos. Guía paso a paso para crear un REA   El Recurso Educativo Abierto (REA) mencionado se encuentra disponible para su visualización en el siguiente link: https://tgjywfamazlpzl8dwmjvwq.on.drv.tw/REA/  


CONCLUSIONES

Durante la estancia de verano se desarrollo un Recurso Educativo Abierto (REA) en la herramienta Exelearning, el cuál resulto muy útil para esta investigación, cabe resaltar que aunque se logró crear este REA, se busca que sea publicado en la página Ecosistema BUAP, el cuál es un repositorio de REA creado por la Benemérita Universidad Autónoma de Puebla, con el fin de lograr que más personas puedan consultarlo y difundirlo, además de que se buscará hacer exposiciones y continuar con la misma investigación durante el desarrollo de mi tesis, ya que este tema es de gran importancia para el área de computación y la educación en nuestro país (México).
Aguilera Mora Jorge Alexandro, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

EXPEDICIóN EVEREST - UNA CAMINATA EN REALIDAD VIRTUAL PARA MEJORAR LA ESTABILIDAD POSTURáL EN ADULTOS MAYORES


EXPEDICIóN EVEREST - UNA CAMINATA EN REALIDAD VIRTUAL PARA MEJORAR LA ESTABILIDAD POSTURáL EN ADULTOS MAYORES

Aguilera Mora Jorge Alexandro, Instituto Tecnológico de Estudios Superiores de Zamora. Garcia Garcia Braulio Yosef, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Debido a la edad, los adultos mayores o de la tercera edad empiezan a tener un desgaste y alteración de su control postural, esto debido a muchos factores como puede ser su estilo de vida, su trabajo o accidentes que pudieron haber tenido. Esto genera que algunos de ellos puedan tener inestabilidad, llegando al punto de perder habilidades que antes se realizaban con mucha facilidad, como el movimiento de brazos, piernas o su equilibrio al momento de estar de pie, sentados o en otra posición. Estos casos ocurren en casi el 50% de los adultos que tienen problemas con el control postural y conlleva a buscar soluciones y crear nuevas formas de ayudarlos. La fisioterapia se enfoca en la prevención, tratamiento y rehabilitación de estas condiciones, lo que puede tener un impacto positivo en la calidad de vida de los adultos mayores, tiene muchos beneficios, tales como: mejora de la movilidad, reducción del dolor, fortalecimiento muscular, prevención de caídas, rehabilitación después de lesiones y cirugía, gestión de condiciones crónicas, estimulación cognitiva y bienestar emocional. Sabiendo todo esto, se buscan nuevas formas de poder ayudar a estas personas con la finalidad de que su proceso de rehabilitación y mejoramiento sea más ameno y en vez de ser algo pesado o tedioso, se pueda visualizar desde un punto de vista más agradable y se pensó en el uso de las nuevas tecnologías, como la realidad virtual, y en conjunto con PROBAUAM el objetivo es desarrollar un videojuego con múltiples escenarios donde el jugador realizará los diferentes ejercicios de fisioterapia.



METODOLOGÍA

Nuestro proyecto trató sobre la creación de un minijuego con el propósito de ayudar a los adultos de la tercera edad. Esto se hace en conjunto con las personas de PROBAUAM, ya que ellos nos brindan la información necesaria para saber qué ejercicios y cómo se deben realizar, mientras que nosotros nos encargamos de la realización de los videojuegos y de todo el aspecto técnico en general. Una vez que se los enviemos, ellos podrán utilizarlos y hacer pruebas para después implementarlos con los pacientes. La primera semana de la estancia se dedicó a hacer un pequeño curso de capacitación de programación con Unity cuyo fin fue el de crear un ‘Space Shooter’ en 3D a manera de nivelación y así todos tener un mejor entendimiento sobre el uso de esta herramienta de desarrollo. Al comienzo de la segunda semana aprendimos más sobre algunos aspectos del proyecto y también se nos explicó cuál sería el plan de trabajo a lo largo de todo el periodo, formado por dos secciones principales, la primera sección consistió en asignar un ejercicio de la lista de protocolos provistos por PROBAUAM con el cuál nuestro trabajo era realizar el diseño de un videojuego que debía implicar la realización del movimiento asignado como una mecánica para la jugabilidad. Además, era necesario que al comenzar con el diseño tuviéramos en cuenta que los usuarios son adultos mayores por lo que fue un reto pensar en una actividad que les fuera familiar pero al mismo tiempo el ambiente en el que se encontraran fuese interesante, llamativo y realmente los hiciera sentir que están jugando y que no pareciera que solo están realizando un ejercicio porque deben hacerlo. El ejercicio a implementar en RV consiste en estar de pie y realizar movimientos alternos de brazos hacia adelante y hacia atrás, en una posición similar a la de correr. Este ejercicio busca mejorar la estabilidad postural, la coordinación y el equilibrio. Realizar esta actividad mejora la estabilidad postural, el trabajo del componente axial, la estimulación del sistema vestibular y la coordinación y fluidez del movimiento. Posteriormente, surgió la idea de crear un minijuego que simula una carrera en la que el personaje va subiendo por una montaña de nieve, al comenzar el juego un muñeco de nieve te pide competir contra él en una carrera a la cima pues él desea llegar a la cima pero le parece muy aburrido solo caminar hasta allá, a lo cuál el jugador acepta y así comienza la carrera. En la segunda sección se comenzó con el desarrollo del videojuego, para lo cual utilizamos Unity con la versión del editor 2019.4.19f1, Microsoft Visual Studio 2022 y usamos el lenguaje de programación C#. Lo primero fue comenzar con la creación del terreno en el que se desarrolla toda la actividad y buscar algunos assets que pudiéramos emplear para generar el escenario y todo lo que se llegara a ocupar para el videojuego. Ya que se debía generar una montaña nevada, encontramos varios assets con elementos naturales como hierba, árboles con y sin nieve, rocas, etc. y también se decidió agregar una valla para delimitar con más exactitud el camino a seguir por el jugador. Para hacerlo más interesante se agregó tres puntos por los que se atravesaran algunos animales (cuyos assets y los de todos los elementos mencionados los descargamos de manera gratuita en la página de Assets Store de Unity) con el fin de que el jugador los evite cuando transite por dichos puntos y así evitar perder tiempo y poder llegar antes a la cima. La generación del terreno se hizo mediante las herramientas del terrain de Unity, que simulan el dibujado manual del relieve. Para avanzar, debe realizar el movimiento antes mencionado y por su propia cuenta el Player avanzará siguiendo una serie de puntos específicos a lo largo de todo el camino, si el usuario deja de hacer el movimiento el Player se detendrá lentamente, así, el Player podrá avanzar o detenerse según se necesite. Se consiguió hacer que avance usando dos donas ubicadas cerca del Player y dos rectángulos que siguen a los controles, al hacer el movimiento los colliders de los objetos detectan una colisión entre ellos y por medio de programación es como avanza el Player.


CONCLUSIONES

Durante este verano se logró adquirir conocimientos del desarrollo con la herramienta de creación de videojuegos de Unity y conocer más sobre el lenguaje de C#, eso logró avanzar en nuestra escena del videojuego hasta casi concluirla, faltando únicamente de agregar audios y mostrar cuando se haya ganado para de ahí poderlo implementar y juntar con los demás minijuegos.
Aguilera Saenz Miguel Angel, Universidad Autónoma de Ciudad Juárez
Asesor: Dra. Raquel Muñoz Hernández, Universidad Politécnica del Valle de México

ANTROPOMETRíA DE LA POBLACIóN ESTUDIANTIL PARA EL DISEñO DE MOBILIARIO ESCOLAR UNIVERSITARIO


ANTROPOMETRíA DE LA POBLACIóN ESTUDIANTIL PARA EL DISEñO DE MOBILIARIO ESCOLAR UNIVERSITARIO

Aguilera Saenz Miguel Angel, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Raquel Muñoz Hernández, Universidad Politécnica del Valle de México



PLANTEAMIENTO DEL PROBLEMA

En México, no hay un registro de una base de datos antropométricos de la población mexicana que sea oficial y reconocida nivel nacional, sin embargo, México ha llevado a cabo diversos estudios antropométricos a lo largo de los años con el objetivo de recopilar datos sobre las medidas corporales de la población y se utilizan para diversos fines, como el diseño de políticas públicas, la planificación de programas de salud y la creación de estándares para la fabricación de productos, entre otros. Este problema es muy relevante de investigar y dar a una posible solución porque el no tener una base de datos antropométricos oficial suele ocasionar que los objetos, maquinaria o áreas de trabajo presenten problemas ergonómicos relacionados con la antropometría. Un caso muy común de esto, el cual se centrará esta investigación, ocurre en la Universidad Politécnica del Valle de México. Las medidas del mobiliario escolar que tiene la universidad no cubren de manera óptima y adecuadamente las necesidades antropométricas de los estudiantes, causando incomodidad o daño musculoesquelético y esto afecta a su rendimiento académico. Por lo tanto, el eje de la investigación será obtener y establecer una base de datos antropométricos de los estudiantes de la universidad, posteriormente, se evaluarán los datos y se llegara a la posible solución más viable, optima y adecuada.



METODOLOGÍA

Para comenzar con esta investigación se establecieron los requerimientos de diseño, empezando con las interacciones usuario-producto para saber que dimensiones se necesita obtener, en este caso sería alumno-pupitre y su interacción es con el asiento, respaldo y mesa/área de trabajo. Por lo tanto, las dimensiones se agruparon en dimensiones del asiento (altura, ancho y profundidad), dimensiones del respaldo (ancho y altura) y dimensiones de la mesa/área de trabajo (altura, ancho y profundidad). Posteriormente, se establecieron que dimensiones del usuario se necesitan medir para obtener las dimensiones apropiadas del mobiliario. Dichas dimensiones son la Altura poplítea, Distancia sacro-poplítea, Distancia sacro-rotula, Altura muslo-asiento, Altura codo-asiento, Alcance mínimo y máximo del brazo hacia adelante, Altura hombros-asiento, Ancho de caderas sentado y la Anchura de hombros. Para obtener estas dimensiones se pasaron por los salones con el permiso de los profesores hasta llegar a medir a la población muestra de 263 alumnos. Una vez que se obtuvieron todas las dimensiones, se realizaron los cálculos apropiados para obtener los percentiles y posteriormente se establecieron las dimensiones apropiadas del mobiliario en base a los percentiles que sirvieron de base para empezar a realizar el diseño del mobiliario escolar, pero antes, se realizó una investigación documental para averiguar la forma en la que diferentes autores han trabajado esta problemática (también conocido como el estado del arte), posteriormente, comenzó la etapa creativa. La etapa creativa comenzó con la realización de los bocetos burdos para plasmar cualquier idea y después se tomó las mejores ideas para hacer bocetos conceptuales para desarrollar varias propuestas. Para elegir una propuesta se evaluó con una matriz de pugh, al final se seleccionó la propuesta #2. El siguiente paso de la etapa creativa fue la elaboración de los planos técnicos, elaboración de renders y la impresión 3D a tamaño escala de la maqueta del mobiliario escolar. Por último, se evaluó y se calculó cuáles son los materiales apropiados para la construcción del mobiliario escolar. Una vez terminada la etapa creativa, se hablará con los directivos de la universidad para la evaluación de recursos y presupuesto necesario para elaborar el proyecto. Se entregarán los bocetos, planos de construcción, la maqueta a escala, una serie de especificaciones junto con el permiso de utilizar el diseño sin fines lucrativos para que la universidad pueda realizar el proceso necesario para la construcción del mobiliario escolar.


CONCLUSIONES

 En esta investigación se ha observado la diferencia que existe cuando se tiene en cuenta las dimensiones antropométricas del usuario y cuando no se tienen en cuenta, y no solo en el mobiliario escolar, también en el área de trabajo o cualquier producto u objeto con el que se interactúa. Los estudiantes están más cómodos y se les da confort cuando se cubre sus necesidades antropométricas y eso les ayuda a su rendimiento académico Generalmente problemas como este se generan porque no se tiene en cuenta la ergonomía o tienen la errónea idea de que el usuario se tiene que adaptar al objeto para poder utilizarlo, cuando en realidad es el objeto el que se tiene que adaptar a las necesidad del usuario, por lo que si existe un problema ergonómico en base a la antropometría, lo correcto es adaptar el mobiliario, la maquinaria o el área de trabajo para que exista una interacción con el usuario de manera adecuada, optima y eficiente Por lo tanto, es importante hacer que México tenga conciencia de la importancia de la aplicación de la ergonomía en el diseño, la creación de normas de seguridad y salud más apropiadas y contar con una base de datos antropométricos oficial a nivel nacional y por estados, de esta manera, al igual que en esta investigación, se puede llegar a una solución para cierta problemática ergonómica. 
Aguirre Medina Diego Jared, Instituto Tecnológico de La Piedad
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

PREPROCESAMIENTO DE DATOS MASIVOS EN ASTRONOMíA


PREPROCESAMIENTO DE DATOS MASIVOS EN ASTRONOMíA

Aguirre Medina Diego Jared, Instituto Tecnológico de La Piedad. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En la actualidad se generan grandes cantidades de datos al día gracias a las tecnologías como el internet y otros medios como lo son, redes sociales, registros financieros, transacciones en línea, registro de sensores, estudios científicos, etc. Estos datos por sí solo no tienen gran valor además al ser tan masivos escapan en muchas ocasiones de la comprensión humana para ser analizados mediante métodos tradicionales, por lo que se suele tratar de generar valor con ellos aplicando enfoques como la ciencia de datos con el objetivo de obtener nueva información, toma de decisiones, identificar oportunidades, hacer predicción y pronósticos, etc. Aquí es donde surge el problema y es que por lo general los datos no están preparados para este propósito, por lo que se realizan tareas de preprocesamiento como lo son la eliminación de datos faltantes, codificación de variables categóricas. etc,  con el objetivo de mejorar la calidad de los datos, eliminar ruidos y redundancias, y asegurar que los datos estén en un formato adecuado para su posterior análisis ya que la calidad de los resultados del análisis en ciencia de datos depende en gran medida de la calidad y preparación de los datos iniciales.   Los datos que pre-procesaremos son datos que se obtuvieron de la misión espacial Gaia, la cual es una misión perteneciente a la Agencia Espacial Europea (ESA) con el objetivo de crear un mapa tridimensional de nuestra galaxia, la Vía Láctea, en el proceso de revelar la composición, formación y evolución de la galaxia, en este caso los datos no están preparados para implementar técnicas de aprendizaje automático, ya que la información necesaria está distribuida en diferentes bases de datos una que contiene las curvas de luz de las estrellas que se quieren clasificar y la otra contiene las estrellas clasificadas como estrellas variables, además de añadir que no hay una consistencia en la cantidad de muestras que presentan los datos, así el objetivo de nuestro preprocesamiento es posteriormente que los datos puedan clasificar si una estrella es o no variable.



METODOLOGÍA

Antes de empezar con el preprocesamiento de datos se comenzó con entender de manera simple los datos (curvas de luz) que se iban a analizar, lo que se trató de entender de ellos fue que es lo que representan, que es lo que se tratara de explicar y que tantas variables se necesitan para el posterior análisis, sin entrar mucho en detalle ya que escapa un poco al propósito de este trabajo.   También se definieron las herramientas que utilizamos para el preprocesamiento, es este caso se usó python como lenguaje de programación y sus librería más usada para este propósito pandas y librerías más avanzadas como la suite de rapids que contiene un conjunto de herramientas para el procesamiento con computación paralela con GPU, también se usó conda para la gestión de ambientes virtuales y paquetes, todo esto se ejecutó en un servidor de alto rendimiento.   Comenzando con el preprocesamiento de datos, lo primero que se realizó fue la carga de los datos, tanto los de la base de datos curvas de luz como los de estrellas variables usando dos enfoques, cómputo secuencial y cómputo paralelo,  para secuencial se cargaron en la memoria RAM del servidor usando la cpu con los módulos de pandas, para paralelo se cargaron los datos en la VRAM de las GPUs usando las mismas GPUs para cargarlos usamos unos módulos que provee cudf librería de rapids, al cargar los datos obtuvimos mejores tiempos de carga usando un enfoque paralelo con GPUs.   Una vez los datos ya cargados, con los datos de las curvas de luz se procedió a realizar un filtrado donde se obtuvieron las características más relevantes para el posterior análisis.   Una vez que se tenían los datos con solo las características deseadas se identificó que las muestras de la curvas de luz de cada estrella no era consistente había más datos de unas que de otras por lo que se procedió a realizar un filtrado donde se estandarizó el número de muestra de curvas de luz por cada estrella a un número fijo, al realizar este proceso obtuvimos un rendimiento mucho mejor usando cómputo paralelo con GPUs con respecto a solo usar CPU.   Por último como parte del preprocesamiento de datos se realizó un proceso para buscar e identificar qué estrellas que se encuentran en los datos de curvas de luz son variables, realizando dicha búsqueda en el conjunto de datos de estrellas variables.


CONCLUSIONES

Durante la estancia de verano se logró adquirir nuevos conocimientos y poner en práctica los conocimientos que ya se tenían en el trabajo realizado durante la estancia, así como trabajar y colaborar con otras personas que ayudó en gran medida para poner en práctica y desarrollar las habilidades blandas.    En cuanto a la investigación se puede concluir que se logró el propósito que era aplicar preprocesamiento a grandes datos, así también gracias a tener el acceso a un servidor de alto rendimiento se pudo poner en práctica un enfoque con cómputo paralelo usando GPUs y ver las grandes ventajas que este ofrece con respecto al cómputo secuencial, por lo tanto se puede decir que el preprocesamiento es una etapa muy importante y esencial dentro de la ciencia de datos y realizarlo usando computación paralela con GPUs puede ayudar bastante cuando se trata de procesar grandes volúmenes de datos.
Aguirre Mena Federico de Jesus, Universidad Tecnologica de León
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.


FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.

Aguirre Mena Federico de Jesus, Universidad Tecnologica de León. Castellanos Luevano Oswaldo, Universidad Tecnologica de León. Cruz Ramirez Oscar Mauricio, Universidad Tecnologica de León. Duarte Hernández Daniel, Universidad Tecnologica de León. Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Perez Soto Jose Saul, Universidad Tecnologica de León. Rodríguez Galaviz Brian Axel, Universidad Tecnologica de León. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proyecto reforzará la interacción con diferentes periféricos y dispositivos, como el módulo de biometría de huella digital, el módulo GPS y el sensor de carga de la batería. También se reforzará el diseño y montaje de un circuito adecuado para conectar y gestionar estos componentes.  



METODOLOGÍA

El objetivo de este proyecto es integrar una serie de sensores en un vehículo eléctrico para mejorar la seguridad y funcionalidad del mismo. Los sensores que se utilizarán son: Sensor de biometría de huella digital: Este sensor se aseguró para autenticar al conductor y permitir el acceso al vehículo. La huella digital del conductor se almacenará en una base de datos y se comparará con la huella digital escaneada para conceder o denegar el acceso. Posicionamiento global GPS: Se implementará un módulo GPS para obtener la ubicación precisa del vehículo. Esto permitirá realizar funciones como seguimiento en tiempo real, registro de trayectos y localización en caso de robo o emergencia. Sensor de estado de carga de batería: Para garantizar la eficiencia y seguridad del vehículo eléctrico, se obtendrá un sensor para medir el nivel de carga de la batería. Esto permitirá al conductor tener una estimación precisa del alcance del vehículo antes de necesitar una recarga. El microcontrolador ATMega328P será el cerebro del sistema, encargado de procesar los datos de los sensores y controlar las diferentes funciones del vehículo. Para lograrlo, se programará el microcontrolador en lenguaje C o algún lenguaje de programación compatible.


CONCLUSIONES

Al finalizar el proyecto, se tendrá un vehículo eléctrico más seguro y funcional, con capacidades avanzadas de autenticación, localización y supervisión del estado de la batería. Esto contribuirá a mejorar la experiencia del usuario y fomentará el uso de vehículos eléctricos como una opción de movilidad más sostenible.
Aguirre Reyes Emma, Instituto Politécnico Nacional
Asesor: Mg. Fainer Cerpa Olivera, Servicio Nacional de Aprendizaje SENA - Regional Guajira

PRODUCCIóN DE FILAMENTO PARA IMPRESORA 3D A PARTIR DE BOTELLAS RECICLADAS PET


PRODUCCIóN DE FILAMENTO PARA IMPRESORA 3D A PARTIR DE BOTELLAS RECICLADAS PET

Aguirre Reyes Emma, Instituto Politécnico Nacional. Asesor: Mg. Fainer Cerpa Olivera, Servicio Nacional de Aprendizaje SENA - Regional Guajira



PLANTEAMIENTO DEL PROBLEMA

El plástico PET (tereftalato de polietileno) es uno de los materiales más utilizados en botellas de bebidas, envases de alimentos y otros productos de consumo debido a su resistencia, transparencia y ligereza. Sin embargo, a pesar de su versatilidad y practicidad, el uso masivo del plástico PET ha generado una creciente preocupación por la contaminación ambiental y los impactos negativos en los ecosistemas y la salud humana. La lenta degradación del plástico PET es uno de los principales problemas ambientales asociados a este material. Debido a su estructura molecular altamente resistente, el plástico PET se biodegrada completamente en el medio ambiente durante cientos de años. Como resultado, millones de toneladas de botellas de PET y otros productos plásticos se acumulan en vertederos, océanos, ríos y otros ambientes naturales, lo que representa una grave amenaza para la vida marina, la fauna terrestre y la biodiversidad en general. Además de la acumulación de desechos, también preocupa la degradación del plástico PET en pequeños fragmentos, llamados microplásticos. Otro problema causado por la contaminación del plástico PET está asociado con la vida marina: animales marinos como aves, peces, tortugas y mamíferos marinos confunden los fragmentos de plástico con comida y los ingieren, lo que puede causar asfixia, obstrucción intestinal, daño a los órganos internos y, en última instancia, la muerte. Del mismo modo, construir una máquina de reciclaje de botellas de PET que pueda convertir estos desechos en filamentos para impresoras 3D y otros usos de fabricación es un enfoque prometedor para abordar la contaminación por plástico PET. Esta máquina puede ayudar a reducir la cantidad de residuos de plástico PET en el medio ambiente y convertirlos en un recurso valioso, fomentando el desarrollo de una economía circular y una producción sostenible. La fabricación de filamentos para impresoras 3D a partir de botellas de PET recicladas ofrece una solución innovadora y sostenible al problema de comprar diferentes filamentos de diferentes instituciones educativas. Impulsar iniciativas de este tipo es fundamental para concienciar sobre el problema de la contaminación por plásticos y, al mismo tiempo, fomentar la adopción de prácticas más sostenibles y responsables con el medio ambiente.



METODOLOGÍA

Recolección y clasificación: El primer paso es recolectar las botellas de PET desechadas y separarlas de otros materiales reciclables. También es importante clasificar las botellas dependiendo el tipo de PET que sean, el adecuado para la producción de filamento es el PETG, que tiene la misma composición que el primero, a este se le añade glicol, compuesto con el que obtiene mejor transparencia, resistencia y flexibilidad. Lavado y secado: Una vez clasificadas, las botellas de PET, estas se lavan minuciosamente para eliminar cualquier residuo o contaminante presente en las botellas recicladas. Después del lavado, la botella debe calentarse hasta que esta sea lisa Hacer la botella una sola tira de PET: Ya que la botella es lisa y no tiene relieves, se someten a un proceso donde las botellas se desgarran en pequeñas tiras de 8 mm de ancho. Extrusión: La etapa de extrusión es esencial para convertir las tiras de PET en forma de filamento. Las tiras de PET se alimentan a través de un extrusor, una máquina que calienta el material y lo funde hasta obtener una masa fundida y homogénea. Formación del filamento: La masa fundida de PET se pasa a través de una boquilla o hilera que determina el diámetro del filamento, esta debe de ser de aproximadamente unos 1.75 ± 0.05 mm de diámetro. A medida que el material sale de la boquilla, se enfría rápidamente para solidificarse y tomar la forma cilíndrica característica del filamento. Enfriamiento y bobinado: Una vez formado, el filamento se enfría completamente antes de ser enrollado en carretes o bobinas adecuadas para su almacenamiento y posterior uso en impresoras 3D. Control de calidad: Durante todo el proceso de transformación, es fundamental realizar controles de calidad para asegurar que el filamento cumpla con las especificaciones requeridas, incluyendo el diámetro uniforme y la ausencia de impurezas.


CONCLUSIONES

Para abordar este problema de manera efectiva, la implementación de soluciones sostenibles y centradas en la economía circular es esencial. Entre estas soluciones, el reciclaje de PET se presenta como una opción crucial para darle una segunda vida a este material y evitar su acumulación en vertederos y en entornos naturales. Asimismo, la educación sobre el consumo responsable es una poderosa herramienta para concienciar sobre la importancia de reducir el uso de plástico y promover prácticas más sostenibles en nuestro día a día. El uso de estas máquinas en las escuelas de Colombia y potencialmente en otras partes del mundo puede tener un impacto significativo en la reducción de los desechos de PET y en la sensibilización ambiental de los estudiantes. La integración de esta máquina en las instituciones educativas estaría en línea con los Objetivos de Desarrollo Sostenible, en particular con el ODS 12 sobre producción y consumo responsables, al promover la reutilización de materiales y el uso eficiente de los recursos. También está en línea con el ODS 4 "Educación de calidad" al brindar a los estudiantes la oportunidad de aprender sobre tecnología sostenible, reciclaje y fabricación aditiva, apoyando así su educación y desarrollo de habilidades para un futuro sostenible.
Aguirre Rivera Heidi, Instituto Politécnico Nacional
Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara

EL IMPACTO DE LA TECNOLOGíA E INNOVACIONES EN EL PROCESO ENSEñANZA–APRENDIZAJE EN LA EDUCACIóN: UN ESTUDIO EN ALUMNOS DE CUARTO SEMESTRE DEL CECYT NO.9


EL IMPACTO DE LA TECNOLOGíA E INNOVACIONES EN EL PROCESO ENSEñANZA–APRENDIZAJE EN LA EDUCACIóN: UN ESTUDIO EN ALUMNOS DE CUARTO SEMESTRE DEL CECYT NO.9

Aguirre Rivera Heidi, Instituto Politécnico Nacional. Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El uso de tecnología en los últimos años se ha ido introduciendo en las aulas, pero esto trae consigo nuevas formas de enseñanza y aprendizaje que pueden causar efectos positivos como negativos en la educación por lo que es necesario analizar qué efectos tienen estos nuevos avances en la tecnología e innovaciones y determinar de qué forma es más conveniente trabajar con ellas a fin de que no sea una distracción sino una forma de optimizar la educación. (Pedró, 2016) argumenta que, si bien la tecnología puede brindar oportunidades y beneficios significativos para mejorar la educación, también plantea desafíos y riesgos potenciales. Señala que es esencial considerar cuidadosamente cómo se utiliza la tecnología en el contexto educativo, para evitar que se convierta en una mera distracción o una solución simplista.



METODOLOGÍA

La investigación fue realizada de forma descriptiva con enfoque cualitativo que es una metodología de investigación centrada en comprender y explorar fenómenos complejos desde la perspectiva de los participantes, a la vez con diseño de Investigación Acción (IA) el cual busca generar cambios prácticos y mejorar una situación problemática específica a través de la reflexión crítica y la acción. Al combinar estas metodologías, se puede obtener un mayor nivel de comprensión del fenómeno estudiado al describirlo en detalle, explorar los significados y perspectivas de los participantes y, además, buscar generar cambios o mejoras en la práctica educativa. Los métodos aplicados fueron la realización de una encuesta a alumnos del cuarto semestre del CECyT No.9 para comprender sus perspectivas acerca de la introducción de tecnología e innovaciones en sus aulas así también se realizó una investigación para obtener contribución científica de libros, artículos científicos, seminarios y conferencias. Para la encuesta realizada se seleccionaron alumnos del cuarto semestre del CECyT No.9 pues al ser de segundo año tienen más experiencia de cómo es la metodología de enseñanza en su escuela por lo que se pidieron sus opiniones del impacto que la tecnología e innovaciones ha causado en cada uno de ellos, la encuesta se llevó a cabo mediante la herramienta de Google forms donde ellos pudieron responder a las preguntas bajo su perspectiva, las respuestas se guardaron automáticamente y se analizaron mediante gráficas. Se llevó a cabo un análisis de contenido en el cual se examinó y categorizó el contenido de los documentos o textos relevantes para la investigación.


CONCLUSIONES

Con el estudio realizado, podemos decir que la educación necesita mejorar y que las tecnologías e innovaciones pueden ayudar a que se cumpla este objetivo. ¿Cómo? Hay diversos métodos de aprendizaje como la gamificación, el diseño instruccional, el e-learning, m-learning e incluso se puede utilizar la inteligencia artificial como apoyo. Aunque es cierto que cada persona aprende de distinta manera, las aulas dinámicas respaldadas por tecnología, como internet, computadoras o uso de dispositivos móviles pueden mejorar el proceso de enseñanza-aprendizaje. Sin embargo, se notó que muchas escuelas en México aún carecen de estas tecnologías, lo que puede ser una desventaja. De igual forma, es importante que los alumnos se informen sobre el buen uso de estas herramientas, y los docentes deben establecer parámetros para que la tecnología no se convierta en una distracción, sino en un dinamizador del aprendizaje. También es notable que el tecnoestrés, aunque en pocos casos puede estar presente tanto en docentes como en alumnos, por lo que se recomienda tener límites, autocuidado y, si es necesario, buscar apoyo. Aunque no hay evidencia concreta de que los dispositivos móviles mejoren el rendimiento del alumno, siguen siendo herramientas útiles, al igual que las redes sociales, pero siempre requieren autocontrol para un uso saludable. La investigación llevada a cabo analizó el impacto de la tecnología en el proceso de enseñanza-aprendizaje y recopiló la perspectiva de los alumnos encuestados. Estos afirman que les encanta el uso de tecnología en sus aulas, así también los alumnos manifiestan ver la tecnología más como una herramienta que como una distracción, sin embargo, al tener tecnologías como computadoras, internet, dispositivos móviles, audífonos, etc., el 42.9% afirma ser muy propenso a distraerse al utilizar estos dispositivos en el aula. Respecto al tecnoestrés el 9.5% si lo ha sufrido, sus experiencias fueron por el uso excesivo de estas tecnologías, pues lo que dicen es que hace que te abrumes con tanta información o te genera distracciones. Otro alumno comentó que le ha generado problemas de sueño y deñado su concentración. Como opinión de sus experiencias con el proceso de aprendizaje utilizando tecnología, los alumnos respondieron: La tecnología ha sido de gran ayuda debido al fácil acceso al conocimiento Ayuda el internet para comprender temas que en clase no entiendo La tecnología es una herramienta demasiado útil e importante, sin embargo, solo si esta se utiliza de manera adecuada El proceso para realización de esta investigación ha sido largo, tuvo que hacerse una amplia búsqueda de información y encuestar a los alumnos de cuarto semestre del CECyT No.9, así que finalmente me complace decir que el estudio fue enriquecedor y nos concientiza que la tecnología seguirá avanzando e impactará en cualquier área, incluida la educación. Es por eso que debemos concientizarnos sobre cómo ir a la par con las tecnologías y tener el mayor aprovechamiento de estas. Hay un refrán que dice: "Dale fruta a un hombre y comerá durante un día; enséñale a cultivar una planta y comerá toda la vida. La educación es algo que el niño llevará consigo toda la vida.  
Aguirre Sanchez Karla Patricia, Instituto Tecnológico de Pachuca
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

REMOCIÓN DE METALES PESADOS EMPLEANDO UN ADSORBENTE


REMOCIÓN DE METALES PESADOS EMPLEANDO UN ADSORBENTE

Aguirre Sanchez Karla Patricia, Instituto Tecnológico de Pachuca. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Una de las principales fuentes de contaminación ambiental es el agua residual generada por las industrias, que contiene sustancias nocivas para la salud humana y el equilibrio ecológico. Para evitar que esta agua se convierta en un problema, es necesario someterla a un proceso de purificación que elimine los contaminantes y la haga apta para su reutilización o descarga. Sin embargo, este proceso implica un alto costo económico, debido a que los filtros empleados en las plantas purificadoras son muy caros. Por esta razón, se han investigado diferentes métodos alternativos para la remoción de contaminantes, siendo la adsorción uno de los más eficientes y sencillos de aplicar.



METODOLOGÍA

El proceso de obtención del adsorbente que elimina los metales de las aguas residuales consta de varios pasos. En primer lugar, la materia prima debe ser totalmente pura, esta se disuelve en agua destilada y surfactante industrial. Luego, se agita la mezcla y se filtra con papel especial, para poder separar las partículas de interés del líquido. Estas partículas se depositan en un vidrio de reloj y se introducen en un horno a una temperatura y tiempo determinado. Finalmente se procede al lavado de material. Se realizan ciertas pruebas preliminares para poder comprobar que haya una separación. A estos experimentos se les debe medir el pH.


CONCLUSIONES

Los estudios de adsorción presentaron capacidades de adsorción favorables para los metales trabajados, removiendo cobre, plomo y cadmio. Se pretende realizar más pruebas para mejorar la síntesis y el rendimiento llevando esto a un nivel industrial.
Aguirre Valdés Víctor Manuel, Instituto Tecnológico de Toluca
Asesor: Mg. Liseth Paola Fontalvo Rueda, Corporación Universitaria Americana

REVISIóN LITERARIA DE LOS DIFERENTES MODELOS DE OPTIMIZACIóN EN CADENAS DE SUMINISTROS PARA EL FLUJO DE LOS PRODUCTOS DESDE EL AñO 2017 AL 2023.


REVISIóN LITERARIA DE LOS DIFERENTES MODELOS DE OPTIMIZACIóN EN CADENAS DE SUMINISTROS PARA EL FLUJO DE LOS PRODUCTOS DESDE EL AñO 2017 AL 2023.

Aguirre Valdés Víctor Manuel, Instituto Tecnológico de Toluca. Asesor: Mg. Liseth Paola Fontalvo Rueda, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años, la logística es un área dentro de la industria que ha tomado mayor importancia. La cadena de suministro es el proceso que conecta la adquisición, producción, distribución y entrega de bienes y servicios, que involucra a múltiples actores desde proveedores hasta consumidores. En los últimos años se han realizado miles de estudios y procedimientos para que esta área pueda mejorar y sobre todo optimizar aquellos elementos que puedan generar en algún momento una situación dificil para las empresas o industrias. Por lo tanto, surge la pregunta: ¿Cuáles son los enfoques, métodos y resultados más relevantes de los modelos de optimización en cadenas de suministro para el flujo de productos desde 2017 hasta 2023, y cómo estas contribuciones pueden influir en la toma de decisiones logísticas futuras? Este estudio propone abordar esta brecha en la investigación mediante una revisión minuciosa y crítica de la literatura existente sobre los diferentes modelos de optimización en cadenas de suministro.



METODOLOGÍA

El proyecto de realizar una revisión literaria de los diferentes modelos de optimización en cadenas de suministros para el flujo de los productos desde el año 2017 al 2023, El tamaño de muestra de 30 es ampliamente considerado como un número aceptable para muchas aplicaciones estadísticas debido a ciertas propiedades que ofrece cuando se trabaja con una distribución normal o aproximadamente normal con un tamaño de muestra de 30 o más, las estimaciones de la media y la varianza de la muestra tienden a ser estadísticamente más precisas y confiables. Se toma en cuenta un tamaño de muestra de 60 artículos, esto debido a que, con un tamaño de muestra más grande, es probable que se obtengan estimaciones y resultados más precisos. Además de que artículos que se seleccionaron los artículos que tienen mayor calidad y más validez dentro de los procesos.  Al aumentar el número de artículos a 60, puede incluir una muestra más diversa y representativa existente sobre las metodologías utilizadas para optimizar. Esto te permitirá obtener una visión más completa y matizada de las diferentes perspectivas y hallazgos presentes. Una vez realizada la selección de los 60 artículos se realizó una tabla donde estos se tuvieron que acomodar por año de publicación, además de indicar que área de la cadena de suministro busca optimizar o mejorar este, teniendo en cuenta que se realizó la búsqueda de estos artículos por medio de revistas, páginas y sitios de internet confiables. Después de este paso, se tuvo que hacer una clasificación mas general sobre los artículos seleccionados dónde se llegó a las siguientes: Optimización de cadenas de suministro Optimización en distribución Optimización de procesos de producción Minimizar costos De los 60 artículos seleccionados, 14 pertenecen a la primera clasificación, 25 el cual es el mayor número de artículos dentro de la clasificación la cual es optimización de cadenas de suministro, 17 artículos sobre la optimización de procesos de producción y por último 4 sobre minimización de costos. El estudio se realizó para hacer una comparación entre los años 2017 al 2023, según los artículos seleccionados, en el año 2017 se encontró la mayor cantidad de artículos , teniendo un total de 24 artículos, mientras que en el 2023  hasta el momento solo se pudo hacer uso de 1 articulo de los 60 que se tomaron como muestra. Lo que significa que el año 2017, representa un 40% de los datos, seguido del año 2020 con el 18%, los años 2018 y 2019 con el 17% respectivamente y por último los años que menos presencia tuvieron en este estudio fueron del 2021 al 2023. El 42% de los artículos los cuales son 25 de 60 hablan de temas relacionados a la optimización de distribución donde entra todo los que es transporte de mercancías dentro y fuera de las organizaciones, mientras que el tema menos especifico es el de optimización de costos.


CONCLUSIONES

La revisión exhaustiva de los artículos que abordan modelos de optimización en cadenas de suministro para el flujo de productos entre los años 2017 y 2023 ha revelado un panorama dinámico y en constante evolución. La búsqueda de soluciones sostenibles y respetuosas con el medio ambiente también se hace patente en varios estudios. Esta revisión enfatiza la necesidad de continuar investigando y desarrollando modelos de optimización innovadores que aborden los retos actuales y futuros de las cadenas de suministro, consolidando así la base para una gestión logística eficiente y resiliente.
Ahuizteco Martínez Andrea Lizeth, Instituto Tecnológico de Chilpancingo
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

ANáLISIS Y DESARROLLO DE PROCESOS INDUSTRIALES


ANáLISIS Y DESARROLLO DE PROCESOS INDUSTRIALES

Ahuizteco Martínez Andrea Lizeth, Instituto Tecnológico de Chilpancingo. Bernabe Carroza Fernando Nathaniel, Instituto Tecnológico de Chilpancingo. Chávez Cruz Naydelin, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La movilidad, es la capacidad de moverse o caminar con libertad y facilidad, algo fundamental para desarrollar las actividades cotidianas y vivir de forma independiente. No obstante, a medida que se envejece, también en el caso de las personas con discapacidad, se va perdiendo autonomía en varias áreas vitales o de sufrir cambios en la movilidad desde la manera de caminar hasta el equilibrio y la fuerza.  De acuerdo con la Organización Internacional de la Salud (OMS), las ayudas técnicas (también conocidos como dispositivos de asistencia o tecnologías de apoyo) son todos los productos, instrumentos, equipos o sistemas técnicos utilizados por una persona con discapacidad fabricados especialmente o disponibles en el mercado para prevenir, compensar, mitigar o neutralizar una deficiencia, discapacidad o minusvalía.  Un problema que enfrentan las personas con discapacidades es la adquisición de equipos para su movilidad, por tal motivo durante la estancia se diseña y desarrolla un equipo para la movilidad de una persona con discapacidad física, el cual le ayudará en la realización de sus actividades cotidianas permitiéndole desplazarse con mayor facilidad.  



METODOLOGÍA

Semana 1: Etapa 1: Diseño de equipo (19 de junio al 23 de junio) Seleccionar un problema o cliente y visualizar solución. Hacer bosquejo Semana 2: Etapa 1: Diseño de equipo (26 de junio al 30 de junio)​ Hacer especificaciones Hacer planos de dibujos Semana 3: Etapa 2: Planeación y presupuesto de 6 M (03 de julio al 07 de julio) Material Método: Soldadura eléctrica, Eléctrico, Mecánico, Hidráulico Mano de obra, Propia y Ajena Semana 4: Etapa 2: Planeación y presupuesto de 6 M (10 de julio al 14 de julio) Método que usamos: Protocolo de investigación, Tesis, Delfín Medición: Movimiento, Tiempo, Economía, Piezas, Volts Amperaje, Revoluciones Maquinaria Equipo   Semana 5: Etapa 3: Fabricación (17 de julio al 21 de julio) Construcción del modelo Las maquetas Semana 6: Etapa 3: Fabricación (24 de julio al 28 de julio) Construir el producto Semana 7: Etapa 4: Comercialización (31 de julio al 04 de agosto) Entrega y recepción del producto al cliente Elaboración del articulo para presentar en congreso Elaborar la carta de satisfacción del cliente Presentar el articulo para titulación, Diploma a la escuela y Cliente, Reporte final. Se seleccionó una persona de tercera edad del sexo femenino con una discapacidad física, la cual le evitaba poderse trasladar de un lugar a otro, esta persona había perdido una extremidad de su cuerpo por lo tanto se buscó darle solución a parte de sus problemas de movilidad.  Se mantuvo en contacto con esa persona para realizar un análisis más a fondo sobre sus problemas de movilidad con el fin de obtener ideas más claras que nos pudieran ayudar a desarrollar un mejor producto, con este análisis logramos detectar cuales eran sus necesidades a cubrir y cual sería la mejor manera de ayudar a esta persona. Después de haber transcurrido 2 días y haber organizado todas las ideas con el equipo de trabajo, se empezó a bosquejar las ideas con dibujos del proyecto a realizar, las ideas y dibujos se trabajaron de manera virtual por medio de chats y videollamadas, ya teniendo en mente cual era la opción más práctica a realizar se empezó a maquetar nuestro proyecto, por medio de una lluvia de ideas se seleccionó el material a utilizar y se llegó a la conclusión de usar madera y cartón para evitar gastos innecesarios. Terminada la maqueta se le informó al asesor la idea central con el fin de avalarla y obtener alguna crítica constructiva que nos ayudara a mejorar el proyecto.   Teniendo la maqueta lista y la aprobación del maestro, buscamos la manera de gestionar precios en tiendas de conveniencia los cuales servirían para comenzar a construir nuestro proyecto. De igual manera se buscó una persona que nos asesorara con los materiales y los procesos a realizar.  La materialización del proyecto se realizó alrededor de dos semanas del mes de julio,  después de ese tiempo se buscó mejorar e incorporar pequeñas cosas de nuestro proyecto, cosas que tendrían la finalidad de cubrir alguna otra necesidad que se le presente a nuestro cliente, no obstante también pueden servirle para realizar alguna otra actividad cotidiana.  Una vez que concluimos con nuestras actividades se optó por regalar nuestro proyecto a esta persona y le agradecimos por su tiempo compartido y habernos apoyado con nuestro proyecto escolar.  Descripción Llegamos a un acuerdo que la persona de la tercera edad necesitaba de una andadera, y pensamos en darle una nueva modificación, así que a la andadera le agregamos un asiento el cual se puede levantar para que la señora la utilice como andadera, y también se puede bajar para cuando la señora se canse, se pueda sentar, este producto funciona como andadera y como silla, también se le agregó una bolsa para que la señora pueda guardar cosas en ellas, como sus medicamentos, su dinero, entre otras cosas más.


CONCLUSIONES

Durante la estancia logramos presenciar que hay una gran cantidad de personas con alguna discapacidad física y no cuentan con las facilidades de comprar algún aparato que les ayude con sus discapacidades, no obstante también nos percatamos que varias personas buscan la forma de adaptarse a las dificultades que se les presentan en su vida diaria.  Se logró alcanzar los objetivos generales, los cuales eran satisfacer las necesidades de la persona a la que nos propusimos ayudar, concluir el proyecto en tiempo y forma y lograr contactar a la persona para poder entregar la andadera de manera presencial. Dentro de los valores monetarios podemos encontrar los siguientes precios de las cosas que tuvimos que comprar: 7 metros de tubo mofle - $500 Lamina de 55x25 calibre 16 - $50 2 bisagras de tubo - $40 1 armella - $5 2 llantas con freno - $200 2 gomas de tubo de 1 pulgada - $80 Base del asiento - $200  Del total de la andadera - silla, nos gastamos $2,000.00 pesos. Total de dinero obtenido por la andadera: $0, se decidido regalar así que no obtuvimos ingresos.
Alarcón Merchán Alejandro, Fundación Universidad de América
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SISTEMA INTELIGENTE BASADO EN TINY ML PARA EVITAR PROBLEMAS DE SALUD AL REALIZAR ACTIVIDADES AL AIRE LIBRE


SISTEMA INTELIGENTE BASADO EN TINY ML PARA EVITAR PROBLEMAS DE SALUD AL REALIZAR ACTIVIDADES AL AIRE LIBRE

Alarcón Merchán Alejandro, Fundación Universidad de América. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Durante las temporadas de invierno y verano se presentan condiciones extremas de temperaturas al aire libre, por lo que si se busca realizar actividades de manera cómoda y segura, se deben tener en cuenta variables climáticas como la temperatura y la humedad, debido a que si las personas se exponen a temperaturas elevadas, pueden presentar golpes de calor y deshidratación siendo más severo cuando hay alta humedad. Por otro lado, la exposición a temperaturas bajas y aire seco puede generar hipotermia y deshidratación prematura, lo que puede provocar problemas graves de salud poniendo en peligro la vida.   Es por lo anterior, que tener un sistema automático que brinda recomendaciones sobre qué tan conveniente es realizar actividades al aire libre dependiendo de las condiciones climáticas puede ser muy útil, evitando de esta manera situaciones que pongan en riesgo la salud de las personas. El proyecto actual tiene como objetivo ser una herramienta útil en este sentido, empleando la tecnología de aprendizaje automático para dar predicciones precisas y ayudar en la toma de decisiones para garantizar la seguridad y el bienestar de todos al realizar actividades al aire libre.  



METODOLOGÍA

Este proyecto se desarrolló utilizando una metodología basada en la creación y entrenamiento de un modelo de clasificación utilizando la biblioteca Tensor Flow en Python. El propósito del modelo es usar las condiciones climáticas, específicamente la temperatura y la humedad, para predecir si realizar actividades al aire libre son seguras. El desarrollo de la propuesta consiste de los siguientes pasos: 1. Generación de datos simulados Se creó una función llamada "datos simulados" que generó 1500 valores aleatorios de humedad y temperatura dentro de rangos específicos (-10.0 °C a 50.0 °C) para la temperatura y (0.0% a 80.0%) para la humedad. Adicionalmente, estos datos se etiquetaron como (1s y 0s) según si era viable salir a realizar actividades al aire libre, se utilizaron condiciones que establecen que es seguro si la temperatura está entre 10.0 y 38.0 grados Celsius, y la humedad está entre 20.0 y 65.0. 2. Conjuntos de datos Los datos generados aleatoriamente se dividieron en conjuntos de entrenamiento, validación y prueba utilizando la función "train_test_split" de la biblioteca scikit-learn. Se utilizó el 70% de los datos aleatorios para entrenar el modelo, un 15% para validar y el otro 15% para testearlo. 3. Creación del modelo Para desarrollar el modelo de clasificación, se utilizó la API secuencial de Tensor Flow llamada Keras, que permite construir y entrenar modelos de aprendizaje profundo mediante redes neuronales de manera secuencial capa por capa. Para este caso en específico, la capa de entrada, tiene 16 neuronas y cuenta con una función de activación ReLU (Rectified Linear Unit), que se asegura de que el valor mínimo de salida sea cero y si es mayor se retorne el mísmo número, ayuda a que el proceso de formación converja mucho más rápido de lo que lo haría la red de otra manera.[1] La segunda capa es la de salida, que tiene una sola neurona que utiliza la función de activación sigmoide. La función sigmoide se encarga de dar resultados entre cero y uno. Se considera un valor No aceptado cuando está por debajo de 0.5; de lo contrario, es Aceptado, por consiguiente es apropiado para problemas de clasificación binaria [2] 4. Entrenamiento del modelo En este caso, se utilizó el optimizador adam (Adaptive Moment Estimation), siendo uno de los más usados para actualizar los pesos  de la red neuronal durante el entrenamiento. Para calcular la pérdida, se empleó la función "binary_crossentropy", ya que indica qué tan lejos está la salida pronosticada del resultado esperado y aparte produce un entrenamiento más rápido con una mejor generalización del modelo en problemas de clasificación binaria, ya que mide la diferencia entre las etiquetas reales y las predicciones del modelo.[2] El entrenamiento del modelo se realizó en 100 épocas, lo que da a entender que se recorrió el conjunto de valores 100 veces. Aparte, se definió que el modelo actualiza sus pesos después de procesar 8 ejemplos (batch_size=8) a la vez. Se ajustaron los pesos entre las conexiones con el objetivo de que el modelo pueda realizar predicciones precisas en función de los datos de entrenamiento. 5. Evaluación del modelo Se evaluó el rendimiento del modelo utilizando los datos de entrenamiento y prueba. Se obtuvo la precisión (accuracy) del modelo en ambos conjuntos para tener una idea de cómo generaliza a nuevos datos.  


CONCLUSIONES

La simulación del modelo demostró tener un rendimiento prometedor, debido a que basados en factores climáticos como la temperatura y la humedad, se recomienda de manera acertada si es seguro o no salir  a realizar actividades al aire libre, logrando de esta manera a la tomar decisiones que ayuden a garantizar la seguridad y salud del individuo. En una implementación con sensores físicos en un hardware específico, se necesitaría adaptar el modelo según las necesidades específicas del escenario. Sin embargo, esta simulación proporciona una base sólida para futuras implementaciones y mejoras. Finalmente, el modelo refleja estadísticas de precisión bastante buenas. debido a que no llegan al nivel de sobreajuste. Lo que demuestra que tanto la forma de dividir el conjunto de datos como el resto de metodologías usadas para entrenar el modelo fueron idóneas para el sistema.  
Albarran Barbosa Jessica Denisse, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Albarran Barbosa Jessica Denisse, Universidad Michoacana de San Nicolás de Hidalgo. Ceja Reyes Guillermo, Universidad de Guadalajara. Muñoz Silva César Edmundo, Instituto Tecnológico de Tepic. Naranjo Blanco Francisco Alfonso, Instituto Tecnológico Superior de Los Reyes. Trujillo Jiménez José Alberto, Universidad de Guadalajara. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La población en México ha crecido exponencialmente durante los últimos 70 años. El aumento ha llevado a la necesidad de construir nuevas casas que requieren servicios básicos como agua, drenaje y electricidad. Sin embargo, la obtención de electricidad a través de combustibles fósiles ha generado altas emisiones de Gases Efecto Invernadero y contribuido al calentamiento global. La expansión urbana y el consumo desmedido de recursos naturales han tenido un impacto negativo en el medio ambiente. Para abordar este problema, se presenta el proyecto "Diseño de una Casa Ecológica Autosustentable" (CEA), que busca crear viviendas cómodas y respetuosas con el medio ambiente. Las CEA son una respuesta proactiva al cambio climático y promueven la construcción sostenible para reducir la huella de carbono y contribuir a la estabilidad del clima.



METODOLOGÍA

Durante el desarrollo del proyecto, se llevaron a cabo numerosas investigaciones documentales y sesiones de video sobre diversos temas relacionados, así como sesiones de trabajo colectivo para compartir ideas de lo investigado y tomar decisiones sobre la mejor alternativa. Se trató el uso de energía en edificaciones, se exploraron aspectos fundamentales como la irradiación solar, el viento, la temperatura, el confort térmico, el aprovechamiento del activo solar y la consideración de la visión humana en el diseño. También se estudió el principio del diseño con luz diurna, el tratamiento de aguas grises y la importancia de la ventilación natural en el contexto ecológico. Para enriquecer aún más los conocimientos sobre el tema, se realizó una visita de estudio al Instituto Mexicano de Tecnología del Agua (IMTA), donde se pudo observar en vivo el funcionamiento de dos casas ecológicas diferentes. Además, se conocieron las tecnologías y ecotecnias empleadas en estas viviendas, incluyendo el tratamiento de aguas, lo cual brindó una perspectiva más amplia y valiosa para el diseño de la Casa Ecológica Autosustentable. En el proyecto, se planea equipar la vivienda con tecnología de vanguardia para optimizar la eficiencia energética. Se implementarán estratégicamente paneles fotovoltaicos para captar la energía del sol, que es una fuente de energía renovable, y convertirla en energía eléctrica. Esta electricidad generada será utilizada para alimentar los sistemas de iluminación y los electrodomésticos, promoviendo el uso responsable de la energía. Adicionalmente, se prevé instalar generadores eólicos con eje vertical para aprovechar el viento, complementando la producción energética con otra fuente limpia y renovable.  Con estas acciones, el proyecto de la Casa Ecológica Autosustentable busca no solo promover la adopción de prácticas amigables con el medio ambiente, sino también inspirar y servir como ejemplo para futuras construcciones ecológicas y sostenibles, contribuyendo así a la lucha contra el cambio climático y fomentando un uso más responsable de los recursos naturales. Para garantizar el uso responsable del agua se incorporará un sistema de cosecha de agua de lluvia en techos, que permita captar y almacenar este vital líquido hacia depósitos subterráneos, para ser aprovechado en épocas de escasez, así como un sistema de filtración para obtener agua potable, lo que permitirá disponer de agua pluvial para tareas del hogar, fortaleciendo la auto sustentabilidad del hogar.  A su vez se implementará un sistema tratamiento de aguas grises: estas aguas provenientes de lavamanos, duchas y lavadoras se filtrarán y purificarán con ozono para ser reutilizadas en actividades cotidianas, tales como el riego de jardines y descargas de inodoros, lavado de ropa y el aseo de la casa. Esto no solo reducirá el consumo de agua potable, sino que también contribuirá a disminuir la contaminación ambiental, es importante tener esto en cuenta debido a que Organización Mundial de la Salud (OMS), menciona que una persona requiere de 100 litros de agua al día (5 o 6 cubetas grandes) para satisfacer sus necesidades [5], tanto de consumo como de higiene y lamentablemente en México según datos proporcionados por el Sistema de Aguas de la Ciudad de México (SACMEX), el consumo promedio de agua por persona en la CDMX es de aproximadamente 380 litros por día[6].


CONCLUSIONES

El proyecto ha sido pensado para acoger a una familia de 5 personas, esta vivienda ofrece un ambiente plácido y armonioso mientras mantiene un consumo energético e hídrico por debajo de los estándares establecidos. Su diseño, novedoso y creativo, garantiza no solo el confort térmico sino también una iluminación óptima, brindando una experiencia habitacional única. En vista de nuestro compromiso con el medio ambiente, anhelamos que el Gobierno de la República respalde este proyecto mediante la implementación de Hipotecas Verdes, especialmente destinadas a personas de bajos ingresos. De esta manera, daremos un paso significativo hacia un México autosustentable, donde la armonía entre la naturaleza y el desarrollo humano se vuelva una realidad palpable. Es nuestro propósito fomentar una cultura de conciencia ecológica, donde cada individuo pueda disfrutar de una vivienda que respete y cuide nuestro planeta, forjando así un futuro más prometedor y sostenible para las generaciones venideras, juntos podemos construir un país en armonía con la naturaleza y trascender hacia un futuro próspero y responsable con el medio ambiente.
Albores Cruz Ailin Lizette, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dra. Ma. del Carmen Cortés Sánchez, Benemérita Universidad Autónoma de Puebla

TRASTORNOS DEL SUEñO UN MODELO DE NARCOLEPSIA


TRASTORNOS DEL SUEñO UN MODELO DE NARCOLEPSIA

Albores Cruz Ailin Lizette, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Ma. del Carmen Cortés Sánchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El sueño es considerado un estado reversible en el cual el organismo disminuye su percepción sensorial y disminuye su respuesta a estímulos externos. En él ocurren cambios fisiológicos como son la termorregulación, síntesis de proteínas y la modulación de la liberación de múltiples hormonas. Las diversas teorías sobre la función del sueño están referidas a la restauración, la consolidación de la memoria, el procesamiento de información y el proceso de maduración. El ciclo sueño-vigilia se compone de dos estados principales: El estado de vigilia y el estado de sueño donde se experimentan las diferentes etapas del sueño. Dentro del sueño se identifican dos estados: El sueño de ondas lentas (SOL) y el sueño con movimientos oculares rápidos (MOR). Se divide en 4 etapas o estadios que se basan en el electroencefalograma (EEG) de acuerdo a las frecuencias de la actividad cerebral, teniendo el umbral de activación más bajo en la etapa 1 y el más alto en la etapa 4. La melatonina es una hormona producida principalmente por la glándula pineal y desempeña un papel crucial en la regulación del ritmo circadiano y los patrones de sueño-vigilia.De este modo los trastornos del sueño son alteraciones que se presentan en un aumento o disminución del sueño y suelen afectar el funcionamiento diurno. La narcolepsia es un trastorno del sueño con interrupción del sueño en la vigilia, presentándose como signo importante hipersomnolencia diurna. Este tipo de trastorno se relaciona con la muerte de neuronas orexinérgicas que son neuropéptidos sintetizados en el área perifornical de la región posterior del hipotálamo. se caracteriza por excesiva somnolencia diurna, transiciones con latencias cortas de la vigilia al sueño de movimientos oculares rápidos, cataplejía  y alucinaciones hipnagógicas. Actualmente los fármacos utilizados para el tratamiento de la narcolepsia incluyen D-anfetamina, modafinil y antidepresivos tricíclicos como la clomipramina. Los modelos animales existentes de narcolepsia-cataplejía incluyen a perros narcolépticos (Doberman, Labrador), a ratones carentes del gen para orexina o sus receptores (knock-out) y a las ratas taiep con las cuales se trabaja está línea de investigación, en el laboratoio de Neurofisiología de la conducta y control motor del Instituto de Fisiología de la Benemérita Universidad Autónoma de Puebla. Las ratas taiep son mutantes autosómicos recesivos del gen de la tubulina derivadas de la cepa de ratas Sprague Dawley. Se caracterizan por temblor, ataxia, episodios de inmovilidad tónica, epilepsia y parálisis progresiva de las extremidades posteriores, lo que deriva en su nombre, que acuña una palabra con la primera letra de sus principales signos motores. Los episodios de inmovilidad que presentan estas ratas muestran desincronización cortical, ritmo theta en el hipocampo siendo características homólogas al sueño MOR, característica de la narcolepsia, adicionalmente presenta una transición de la vigilia al sueño MOR con una corta latencia. El objetivo de esta línea de investigación se centra en estudiar los mecanismos involucrados en los episodios de narcolepsia-cataplejía, patología que hasta la fecha no tiene un tratamiento específico.



METODOLOGÍA

Se utilizaron 4 ratas taiep macho de 6 meses de edad en condiciones estándar de bioterio, con ciclo luz-oscuridad 12:12 con encendido de las luces a las 7:00 horas. Humedad del 35-45% con agua y comida para roedores. Se les suministró intraperitonealmente melatonina en dosis de 5, 10 y 20 mg/kg.   Cirugía estereotáxica Mediante cirugía estereotáxica, se implantaron electrodos para registro electroencefalográfico. Se realizó una incisión en la dermis y se realizaron trepanos en las áreas frontal, parietal y occipital del cráneo para colocar electrodos de tornillo. Además, se les colocaron 2 electrodos en los músculos de la nuca para registrar actividad muscular y un electrodo bipolar en el área CA1 del hipocampo. Las ratas se mantuvieron anestesiadas (anestesia general) durante todo el procedimiento. La anestesia se administró intraperitonealmente. Además, se administró anestesia local en los canales auditivos para colocar dos lápices de metal para impedir el movimiento lateral de la cabeza de la rata. Condiciones experimentales Se les dió un periodo de recuperación de 5 días y posteriormente se sometieron 3 días a habituación por 3 horas a las condiciones experimentales. El día del experimento fueron conectadas en la caja de registro para realizar el registro electroencefalográfico. Para calificar los estadios del ciclo sueño-vigilia se utilizó el programa Profusion Study Manager que con ayuda de videograbaciones se marcaron las fases de vigilia, sueño de ondas lentas y sueño MOR, así como los episodios de inmovilidad.


CONCLUSIONES

Los ciclos del sueño desempeñan un papel fundamental en el bienestar y el funcionamiento óptimo de nuestro cuerpo y mente. La comprensión de estos ciclos y su influencia en nuestra salud nos lleva a la conciencia sobre la importancia de mantener hábitos de sueño regulares y de alta calidad. La melatonina, al influir en los ritmos circadianos y regular el ciclo sueño-vigilia, podría impactar la regulación de la respuesta emocional y la estabilidad muscular durante la cataplejía. Al ajustar el patrón de sueño-vigilia, la melatonina podría mejorar la función del sistema orexinérgico, influyendo en la regulación de las respuestas emocionales y motoras. Es relevante destacar que, aunque la melatonina no representa una solución definitiva para la narcolepsia cataplejía y su efectividad puede variar, se continúa explorando en profundidad la relación entre ambas. Este estudio sigue en curso, ya que la melatonina, al regular el ciclo circadiano y la inducción del sueño en respuesta a estímulos de luz, busca disminuir los episodios de inmovilidad durante el período de luz.
Alcantar Alcantar Borbón Jesús, Universidad de Sonora
Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington

PROTOTIPO FUNCIONAL PARA LA GENERACIóN DE BIOGáS CASERO QUE POR MEDIO DE UNA APLICACIóN MóVIL QUE PERMITA LA GESTIóN DEL  ESTIéRCOL VACUNO, PARA COMUNIDADES RURALES  DEL ESTADO DE JALISCO, MéXICO.


PROTOTIPO FUNCIONAL PARA LA GENERACIóN DE BIOGáS CASERO QUE POR MEDIO DE UNA APLICACIóN MóVIL QUE PERMITA LA GESTIóN DEL  ESTIéRCOL VACUNO, PARA COMUNIDADES RURALES  DEL ESTADO DE JALISCO, MéXICO.

Alcantar Alcantar Borbón Jesús, Universidad de Sonora. Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

México es un país situado en Centro América con 1.973 millones de km² de extensión y 32 estados. La ganadería es un sector importante en el país, siendo Veracruz el principal productor con un 13% del total, seguido por Jalisco con un 12%. La mayoría de estados en México carecen de una red de gas domiciliario, lo que lleva a la propuesta de utilizar biodigestores caseros para aprovechar el estiércol ganadero y generar biogás. Este biogás sería una fuente de energía sostenible y económica para los hogares de comunidades rurales en Jalisco, reduciendo la necesidad de comprar cilindros de gas de forma recurrente.



METODOLOGÍA

• Formulación de alternativas sustentables de generación de combustibles. • Formulación de alternativas sustentables de generación de combustibles. • Búsqueda en las bases de datos académicas para buscar trabajos académicos relevantes relacionados a la problemática planteada.


CONCLUSIONES

El proyecto no encontró investigaciones similares que se enfocaran en el IOTE (Índice de Ocupación Total del Equipo) más material reciclable para el biodigestor casero, según una búsqueda en diferentes bases de datos bibliográficos. Se determinó que la cantidad de biogás producido diariamente a partir de desechos orgánicos de ganado bovino puede variar debido a factores como el tamaño del biodigestor, la cantidad de desechos orgánicos utilizados y las condiciones de operación. Por lo tanto, se decidió añadir una báscula digital para medir y controlar estos factores. El proyecto de implementación de biodigestores en zonas rurales ofrece una gestión económica para los hogares al reducir la dependencia de combustibles fósiles y los costos asociados con la compra de gas. Aprovechar los residuos orgánicos para producir biogás beneficia la economía del hogar al convertir desechos en un recurso energético valioso. Esto puede tener un impacto positivo en el entorno alejado de servicios básicos, mejorando la calidad de vida y reduciendo la dependencia de recursos limitados.
Alcántara Sánchez Jonathan Emmanuel, Universidad de Guadalajara
Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO PARA LA DEGRADACIóN DE TINTES DE LA INDUSTRIA TEXTIL.


SíNTESIS Y CARACTERIZACIóN DE TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO PARA LA DEGRADACIóN DE TINTES DE LA INDUSTRIA TEXTIL.

Alcántara Sánchez Jonathan Emmanuel, Universidad de Guadalajara. Rivera Carcaño Neri Yedali, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua tiene un severo impacto no solo en los ecosistemas sino también en la salud. En las últimas décadas, se ha observado un incremento en la contaminación de ríos, mares, lagos y otros cuerpos de agua dulce; esto ocasionado por la descarga de aguas residuales sin tratar, al vertimiento y a la máxima emisión de productos químicos y materiales peligrosos. La industria textil es, después de la industria del petróleo, la segunda industria más contaminante del medio ambiente. En la etapa del proceso conocida como de tintorería y acabados se generan efluentes líquidos que contienen contaminantes de muy diversa naturaleza. Una fracción importante de los residuos, son los colorantes textiles. Estos compuestos químicos son poco biodegradables, por lo que presentan gran persistencia en el medio ambiente y los métodos de tratamiento biológicos tradicionales no son eficientes en su remoción, razón por la cual se ha visto un gran avance en el desarrollo de métodos de remoción, adsorción y/o degradación de colorantes.



METODOLOGÍA

El proceso experimental comenzó con la preparación del material fotocatalizador: TiO2-Au y TiO2-Ag. TiO2-Au / TiO2-Ag El fotocatalizador se preparó utilizando dióxido de titanio (TiO2), trihidróxido de oro [Au(OH)3], urea (CH4N2O) y agua destilada y en el caso del material fotocatalizador dopado con plata, se utilizó nitrato de plata (AgNO3). Se pesó el material necesario para preparar 8 muestras, se colocaron junto a vasos de precipitado a los que previamente se les vertió 5 ml de agua destilada. A continuación, el contenido de cada charola con reactivo fue depositado en un vaso de precipitado con agua destilada, inicialmente se agregó la urea (CH4N2O) hasta que ésta se disolviera, después se añadió el TiO2, agitando suavemente hasta homogeneizar la solución y finalmente se agregó el Au(OH)3, en el caso de la plata al final se agregó el AgNO3. Después de agregar y mezclar los reactivos uniformemente se calentaron las muestras empleando parrillas de calentamiento a una temperatura aproximada de 70 ºC, en un arreglo de 4 muestras por parrilla, se dejaron por un período de tiempo hasta que la mayor parte del agua en la solución se evaporó y dio como resultado un sólido arcilloso con apariencia semihúmeda; en el caso de la plata un factor determinante para finalizar la síntesis fue la coloración rosácea de la solución, generada por la oxidación de la plata, este proceso de evaporación duró un tiempo aproximado de 40-50 min, después de evaluar la consistencia del sólido, se retiraron los vasos del calentamiento y se esperó a que alcanzara el equilibrio térmico para poderlos manipular, se prosiguió a retirar el sólido del vaso y se vertió sobre crisoles de porcelana de 30 ml. Después de obtener los productos de la síntesis se llevaron a calcinar las muestras, en una mufla (FELISA modelo FE361) que se precalentó hasta alcanzar los 800 °C, al alcanzar la temperatura requerida, se introdujo cada crisol durante 5 min y posteriormente fueron retirados y expuestos a temperatura ambiente. Se extrajo el contenido de cada crisol y se vertió en un mortero para generar un polvo más fino el cual se transfirió a un vial. Se repitió este procedimiento hasta obtener un total de 5.5269 g de TiO2-Au y 4.8645 g de TiO2-Ag. Pruebas de degradación  Para llevar a cabo la degradación se construyó un fotoreactor que emitiera luz UV. Se trabajó con azul de metileno (AM) a 3 concentraciones distintas (10, 20 y 30 ppm). El experimento se realizó a 3 diferentes temperaturas (25, 30 y 35 ºC). Se tomaron 20 ml de disolución (H2O y AM) a 10, 20 y 30 ppm en vasos de precipitado y se agregó 0.1 g de TiO2-Au a cada muestra, lo mismo se realizó para el TiO2-Ag. Para favorecer la homogeneidad durante la degradación, se suministró aire al sistema para evitar la sedimentación del material. Se realizaron 5 experimentos, el primero sin radiación UV durante 30 min, del segundo al quinto, durante 1 hora con radiación UV, teniendo un tiempo total de 4 horas de fotocatálisis. Al término de cada experimento, se tomaron alícuotas de 2ml de cada muestra y se recolectaron en viales plásticos. Las muestras se introdujeron en una centrífuga (Hermle Z 216M) a 7200 rpm durante 1.5 min. Una vez separadas las 2 fases, se recolectaron  aproximadamente 2 ml de líquido en una celda para medir su absorbancia en un espectrofotómetro UV-Vis (Thermo Scientific GENESYS 10S). Finalmente, los datos obtenidos fueron graficados para su posterior análisis y/o discusión.


CONCLUSIONES

Durante la estancia se adquirieron nuevos conocimientos sobre materiales semiconductores, los efectos de la temperatura y la actividad fotocatalítica del TiO2, se logró aprender nuevas técnicas y rutas de síntesis de nanomateriales. De acuerdo a los resultados obtenidos por la espectroscopía UV-Vis se observó un aumento en la actividad fotocatalítica en función de la temperatura, sobre todo en las muestras de TiO2-Ag, donde existió una disminución de la absorbancia a mayor concentración del colorante hasta que convergió en una longitud de onda con respecto al otro material sintetizado.
Alcaraz Londoño Luisa María, Universidad Autónoma Latinoamericana
Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ANáLISIS DEL ESFUERZO AUTOMOTRIZ MEDIANTE DATOS OBD2 CON TéCNICAS DE INTELIGENCIA ARTIFICIAL


ANáLISIS DEL ESFUERZO AUTOMOTRIZ MEDIANTE DATOS OBD2 CON TéCNICAS DE INTELIGENCIA ARTIFICIAL

Alcaraz Londoño Luisa María, Universidad Autónoma Latinoamericana. Delgado Garcia Elvia Guadalupe, Instituto Tecnológico Superior de Xalapa. Suárez Rojas Santiago, Universidad Autónoma Latinoamericana. Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el principal transporte para el ser humano es el automóvil, por muchas razones, por ejemplo, según el barómetro de seguridad Vial y Movilidad 2022 de Michelin, más del 50 porciento de la población utiliza un vehiculo para trasladarse, muchas personas se sienten con mayor confianza al tener su propio auto, aumentando la comodidad, seguridad y la capacidad de carga que pudieran tener. Asi mismo, tomando datos del INEGI, los vehículos registrados en circulación en el 2019 fueron, 49,869,688 a nivel nacional y para el 2020 fueron, 53,115,396 autos, aumentando considerablemente. Sin embargo, uno de los pricipales problemas por la alta demanda de carros, es el trafico, la vihabilidad en malas condiciones, y en especial el mantenimiento del mismo, el cual debe estar en optimas condiciones para evitar daños en su infraestructura. Dicho esto, una de las innovaciones para el sistema automotriz ha sido la incorporación de los sitemas OBD2 (On Board Diagnostic - Second Generation) el cual su objetivo principal es detectar las fallas en el sistema de inyección y contrarrestar las emisiones que se provocan en la combustión. En la búsqueda continua por mejorar la experiencia de conducción y garantizar la seguridad vial, la incorporación de tecnologías inteligentes se ha vuelto indispensable. En este contexto, los sistemas OBD2 han demostrado ser una de las innovaciones más significativas en el mundo automotriz. Sin embargo, ¿y si pudiéramos llevar esta tecnología un paso más allá? ¿Y si pudiéramos utilizar los datos recopilados por el OBD2 para medir el estrés del automóvil mientras se desplaza por las calles y carreteras?  



METODOLOGÍA

Se estableció el diseño del estudio como un enfoque experimental utilizando datos recopilados de un OBD2 instalado en un automóvil en movimiento. Asi mismo, al tener una base de datos muy extensa, en la cual se recabaron 43 trayectorias, las cuales representan 21 días, se manejarón entre 3,000 a 5,000 datos por trayecto, por lo cual este preprocesamiento incluyó la normalización de los datos y la eliminación de valores atípicos o registros incompletos que pudieran afectar la precisión de la red.  El nivel de estrés se podrá calcular con el algoritmo que se empleara en MATLAB, esté será entrenado con diferentes metodos, esto con el fin, de minimizar el grado de error, en sus resultados y comparar las salidas posibles con cada método. Ahora bien, es necesario una función de activación para la neurona, la cual se calcula el estado de actividad de una neurona; transformando la entrada global (menos el umbral) en un valor (estado) de activación, cuyo rango normalmente va de (0 a 1) o de (-1 a 1). Esto es así, porque una neurona puede estar totalmente inactiva (0 o -1) o activa (1). Despúes se pasa a definir la función de entrenamiento, hay que recordar que en total fueron catorce tipos diferentes que se establecieron, por lo cual, se intentó realizar un algoritmo general y que lo unico que variará fuera la indicación del entrenamiento, en este caso, se inicio por el modo CGF, gradiente conjugado de Fletcher - Powell y se termino en el modo GDA, gradiente descendiente con aprendizaje adaptativo, los tiempos de entrenamiento fueron:    Los modelos de entrenamiento de gradiente descendente y secante de un paso, tuvieron un tiempo estimado de aprendizaje al rededor de 40 minutos por cada uno, dando un total de 2.6 horas. Los modelos de entrenamiento de gradiente conjugado, retropropagación resiliente y BFGS quasi - Newton, tuvieron un estimado de 30 minutos por cada uno, dando un total de 3 horas. Los modelos de entrenamiento Levenberg - Marquardt y Regularización Bayesiana, tuvieron un tiempo estimado de aprendizaje al rededor de 15 minutos por cada uno, dando un total de 30 minutos. Con esto se estima que el promedio de tiempo que tomó entrenarlo con los diferentes métodos y demás, fue de 5 horas con 36 minutos. Por ejemplo con el entrenamiento gradiente descendiente con aprendizaje adaptativo (Figura 8), el mejor rendimiento de entrenamiento fue en la epoca 48,750 de 50,000 a ejecutar, con un error de 0.061913, manteniendo su promedio de error de -1 a 0. En total se obtuvo que la mayoria de los días fueron con estrés MODERADO, teniendo solo 7 días con estrés LIGERO y 3 días con estrés NULO.    


CONCLUSIONES

Con base en los resultados obtenidos en esta investigación, se ha logrado demostrar que es posible medir el nivel de estrés de un automóvil mediante el análisis de datos recopilados a través de un OBD2 instalado en el vehículo. A través del diseño y entrenamiento de una red neuronal utilizando diferentes métodos de optimización, se ha desarrollado un algoritmo que puede determinar con precisión el nivel de estrés del automóvil durante una ruta específica. La arquitectura de la red neuronal utilizada, con sus funciones de activación intercaladas y una función de activación final "purelin", ha demostrado ser eficaz para clasificar y normalizar los datos de entrada. Los entrenamientos realizados han permitido evaluar diferentes técnicas y métodos de optimización, identificando que la Regularización Bayesiana se presenta como el entrenamiento más efectivo, tanto en términos de tiempo de ejecución como de precisión en sus resultados. Estos resultados tienen implicaciones significativas en diversas áreas, como la industria automotriz y la seguridad vial. La implementación de este algoritmo podría ser utilizada para monitorear vehículos en tiempo real y brindar diagnósticos precisos durante el mantenimiento o en situaciones de garantía. Además, el sistema podría ser aplicado para detectar comportamientos peligrosos o conducción bajo influencia de alcohol, lo que contribuiría a reducir accidentes de tráfico y mejorar la seguridad vial.
Alcibar Zubillaga Julian, Instituto Politécnico Nacional
Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar

FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS


FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS

Alcibar Zubillaga Julian, Instituto Politécnico Nacional. Fragoso Macedo María Guadalupe, Universidad Autónoma del Estado de México. Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El "Framing" se refiere a la manera en que los medios de comunicación, a través de sus elecciones lingüísticas y visuales, dan forma a la cobertura de eventos y situaciones específicas. Varias disciplinas contribuyeron en la conformación de lo que hoy se conoce como teoría del Framing: la psicología, la sociología, los estudios sobre los movimientos sociales y la comunicación, por mencionar las áreas más sobresalientes. Al seleccionar ciertas palabras, imágenes o enfoques para presentar una noticia, los medios pueden influir en cómo las personas entienden y reaccionan a esa información. El problema planteado en la investigación es cómo se puede utilizar el "Framing" como una herramienta analítica para examinar cómo los medios de comunicación presentan las noticias y cómo esto afecta la percepción del público, basándonos en modelos de procesamiento de lenguaje natural. Al abordar este problema de investigación, se busca comprender mejor cómo el "Framing" puede ser una herramienta útil para analizar y desentrañar los mecanismos detrás de la presentación de las noticias, y cómo esto afecta la comprensión del público sobre los acontecimientos y temas importantes en la sociedad. Además, este enfoque también puede tener implicaciones para la ética periodística y el papel de los medios de comunicación en la formación de opiniones y actitudes en la sociedad.



METODOLOGÍA

Para lograrlo, se desarrolló una metodología que consistió en dos pasos fundamentales. Primero, se creó un conjunto de palabras o términos que representan los diferentes marcos temáticos que podrían estar presentes en los artículos de noticias. Este conjunto de palabras se conoce como "vocabulario de marcos temáticos". Se elaboró una lista de tópicos en el que se especifica a detalle cómo se evalúa cada criterio de la noticia, como tal la temática del estudio, cuyas opciones de encuadre son las siguientes: 1 = Economic, 2 = Capacity and resources, 3 = Morality, 4 = Fairness and equality, 5 = Legality, constitutionality and jurisprudence, 6 = Policy prescription and evaluation, 7= Crime and punishment, 8 = Security and defense, 9 = Health and safety, 10 = Quality of life, 11 = Cultural identity, 12 = Public opinión, 13 = Political, 14 = External regulation and reputation, 15 = Other. También se tomaron en cuenta tópicos de tonos en el que esté la noticia, cuyas opciones son las siguientes: Tono Neutral, Tono Positivo, Tono Negativo. Por otro lado, se debía especificar Autor, Fecha y Titulo (siempre y cuando la página de donde fue extraída la noticia contara con estos parámetros), por último, es necesario especificar el tópico general en el que se basaba la noticia. Cada noticia debe ser etiquetada mínimo 2 veces para que exista una mejor coherencia al especificar cada tópico. Luego, se aplicaron diversas técnicas de clasificación, las cuales permitieron etiquetar automáticamente los marcos temáticos en los artículos de noticias basándose en el vocabulario creado previamente. Estas técnicas de clasificación mostraron resultados prometedores, ya que indicaron la posibilidad de mejorar el rendimiento general del sistema de predicción.


CONCLUSIONES

Durante la estancia de verano, en su mayoría las noticias que fueron analizadas se enfocan en la observación de situaciones reales en casos concretos, tienen un enfoque más práctico y menos teórico. Nos permitió comprender como los medios de comunicación influyen en la percepción y la interpretación de la información por parte del público. Al desarrollar esta habilidad, podemos ser más conscientes de cómo la información es presentada y, en última instancia, tomar decisiones más informadas y responsables. En esta investigación, se aplicaron lenguajes de programación como Python, técnicas de procesamiento de lenguaje natural y algoritmos de inteligencia artificial para entrenar una herramienta llamada Label Box (la cual es completamente gratuita y sencilla de entender) la cual nos ayudó para analizar noticias basada en el concepto de "Framing". Python proporcionó una plataforma flexible y eficiente para manipular y analizar grandes conjuntos de datos de noticias, mientras que las técnicas de procesamiento de lenguaje natural permitieron extraer y comprender la información textual de manera automatizada. La inteligencia artificial se utilizó para entrenar modelos capaces de identificar patrones de "Framing" en las noticias y clasificar los diferentes marcos utilizados. El resultado de la investigación se materializó en una exposición y resumen sobre el entrenamiento del "Framing" desarrollado y su aplicación en el análisis de noticias. La exposición incluyó ejemplos prácticos de noticias analizadas, mostrando cómo la herramienta identificó y categorizó los marcos utilizados por los medios. Además, se presentaron gráficos y visualizaciones para ilustrar las tendencias de "Framing" y su distribución en las noticias. El resumen proporcionó una síntesis de los hallazgos clave, destacando la importancia de esta herramienta para comprender cómo los medios influyen en la percepción pública sobre temas importantes.
Aldana Alfaro Kevin Jesus, Instituto Tecnológico de Pachuca
Asesor: Dr. Juan Lopez Garcia, Universidad de Guadalajara

DESARROLLO DEL ESPACIO DEPORTIVO BAJO LA INFLUENCIA DEL MOVIMIENTO MODERNO EN GUADALAJARA.


DESARROLLO DEL ESPACIO DEPORTIVO BAJO LA INFLUENCIA DEL MOVIMIENTO MODERNO EN GUADALAJARA.

Aldana Alfaro Kevin Jesus, Instituto Tecnológico de Pachuca. Asesor: Dr. Juan Lopez Garcia, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La Arquitectura Moderna Mexicana, se caracteriza por la implementación formal y la influencia de los cánones europeos, así como la integración de los valores inherentes a la tradición mexicana. (Rodríguez, 2015). Ideas compartidas a través de diferentes medios que no solo pueden ser analizadas con la monumentalidad característica del desarrollo urbano, sino también con la integración de las artes en la arquitectura, tal como el muralismo mexicano. Por lo tanto, bajo un panorama de crecimiento económico, social, y la necesidad imperante de crear una imagen de modernidad en el país, éstos fueron los factores decisivos para el desarrollo de esta vertiente de la arquitectura en México. A finales del siglo XIX, hasta mediados del XX; Guadalajara conservaba un control de su expansión, sin embargo el crecimiento era inminente, pasó de tener 1,000 hectáreas a 9,000 y más de 1 millón de habitantes (García, 2020). Junto al crecimiento demográfico, se logró un impulso económico a escala local y nacional, que llevo consigo una época de gran calidad arquitectónica, pues fue ahí donde surge el esplendor de una manera contemporánea de hacer arquitectura en diferentes ciudades y Guadalajara no fue la excepción. (Ramírez, 2019) Sin embargo a pesar de la organización y la relevancia arquitectónica que tomó la ciudad; el crecimiento no fue lineal, gran parte de Guadalajara creció por inercia. Lo cual provocó que surgiera la necesidad de priorizar diferentes sectores como el de la salud, comercio y esparcimiento, para que así, el desarrollo urbano y social fueran encaminados hacia un mismo rumbo, limitando el surgimiento de problemas de bienestar y seguridad. Por lo tanto, se pretende analizar e interpretar el diseño, los materiales, los motivos y las personas principales que encabezaron la construcción de los elementos arquitectónicos del movimiento moderno en la ciudad de Guadalajara, particularmente de los espacios construidos del sector deportivo y de esparcimiento, dado que este rubro puede dar paso a un crítica de cuál fue la importancia del desarrollo social que se le daba a la población de esa época, mediante estos lugares que mejorarían su actividad atlética y recreativa.



METODOLOGÍA

La presente investigación es esencia Histórica, pues no es posible concebir el análisis de un elemento arquitectónico, sin el conocimiento preciso de su historia. Así como encontrar sus raíces y comprender su cambios, dará paso para generar una postura persuasiva de como fue su evolución desde su construcción, hasta el presente. Se fundamentará  la investigación esencialmente en el método científico. Dividiendo el trabajo en 4 fases: Fase 1_Introducción al contexto urbano de Guadalajara. Mediante el apoyo del asesor y bajo experiencia propia de su desarrollo personal en esta ciudad, se expone una visión particular y general de las características principales del lugar donde se lleva acabo la investigación. Actividades: Identificación de la ciudad y sus sectores principales. Delimitación de los sectores deportivos por su época (tentativa) de construcción. Análisis de los puntos de interés (Unidades deportivas) y su ubicación exacta. Fase 2_Visita a los sitios de interés: Se realizará un estudio de campo a las U. Deportivas para su reconocimiento inicial y familiarización con el lugar. Actividades: Identificación de placas conmemorativas y levantamiento topográfico Análisis de la afluencia de personas y las condiciones en las que se encuentra. Identificación de los materiales de construcción, así como el partido formal.  Fase 3_Validación formal de las fechas de Construcción: Una vez visitadas las unidades deportivas, se procede a verificar que dichos lugares pertenezcan a los años y al estilo del movimiento moderno de la ciudad de Guadalajara en el siglo XX. Actividades: Validación de las placas conmemorativas Búsqueda de documentos legítimos, videos, noticias periodísticas, planos arquitectónicos y mapas de proyección de la ciudad entre 1950 a 1975. Identificación de los autores de dichas obras, así como los proveedores de materiales para su construcción Descarte y enfoque a las Unidades deportivas de acuerdo a su expansión y año. Los archivos bibliográficos, históricos y arquitectónicos de interés, se preservan en instituciones estatales, locales, gubernamentales, culturales y académicas. Los cuales abarcan múltiples temas sobre las obras existentes o perdidas. Fase 4_Análisis formal y social de las unidades deportivas: Una vez delimitada y verificada la información, se procede a hacer el análisis de los elementos principales de esta investigación; U. Deportiva López Mateos y U. Deportiva Revolución. Se detalla dentro de esa evaluación, características como; Materiales, Estudio Formal, Programa Arquitectónico, Autor y año de construcción, inversión y contexto social, político y económico en el cual se desarrolla. Actividades: Estudio de elementos característicos del movimiento moderno (Formas y materiales). Análisis de la situación de la ciudad dentro de 1950 a 1975 Postura final del análisis de dichas obras, la esencia de sus diseño e identificación de sus características principales.


CONCLUSIONES

El Movimiento Moderno en Guadalajara, marca un antes y un después en el desarrollo de esta ciudad. Trae consigo, nuevos sistemas de construcción, nuevos materiales y sobre todo una nueva idea de como plasmar los espacios públicos para la sociedad. Mediante el enfoque en el sector deportivo y a través de la arquitectura, se busca una nueva presentación de crecimiento en la ciudad, fomentando la formación de atletas, atrayendo la inversión federal y la postulación para juegos importantes como; México 68´ y Panamericanos 2011. Una apuesta por el desarrollo y crecimiento de la ciudad mediante la arquitectura del Movimiento Moderno, fue una respuesta acertada a las necesidades de la mancha urbana que se estaba generando en Jalisco.
Aldrete Tovar Frida Monserrat, Instituto Tecnológico de Matamoros
Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla

DESIGN THINKING (PENSAMIENTO DE DISEñO) PARA EL DESARROLLO DE CONTENIDOS VIRTUALES PARA EL APRENDIZAJE DE ESTUDIANTES DE INGENIERíA.


DESIGN THINKING (PENSAMIENTO DE DISEñO) PARA EL DESARROLLO DE CONTENIDOS VIRTUALES PARA EL APRENDIZAJE DE ESTUDIANTES DE INGENIERíA.

Aldrete Tovar Frida Monserrat, Instituto Tecnológico de Matamoros. Garnica Tienda Mayra Andrea, Instituto Tecnológico de Matamoros. Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La tecnología cada vez es más importante dentro del mundo, dentro del ámbito de la educación a causa de esta era tecnológica se debe hacer un progreso en los métodos se enseñanza dentro de las aulas, esta investigación busca incorporar la tecnología y el Design Thinking para métodos de aprendizaje más eficientes.  Design Thinking, o Pensamiento de Diseño, es una metodología que busca la solución a los problemas en los que se enfrenta, se trabaja en equipo y se logran resultados innovadores.  El desarrollo de contenidos virtuales es un aspecto importante a la hora de que el alumno adquiera conocimientos, el Design Thinking (pensamiento de diseño) es una metodología con la cual se busca un mayor aprendizaje dentro del aula para los estudiantes de ingeniería, el individuo al aprender acerca de esta metodología genera diferentes métodos de resolución de un problema que se presenta.  



METODOLOGÍA

Se realizó una revisión de la literatura que consta con la revisión de diferentes bases de datos, bibliotecas y revistas con respecto al Design Thinking y su aplicación dentro de un contexto educativo.   Se llevo a cabo una matriz que consideran aspectos como el título, el contenido del documento, se utilizó una herramienta la cual proporciono las citas bibliográficas en APA 7 (BibGuru). Posteriormente se hizo una revisión del concepto indagando en diferentes páginas confiables las cuales contenían documentos, libros o artículos. Una vez que se obtuvo el concepto se comenzó a buscar la parte aplicada al ámbito escolar en donde se realizó una segunda revisión de literatura donde se hicieron resúmenes acerca de cada artículo para extraer lo más importante de cada uno. Se realizaron tres diferentes tablas en Excel en las que se vaciaron diferentes aspectos que fueron relevantes para la revisión de literatura, aspectos como (autor, año, título de la investigación, variable, tipo de investigación, numero de la muestra si este presento, palabras clave, país de origen del documento, objetivos, resultado de la investigación, área hacia la que iba dirigida, herramientas utilizadas y su aplicación de la metodología). Una vez que se obtuvo el concepto se comenzó a buscar la parte aplicada al ámbito escolar en donde se realizó una segunda revisión de literatura donde se hicieron resúmenes acerca de cada artículo para extraer lo más importante de cada uno.  Posteriormente se realizó una conexión entre los artículos y documentos, agrupando aquellos en los que los temas coincidieran. Para esto se utilizaron conectores los cuales nos fueron de utilizad para enlazar las ideas de cada autor. Dentro de la narrativa recopilada se recabo información donde se realizaban diferentes experimentos con alumnos para llevar a cabo la implementación de los contenidos virtuales. Al final se realizó un documento integrador en donde se integran todas aquellas ideas y conocimientos acerca del Design Thinking  Según (Steinbeck, R, 2011) Design Thinking tiene 5 etapas o pasos fundamentales:   Empatizar: adquirir conocimientos básicos sobre los usuarios y sobre la situación o el problema en general, y lograr empatía con los usuarios mirándoles de cerca.   Definir: crear un usuario típico para el cual se está diseñando una solución.   Idear: generar todas las ideas posibles.   Prototipar: construir prototipos reales de algunas de las ideas más prometedoras;   Evaluar: Aprender a partir de las reacciones de los usuarios a los distintos prototipos.  Teniendo en consideración estas etapas y con la ayuda de las nuevas tecnologías como PowerPoint o Canvas en donde puedes ilustrar mejor tus ideas, o incluso otras plataformas de comunicación como Microsoft Teams o Moodle que pueden ayudar a compartir tus ideas sin la necesidad de estar en el mismo lugar que las demás personas, un estudiante puede lograr emplear grandes soluciones creativas con  base a las nuevas tecnologías existentes y los pasos anteriormente mencionados de pensamiento de diseño.  Según Tuñón (2020), las nuevas generaciones de estudiantes (millennials y centennials) representan un gran porcentaje de jóvenes, que vivencian día a día una diversidad de medios digitales.  Dentro del documento titulado Innovación educativa en el aula mediante el Design Thinking y Game Thinking (Hugo Arias Flores, Janio Jadan Guerrero, Lucia Gómez Luna, 2019) realizarón un estudio de Aprendizaje Basada en Metáforas Narrativas y Gamificación a 62 maestros de educación primaria, secundaria y superior, el objetivo de este estudio es generar diferentes escenarios de interacción y motivación usando la plataforma de Moodle, para así implementar las nuevas tecnologías para un mejor aprendizaje. Además de seguir explotando aquellas plataformas ya existentes (Quizizz, Kahoot, Google Forms, etc). Los alumnos aprenden y comprenden nuevos temas para su formación académica.  De acuerdo con (Pérez Rodríguez, 2021) es un claro ejemplo para trabajar en el aula de Tecnología de manera cooperativa con el objetivo de que el alumnado conozca una de las metodologías de innovación ampliamente extendida en el ámbito profesional para la solución creativa problemas. 


CONCLUSIONES

Durante la estancia de verano de manera virtual se adquirieron conocimientos acerca de cómo implementar el Design Thinking junto con la tecnología dentro de las aulas para el mejor aprendizaje de los alumnos de ingeniería. Cuáles son los pros de la implementación de contenidos virtuales para una mejor recepción de los temas enseñados a los alumnos. Todavía no es un terreno 100% explorado a profundidad, pero mientras tenga lugar avances tecnológicos, los métodos de aprendizaje evolucionaran. Se espera que los conocimentos aprendidos se implementen dentro del aula.
Alduenda Guiza Deborah, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara

MODELADO MATEMáTICO EN VARIABLES DE ESPACIO DE ESTADO Y SIMULACIóN DE UN CONVERTIDOR REDUCTOR (BUCK)


MODELADO MATEMáTICO EN VARIABLES DE ESPACIO DE ESTADO Y SIMULACIóN DE UN CONVERTIDOR REDUCTOR (BUCK)

Alduenda Guiza Deborah, Universidad Michoacana de San Nicolás de Hidalgo. Salas Aragon Benjamin, Universidad de Guadalajara. Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El convertidor reductor (Buck), es un convertidor de potencia, que funciona con corriente directa (CD). A la salida de éste obtenemos una tensión menor a la que se aplicó a la entrada. Para obtener una tensión de salida deseada, se realizan cálculos de los elementos que lo conforman: inductores y capacitores. Sin embargo, cuando ya se tiene un convertidor buck con elementos que no podemos cambiar, ni volver a calcular para obtener una tensión de salida diferente, se recurre a obtener la ecuación matemática del convertidor ya fabricado, y a la simulación del sistema a través de algún programa como Matlab Simulink. En esta investigación nos enfocamos en obtención de la ecuación matemática en variables de estado de un convertidor buck ya fabricado, y también en su simulación a través de Matlab Simulink.



METODOLOGÍA

Primero se observó la placa de un circuito ya realizado en una PCB, para realizar el esquema del circuito. En ésta determinamos cuáles componentes lo conformaban y cómo iban interconectados entre ellos, así como, determinamos el valor del capacitor, inductor y resistencia de carga. El siguiente paso a realizar fue con el esquema construído su ecuación matemática a través de ecuaciones de variables de estado. Para esto se realizó un análisis en los dos estados del convertidor buck: estado prendido (on state) y estado apagado (off state). Una vez obtenida la ecuación de cada uno de sus estados, se promedian ambas ecuaciones para encontrar la ecuación que representa al convertidor reductor en variables de espacio de estado.  Se construye el circuito en el simulador de Matlab Simulink, con los mismos valores del circuito de la PCB. Para la frecuencia de conmutación que requiere el MOSFET del circuito se realizó una señal PWM a través de una señal dientes de sierra y una referencia, con la finalidad de poder controlar este PWM tanto en su ciclo de trabajo, como para agregarle una señal sinusoidal que perturbará nuestro PWM. Se simuló la ecuación matemática obtenida en Matlab Simulink, y se comparó con la simulación del circuito hecho anteriomente, para observar su comportamiento ante el mismo ciclo de trabajo. Una vez comprobado este comportamiento equivalente se procedió a realizar una respuesta a la frecuencia del sistema. En el que se variaba la frecuencia de la señal sinusoidal que perturba el PWM para la conmutación del MOSFET. A través de un bloque que realiza el análisis de Fourier pudimos obtener la información de magnitud y fase de la tensión de salida de la simulación del circuito y de la ecuación matemática del convertidor buck. Con la ayuda de un script realizado se reunió está información para poder realizar la gráfica del Diagrama de Bode de ambas simulaciones, para comprobar que ambos sistemas simulados se obtenían la misma respuesta a la frecuencia.


CONCLUSIONES

Durante la investigación se comprobó que la ecuación matemática obtenida de un sistema ya armado real y la simulación realizada de este circuito se obtuvieron resultados equivalentes ante un mismo ciclo de trabajo, teniendo una diferencia mínima, debido a que la ecuación matemática simulada actuaba idealmente, es decir, sin pérdidas en los componentes electrónicos.  Así mismo, al obtener el Diagrama de Bode de ambas simulaciones obtuvimos una respuesta a la frecuencia equivalente, las cuales nos confirmaban que la simulación del circuito y de su ecuación matemática se trataba de un sistema de segundo orden analizando su diagrama de bode de magnitud y de fase.
Alejandre García Cintia Cristina, Instituto Tecnológico de Jiquilpan
Asesor: M.C. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave

PROPUESTA DE REDISEÑO DE UNA PLANTA PARA LA AUTOMATIZACIÓN DE PROCESOS DE PRODUCCIÓN EN LA EMPRESA ACUICOLA EN GUASAVE SINALOA


PROPUESTA DE REDISEÑO DE UNA PLANTA PARA LA AUTOMATIZACIÓN DE PROCESOS DE PRODUCCIÓN EN LA EMPRESA ACUICOLA EN GUASAVE SINALOA

Alejandre García Cintia Cristina, Instituto Tecnológico de Jiquilpan. Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro. Torres Soriano Roberto Alejandro, Instituto Tecnológico de Gustavo A. Madero II. Asesor: M.C. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

En el estado de Sinaloa la actividad acuícola es de suma importancia ya que es un eje estratégico de la entidad. CODESIN consejo para el desarrollo económico de Sinaloa, indica en su reporte anual el volumen de producción, donde indica que la producción de camarón es de 80 mil toneladas anuales. (CODESIN, 2018). En el municipio de Guasave Sinaloa se cuentan con 100 granjas acuícolas camaroneras, con una superficie estimada de 7000 Has. De espejo de agua, actualmente están en operación 5500 Has. Lo que generan 800 empleos permanentes y 3000 empleos eventuales donde se producen 1000 toneladas de camarón. La Acuicola Los Ahumadas, se encarga del procesamiento de esta especie, con el frezado de camarón para su venta. En esta planta se cuenta con 9 áreas de trabajo, y trabajan  hasta 20 toneladas diarias, haciendo un trabajo semiautomatizado en unas áreas mientras que en otras se hace trabajo manual, no se cuenta con un sistema de automatización en las áreas de recepción,  clasificado y empaque, generando una desventaja en el proceso de competitividad con el resto de las empresas, porque se presentan problemas de tiempos muertos, rotación de personal, problemas de calidad y rendimiento, Así mismo los trabajadores de la áreas de clasificado y empaque realizan largas jornadas de trabajo lo que genera un desgaste físico y mental afectando en el rendimiento de sus actividades y tareas. Se ha detectado anomalías en la aplicación de la metodología, desde tiempos muertos y producto fuera de los límites de calidad. El problema planteado para el desarrollo de la presente investigación pretende responder a las siguientes preguntas: ¿Por medio de un plan de rediseño se podrá automatizar los procesos de producción de una manera más eficiente dentro de la empresa? ¿Cuáles serían las áreas con deficiencia en automatización?



METODOLOGÍA

Se inició con la realización de una investigación documental en artículos científicos de revistas, congresos, entrevistas y tesis, para conocer el proceso, las aplicaciones y las formas de trabajo en otros lugares del mundo que han hecho un procesamiento del camarón. Una vez con un conocimiento del proceso se logró identificar los diferentes problemas que se presentan en el frezado  de camarón en la empresa. Dentro de este marco se puede resaltar que se permite obtener información de las nuevas necesidades y las perspectivas que exigen los mercados. Se realizó una investigación minuciosa del área a automatizar a través de videos, fotografías y sesiones con el asesor, de manera que se propone el equipamiento requerido para mejorar la eficiencia. Se realizaron diagramas de flujo de procesos y diagrama de recorridos, así como aplicación de herramientas de calidad para hacer un diagnóstico de las áreas para identificar los problemas. Se propusieron remplazar procesos manuales por automatizados para reducir tiempos en la realización de dichas actividades. Las organizaciones deben optar por automatizar sus procesos a fin de ser más eficientes y obtener mayor rentabilidad ya que el mercado actual es más competitivo. (RICOPIA TECNOLOGIES, 2018). La automatización acelera el tiempo de atención de las tareas y actividades, además de eliminar los errores humanos que pudiesen cometer al realizar las tareas manuales (FLOKZU, 2018).


CONCLUSIONES

La automatización en las empresas industriales va más allá que una simple mecanización ya que estas aportan a los humanos mecanismos en los que se reduce ampliamente el desgaste mental y físico del humano, a su vez el incremento de la eficiencia de los procesos. La propuesta en la empresa de frezado de camarón logrará reducir tiempos en dichas áreas a su vez también las largas jornadas que se perciben en las áreas de esta empresa. Los procesos de automatización no son malas inversiones a las empresas ya que aumentan las mejoras en eficiencia, así como reducción de tiempos y respuesta a esto hace a una empresa competente. Como parte de la propuesta se presenta automatizar las áreas de clasificado y empaque para mejora de procesos. como el transporte del producto y el ensamble de cajas para empaque. RESULTADOS POR OBTENER Disminuir largas jornadas de los trabajadores. Aumentar la eficiencia en los procesos. Actualizar los procesos de dichas áreas. Rendimiento dentro de la empresa. Competitividad en el mercado (generar confianza en los clientes) Eliminación de tiempos muertos en los trabajadores.
Almaguer Vazquez Sebastian, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Luz María Rodríguez Vidal, Instituto Tecnológico Superior de Irapuato

DESARROLLó DE DISPOSITIVOS DEL INTERNET


DESARROLLó DE DISPOSITIVOS DEL INTERNET

Almaguer Vazquez Sebastian, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Luz María Rodríguez Vidal, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En los últimos años se ha visto un importante avance en el desarrollo de dispositivos del internet de las cosas y sus aplicaciones. En el presente trabajo de investigación tiene el objetivo de investigar una forma barata y fácil para implementar de forma local un dispositivo capaz de hospedar un sitio web. Para tal fin, se hace uso de la tarjeta NodeMCU basado en el microcontrolador ESP32. La tarjeta es de bajo costo y permite crear un servidor web para que desde un dispositivo como una computadora, un celular o cualquier otro tipo de dispositivo capaz de conectarse a la red inalámbrica puedan tener acceso al servicio WEB. El incursionar en el desarrollo de este tipo de dispositivos puede contribuir en la apertura de nuevos desarrollos en el área de Internet de las Cosas para Aeropuertos tales como dar información de restaurantes, tiendas servicios dentro del aeropuerto hasta el recibir información o controlar el entorno donde opera el dispositivo IoT.



METODOLOGÍA

Para el desarrollo del proyecto se configuro la tarjeta NodeMCU usando la plataforma de software libre de Arduino. El NodeMCU es una tarjeta para el desarrollo de aplicaciones para el Internet de las Cosas. La tarjeta incorpora conectividad WiFi usando el protocolo TCP-IP, lo cual es importante para operar en una red inalámbrica o como servidor Web. A continuación se enlistan los pasos a seguir para llevar a cabo el presente proyecto: 1. Configurar arduino con la librera ESP8266WiFi.h 2. Establecemos una dirección IP estática para que los dispositivos puedan intercomunicarse con el servidor Web. Las direcciones de Internet son las son las etiquetas numéricas usadas para identificar, de manera única, un cliente de una red (Host), localizarlo en la red y, de ese modo encaminar paquetes IP entre clientes. 3. Se programa la página Web usando código fuente de HTML. 4. Se manda a la tarjeta línea a línea del código usando instrucciones como client.println. 5. Una vez configurando el servidor, usamos otra tarjeta para que se comunique como cliente, de esta forma se puede enviar y pedir información entre dispositivos. El navegador Web es decir “el cliente” hace la petición al servidor donde está la página Web, el cliente envía una petición http (HTTP request) y el servidor recibe la petición y le responde con la página web (HTTP response). Para nuestro caso, diseñamos una página Web con información de diferentes servicios dentro de un aeropuerto.


CONCLUSIONES

Es una gran actividad que se seguirá trabajando para seguir incorporando mejoras que nos apoyen a lograr un prototipo que pueda utilizarse en un aeropuerto. Este tipo de dispositivos o proyectos como el que se presenta en la investigación resulta importante para reducir el tiempo de espera en muchos servicios que se tienen en el aeropuerto. Los grandes conocimientos que se han desarrollado en estas semanas sobre los temas que se abordaron me hacen reflexionar a qué podemos llegar a realizar grandes cosas, sólo nos toca seguir enfocados en mejorar y participar en más actividades para llegar con mayores aportaciones que puedan seguir mejorando nuestro planeta. Se agradece el apoyo que se tuvo en este grandioso caminó a mí asesora la Maestra Luz María Rodríguez Vidal, al Doctor Juan Pablo Serrano Rubio, a mis compañeros con los que pude compartir e intercambiar ideas sobre lo interesante que es trabajar sobre estos temas. Agradezco al Instituto Tecnológico Superior de Irapuato y a las personas que integran el Verano Delfín por la oportunidad de participar en este importante programa.
Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro
Asesor: M.C. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave

PROPUESTA DE REDISEÑO DE UNA PLANTA PARA LA AUTOMATIZACIÓN DE PROCESOS DE PRODUCCIÓN EN LA EMPRESA ACUICOLA EN GUASAVE SINALOA


PROPUESTA DE REDISEÑO DE UNA PLANTA PARA LA AUTOMATIZACIÓN DE PROCESOS DE PRODUCCIÓN EN LA EMPRESA ACUICOLA EN GUASAVE SINALOA

Alejandre García Cintia Cristina, Instituto Tecnológico de Jiquilpan. Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro. Torres Soriano Roberto Alejandro, Instituto Tecnológico de Gustavo A. Madero II. Asesor: M.C. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

En el estado de Sinaloa la actividad acuícola es de suma importancia ya que es un eje estratégico de la entidad. CODESIN consejo para el desarrollo económico de Sinaloa, indica en su reporte anual el volumen de producción, donde indica que la producción de camarón es de 80 mil toneladas anuales. (CODESIN, 2018). En el municipio de Guasave Sinaloa se cuentan con 100 granjas acuícolas camaroneras, con una superficie estimada de 7000 Has. De espejo de agua, actualmente están en operación 5500 Has. Lo que generan 800 empleos permanentes y 3000 empleos eventuales donde se producen 1000 toneladas de camarón. La Acuicola Los Ahumadas, se encarga del procesamiento de esta especie, con el frezado de camarón para su venta. En esta planta se cuenta con 9 áreas de trabajo, y trabajan  hasta 20 toneladas diarias, haciendo un trabajo semiautomatizado en unas áreas mientras que en otras se hace trabajo manual, no se cuenta con un sistema de automatización en las áreas de recepción,  clasificado y empaque, generando una desventaja en el proceso de competitividad con el resto de las empresas, porque se presentan problemas de tiempos muertos, rotación de personal, problemas de calidad y rendimiento, Así mismo los trabajadores de la áreas de clasificado y empaque realizan largas jornadas de trabajo lo que genera un desgaste físico y mental afectando en el rendimiento de sus actividades y tareas. Se ha detectado anomalías en la aplicación de la metodología, desde tiempos muertos y producto fuera de los límites de calidad. El problema planteado para el desarrollo de la presente investigación pretende responder a las siguientes preguntas: ¿Por medio de un plan de rediseño se podrá automatizar los procesos de producción de una manera más eficiente dentro de la empresa? ¿Cuáles serían las áreas con deficiencia en automatización?



METODOLOGÍA

Se inició con la realización de una investigación documental en artículos científicos de revistas, congresos, entrevistas y tesis, para conocer el proceso, las aplicaciones y las formas de trabajo en otros lugares del mundo que han hecho un procesamiento del camarón. Una vez con un conocimiento del proceso se logró identificar los diferentes problemas que se presentan en el frezado  de camarón en la empresa. Dentro de este marco se puede resaltar que se permite obtener información de las nuevas necesidades y las perspectivas que exigen los mercados. Se realizó una investigación minuciosa del área a automatizar a través de videos, fotografías y sesiones con el asesor, de manera que se propone el equipamiento requerido para mejorar la eficiencia. Se realizaron diagramas de flujo de procesos y diagrama de recorridos, así como aplicación de herramientas de calidad para hacer un diagnóstico de las áreas para identificar los problemas. Se propusieron remplazar procesos manuales por automatizados para reducir tiempos en la realización de dichas actividades. Las organizaciones deben optar por automatizar sus procesos a fin de ser más eficientes y obtener mayor rentabilidad ya que el mercado actual es más competitivo. (RICOPIA TECNOLOGIES, 2018). La automatización acelera el tiempo de atención de las tareas y actividades, además de eliminar los errores humanos que pudiesen cometer al realizar las tareas manuales (FLOKZU, 2018).


CONCLUSIONES

La automatización en las empresas industriales va más allá que una simple mecanización ya que estas aportan a los humanos mecanismos en los que se reduce ampliamente el desgaste mental y físico del humano, a su vez el incremento de la eficiencia de los procesos. La propuesta en la empresa de frezado de camarón logrará reducir tiempos en dichas áreas a su vez también las largas jornadas que se perciben en las áreas de esta empresa. Los procesos de automatización no son malas inversiones a las empresas ya que aumentan las mejoras en eficiencia, así como reducción de tiempos y respuesta a esto hace a una empresa competente. Como parte de la propuesta se presenta automatizar las áreas de clasificado y empaque para mejora de procesos. como el transporte del producto y el ensamble de cajas para empaque. RESULTADOS POR OBTENER Disminuir largas jornadas de los trabajadores. Aumentar la eficiencia en los procesos. Actualizar los procesos de dichas áreas. Rendimiento dentro de la empresa. Competitividad en el mercado (generar confianza en los clientes) Eliminación de tiempos muertos en los trabajadores.
Almazán Almazán America Paola, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Ana María Aristizábal Montoya, Universidad Católica de Oriente

PROTOCOLO PARA EL ANÁLISIS DE LA CAPACIDAD ANTIOXIDANTE DE FRESAS (FRAGARIA X ANANASSA DUCH.) PRODUCIDAS MEDIANTE SISTEMAS DE AGRICULTURA CONVENCIONAL E HIDROPÓNICA


PROTOCOLO PARA EL ANÁLISIS DE LA CAPACIDAD ANTIOXIDANTE DE FRESAS (FRAGARIA X ANANASSA DUCH.) PRODUCIDAS MEDIANTE SISTEMAS DE AGRICULTURA CONVENCIONAL E HIDROPÓNICA

Almazán Almazán America Paola, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Ana María Aristizábal Montoya, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

La fresa es reconocida por sus  propiedades nutricionales ya que es una fruta muy rica en antioxidantes, fibra y minerales. Sin embargo, los frutos obtenidos bajo sistemas de hidroponía no son comunes ni reconocidos, tanto así que los consumidores no saben las características de los frutos ni los beneficios que representan para la salud en comparación a los frutos obtenidos bajo un cultivo tradicional. Además, se sabe que la producción tradicional en ocasiones impacta negativamente el medio ambiente y requiere mayor cantidad de recursos para su producción, tomando relevancia que el consumidor sea consciente de todos estos aspectos. Es por ello que este trabajo busca estructurar un protocolo para el análisis de la capacidad antioxidante por diversas metodologías de fresas producidas bajo estos dos sistemas de cultivo, con lo cual se buscará que el consumidor conozca los componentes bioactivos para su salud que aportan los frutos y cuál sería la mejor opción para incluir en la dieta.



METODOLOGÍA

El protocolo de análisis de la capacidad antioxidante de fresas se construirá con revisión de literatura sobre metodologías de cuantificación del contenido de fenoles totales con el método colorimétrico de Folin-Ciocalteu, capacidad antioxidante por el método del radical catiónico ABTS, decoloración del catión radical α-αdifenil-ß-picrilhidrazilo (DPPH) y medición por FRAP (Ferric Reducing/Antioxidant Power), documentando especificaciones para tratamiento de muestra, insumos y condiciones de operación del equipo, posteriormente se probará el protocolo con muestras de frutos del mercado local. Para analizar la capacidad antioxidante de la fresa, se realizaron las técnicas siguientes.  Técnica DPPH: Para la capacidad antioxidante de los extractos de fresa se cuantificó midiendo el grado de decoloración de una disolución metanólica de DPPH (20 mg/L), a una longitud de onda de 517 nm. El ensayo se lleva a cabo utilizando 100 μL de extracto y 900 μL de la solución de DPPH. Cada tratamiento se evaluó por triplicado, y como referencia del reactivo se usa la misma cantidad de DPPH y 100 μL del solvente de la muestra. Después de 30 minutos de reacción a temperatura ambiente y en la oscuridad, se lee la absorbancia a una longitud de onda de 517 nm. La curva de referencia se construye usando trolox como patrón primario. Los resultados se expresan como equivalentes trolox (TEAC). Técnica FRAP: Este ensayo se llevó a cabo en un buffer (pH 3,6) que contiene TPTZ y FeCl3. Se utilizan 900μL de esta solución, 50 μL de muestra y 50 μL de agua destilada. Después de 30 minutos de reacción se determina la absorbancia a una longitud de onda de 590 nm. Para cada muestra se debe de tener en cuenta la lectura de la absorbancia del blanco sin cromóforo, de la misma manera que en las pruebas anteriores. La curva de referencia se construye usando ácido ascórbico como patrón primario. Las actividades de las muestras en estudio se expresan como valor FRAP (mg de ácido ascórbico/100 g de muestra) o capacidad antioxidante expresada como equivalentes de ácido ascórbico (AEAC). ABTS: Consiste en la cuantificación de la actividad antioxidante determinada por el descenso de la absorbancia a 0.700 con longitud de onda de 732 nm, con buffer fosfato con pH de 7.4 en presencia de extracto de fresa, usando la solución del radical ABTS como blanco. A mayor capacidad antioxidante del extracto, habrá una mayor pérdida de color, proporcional al grado de captura del radical oxidado, (Boligon et al., 2014). Se prepara 10 μl de muestra más 900 μl de ABTS estandarizado. Para el blanco se prepara de muestra más 900 μl de buffer de 7.4 pH. Con referencias de 10 del solvente de la muestra más 900 μl de BTS estandarizado CONTENIDO DE FENOLES TOTALES: La determinación de fenoles se efectúa por el método colorimétrico de Folin-Ciocalteu modificado por Palomino et al., 2009. Se construyó una curva patrón usando como estándar ácido gálico. Se diluyo el extracto a una concentración en la cual el contenido de fenoles se ajusta al intervalo de la curva patrón. A 50 μL de cada solución de extracto, se adicionan 425 μL de agua y 125 μL de reactivo de Folin-Ciocalteau y se incubó por 5 minutos, luego se agregaron 400 μL de solución de Na2CO3 (20% m/v) y se deja reaccionar durante 30 minutos a temperatura ambiente. Posteriormente se realiza la lectura a 760 nm, tras calibración de espectrofotómetro con agua destilada y los resultados son expresados como mg de ácido gálico/100 g de extracto.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos y documentar de las diferentes técnicas para medir la capacidad antioxidante para el análisis de las fresas cultivadas bajo los sistemas convencional e hidropónico, con los cuales se busca brindar al consumidor información de los componentes bioactivos presentes en los frutos, su potencial beneficioso a la salud y cual sería la mejor opción para el consumo. Sin embargo, solo se lograron obtener resultados para las fresas de cultivo convencional, ya que los frutos del cultivo en hidroponía son escasos y apenas estaban iniciando la cosecha del mismo.
Almazán Guadarrama David Alfredo, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez

USO Y APLICACIONES DE ENERGÍAS ALTERNAS EN LA SOCIEDAD.


USO Y APLICACIONES DE ENERGÍAS ALTERNAS EN LA SOCIEDAD.

Almazán Guadarrama David Alfredo, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El secado de manzanas en Ciudad Juárez es una práctica arraigada en la región, aprovechando el clima favorable y permitiendo a los productores locales tener una forma adicional de comercializar sus productos. Además, las manzanas secadas son un snack saludable y conveniente, muy apreciado por su durabilidad y versatilidad en la cocina, mediante el cual se busca analizar mediante un monitoreo para determinar la eficiencia del secador de frutas a nivel general en la sociedad.



METODOLOGÍA

El secado de manzanas es un proceso crucial en la industria alimentaria y agrícola, ya que permite prolongar la vida útil de las manzanas y conservar su calidad. A lo largo de los años, se han desarrollado diferentes métodos y tecnologías para evaluar el proceso de secado de las manzanas, desde técnicas tradicionales hasta enfoques más avanzados basados en instrumentación y análisis de datos. En esta investigación, se centró en explorar y analizar el secado de frutas mediante el uso de un horno de convección mixto casero. Este mismo cuenta para su funcionamiento un sistema de resistencia conectado directamente al suministro de corriente, generando un total de 9.5 Amperios, qué combinado con el sistema de electricidad de 120 volts, generando una potencia de 1,140 watts, contando además un sistema de ventilación que permite que todo el calor generando por las resistencias circule por el interior teniendo un sistema de secado homogéneo por toda la cabina; aun así el horno de convección mixto casero se auxilia de un recubrimiento térmico, el cual le permite elevar la temperatura; ejemplo de esto si se cuenta con una temperatura externa de 33° Celsius en su interior el momento de realizar la toma de muestra con ayuda del termopar con el que cuenta el multímetro se aprecia una temperatura de 60° Celsius sin tener el apoyo calorífico suministrado por las resistencias. Para la medición de pruebas en el secado de frutas se realizaron mediante el uso de fruta como lo es en este caso Manzana (Red Delicious) La cantidad de agua en una manzana red Delicious puede variar ligeramente dependiendo del tamaño y la madurez de la fruta, pero en general, las manzanas contienen aproximadamente un 85% - 90% de agua. Esto significa que la mayor parte de su peso es agua. (stacks, 2021) El porcentaje restante se compone de carbohidratos, fibra, vitaminas, minerales y otros componentes. Es importante tener en cuenta que esta cifra es solo una estimación promedio y puede variar en función de diversos factores. Una vez elegida la clase a medir se procedió primeramente a lavar la fruta para posteriormente llevar a cabo el peso por unidad de la manzana. Se buscó que las rebanadas sean lo más homogéneas posible, por lo tanto, se realizó una serie de cortes estilo juliana de la mitad de la manzana sin tomar en cuenta el corazón de esta, el intervalo en cuento al espesor iba desde los 9.15 a los 2.44 Cuando ya se contaba con las manzanas previamente cortadas se pesaba con la ayuda de una báscula, en la cual el intervalo oscilaba entre los 15 g a los 3 g donde el modo estaba entre 5 a 6 gramos; posteriormente con ayuda de un vernier se realiza la medición del grosor en el punto medio de la rebanada para obtener la magnitud correspondiente acorde a la rebanada seleccionada. Para la toma de datos se optó por utilizar la herramienta Excel donde el llenado de esta, acorde a las siguientes categorías; Hora, Espesor, Masa, Cambio De Color, Radiación UV, Temperatura Interna °C Y Temperatura Externa °C. Para iniciar con el proceso de secado se utilizó una matriz 4x4 en la cual se tomaron 3 charolas internas: alta, media y baja, en la cual cada una se dividió en 4 cuadrantes donde se colocó cada una de las rebanadas; como se muestra a continuación: Una vez colocadas las manzanas se realizaba la medición en un intervalo de cada hora a partir de las 10 de la mañana a las 2 de la tarde, donde se media la perdida de masa y la disminución del grosor de las mismas rebanadas.


CONCLUSIONES

Tras el análisis correspondiente de las graficas en cuestión se observo que a la hora 0 se cuenta con una temperatura interna de alrededor de 60° y a medida que aumenta la temperatura propia de Ciudad Juárez Chihuahua, México se observa que se mantiene una temperatura interna constante de alrededor de 80° C lo cual permite que el secado de las rebanadas de las manzanas sea acelerado y constante reduciendo considerablemente la masa y el grosor de esta. Con este experimento se busco obtener la eficiencia en cuanto al secado con las medidas consideradas. n=Qexit/Qent=mCp∆T/P Donde: m=masa Cp=Capacidad calorifica ∆T=Gradiente de temperatura Calculando la potencia se obtiene que las resistencias cuentan con un consumo general de 9.5 Amperios que conectada a la red suministra 120V nos da un resultado de 1,140 watts. Sustituyendo los datos obtenidos en la formula: ((12(6g))(3.850 kJ/kg°C)(42°C))/(1140 J/s(3600s))=11.4912KJ/(4104 KJ) 3.850KJ (.072)(42) n=.28 Con el cálculo de la eficiencia se comprobó que se produce demasiada energía de la necesaria para poder realizar el secado con la cantidad introducida. Aunado a esto, con las temperaturas alcanzadas en Ciudad Juárez son favorables para preservar por mucho más tiempo ciertos productos en las temporadas de extremo calor, donde el grosor pasa a segundo término, siendo un parámetro a considerar en cuanto a la consistencia final deseado entre mayor sea este mayor es la textura parecida a la una gomita por las propias fibras y azucares contenidas en la manzana.
Alonso Contreras Guadalupe, Instituto Politécnico Nacional
Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PROBLEMáTICAS EN LA IMPLEMENTACIóN DE OSCILADORES CAóTICOS EN FPGA


PROBLEMáTICAS EN LA IMPLEMENTACIóN DE OSCILADORES CAóTICOS EN FPGA

Alonso Contreras Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Una forma sencilla de definir el caos sin introducir conceptos altamente complejos es como un comportamiento aperiódico y aparentemente impredecible en sistemas deterministas. Estos sistemas, según J. C. Sprott, muestran una extrema sensibilidad a las condiciones iniciales, donde incluso el más mínimo cambio en las condiciones iniciales resulta en resultados muy diferentes. Los sistemas caóticos, según S. H. Strogatz, pueden caracterizarse por su naturaleza aperiódica y su dependencia sensible de las condiciones iniciales, lo que los hace impredecibles a largo plazo. Están gobernados por uno o varios parámetros de control, donde una ligera modificación puede dar lugar a la aparición o desaparición del caos. Además, sus ecuaciones son no lineales. De acuerdo con A. Jauhari, los sistemas caóticos se utilizan en una amplia gama de aplicaciones más allá de la ingeniería. Los osciladores caóticos se encuentran en meteorología para la predicción del clima, en robótica para proporcionar un entorno de pruebas aleatorio para los robots, y también en criptografía para generar números aleatorios utilizados en el cifrado o descifrado de datos, entre otras posibles aplicaciones. Durante los últimos años, ha habido un notable aumento en los estudios enfocados en la implementación de sistemas caóticos utilizando la tecnología FPGA. Se han encontrado numerosos estudios que complementan la investigación sobre la implementación de osciladores caóticos en FPGA. Algunos ejemplos de estas investigaciones incluyen la Implementación en FPGA y estudio de la sincronización del oscilador caótico basado en el circuito modificado de Chua para comunicaciones seguras de alta velocidad, publicado por Filips Capligins en 2021, Implementación en FPGA de un oscilador caótico utilizando el método RK4 realizado por Luciana De Micco en 2011, y Problemas sobre la aplicación de métodos numéricos de uno y varios pasos a osciladores caóticos para su implementación en FPGA, realizado por Omar Guillén Fernández en 2021, como algunos ejemplos.         Por lo que, esta investigación se centra en el diseño e implementación de un oscilador caótico, utilizando el atractor de Lorenz como tema de investigación. El trabajo se enfoca en diversas técnicas de optimización de recursos utilizadas en la implementación de osciladores en FPGA. Estas técnicas incluyen el uso de SCM (Single Constant Multiplier) para reducir el número de multiplicaciones constantes, la gestión de problemas de sincronización a través de una arquitectura de pipeline para transformar el flujo de datos y la modificación del tamaño de palabra de la representación en punto fijo mediante la definición de partes enteras y fraccionales mínimas.



METODOLOGÍA

Para este trabajo, se utilizó el FPGA Xilinx XC7A100TCSG324-1. Los pasos requeridos para implementar un oscilador caótico en FPGA son los siguientes: Seleccionar un sistema caótico; para este trabajo, se utilizó el sistema de Lorenz. Elegir un método numérico; por su simplicidad y bajo uso de recursos, se optó por el método Forward Euler. Seleccionar un paso de integración h; para este trabajo, se utilizó h = 0.001. Simular el sistema discretizado utilizando aritmética de punto flotante. Se eligió el lenguaje de programación C con el compilador GCC. Simular el sistema con aritmética de punto fijo y seleccionar el tamaño de palabra óptimo. En este trabajo, se diseñó un pequeño emulador de aritmética de punto fijo en lenguaje C para encontrar el número mínimo de bits para la parte entera que logra mantener el caos; se seleccionó un tamaño de palabra de 32 bits con el formato encontrado A(9,22). Códigos Verilog: Una vez verificado que el sistema funciona con el emulador, describir todos los bloques necesarios en lenguaje Verilog, tales como sumadores, restadores, multiplexores, multiplicadores y registros. Generar una memoria ROM con los coeficientes constantes del sistema, como condiciones iniciales y parámetros. Ajustar el multiplicador, si es necesario, para modificar el tamaño de palabra de la representación en punto fijo. Implementar la arquitectura principal del oscilador en Verilog. Crear un banco de pruebas (testbench) para estimular el oscilador. Simular el oscilador y comparar los resultados con los del emulador; deben coincidir perfectamente. Una vez que el oscilador funciona correctamente con los códigos C y Verilog: Cambiar multiplicadores completos por multiplicadores de una constante, si es posible. Resolver problemas de sincronización añadiendo registros a la salida de grandes cadenas de bloques combinatorios.


CONCLUSIONES

A través del análisis de los recursos utilizados en la implementación de los osciladores caóticos en FPGA, hemos examinado en términos de Look Up Tables, Flip-Flops, bloques de Procesamiento de Señales Digitales, Entradas/Salidas y Buffers. Al implementar un oscilador caótico basado en el atractor de Lorenz utilizando únicamente las ecuaciones descritas por el Método Numérico de Euler, observamos un uso significativo de recursos y la incapacidad de cumplir con los requisitos de sincronización. Sin embargo, al aplicar cada método de optimización desarrollado, observamos un comportamiento similar hasta que implementamos la técnica de SCM y la arquitectura de pipeline en multiplicadores, sumadores y restadores. Al emplear estas técnicas, logramos mejoras sustanciales tanto en la utilización de recursos como en los problemas de sincronización en la implementación del oscilador caótico.
Alonso Maldonado Alejandro, Instituto Tecnológico de Matamoros
Asesor: Dr. Dixon Salcedo Morillo, Universidad de la Costa

DISEñO DE UNA INFRAESTRUCTURA DE TELECOMUNICACIONES BASADA EN REDES DEFINIDAS POR SOFTWARE (SDN) PARA MEJORAR EL ACCESO A LOS SERVICIOS EN LA NUBE


DISEñO DE UNA INFRAESTRUCTURA DE TELECOMUNICACIONES BASADA EN REDES DEFINIDAS POR SOFTWARE (SDN) PARA MEJORAR EL ACCESO A LOS SERVICIOS EN LA NUBE

Alonso Maldonado Alejandro, Instituto Tecnológico de Matamoros. Asesor: Dr. Dixon Salcedo Morillo, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el tema de la virtualización se encuentra en muchos lugares, porque esto nos brinda mayor seguridad e integridad a la hora de trabajar, en este punto es donde entra la Computación en la Nube, la cual funciona como un modelo de entrega personal u organizacional, donde el almacenamiento, los servidores, las aplicaciones y mas elementos se entregan por medio de Internet, convirtiéndose en un servicio de pago por consumo. Claramente, la nube no es un lugar físico, y su mayor enfoque se encuentra al momento de sustituir los servidores locales y los centros de datos privados. A nivel organizacional el SDN aporta un soporte para la migración de Sistemas Locales a Sistemas en la Nube. Cuando una organización tiene todos sus datos en un Sistema Local, se expone a muchos riesgos, entre ellos la perdida de información, la baja eficiencia en el trato de los datos, el fallo del hardware cuando baja la energía, por lo que todo esto genera altos costos. En cambio, los Sistemas en la Nube proporcionan múltiples beneficios para la organización en distintos sectores, en lo Económico, Ambiental y Estructural, donde encontramos mayor eficiencia en el flujo de la información, podemos trabajar con ella desde cualquier sitio con internet, la estructura propicia a mantener un bajo consumo de energía, de esa manera favoreciendo al medio ambiente y también ocasionado bajos costos. Por lo tanto, las SDN nos brinda esas herramientas para migrar a la Nube y también haciendo mas eficiente el acceso a este tipo de servicios. De acuerdo a la anterior este trabajo presenta dos aspectos. Primero, el diseño de una red básica basada en SDN utilizando Mininet y el controlador Flood Light. Segundo, una evaluación del comportamiento del rendimiento de enlaces en la red SDN diseñada basado en Ancho de Banda.



METODOLOGÍA

Las Redes Definidas por Software (SDN) nos permite trabajar en un entorno virtual, es uno de los grandes beneficios que conlleva el controlar este tipo de tecnologías. Por ello, para la simulación de nuestro diseño de red SDN, utilizaremos la herramienta Mininet v2.3.0, la cual es un emulador de red, que permite trabajar con hosts, switches, controladores y enlaces virtuales, todo desde un punto de vista emulado. Una parte fundamental de las SDN, es el componente que se encuentra en la Capa de Control, siendo el controlador. En este trabajo, utilizaremos Flood Light Controller v1.1, el cual trabajar con el protocolo Open Flow v1.3 y nos permite gestionar nuestra red de forma personal, brindándonos herramientas para visualizar nuestra topología, configurar las Tablas de Flujo, entre más cosas. En primera instancia, realizamos el diseño de nuestra red SDN, encontrando los parámetros necesarios para poder desarrollarla y ejecutarla de forma exitosa. Dentro de la topología, como pieza principal tenemos el controlador, el cual será gestionado por Flood Light, después tenemos 2 switches conectados entre sí, y por último 4 hosts, 2 para cada switch. Haciendo uso de las herramientas expuestas anteriormente (Mininet, Python, Flood Light, Open Flow) desarrollaremos el script para la creación de nuestra red. Al momento de activar el controlador Flood Light y el emulador Mininet, procedemos a crear un nuevo archivo con extensión .py donde crearemos nuestra red. De acuerdo a la estructura manejada para la creación de red con Python, importamos las librerías de los dispositivos a utilizar, también dentro de la clase que maneja la topología, agregaremos todos los dispositivos de los cuales se conforma, desde el controlador, los switches y los hosts, con sus respectivas IPs, enlaces y especificaciones. Después de la creación y ejecución de nuestro script en Mininet, comprobaremos la funcionalidad, realizando dos pruebas, una de ellas verificando la conectividad entre los hosts y la siguiente es entrando por el navegador al controlador. De esta manera, encontramos la correcta funcionalidad de nuestra red con el controlador Flood Light, visualizando la topología creada y comprobando la conectividad entre todas las partes. Por último, realizaremos las evaluaciones del comportamiento del rendimiento de los enlaces en nuestra red SDN, utilizando la herramienta Iperf. Realizaremos dos experimentos de evaluación, el primero será trabajando con la red interna, entre hosts conectados al mismo switch y la segunda será de switch a switch. En el primer experimento, la evaluación con la red interna, será entre el host 10.0.0.1 y el host 10.0.0.2, realizando 10 evaluaciones entre cliente-servidor y viceversa. En el segundo experimento, la evaluación de switch a switch, será entre el host 10.0.0.1 y el host 10.0.0.4, realizando 10 evaluaciones entre cliente-servidor y viceversa.


CONCLUSIONES

En este trabajo, presentamos una simulación de un diseño de red básico basado en Redes Definidas por Software (SDN) evaluando el comportamiento del rendimiento de enlaces basado en Ancho de Banda. También validamos la conectividad de los enlaces entre los nodos de la red. A través de Iperf, validamos el rendimiento de los enlaces dentro de la red en Ancho de Banda. Observamos la exitosa funcionalidad que presenta un controlador SDN, en este caso Flood Light, para gestionar el trafico y proporcionar a la red un manejo muy eficiente. Este tipo de redes son fundamentales en el presente, para que las organizaciones puedan migrar o mantener su información de forma segura y eficiente, haciendo uso de los servicios en la nube. En un futuro trabajo, esta simulación de red SDN con pruebas de rendimiento, lo llevaremos a la práctica real, trabajando en un servidor en la nube, con Open vSwitch, maquinas físicas y un controlador SDN completo, para después realizar evaluaciones del rendimiento de los enlaces con distintas herramientas y crear un modelo de medición basado en Ancho de Banda.
Alonso Martinez Ana Grecia, Instituto Tecnológico de Morelia
Asesor: Dra. Adela Lemus Santana, Instituto Politécnico Nacional

SíNTESIS Y CARACTERIZACIóN DE MOFS PARA LA REMOCIóN DE ATRAZINA EN EL AGUA


SíNTESIS Y CARACTERIZACIóN DE MOFS PARA LA REMOCIóN DE ATRAZINA EN EL AGUA

Alonso Martinez Ana Grecia, Instituto Tecnológico de Morelia. Hernández Roque Dulce Arelly, Universidad Autónoma de Sinaloa. Asesor: Dra. Adela Lemus Santana, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La atrazina es un herbicida ampliamente utilizado en la agricultura para el control de malezas de hoja ancha y gramíneas en diversos cultivos. La atrazina es soluble en agua y puede lixiviar fácilmente hacia los cuerpos de agua subterránea y superficial. Su presencia en fuentes de agua potable representa un riesgo para la salud pública. Los MOFs (Metal-Organic Frameworks) son materiales porosos con una estructura cristalina que consisten en iones metálicos unidos por ligandos orgánicos. Estos materiales tienen una alta superficie específica y una gran capacidad para adsorber y almacenar diferentes compuestos químicos.



METODOLOGÍA

El proceso de elaboración de MOF´s utilizado para este proyecto fue el denominado síntesis solvotermal.La síntesis solvotermal se define como reacciones heterogéneas en disolventes no acuosos por encima de su punto de ebullición debido al aumento de las presiones autógenas, usando un reactor de autoclave para el crecimiento del material sólido cristalino.El disolvente dentro del reactor de autoclave contiene una mezcla de sales metálicas y ligantes orgánicos, el cual es calentado a una temperatura de reacción (60 - 220 °C), variando la velocidad de crecimiento del cristal y el disolvente usado. IVA2-B(MIL-96)  El primer paso fue moler en un mortero 0.75 g de Nitrato de Aluminio hasta obtener un polvo, después se disolvió el metal de transición (Al) en nuestro teflón con un disolvente adecuado. En este caso se utilizó 2 ml de disolvente el  DMF y 8 ml de Agua desionizada.Una vez que el metal de transición está disuelto, se añade 0.38 g del ligando orgánico (BTC) a la disolucion que contiene el metal.Después de la adición del ligando orgánico, la mezcla se agitó durante 20-25mins. Se cerró el reactor de acero inoxidable y a continuación, se calentó la estufa hasta llegar a 200ºC,una vez alcanzada esa temperatura especifica, se dejó el reactor durante 20 horas.Una vez completada la reacción, se realizó lavado con centrifuga tres veces, para separar los cristales de MOF formados del disolvente y otras impurezas. Finalmente, la muestra se seco a una temperatura de 60º C  para eliminar el exceso de disolvente.  NH2-B(MIL-53) Para la elaboracion de esta síntesis se utilizó Al(NO₃)₃ en una proporción de 0.38g , 0.33 g de aminotereftálico (NH2-BDC) y agua desionizada , 8 ml totales, así como 2ml de dimetilformamida (DMF). Como primer paso se trituró con un mortero el nitrato de aluminio hasta que adoptó una consistencia de polvo fino, posteriormente este polvo se colocó en el reactor de  teflón que va dentro de la autoclave; dentro del teflón se colocaron junto con el Al(NO3)3 5ml de agua desionizaday se procedió con la agitacion al momento en que la mezcla se observaba homogénea se colocó el BDC junto con otros 3ml de agua una vez más se esperó homogeneidad y se colocaron 2ml de DMF para agitar durante 15-20 mins.Por último se colocó la autoclave con la mezcla dentro de la estufa a 150°C durante18 horas.Una vez que las muestras se encontraban a temperatura ambientes se procedió a la centrifugación para eliminar la mayor cantidad posible de disolvente. Una vez terminadas las centrifugaciones se le coloco al tubo Parafilm y se le hicieron pequeños agujeros para que así se evaporara el líquido restante y se dejó reposando 3 días. Una vez pasados estos días se colocó en la estufa a 60°C por 3 horas. G3(MIL-88) Para esta síntesis se utilizaron de Al(NO3)3 0.38g , de BDC 0.2g y cantidad de agua total fueron 8ml , en cuanto el DMF este fue de 2ml.El procedimiento que se siguió fue que el Al(NO3)3 fue convertido en un polvo fino para después colocarlo dentro del reactor de teflón con 5ml de agua desionizada y se procedió a homogeneizar la solución,una vez logrado esto se colocó el BDC junto con otros 3ml de agua, se volvió a homogeneizar la muestra y se colocaron los 2ml de DMF para así esperar de 15-20 mins con la solución en agitación. Una vez que el tiempo transcurrió el teflón se coloca en el autoclave y va directo a la estufa la cual se encontraba a 150°C , la solución permaneció dentro durante 20 horas;cuando el autoclave estaba lo suficientemente frio para manipularlo se comenzaron los lavados de muestra usando metanol,se realizaron 4 centrifugaciones.Una vez que se concluyó con el proceso de centrifugación, se le colocó Parafilm en la parte superior y se le hicieron pequeños orificios para así evaporar el restante del metanol, se colocó el tubo de manera horizontal y permaneció de esta manera un total de 24 horas. Técnica de reflujo Se preparó el sistema de reflujo; colocando un termómetro en el soporte para monitorear la temperatura durante el proceso.Para nuestra solución reactante utilizamos 5 g de BTC, y 60 ml de MeOH, para mezclar se usó un agitador magnético, después se le añadió 2 ml de ácido sulfúrico.Se inició el reflujo, se revisó que el líquido se mantuviera en ebullición constante durante todo el reflujo y controlar la temperatura para que no excediera en un rango de 50-60°C. Se ajustó la intensidad de calentamiento necesario.Se decidió dejar el reflujo 24 horas, al finalizar se formaron cristales al fondo.Transferimos el contenido de matraz en un vaso de precipitado y agregamos una solución de bicarbonato de sodio 1m para neutralizar. Centrifugamos durante 5 minutos, y filtramos con vacio , Recogimos el ester y se lavó con agua destilada para eliminar residuos alcalinos.


CONCLUSIONES

Los materiales sintetizados que  obtuvieron buenos resultados para la remoción de ATZ fueron IVA2-B(MOF MIL-96), NH2-B(MIL-53) y G3(MOF MIL-88), al evaluarlos pudimos detectar que la atrazina tiene bandas de absorción característica en el rango UV-Visible, se observan picos específicos que corresponden a la absorción de la luz por parte de la atrazina, y se apreciaron cambios en la absorbancia en presencia de estos dos MOFs, como la adsorción de ATZ en la estructura porosa de ambos.Es importante continuar investigando y desarrollando esta tecnología para mejorar su eficacia, comprender sus mecanismos de adsorción y, finalmente, implementarla a gran escala en beneficio del medio ambiente y la sociedad.
Altamar Romero Wilson David, Servicio Nacional de Aprendizaje SENA - Regional Atlántico
Asesor: Mtro. Abraham Perez Delgado, Universidad Tecnológica de Tehuacán

IMPLEMENTACIÓN DE UN PLAN DE MONITOREO, CONTROL Y MANTENIMIENTO PARA EL SISTEMA MODULAR DE PRODUCCIÓN DE INDUSTRIA 4.0 203 DE FESTO


IMPLEMENTACIÓN DE UN PLAN DE MONITOREO, CONTROL Y MANTENIMIENTO PARA EL SISTEMA MODULAR DE PRODUCCIÓN DE INDUSTRIA 4.0 203 DE FESTO

Altamar Romero Wilson David, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Álvarez Cubillos Brayan Daniel, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Mtro. Abraham Perez Delgado, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

La falta de un manual de monitoreo de condición y control para el Sistema Modular de Producción de Industria 4.0 203 i4.0 de Festo presenta los siguientes desafíos, Falta de pautas claras Sin un manual detallado, los operadores y técnicos no tienen una guía precisa sobre qué parámetros monitorear, cuándo hacerlo y cómo interpretar los datos recopilados. Esto conduce a interpretaciones subjetivas, falta de uniformidad en el monitoreo y dificultad para detectar problemas tempranamente y tomar decisiones informadas. Adicionalmente la ausencia de protocolos de control, la carencia de un manual implica la falta de protocolos claros para el control y ajuste de los parámetros del sistema. Esto resulta en una falta de estandarización en los procedimientos de ajuste, lo que afecta negativamente la calidad de los productos, el rendimiento del sistema y la eficiencia de la producción, por otro lado, las limitaciones en el mantenimiento: El mantenimiento desempeña un papel crucial en la maximización de la vida útil de los equipos y contribuye a mitigar posibles fallas catastróficas. Sin un manual de monitoreo de condición y control, se dificulta la implementación de programas efectivos de mantenimiento. Esto aumenta los costos de mantenimiento y la probabilidad de tiempos de inactividad no planificados, comprometiendo la vida útil de los equipos y la eficiencia general de la producción



METODOLOGÍA

Desarrollo de estado del arte para identificar las áreas de oportunidad en el proyecto; realización de investigación teórica del funcionamiento, características de los elementos y dispositivos del sistema; priorizando las áreas de oportunidad de mejora del sistema de monitoreo y control. Se establece la conexión válida del OLE for Process Control (OPC), como estándar de comunicación en el campo del control y supervisión de procesos industriales; mediante el sistema propio de un Sistema Manufacturing Execution System (MES); como aplicación software enfocado al Control de la Producción, que monitorea y documenta la gestión del sistema con la comunicación entre el usuario y el controlador.


CONCLUSIONES

El proyecto incorpora tecnologías avanzadas, como sensores IoT, sistemas de control autónomos y programación óptima de los PLC, con el fin de mejorar la eficiencia del monitoreo y mantenimiento en el entorno de Industria 4.0. Además, se identificarán con precisión los requerimientos específicos del Sistema Modular de Producción i4.0 de Festo; IO Link, módulos RFID, para lectura y escritura, red de comunicación ProfiNET, sensores ópticos de fibra óptica, TAG de datos; entre otras consideraciones técnicas relevantes. La implementación práctica del plan se realizará en un entorno simulado de control con el usuario del sistema, evaluando su viabilidad y efectividad antes de una implementación completa. Asimismo, el trabajo proporciona un diseño completo y detallado del Plan de Monitoreo, Control y Mantenimiento para el sistema, abarcando estrategias para el monitoreo, control y mantenimiento preventivo El proyecto se puede llevar a una segunda etapa de implementación, con el apoyo de herramientas de programación para incorporar el desarrollo e interpretación de lógica de programación; entre las necesidades, diagrama de flujo y técnicas de programación orientadas a objetos; para considerar el desarrollo de sistemas de Supervisión, Control y Adquisición de Datos (SCADA).
Altamirano Vazquez María Verónica, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

MANEJO DE BITáCORAS Y SENSORES PARA ACCESO A LABORATORIOS POR MEDIO DE CóDIGOS QR


MANEJO DE BITáCORAS Y SENSORES PARA ACCESO A LABORATORIOS POR MEDIO DE CóDIGOS QR

Altamirano Vazquez María Verónica, Universidad Politécnica del Mar y la Sierra. Gallegos Barraza Estefania Monserrath, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema La Universidad Politécnica Del Mar y la Sierra es la única universidad que se encuentra en el municipio de Elota, está establecida en la Carretera a Potrerillos del Norte Kilometro 3. CP 82700, La Cruz, Municipio de Elota, Sinaloa, México. Tiene 4 edificios los cuales dos son docencias, un centro de información y documentación, un Laboratorio y talleres Dispone con 4 licenciaturas y 5 ingenierías, además la institución educativa tiene 7 espacios disponibles como son el laboratorio de software, laboratorio de redes. centro de cómputo, laboratorio de inglés, biblioteca y centro de información. La universidad cuenta en sus procesos con un control de entrada y salida de estudiantes y personal de la institución a los diferentes espacios de búsqueda de información, recreación y reuniones en actos académicos. Dicho control se realiza mediante listas de asistencia física realizada por laboratoristas o estudiantes que realizan su servicio social, se ha buscado la posibilidad de automatizar este proceso para que cada estudiante registre su entrada por separado y todo se guarde en una base de datos centralizada que permita obtener reportes mas adelante.         Sensores de movimiento: Junto con el lector de códigos QR, se implementarían sensores de movimiento dentro del laboratorio. Estos sensores detectarían el movimiento de las personas dentro del espacio y permitirían un seguimiento en tiempo real de la actividad dentro del laboratorio. Diseño de la interfaz web: Lo primero es diseñar una interfaz web que permita a los usuarios acceder al laboratorio. Esta interfaz debe incluir un área para escanear el código QR y un botón para solicitar acceso a través del sensor de movimiento para programarlo se utilizara sublimetext y frameworks de desarrollo web     Registro de accesos: Cada vez que un usuario ingrese al laboratorio, el sistema registraría el evento en una bitácora de accesos. Esto permitiría a los administradores del laboratorio llevar un seguimiento detallado de quién entra y sale del lugar, y también puede servir para detectar actividades sospechosas o no autorizadas. Alertas y notificaciones: Si se detecta un acceso no autorizado o actividad inusual, el sistema podría generar alertas y notificaciones para los administradores o el personal de seguridad. Esto les permitiría tomar medidas inmediatas para abordar cualquier posible riesgo. Integración con otros sistemas: El sistema de control de acceso mediante QR y sensores de movimiento también en el futuro podría integrarse con otros sistemas de seguridad del laboratorio, como cámaras de vigilancia, sistemas de alarma, o incluso sistemas de control ambiental que puedan estar presentes en el espacio.



METODOLOGÍA

Metodología Para desarrollar la solución al problema plateado anteriormente se tendrá en cuenta algunos aspectos importantes para la ejecución de este para asegurar la eficiencia y efectividad Diseño del sistema: Una vez identificados los requisitos, se procede al diseño del sistema de control de acceso. Aquí se determinará la ubicación óptima de los sensores, Selección de sensores: Es importante elegir sensores de alta calidad y adecuados para el propósito específico. Los sensores deben ser capaces de detectar movimientos, puertas abiertas o cualquier otra condición relevante para el control de acceso al laboratorio. Instalación y configuración: Los sensores deben ser instalados y configurados por personal técnico capacitado. La ubicación precisa de los sensores es crucial para asegurar una detección adecuada. Además, se debe ajustar la sensibilidad de los sensores según las necesidades del laboratorio. Pruebas y verificación: Antes de poner en funcionamiento el sistema de control de acceso con sensores, es fundamental realizar pruebas exhaustivas para verificar su correcto funcionamiento. Se deben simular situaciones reales y asegurarse de que los sensores respondan adecuadamente. Capacitación y concientización: Es esencial capacitar al personal docente, administradores y alumnado sobre cómo usar correctamente el sistema de control de acceso con sensores y lector             QR. Además, se deben explicar las razones detrás de esta implementación y cómo contribuye a la seguridad general del laboratorio. En general, esta solución proporcionaría un nivel adicional de seguridad y control en el laboratorio, asegurando que solo las personas autorizadas tengan acceso al mismo, y permitiendo una supervisión más efectiva de las actividades dentro del espacio para garantizar el cumplimiento de las políticas y normativas establecidas.


CONCLUSIONES

 Se investigó mediante un largo proceso para obtener todo el conocimiento requerido para realizar la solución de seguridad en los laboratorios. Se implementó el sistema de control con base a las investigaciones hechas sobre los sensores y el lector QR llegando a la conclusión que esta tecnología sería la mejor opción para controlar los laboratorios gracias a la fiabilidad que nos ofrece.Es una manera muy innovadora que servirá de mucha importancia a la institución para tener monitoreado, y que solo las personas que cuenten con el QR tendrán el acceso
Alvarado Moreno Juan Antonio, Universidad Autónoma de Sinaloa
Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla

AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR


AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR

Aguilar Arias Ubaldo, Universidad Autónoma de Sinaloa. Aguilar Chávez Mauricio, Instituto Tecnológico de La Piedad. Alvarado Moreno Juan Antonio, Universidad Autónoma de Sinaloa. Martínez Vázquez Enrique, Benemérita Universidad Autónoma de Puebla. Pérez Chávez Diana Lizette, Instituto Tecnológico de Colima. Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas de la sociedad actual es el cambio climático el cual es el principal causante de que las temperaturas se eleven año con año, así mismo el aumento de sequías, fuertes tormentas y más riesgos para la salud.  El principal problema que se detectó al momento de pensar en nuestra sociedad fue el no saber con exactitud las condiciones en las que se encuentra un lugar en específico, es de suma importancia conocer estos datos para prevenir posibles problemas de salud que se puedan presentar, tales como insolación, golpes de calor, o problemas de salud al estar en entornos húmedos. Para la realización de este proyecto se obtendrán los parámetros de temperatura, humedad y luminosidad y se utilizará una cámara para monitorear en tiempo de real el entorno, cabe destacar que cada uno de los parámetros se muestra en una interfaz.



METODOLOGÍA

Para el accionamiento de los motores, controlar su sentido de giro y velocidad se usan componentes electrónicos conocidos como puentes H. En base a una investigación hecha en libros y otras fuentes, es que se llegó a la conclusión de colocar un puente H para controlar 2 motores, esta decisión se genera debido a que si se conectan todos los motores a un solo puente H, este se dañara, ya que los motores pueden consumir hasta 5 A de corriente eléctrica. Además, la energía utilizada para alimentar los motores y todos los componentes electrónicos del prototipo se obtiene  a través de un panel solar y a su vez, almacena energía en una batería recargable de 12V. Cada motor puede funcionar con un voltaje máximo de 7 VDC, es por ello que se opta por usar reguladores de tensión y con ello obtener los 7 VDC. Por otra parte, se tiene la limitante de que los reguladores de tensión funcionan en un rango de 0-3 A, por lo cual se usará un regulador para alimentar cada puente H para que los motores tengan un rango de consumo de corriente de 0 a 1.5 A como máximo. Con este arreglo entre los reguladores y los puentes H se evita que los componentes electrónicos mencionados se dañen por el consumo excesivo de corriente.  En la programación, para la integración del sistema embebido, se analizan las diferentes opciones disponibles en el laboratorio, como el ESP32, el Arduino nano, un Raspberry pi, entre otros. El Raspberry Pi se utiliza como primeras pruebas para determinar sus limitaciones y diferencias comparado al ESP32. Durante el periodo de investigación y programación, el Raspberry pi se descarta, por lo tanto se sustituye por un ESP32 por sus capacidades de WiFi y la fácil manipulación de este, por lo que se da como tarea experimentar y comprobar los diferentes sensores que serán posteriormente utilizados para el sensado de variables del automóvil, de modo de este pueda tomar lecturas precisas y sin problemas.  El siguiente trabajo de programación es la determinación de qué software o aplicación será utilizada para el monitoreo y control a distancia del automóvil. A partir de es paso, la programación se realiza en diferentes interfaces, de las cuales se buscaba lo siguiente: Comunicación WiFi entre la interfaz y el automóvil. Permitir manipular tanto entradas, como salidas y una cámara web, con un número grande de variables accionadas vía inalámbrica. Lectura de los sensores y con una estética visualmente agradable para el usuario. Activación a distancia de los motores para lograr el movimiento adecuado. Visualización de la cámara implementada, logrando obtener imagen del entorno del automóvil. Interfaz visualmente cómoda, sencilla y que todos los integrantes del proyecto pudieran manejar sin instalación de softwares. En base a los requisitos se programa en Visual Studio para la creación de una interfaz en lenguaje C#, descartando algunas opciones como página web ip, MyAppInventor, y todas las páginas de nubes IoT por ser limitadas en cuanto lo que se puede hacer sin una suscripción.  Con las primeras pruebas de algunas interfaces, se empiezan las pruebas para la interacción entre el usuario y el automóvil, donde se realizan primeros ajustes tanto en la potencia como en la programación.  Una vez concluida la programación del software y el sistema embebido, la potencia y la estructura general el automóvil es sacado a diferentes entornos para hacer las pruebas. Finalmente se realiza el esquema eléctrico con todas las partes involucradas en el automóvil.


CONCLUSIONES

Con el prototipo desarrollado es posible realizar el reconocimiento y sensado de terrenos sin la necesidad de que el ser humano esté presente en ellos, para así observar el cambio de clima en lugares específicos. Para obtener dichos resultados se empezó con la observación de los componentes que se necesitan para obtener una idea central del proyecto; contando con que la base del proyecto, es que este pueda sensar en cualquier parte de las instalaciones de la BUAP y a su vez pueda ser cargado por un panel solar una vez que este no sea utilizado.  Una vez contada con la idea general para la realización del automóvil se llevaron a cabo diferentes investigaciones para poder obtener el resultado final y así poder comprobar que por medio de la ESP32 se puede realizar la conexión de la red interna que se encuentra en este con la red de la BUAP, otro de los objetivos es que se muestran los datos correspondientes de los sensores en la interfaz realizada y que por medio del panel se cargue la batería que cuenta el automóvil. En resumen podemos decir que los objetivos planteados se realizaron con éxito a excepción de la conexión de la ESP con la red de la BUAP debido a la inestabilidad de este y que la ESP32 no se vuelve a reconectar, sino que se tiene que volver a cargar por medio de la laptop, es por ello que con este trabajo se pueden ir realizando modificaciones, al iguala eu implementar más cosas en este, ya que es muy versátil.
Alvarado Nava Nallely Elizabeth, Universidad de Guadalajara
Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco

INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN UNIVERSIDADES MEXICANAS DE JALISCO Y GUANAJUATO


INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN UNIVERSIDADES MEXICANAS DE JALISCO Y GUANAJUATO

Alvarado Nava Nallely Elizabeth, Universidad de Guadalajara. Alvarez Cabrera Ruth, Universidad de Guadalajara. Gonzalez Hinojosa Juliana, Instituto Tecnológico Superior de Irapuato. Ramos Gómez Cynthia, Universidad de Guadalajara. Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Esta investigación se realiza debido a la preocupante disparidad de género que se ha observado en las facultades de ingeniería en universidades mexicanas, particularmente en las regiones de Jalisco y Guanajuato. Aunque en las últimas décadas ha habido un aumento significativo en el número de mujeres que ingresan a carreras de ciencias, tecnología, ingeniería y matemáticas (STEM), todavía persisten desafíos en la retención y titulación de estas estudiantes. El ingreso de mujeres a las facultades de ingeniería ha aumentado, pero en muchos casos, se observa una disminución gradual de su presencia a lo largo de la carrera. Esta tendencia sugiere la existencia de barreras que afectan negativamente la permanencia y éxito académico de las estudiantes en estas áreas. El propósito fundamental de esta investigación es identificar y analizar los factores que inciden en el ingreso, permanencia, egreso y titulación de las estudiantes mujeres en las facultades de ingeniería de dichas regiones. Algunos posibles factores a considerar incluyen estereotipos de genero arraigados en la sociedad y en el ámbito académico, falta de modelos a seguir femeninos en posiciones de liderazgo en el campo, sesgos inconscientes en la evaluación y tutoría de las estudiantes, así como la falta de programas específicos de apoyo para el desarrollo profesional y académico de las mujeres en ingeniería.



METODOLOGÍA

La investigación se llevó a cabo mediante la recolección de datos numéricos de información relacionada con los estudiantes de dicha Institución de Educación Superior en México. La información fue obtenida de la base de datos de La Asociación Nacional de Universidades e Instituciones de Educación Superior (ANUIES) en sus anuarios estadísticos. Se estudiaron las diferencias existentes en los últimos tíes años, para permitir encontrar discrepancias entre los datos y de esta forma compararlos estadísticamente. El estudio consta de cuatro fases: Fase 1. Estudio de población y muestreo: se describe de dónde provienen los datos. Fase 2. Recopilación de datos: identificación de las variables que se van a medir Fase 3. Análisis de datos: consiste en el análisis y procesamiento de la información y los datos. Fase 4. Obtención de los resultados.


CONCLUSIONES

En conclusión, esta investigación sobre el ingreso, egreso y titulación de estudiantes mujeres en facultades de ingeniería en universidades mexicanas de Jalisco y Guanajuato ha sido de vital importancia para comprender y abordar la brecha de género existente en el ámbito de carreras STEM. A través del análisis exhaustivo de los datos recopilados, se ha confirmado la persistente desigualdad de género en estas áreas de estudio, evidenciando que, aunque el número de mujeres que inician carreras en ingeniería ha aumentado, muchas de ellas enfrentan obstáculos que limitan su permanencia y titulación. Los resultados han permitido identificar factores críticos que afectan la participación de las mujeres en la ingeniería, como estereotipos culturales, sesgos en la evaluación y tutoría, así como la falta de modelos a seguir y programas de apoyo específicos para ellas. Estos hallazgos instan a la necesidad de desarrollar estrategias y políticas que promueven la igualdad de oportunidades y la equidad de género en las facultades de ingeniería. Al crear un ambiente más inclusivo y diverso en estas carreras, se podrán aprovechar los talentos y perspectivas únicas de las mujeres, lo que a su vez impulsaría la innovación y el avance tecnológico de manera más significativa. Asimismo, se detecta la importancia de fomentar la participación temprana de las niñas en actividades STEM y de ofrecer mentoría y redes de apoyo para fortalecer su interés y confianza en estos campos. Esta investigación, sin duda, sienta las bases para futuros estudios y acciones que contribuya a cerrar la brecha de género en la ingeniería y a construir un futuro más igualitario y prometedor para todas las estudiantes interesadas en seguir una carrera en ciencias, tecnología, ingeniería y matemáticas en México. Las estrategias presentadas ofrecen un enfoque integral para promover la participación de mujeres en carreras STEM y cerrar la brecha de género en estos campos. Cada una de estas estrategias aborda desafíos específicos que han obstaculizado históricamente la inclusión de mujeres en ciencia, tecnología, ingeniería y matemáticas. Es esencial hacer hincapié en que la lucha por la equidad de género en carreras STEM debe ser constante y que estas estrategias deben implementarse de manera concertada y sostenida para logra resultados significativos. La promoción de la participación de mujeres en STEM no solo es un asunto de justicia y derechos humanos, sino también una oportunidad para enriquecer estos campos con una diversidad de talento, perspectivas e ideas. Trabajar hacia un futuro más diverso e igualitario en carreras STEM no solo beneficio a las mujeres, sino que también impulsa la innovación y el progreso en la sociedad en su conjunto. Al adoptar estas estrategias y continuar buscando nuevas formas de promover la inclusión, estamos dando pasos significativos para lograr un mundo donde todas las personas, sin importar su género, tengan igualdad de oportunidades para participar y liderar en los campos de ciencia, tecnología, ingeniería y matemáticas
Alvarez Cabrera Ruth, Universidad de Guadalajara
Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco

INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN UNIVERSIDADES MEXICANAS DE JALISCO Y GUANAJUATO


INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN UNIVERSIDADES MEXICANAS DE JALISCO Y GUANAJUATO

Alvarado Nava Nallely Elizabeth, Universidad de Guadalajara. Alvarez Cabrera Ruth, Universidad de Guadalajara. Gonzalez Hinojosa Juliana, Instituto Tecnológico Superior de Irapuato. Ramos Gómez Cynthia, Universidad de Guadalajara. Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Esta investigación se realiza debido a la preocupante disparidad de género que se ha observado en las facultades de ingeniería en universidades mexicanas, particularmente en las regiones de Jalisco y Guanajuato. Aunque en las últimas décadas ha habido un aumento significativo en el número de mujeres que ingresan a carreras de ciencias, tecnología, ingeniería y matemáticas (STEM), todavía persisten desafíos en la retención y titulación de estas estudiantes. El ingreso de mujeres a las facultades de ingeniería ha aumentado, pero en muchos casos, se observa una disminución gradual de su presencia a lo largo de la carrera. Esta tendencia sugiere la existencia de barreras que afectan negativamente la permanencia y éxito académico de las estudiantes en estas áreas. El propósito fundamental de esta investigación es identificar y analizar los factores que inciden en el ingreso, permanencia, egreso y titulación de las estudiantes mujeres en las facultades de ingeniería de dichas regiones. Algunos posibles factores a considerar incluyen estereotipos de genero arraigados en la sociedad y en el ámbito académico, falta de modelos a seguir femeninos en posiciones de liderazgo en el campo, sesgos inconscientes en la evaluación y tutoría de las estudiantes, así como la falta de programas específicos de apoyo para el desarrollo profesional y académico de las mujeres en ingeniería.



METODOLOGÍA

La investigación se llevó a cabo mediante la recolección de datos numéricos de información relacionada con los estudiantes de dicha Institución de Educación Superior en México. La información fue obtenida de la base de datos de La Asociación Nacional de Universidades e Instituciones de Educación Superior (ANUIES) en sus anuarios estadísticos. Se estudiaron las diferencias existentes en los últimos tíes años, para permitir encontrar discrepancias entre los datos y de esta forma compararlos estadísticamente. El estudio consta de cuatro fases: Fase 1. Estudio de población y muestreo: se describe de dónde provienen los datos. Fase 2. Recopilación de datos: identificación de las variables que se van a medir Fase 3. Análisis de datos: consiste en el análisis y procesamiento de la información y los datos. Fase 4. Obtención de los resultados.


CONCLUSIONES

En conclusión, esta investigación sobre el ingreso, egreso y titulación de estudiantes mujeres en facultades de ingeniería en universidades mexicanas de Jalisco y Guanajuato ha sido de vital importancia para comprender y abordar la brecha de género existente en el ámbito de carreras STEM. A través del análisis exhaustivo de los datos recopilados, se ha confirmado la persistente desigualdad de género en estas áreas de estudio, evidenciando que, aunque el número de mujeres que inician carreras en ingeniería ha aumentado, muchas de ellas enfrentan obstáculos que limitan su permanencia y titulación. Los resultados han permitido identificar factores críticos que afectan la participación de las mujeres en la ingeniería, como estereotipos culturales, sesgos en la evaluación y tutoría, así como la falta de modelos a seguir y programas de apoyo específicos para ellas. Estos hallazgos instan a la necesidad de desarrollar estrategias y políticas que promueven la igualdad de oportunidades y la equidad de género en las facultades de ingeniería. Al crear un ambiente más inclusivo y diverso en estas carreras, se podrán aprovechar los talentos y perspectivas únicas de las mujeres, lo que a su vez impulsaría la innovación y el avance tecnológico de manera más significativa. Asimismo, se detecta la importancia de fomentar la participación temprana de las niñas en actividades STEM y de ofrecer mentoría y redes de apoyo para fortalecer su interés y confianza en estos campos. Esta investigación, sin duda, sienta las bases para futuros estudios y acciones que contribuya a cerrar la brecha de género en la ingeniería y a construir un futuro más igualitario y prometedor para todas las estudiantes interesadas en seguir una carrera en ciencias, tecnología, ingeniería y matemáticas en México. Las estrategias presentadas ofrecen un enfoque integral para promover la participación de mujeres en carreras STEM y cerrar la brecha de género en estos campos. Cada una de estas estrategias aborda desafíos específicos que han obstaculizado históricamente la inclusión de mujeres en ciencia, tecnología, ingeniería y matemáticas. Es esencial hacer hincapié en que la lucha por la equidad de género en carreras STEM debe ser constante y que estas estrategias deben implementarse de manera concertada y sostenida para logra resultados significativos. La promoción de la participación de mujeres en STEM no solo es un asunto de justicia y derechos humanos, sino también una oportunidad para enriquecer estos campos con una diversidad de talento, perspectivas e ideas. Trabajar hacia un futuro más diverso e igualitario en carreras STEM no solo beneficio a las mujeres, sino que también impulsa la innovación y el progreso en la sociedad en su conjunto. Al adoptar estas estrategias y continuar buscando nuevas formas de promover la inclusión, estamos dando pasos significativos para lograr un mundo donde todas las personas, sin importar su género, tengan igualdad de oportunidades para participar y liderar en los campos de ciencia, tecnología, ingeniería y matemáticas
Álvarez Cubillos Brayan Daniel, Servicio Nacional de Aprendizaje SENA - Regional Atlántico
Asesor: Mtro. Abraham Perez Delgado, Universidad Tecnológica de Tehuacán

IMPLEMENTACIÓN DE UN PLAN DE MONITOREO, CONTROL Y MANTENIMIENTO PARA EL SISTEMA MODULAR DE PRODUCCIÓN DE INDUSTRIA 4.0 203 DE FESTO


IMPLEMENTACIÓN DE UN PLAN DE MONITOREO, CONTROL Y MANTENIMIENTO PARA EL SISTEMA MODULAR DE PRODUCCIÓN DE INDUSTRIA 4.0 203 DE FESTO

Altamar Romero Wilson David, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Álvarez Cubillos Brayan Daniel, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Mtro. Abraham Perez Delgado, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

La falta de un manual de monitoreo de condición y control para el Sistema Modular de Producción de Industria 4.0 203 i4.0 de Festo presenta los siguientes desafíos, Falta de pautas claras Sin un manual detallado, los operadores y técnicos no tienen una guía precisa sobre qué parámetros monitorear, cuándo hacerlo y cómo interpretar los datos recopilados. Esto conduce a interpretaciones subjetivas, falta de uniformidad en el monitoreo y dificultad para detectar problemas tempranamente y tomar decisiones informadas. Adicionalmente la ausencia de protocolos de control, la carencia de un manual implica la falta de protocolos claros para el control y ajuste de los parámetros del sistema. Esto resulta en una falta de estandarización en los procedimientos de ajuste, lo que afecta negativamente la calidad de los productos, el rendimiento del sistema y la eficiencia de la producción, por otro lado, las limitaciones en el mantenimiento: El mantenimiento desempeña un papel crucial en la maximización de la vida útil de los equipos y contribuye a mitigar posibles fallas catastróficas. Sin un manual de monitoreo de condición y control, se dificulta la implementación de programas efectivos de mantenimiento. Esto aumenta los costos de mantenimiento y la probabilidad de tiempos de inactividad no planificados, comprometiendo la vida útil de los equipos y la eficiencia general de la producción



METODOLOGÍA

Desarrollo de estado del arte para identificar las áreas de oportunidad en el proyecto; realización de investigación teórica del funcionamiento, características de los elementos y dispositivos del sistema; priorizando las áreas de oportunidad de mejora del sistema de monitoreo y control. Se establece la conexión válida del OLE for Process Control (OPC), como estándar de comunicación en el campo del control y supervisión de procesos industriales; mediante el sistema propio de un Sistema Manufacturing Execution System (MES); como aplicación software enfocado al Control de la Producción, que monitorea y documenta la gestión del sistema con la comunicación entre el usuario y el controlador.


CONCLUSIONES

El proyecto incorpora tecnologías avanzadas, como sensores IoT, sistemas de control autónomos y programación óptima de los PLC, con el fin de mejorar la eficiencia del monitoreo y mantenimiento en el entorno de Industria 4.0. Además, se identificarán con precisión los requerimientos específicos del Sistema Modular de Producción i4.0 de Festo; IO Link, módulos RFID, para lectura y escritura, red de comunicación ProfiNET, sensores ópticos de fibra óptica, TAG de datos; entre otras consideraciones técnicas relevantes. La implementación práctica del plan se realizará en un entorno simulado de control con el usuario del sistema, evaluando su viabilidad y efectividad antes de una implementación completa. Asimismo, el trabajo proporciona un diseño completo y detallado del Plan de Monitoreo, Control y Mantenimiento para el sistema, abarcando estrategias para el monitoreo, control y mantenimiento preventivo El proyecto se puede llevar a una segunda etapa de implementación, con el apoyo de herramientas de programación para incorporar el desarrollo e interpretación de lógica de programación; entre las necesidades, diagrama de flujo y técnicas de programación orientadas a objetos; para considerar el desarrollo de sistemas de Supervisión, Control y Adquisición de Datos (SCADA).
Alvarez Machorro Sergio, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla

FABRICACIóN, PROGRAMACIóN Y VALIDACIóN DE DISPOSITIVO DE MEDICIóN FLEXIóN Y PANDEO


FABRICACIóN, PROGRAMACIóN Y VALIDACIóN DE DISPOSITIVO DE MEDICIóN FLEXIóN Y PANDEO

Alvarez Machorro Sergio, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Un problema latente en los países en vías de desarrollo es que su producción es de baja calidad, debido a que los procesos de elaboración y manufactura se rigen por una variedad de tecnologías originarias de diferentes países. La integración no planificada de empresas productivas hace que gran parte de los recursos destinados a la productividad empresarial se destinen a actividades de mantenimiento o adecuación de líneas productivas. Por ello, desarrollando desde las escuelas dispositivos que permitan emular o simular áreas o departamentos que promuevan su propio desarrollo tecnológico, estos podrán en el futuro configurar líneas de producción estandarizadas, lo que incrementa los niveles de producción y calidad.



METODOLOGÍA

La metodología empleada fue básicamente una metodología cuantitativa, debido a que el análisis es analítico, el método científico, el procedimiento es secuencial, la técnica es experimental, las herramientas son software de adquisición, tratamiento y procesamiento de datos y los formatos de presentación de resultados gráficas en función del tiempo y en función de la deflexión y pandeo. Visto desde una perspectiva pedagogía se considera que las categorías de análisis son las habilidades cognitivas entendidas como: las habilidades que permiten al individuo conocer, pensar, almacenar información, organizarla y transformarla hasta generar nuevos productos, realizar operaciones tales como establecer relaciones, formular generalizaciones, tomar determinaciones, resolver problemas y lograr aprendizajes perdurables y significativos. Para la propuesta didáctica se utilizaron las subcategorías de análisis: recordar, entender, aplicar, analizar, sintetizar y evaluar a partir de la taxonomía de Bloom


CONCLUSIONES

De la presente investigación se logró fabricar y poner en marcha un prototipo funcional capaz de medir, analizar y reportar el comportamiento de flexión o pandeo de los elementos estructurales que conforman un chasis, armazón, armadura o estructura tanto de la construcción civil como en la industria metalmecanica. Se comprende de igual manera la relación que hay entre las condiciones de operación de una estructura y los efectos de exceder las propiedades geométricas, físicas o mecánicas del mismo. Es deseable la experiencia y el conocimiento que fortalece la educación en la ingeniería y proporciona un alto nivel de habilidad para determinar el comportamiento de elementos estructurales esbeltos bajo cargas de flexión y pandeo.
Álvarez Melo María José, Universidad de Guadalajara
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

ANáLISIS RIETVELD EN COMPONENTES FABRICADOS POR DEPOSICIóN DE ENERGíA DIRECTA.


ANáLISIS RIETVELD EN COMPONENTES FABRICADOS POR DEPOSICIóN DE ENERGíA DIRECTA.

Álvarez Melo María José, Universidad de Guadalajara. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La superaleación Inconel 718 es un material altamente complejo, con una variedad de fases reforzantes que pueden formarse durante el proceso de manufactura y los tratamientos térmicos. La microestructura final del material determina sus propiedades mecánicas, como resistencia, tenacidad, dureza y ductilidad. Por lo tanto, la caracterización precisa de las fases presentes en la superaleación es esencial para optimizar los tratamientos térmicos y asegurar que los componentes manufacturados cumplan con los requisitos de rendimiento y calidad para aplicaciones de alto nivel de exigencia.   El problema central a resolver en este verano es la cuantificación y procesamiento preciso de los datos adquiridos experimentalmente de las fases cristalinas presentes en los componentes fabricados por Deposición de Energía Dirigida mediante las técnicas de LMD, BPF y forja. Para lograrlo, se empleó la técnica de análisis Rietveld, que se realiza a partir del difractograma adquirido por el difractómetro y es ampliamente utilizada para la caracterización y cuantificación de fases cristalinas en materiales.



METODOLOGÍA

El proyecto de verano de investigación se estructuró en dos etapas distintas pero complementarias. La primera parte se enfocó en el estudio de la ciencia de materiales y el análisis cuantitativo de las fases presentes en el Inconel 718 post-tratamiento térmico mediante el refinamiento de rietveld, mientras que la segunda parte se centró en el procesamiento de datos obtenidos a partir del refinamiento y la predicción de puntos nariz mediante el uso del dataset proporcionada por el asesor.   En la fase inicial, se realizó una revisión del estado del arte en ciencia de materiales, profundizando en el funcionamiento de la difracción de rayos X (DRx), conceptos de cristalografía y tratamientos térmicos aplicados a los materiales.    A continuación, se procedió a la preparación de algunas de las muestras metalográficas de los componentes fabricados mediante LMD y BPF con la superaleación Inconel 718. Estas muestras se caracterizaron mediante DRx. Utilizando el Software High Score Plus, se realizó el refinamiento de Rietveld de las muestras metalográficas, lo que permitió identificar y cuantificar las fases cristalinas presentes en los componentes fabricados. Aunado a eso, se realizó un estudio exhaustivo sobre el refinamiento de Rietveld, su funcionamiento y los parámetros involucrados para lograr hacer una predicción de mayor precisión lo que conllevo a usar el software de refinamiento GSAS II, que permite un mejor control al momento de hacer la predicción de los datos experimentales.    El refinamiento de Rietveld es una técnica para la caracterización de materiales cristalinos que permite obtener información detallada sobre la estructura cristalina de un material, esto lo puede hacer mediante la difracción de rayos X y neutrones. Este método permitió extraer toda la información solapada en los espectros de difracción en polvo, lo que permite obtener información detallada sobre la estructura cristalina de un material. Esta información ayudó para la identificar y cuantificación de la cantidad de las fases presentes en una muestra, además de la determinación de la estructura cristalina de las muestras.   Estos datos fueron fundamentales para la construcción de diagramas Tiempo-Temperatura-Transformación (TTT), proporcionando información clave acerca de las transformaciones de fase ocurridas en la superaleación Inconel 718 durante los tratamientos térmicos. Además, se realizó una guía para el uso del software GSAS II para que el proceso de utilización y entendimiento del mismo pueda ser optimizado.


CONCLUSIONES

El proyecto de investigación proporcionó resultados significativos en el análisis de la superaleación Inconel 718 mediante el refinamiento de fases utilizando los softwares GSAS y High Score Plus. Se estima que GSAS proporcionará resultados más precisos en la parte de cuantificación de fases, sin embargo la curva de aprendizaje del software es más tardada.   El orden de los parámetros de refinamiento es crucial para obtener cálculos confiables y representativos de la composición cristalina. Las fases predominantes identificadas fueron la gamma prima y gamma doble prima, brindando valiosa información sobre la estructura cristalina y la microestructura resultante.   Los datos experimentales obtenidos por DRX proporcionaron una lectura detallada de la estructura cristalina, esencial para comprender la microestructura y sus cambios debido a tratamientos térmicos previos.   En conclusión, este proyecto ha avanzado en la comprensión de la superaleación Inconel 718 dando así pie para las primeras aproximaciones de los diagramas TTT de inconel 718 por distintas técnicas de fabricación. Estas contribuciones podrán apoyar en futuras investigaciones y mejoras en la manufactura aditiva de materiales avanzados con propiedades específicas para aplicaciones de alto rendimiento, además de que permitirán optimizar partes del proceso de caracterización que podrían llegar a ser muy tediosos y costosos.
Álvarez Montes Ernesto, Instituto Tecnológico de Sonora
Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac

CONSTRUCCIóN DE PLANTAS PILOTO


CONSTRUCCIóN DE PLANTAS PILOTO

Álvarez Montes Ernesto, Instituto Tecnológico de Sonora. Flores Aguilar Daniela Elizabeth, Instituto Politécnico Nacional. Poom Rosas Lourdes Maria, Instituto Tecnológico de Sonora. Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Los procedimientos existentes de llevar a cabo un proyecto Turnkey dependen plenamente del dirigente, es decir, el Project Manager, sin embargo, tras una búsqueda del procedimiento general, se encontró con el hecho de la existencia de un sinfín de variables, pero con una escasa información acerca de la construcción de plantas piloto. A pesar de la existencia de artículos hablando acerca de la construcción de plantas piloto, no se encuentra en ellos un proceso estandarizado que se pueda replicar o seguir para construir una propia, en su mayoría, los artículos publicados acerca de la edificación de naves industriales o plantas piloto abordan su propio proceso a mejorar o el proyecto interno que implementaron. Por otro lado, en México existen normativas que regulan los proyectos estructurales, como también ligados a los derechos de trabajadores. En el programa de inspección de 2023 publicado por la Secretaría de Trabajo y Previsión Social arroja datos alarmantes acerca de los índices de violación hacía los derechos de trabajadores, además de tener un índice alto de violación a las normativas por inspección realizada siendo éste un alrededor 62% durante los años 2021y 2022.



METODOLOGÍA

Para llevar a cabo el presente proyecto se investigó, a través de internet, distintos trabajos, artículos y publicaciones que hablan de aspectos relacionados a la construcción de plantas piloto, con el fin de crear una idea propia y establecer un proceso acerca de las fases que conlleva un proyecto Turnkey. Con el apoyo de Excel e internet, se redactó una base de datos dónde se explica qué normas utilizar según el giro empresarial del proyecto, mencionando código de norma y nombre además de, enlistar los órganos encargados de normalizar y actualizarlas, esto con ayuda de las diferentes páginas oficiales y catálogos de normas asistidos. Por último, se indagó en páginas oficiales índices de accidentes sucedidos durante la construcción de edificaciones además de visitar los programas de inspección de los años 2021, 2022 y 2023 donde identificamos aquellas normas infringidas y derechos violados. Con apoyo de Minitab, se realizó una iteración de la disminución en el índice de accidentes que se generaría sí se usa el presente como guía. Como principales herramientas se utilizaron: Microsoft Excel (2019) Microsoft Word (2019) Microsoft Power Point (2019) Laptop Huawei. Procesador. Intel® Core™ i3-10110U CPU @ 2.10Ghz. RAM. 8.00GB. Edición. Windows 11 Home Single Language. Google Chrome Minitab. Minitab® Statistical Software.


CONCLUSIONES

De acuerdo a la información que se recopilo para su análisis y estructuración se logró obtener un manual que describe de forma general las etapas que se deben tomar en cuenta al momento de querer iniciar la construcción de una planta piloto con dirección a convertirse en una nave industrial, dejando en claro que la planta piloto solo es un prototipo a pequeña escala hecha para probar y desarrollar procesos industriales ya que si se obtienen buenos resultados pasa a convertirse en una nave industrial con producción a gran escala, por lo que la información presentada se combina para estas dos distinciones.  Resulta importante la elaboración de este manual ya que al contar con este te deja ver con claridad un panorama amplio de lo que conlleva erigir una nave industrial, en este caso te proporciona la normatividad que se debe aplicar de manera general así como las especificas según la industria a la que pertenezca, como también te explica las principales etapas que se deben tomar en cuenta para su construcción, mencionando algunas están la de familiarizarse con el manual es decir el que se te presento en este articulo, identificación de necesidades, evaluación de viabilidad, planificación, diseño y especificaciones, normatividad, entre otros. (poner para ir a la Guia constructora). Siendo un soporte para contextualizarte y guiarte en el proceso. Así también con la recolección de esta información se facilita la búsqueda de información referente a este tema (ya que son pocos los sitios que te explican de manera clara la forma general en la que se puede hacer una nave industrial independientemente de su giro, es importante comprender que cada nave industrial según el tipo de industria al que esta pertenezca va tener diferentes características como también distintos requerimientos y especificaciones. Otra de las cosas que este manual te brinda son las distintas clasificaciones que hay, no se cubren completamente todas ya que existen infinidad de ellas, pero si brinda una gran parte.  Sin embargo, otro punto importante es que la aplicación de este manual puede llegar a reducir los accidentes, se realizó una proyección en la cual se obtuvo que estadísticamente, la cantidad de violaciones encontradas durante los años 2021 y 2022 representaban un 22% del total o en términos estadísticos, representan un 64% de margen de error. Por otro lado, el presente tiene como objetivo mitigar en su máximo la cantidad de violaciones totales por lo que se estima reducir hasta en un 95% el 22.63%, reduciéndose así a un 1.13% marcando este como un 3.12 de margen de error total, en comparativa, se redujeron 18080 violaciones totales a un 908 por lo que, el manual cumpliría su objetivo, causando así un gran impacto en cuanto a normatividad se trate, ya que al lograrse dicha estimación/ proyección junto a ello se obtendrían beneficios para los trabajadores ya que estarían cumpliendo debidamente con la normatividad adecuada lo que les daría mayor seguridad, mejores condiciones de trabajo, además del cuidado correspondiente a las propias instalaciones y equipo
Alvarez Rodríguez Esmeralda, Universidad de Guadalajara
Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara

EVIDENCIA DE TRANSFERENCIA DE MASA EN EL PROCESO LAVADO DE HUEVO, EN OCOTLÁN JALISCO


EVIDENCIA DE TRANSFERENCIA DE MASA EN EL PROCESO LAVADO DE HUEVO, EN OCOTLÁN JALISCO

Alvarez Rodríguez Esmeralda, Universidad de Guadalajara. Palomino Venegas Paola Estefania, Universidad de Guadalajara. Palomino Venegas Yolanda Zarahi, Universidad de Guadalajara. Rojas Reyna Elisa María, Universidad de Guadalajara. Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El huevo es un alimento frecuente en la dieta mexicana, con múltiples formas de preparación y gran aceptación. Sin embargo, pueden ser causantes de enfermedades trasmitidas por alimentos (ETA), el huevo se ha asociado a salmonelosis, pese a ser un producto compuesto en mas del 90% por carbonato de calcio, una mínima cantidad de carbonato de magnesio y otros compuestos de baja proporción entre ellos sustancias orgánicas, es susceptible de transportar bacterias como Salmonella spp., motivo por el cual representa un riesgo sanitario. La fuente de estas bacterias proviene comúnmente del excremento de la gallina, el cual puede adherirse a la superficie del cascaron al momento de la salida del huevo o cuando el huevo queda expuesto en el nido. La cascara cuenta con una película que cumple una función de protección para el huevo de microorganismos del exterior por lo que la mayoría de los huevos no está contaminado por dentro. En algunos casos durante los procesos de recolección o transporte se le llegan a generar fisuras en la cascara no visibles a simple vista. Para poder llevar este producto al mercado es sometido a un proceso de lavado en el cual se siguen unas serie de pasos con el fin de evitar una contaminación del huevo, sin embargo, en algunas ocasiones no se realiza la limpieza de manera adecuada lo que puede provocar una contaminación interna del huevo, principalmente enterobacterias, siendo la salmonelosis la principal.



METODOLOGÍA

La siguiente metodología es experimental-descriptiva 1. Selección de los huevos sucios. 2. Sumergir los huevos en agua potable, 3 durante 15 minutos, 3 durante 30 minutos y otros 3 durante 1 hora para simular el lavado que se le da al huevo para la venta en tiendas. 3. Secar los huevos con un trapo seco. 4. Rotular los huevos para identificar cada muestra, marcando con LA1, LB1 y LC1 los de 15 minutos, con LA2, LB2 y LC2 los de 30 minutos y por último con LA3, LB3 y LC3 los huevos sumergidos durante 1 hora. 5. Pesar los huevos y registrarlo. 6. Preparar la solución de azul de metileno agregando el 95% en volumen de agua destilada y el 5% en volumen de azul de metileno al 1%, tomar una muestra y hacer prueba de colorimetría con GLX. 7. Rotular 3 vasos de precipitado con LA, LB y LC respectivamente y agregar la misma cantidad de la solución de azul a cada uno. 8. Sumergir los huevos al mismo tiempo y dejar reposar durante 15 minutos, 30 minutos y 1 hora respectivamente y dejarlos secar durante aproximadamente 24 horas. 9.  Al pasar cada uno de los 3 tiempos tomar una muestra de cada solución para hacer pruebas de colorimetría en la GLX y registrar los resultados. 10. Ya una vez secos los huevos anotar las observaciones de tinción en la bitácora para proceder a pesarlos y registrarlo. 11. Quebrar cada huevo por la sección transversal vertical con la ayuda de un objeto metálico, cada uno en una caja petri de vidrio. 12. Anotar las observaciones de cada uno de los huevos, así como las dimensiones de cada manchita de azul de metileno presentes en el contenido y en el interior de la cáscara. 13. Observar en el estereoscopio las manchas de azul de los huevos y las cáscaras para observar a más detalle.  


CONCLUSIONES

La cáscara de huevo permite la transferencia de masa a través de ella, este intercambio puede estar constituido por partículas o microorganismos, lo cual nos lleva a inferir el riesgo de contaminación química y por microorganismos patógenos. Al observar los cascarones bajo un estereoscopio se puede notar que los huevos sometidos al proceso de lavado mostraron una porosidad más notoria que en el cascaron sin lavar. En varias ocasiones las manchas resaltaban bastante, dejando ver una cantidad considerable de azul de metileno. Se concluye que es imprescindible tomar medidas sanitarias correctas, tanto para empresas grandes como pequeños comerciantes. Mediante las experimentaciones realizadas, el conocimiento aumentó, se logró fomentar el trabajo en equipo, siempre con respeto, tomando en cuenta cada opinión, así como de parte de la investigadora que nos llevó de la mano en este proyecto.
Álvarez Salazar Martin, Instituto Tecnológico de Colima
Asesor: M.C. Rosa de Guadalupe Cano Anguiano, Instituto Tecnológico de Colima

GAMINER: EL ESTUDIO DEL COMPETITIVO DE VALORANT CON MINERíA DE DATOS


GAMINER: EL ESTUDIO DEL COMPETITIVO DE VALORANT CON MINERíA DE DATOS

Álvarez Salazar Martin, Instituto Tecnológico de Colima. Asesor: M.C. Rosa de Guadalupe Cano Anguiano, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En la comunidad de e-sports existen inconformidades a la hora de llevar a cabo torneos competitivos pues al participar varios equipos en esta disciplina generan radios de victorias y derrotas, lo cual hace difícil predecir quien será el ganador del encuentro, a su vez los organizadores del evento no tienen el control de quienes llegaran a los próximos enfrentamientos y con ellos los comentaristas o casters del evento no tienen ni idea de lo que ocurrirá dentro de la partida.   En México la FEMES(Federación Mexicana de Esports) lleva a cabo los torneos en el videojuego de Valorant pero en dichos torneos nunca predicen quien será el ganador de la ronda, de la partida y del torneo, a su vez cada equipo participante tiene su propio win/rate de partidas en determinados mapas, por lo tanto es importante atender este problema, para lograr predecir con éxito las victorias de los equipos y que las partidas sean emocionantes y bien comentadas con la información adecuada.  



METODOLOGÍA

Para realizar este trabajo de investigación se plantea el primero seleccionar los videojuegos competitivos más importantes de la época actual, independientemente de la plataforma en que este se lleve a cabo, ya sea Xbox, PlayStation, Nintendo Switch o PC, así mismo elegir uno de estos juegos para llevar a cabo su proceso de minería de datos.   De entre todos los juegos se seleccionó el videojuego competitivo de riot games valorant, donde inició una búsqueda exhaustiva por su dataset el cual contiene la información de los win/rates de los equipos más reconocidos de este juego.   Con el juego seleccionado y su dataset obtenido pasamos primeramente a comprender el modelo de negocio que llevan los esports y a definir el objetivo el cual es predecir los resultados de las partidas de Valorant basándose en el win rate de los equipos y otras variables relevantes.   Obtenemos los datos necesarios para el análisis, que incluyen información sobre partidas pasadas de Valorant, win rate de los equipos y cualquier otra variable relevante.   Realizamos un preprocesamiento de los datos, incluyendo limpieza, transformación y selección de características, para asegurar que los datos estén listos para ser utilizados en el modelo.   Implementamos el diseño de prueba propuesto, que consiste en dividir el conjunto de datos entre entrenamiento y prueba, y aplicar la validación cruzada si es necesario.   Aplicamos el algoritmo de Regresión Logística utilizando el conjunto de entrenamiento y ajustar los coeficientes del modelo.   Probamos el modelo utilizando el conjunto de pruebas y calculando diversas métricas de evaluación, como precisión, sensibilidad, especificidad y curva ROC, para medir su rendimiento.   Realizamos los ajustes en el modelo si es necesario, así como la selección de diferentes características o la optimización de hiper parámetros, y repetir el proceso de entrenamiento y evaluación para mejorar el rendimiento del modelo.   Analizamos las métricas de evaluación y realizamos un análisis adicional para comprender la efectividad del modelo en la predicción de resultados y cómo el win rate y otras características influyen en los resultados de las partidas.   Interpretamos los resultados obtenidos y elaboramos nuestra conclusión sobre la capacidad del modelo para predecir los resultados de las partidas de Valorant.   Por último documentamos todo el proceso llevado a cabo, resultados y conclusiones en un informe final que pueda ser compartido y utilizado para futuros análisis y mejoras del modelo.  


CONCLUSIONES

El proyecto ha demostrado que la minería de datos y el análisis de machine learning son herramientas poderosas en el contexto de esports y pueden proporcionar información valiosa para el análisis y mejora del desempeño de los equipos en partidas de Valorant. Los resultados obtenidos pueden ser útiles tanto para los equipos y jugadores que buscan mejorar su rendimiento como para la comunidad de esports en general, al contribuir a una mejor comprensión de los factores que influyen en los resultados de las partidas y la dinámica del juego.
Alvarez Vidal Francisco Nicolas, Instituto Politécnico Nacional
Asesor: Mg. Ivanhoe Rozo Rojas, Universidad Católica de Colombia

ANáLISIS DE CASOS APLICADOS SOBRE FACTORES DE RIESGO EN TRABAJADORES. CONVERGENCIAS Y DIVERGENCIAS DESDE UNA REVISIóN DE LITERATURA


ANáLISIS DE CASOS APLICADOS SOBRE FACTORES DE RIESGO EN TRABAJADORES. CONVERGENCIAS Y DIVERGENCIAS DESDE UNA REVISIóN DE LITERATURA

Alvarez Vidal Francisco Nicolas, Instituto Politécnico Nacional. Asesor: Mg. Ivanhoe Rozo Rojas, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La ISO (Organización Internacional de Normalización), en su norma 45001:2015, define el riesgo para la seguridad y salud en el trabajo como: combinación de la probabilidad de que ocurran eventos o exposiciones peligrosos relacionados con el trabajo y la severidad de la lesión y deterioro de la salud que pueden causar los eventos o exposiciones. Ahora bien, la OMS (Organización Mundial de la Salud) en 2017, establece los factores de riesgo como: Los riesgos para la salud en el lugar de trabajo, incluidos el calor, el ruido, el polvo, los productos químicos peligrosos, las máquinas inseguras y el estrés psicosocial que provocan enfermedades ocupacionales y pueden agravar otros problemas de salud. Considerando datos y cifras de la OMS, 12.2 millones de personas mueren en edad laboral a causa de enfermedades no transmisibles. Además de que en casi todo el mundo las enfermedades relacionadas con la salud en el trabajo reducen el PIB de los países con pérdidas que van del 4 al 6%. (OMS, 2017) Es por estas razones por las cuales se consideró investigar sobre cómo se han afrontado los problemas relacionados con seguridad e higiene en el trabajo (HSE) en artículos científicos de la base de datos Scopus. Analizando el factor de riesgo de estos proyectos, con un enfoque en saber que trabajo a futuro podría complementarlos y en que otros se podría aplicar la misma metodología.



METODOLOGÍA

La literatura por considerar para el proyecto fue tomada de la base de datos Scopus, donde se plantearon cinco ecuaciones de búsqueda, para formar dichas ecuaciones se tomaron diferentes palabras claves del tema y se filtraron resultados para obtener un número reducido de bibliografía con la que trabajar,por ejemplo, se consideró una ventana de tiempo de 5 años (2023-2018). El marco de referencia para la revisión de literatura fue PRISMA. Después, de las ecuaciones obtenidas se descargó un archivo en formato RIS con las palabras claves y con ayuda del software Vosviewer se crean mapas de coincidencias, y al final se eligen las dos ecuaciones cuyas palabras más se acerquen al tema. Con ayuda de un último software llamado Notepad++ se juntaron los resultados de ambas ecuaciones, se homologaron las palabras clave y el archivo final vuelve a pasar por Vosviewer para obtener el mapa final.  Ecuaciones finales tomadas en la investigación: ( TITLE-ABS-KEY ( "occupational risk" OR "occupational accident" OR "occupational disease" ) AND TITLE-ABS-KEY ( "risk factor" ) ) AND PUBYEAR > 2017 AND PUBYEAR < 2024 AND ( LIMIT-TO ( SUBJAREA , "ENGI" ) ) AND ( LIMIT-TO ( DOCTYPE , "ar" ) ) AND ( EXCLUDE ( EXACTKEYWORD , "Sex Factors" ) OR EXCLUDE ( EXACTKEYWORD , "Child" ) OR EXCLUDE ( EXACTKEYWORD , "Sex Difference" ) OR EXCLUDE ( EXACTKEYWORD , "Adolescent" ) ) ( TITLE-ABS-KEY ( "Occupational Hazards" OR "Occupational risk" ) AND TITLE-ABS-KEY ( "Risk Factor" ) ) AND PUBYEAR > 2017 AND PUBYEAR < 2024 AND ( LIMIT-TO ( SUBJAREA , "ENGI" ) ) AND ( LIMIT-TO ( DOCTYPE , "ar" ) ) AND ( EXCLUDE ( EXACTKEYWORD , "COVID-19" ) OR EXCLUDE ( EXACTKEYWORD , "Pandemic" ) OR EXCLUDE ( EXACTKEYWORD , "Coronavirus Disease 2019" ) OR EXCLUDE ( EXACTKEYWORD , "Adolescent" ) ) Con el mapa final, se toma de referencia para hacer un análisis de la bibliografía de ambas ecuaciones, en total se consideraron 20 artículos de ambas. Con la información de esta literatura final se buscaron convergencias y divergencias.


CONCLUSIONES

Durante la estancia virtual de verano se logró analizar cada artículo mediante una matriz de caracterización de la literatura, por lo que se logró tener un panorama más amplio de los temas tratados en los artículos revisados. De dichos artículos, se encontró que los países con más bibliografía generada fue China y Turquía (con 6 artículos cada país), los sectores donde más se aplicaban dichos proyectos fueron en el de construcción y manufactura (11 cada sector). De estos artículos se encontró que los factores de riesgo que más se repetían eran los de una falta de ergonomía (11) o una gestión inadecuada de los riegos (6). Ahora haciendo un análisis por sector del factor de riesgo, en el de construcción la falta de ergonomía es el factor más relevante (3 artículos con este riesgo), lo cual indica que los trabajadores están expuestos a posturas de trabajo incómodas que pueden ser perjudiciales a mediano o largo plazo.El trabajo a futuro que más se notó como necesidad fue el de dar soluciones a la causa raíz encontrada (4 artículos con esta similitud), esto debido a que el trabajo se limitaba a encontrar estos aspectos sin tener una solución efectiva planteada. Para manufactura se notó que el factor de riesgo que más se repitió fue el de falta de ergonomía (5 artículos), pues los operarios eran expuestos a trabajos cuyas operaciones eran repetitivas y/o en involucraban posiciones incomodas.El trabajo a futuro de la necesidad de bibliografía similar fue una de las necesidades más reiteradas en este sector, pues los enfoques de los artículos no incluían mayores alcances al respecto (5 artículos). Por ejemplo, los artículos 7 y 17 de la segunda ecuación, apuntan a la necesidad de la investigación del entorno psicológico del trabajador, evidenciando un requerimiento en riesgos psicosociales más allá del puesto de trabajo.
Amaya Diaz Alfredo Alejandro, Universidad de la Costa
Asesor: Mg. Cristian Camilo Osorio Gómez, Universidad Libre

TENDENCIAS Y DESAFíOS EN LA FUERZA LABORAL DEL SECTOR CONSTRUCCIóN: UN ANáLISIS EXHAUSTIVO DE LAS CARACTERíSTICAS, FORTALEZAS Y DEBILIDADES PARA LA MEJORA INTEGRAL DE LAS CONDICIONES DE LOS STAKEHOLDERS.


TENDENCIAS Y DESAFíOS EN LA FUERZA LABORAL DEL SECTOR CONSTRUCCIóN: UN ANáLISIS EXHAUSTIVO DE LAS CARACTERíSTICAS, FORTALEZAS Y DEBILIDADES PARA LA MEJORA INTEGRAL DE LAS CONDICIONES DE LOS STAKEHOLDERS.

Amaya Diaz Alfredo Alejandro, Universidad de la Costa. Asesor: Mg. Cristian Camilo Osorio Gómez, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

El sector de la construcción es una industria clave en la economía, pero enfrenta diversos desafíos en relación a su fuerza laboral. Para mejorar las condiciones de los stakeholders del sector construcción, es necesario comprender las características de la fuerza laboral, identificar sus fortalezas y debilidades, y abordar los principales retos que enfrenta.El planteamiento del problema para este artículo científico se enfocará en responder las siguientes preguntas de investigación: ¿Cuáles son las características de la fuerza laboral del sector construcción en términos de diversidad, multiculturalidad y multigeneracionalidad? ¿Cuáles son las percepciones de los stakeholders que intervienen en la construcción de proyectos residenciales y hoteleros en relación a la fuerza laboral? ¿Cómo se puede gestionar de manera efectiva la fuerza laboral del sector construcción basada en los principios de los stakeholders y la reputación empresarial? ¿Cuáles son las interrelaciones entre los stakeholders en el sector de la construcción y cómo pueden contribuir a la construcción de un modelo de gestión que incorpore los Objetivos de Desarrollo Sostenible? Al abordar estas preguntas de investigación, se podrá obtener una comprensión más completa de las características de la fuerza laboral del sector construcción, así como de las oportunidades y desafíos que enfrenta. Esto permitirá identificar estrategias y acciones específicas para mejorar las condiciones de los stakeholders del sector construcción y promover un desarrollo sostenible en la industria.



METODOLOGÍA

Metodología para el Análisis de la Fuerza Laboral en el Sector de la Construcción y sus Implicaciones en las Condiciones de los Stakeholders 1. Definición de Objetivos: - Analizar las características demográficas y profesionales de la fuerza laboral en el sector de la construcción. - Identificar las fortalezas y debilidades de la fuerza laboral existente. - Determinar los principales retos que enfrenta la fuerza laboral y cómo impactan en las condiciones de los stakeholders. - Proponer recomendaciones para mejorar las condiciones laborales y profesionales en el sector de la construcción. 2. Diseño de la Investigación: - Tipo de Investigación: Estudio exploratorio y descriptivo. - Fuentes de Datos: Encuestas, entrevistas y análisis de datos secundarios de instituciones gubernamentales y gremios del sector. - Muestra: Selección aleatoria estratificada de trabajadores, empleadores y representantes sindicales del sector de la construcción. - Herramientas de Recolección de Datos: Cuestionarios estructurados y guías de entrevistas semiestructuradas. 3. Recopilación de Datos: - Fase 1: Realización de encuestas a trabajadores para recopilar datos demográficos, nivel educativo, experiencia laboral y percepciones sobre condiciones laborales. - Fase 2: Entrevistas en profundidad con empleadores y representantes sindicales para obtener perspectivas sobre fortalezas, debilidades y retos del sector. 4. Análisis de Datos: - Análisis Descriptivo: Tabulación y análisis estadístico de datos demográficos y profesionales de los trabajadores. - Análisis Cualitativo: Codificación y categorización de respuestas de las entrevistas para identificar patrones en las percepciones y opiniones de empleadores y representantes sindicales. - Identificación de Temas Emergentes: Detección de tendencias y patrones relevantes en las fortalezas, debilidades y retos mencionados. 5. Interpretación de Resultados: - Cruzar los datos cuantitativos y cualitativos para obtener una visión integral de la fuerza laboral y sus características. - Identificar convergencias y discrepancias entre las percepciones de trabajadores, empleadores y representantes sindicales. - Evaluar cómo las fortalezas, debilidades y retos influyen en las condiciones de los stakeholders del sector. 6. Conclusiones y Recomendaciones: - Resumir los hallazgos clave en términos de características de la fuerza laboral, fortalezas, debilidades y retos. - Proponer recomendaciones específicas para mejorar las condiciones laborales, la capacitación y el desarrollo profesional en el sector de la construcción. - Contextualizar cómo la implementación de estas recomendaciones podría impactar positivamente a los stakeholders y al sector en su conjunto. 7. Limitaciones y Áreas de Investigación Futura: - Identificar limitaciones del estudio, como posibles sesgos en la muestra o falta de representatividad. - Sugerir posibles áreas de investigación futura, como la evaluación de las implementaciones de las recomendaciones propuestas. Al seguir esta metodología, podremos llevar a cabo un estudio sólido que brinde una comprensión profunda de la fuerza laboral en el sector de la construcción y sus efectos en las condiciones de los stakeholders, contribuyendo así a la mejora de la industria.


CONCLUSIONES

En conclusión, la investigación de las características de la fuerza laboral del sector construcción, sus fortalezas, debilidades y principales retos, es fundamental para mejorar las condiciones de los stakeholders del sector construcción y promover un desarrollo sostenible en la industria. A través de la revisión bibliográfica, el diseño de la investigación, la recopilación y análisis de datos, se pudo identificar las características de la fuerza laboral, las percepciones de los stakeholders y las interrelaciones entre ellos. Con base en los resultados obtenidos, se pueden hacer recomendaciones prácticas para mejorar las condiciones de las partes interesadas en la industria de la construcción. En resumen, estudiar las características de la mano de obra de la industria de la construcción es fundamental para mejorar la situación de los actores y promover el desarrollo sostenible de la industria. Las empresas de esta industria pueden implementar las recomendaciones propuestas para mejorar la calidad de vida de los trabajadores y contribuir al desarrollo sostenible de la industria.
Ambriz Hernández Abdiel, Instituto Politécnico Nacional
Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

DESARROLLO DE AMBIENTE VIRTUAL PARA LA CAPACITACIóN DE MéDICOS EN PROCEDIMIENTOS DE HISTEROSCOPIA


DESARROLLO DE AMBIENTE VIRTUAL PARA LA CAPACITACIóN DE MéDICOS EN PROCEDIMIENTOS DE HISTEROSCOPIA

Ambriz Hernández Abdiel, Instituto Politécnico Nacional. Monroy Rodríguez Roald Aarón, Instituto Politécnico Nacional. Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La histeroscopia es un procedimiento médico que implica la inserción de un histeroscopio (un tubo delgado con una cámara) a través del cuello uterino para visualizar el interior del útero. Al desarrollar un simulador, se brinda a los médicos y estudiantes un entorno seguro para practicar y perfeccionar sus habilidades antes de realizar el procedimiento en pacientes reales. Esto reduce el riesgo de errores y complicaciones durante los procedimientos reales.



METODOLOGÍA

Escaneo de materiales físicos Como primera actividad se realizó el escaneado de los materiales de referencia (Maniquí, histeroscopio, etc.) para poder tener sus dobles digitales que posteriormente fueron usados dentro del motor gráfico y, además, adquirir la capacidad de replicarlos para evitar el maltrato de los materiales originales.   Tratado de mallas  Seguido de esto, se trata la malla resultante para reducir la cantidad de polígonos que la conforman a fin de que, al ser procesada por los Slicers, estos mantengan un desempeño aceptable y se agregó la cavidad donde se montó el sistema mecatrónico. Cabe destacar que la capacidad de impresión no fue suficiente por lo que fue necesario seccionar el modelo para poder ensamblarlo posteriormente.  Ensamble del modelo de referencia  Con los archivos de las secciones listos el siguiente paso fue imprimir y limpiar las piezas resultantes para luego ser ensambladas y con ello verificar que las dimensiones y la disposición escogida fueron las adecuadas.   Conexión con el motor gráfico  El apartado anterior concluye el primer módulo, por lo que para el segundo módulo fue necesario conectar el sistema mecatrónico con el motor gráfico. Aunque el motor escogido fue Unreal Engine 4, no se contaba con la documentación necesaria para realizar la conexión, por lo que se optó por utilizar la opción restante, el motor grafico Unity. El medio para realizar dicha conexión es el Plugin HaptictsDirect. Con el Plugin instalado en el motor fue posible empezar la fase de desarrollo y experimentación de lo que el Plugin permite realizar en base a la documentación existente.  Modelado y texturizado de mallas  Para el tercer módulo se requirieron los modelos ya obtenidos en el primer módulo, con la diferencia que se necesitó agregar tanto texturas, shaders y modificadores de deformación que permitan interactuar de forma adecuada con estos elementos dentro del motor gráfico.   Pruebas de funcionamiento  Finalmente, fue necesario construir el ambiente virtual en el que se lleva a cabo el procedimiento para poder experimentar la funcionalidad del prototipo con los 3 módulos funcionando en conjunto. Este proyecto se encuentra desarrollado hasta este punto a la fecha de redacción del documento.


CONCLUSIONES

Durante la estadía fue posible realizar una gran parte del desarrollo al que este proyecto apunta, dado que se cuenta con un entorno representativo de un útero sano que es la base para poder generar distintos entornos que representes diversos casos específicos que dependan de la edad y la patología que se requiera poner a prueba en el simulador. Además de que al contar con los modelos digitales es posible tanto replicar el instrumental, como modificarlo, abriendo así las posibilidades de modificar los modelos para cumplir con especificaciones dadas por el personal capacitado y para ofrecer una vía de mantenimiento al material físico. 
Anaya Flores Daylei Priscila, Universidad Tecnológica de Tecamachalco
Asesor: M.C. Beatriz Espinosa Aquino, Benemérita Universidad Autónoma de Puebla

VALORIZACIóN DE LOS RSU EN MI COMUNIDAD TECAMACHALCO, PUEBLA.


VALORIZACIóN DE LOS RSU EN MI COMUNIDAD TECAMACHALCO, PUEBLA.

Anaya Flores Daylei Priscila, Universidad Tecnológica de Tecamachalco. Asesor: M.C. Beatriz Espinosa Aquino, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Vivo en la junta auxiliar de San Mateo Tlaixpan el cual pertenece al municipio de Tecamachalco en el estado de Puebla. En 2020, la población en Tecamachalco fue de 80,771 habitantes (48% hombres y 52% mujeres). Tecamachalco cuenta con 44 localidades, las más importantes son San Mateo Tlaixpan, Santiago Alseseca y Santa Rosa que, junto con la cabecera municipal, el Municipio de Tecamachalco, pertenecen a la región socioeconómica VII del Estado de Puebla que pertenece a Tehuacán. Tecamachalco cuenta con una superficie de 1542 km. Su altitud es de 2055 msnm. Limita como distrito con Chalchicomula por el norte, con Tehuacán al suroeste, con Tepexi al sureste y al oeste con Tepeaca. El municipio presenta un extenso sistema de canales de riego y acueductos que corren en todas direcciones del territorio. El más importante es el denominado canal principal que pertenece al sistema de riego N.º 30 denominado Valle de Valsequillo con cabecera en este municipio, es el único municipio en el estado que cuenta con un Distrito de Riego Federal además de que tiene un largo recorrido dentro del territorio y continua al sur hacia el valle de Tehuacán. La mayoría de los arroyos descienden de la cordillera del cerro de "Cuautepec" (Cerro del águila) o provienen del norte y desembocan en el canal principal. CENTROS DE ACOPIO / ALMACENAJE DE RESIDUOS (COMPRA - VENTA) Recuperadora de Carton: Compran desperdicio insutrial carton ya sea empacado o bien a granel. Este lugar se encuentra en Tecamachalco. También hay camiones que pertenecen a municipios vecinos y se dedican a recolectar botellas de plástico, fierro y aluminio y se lo llevan a vender a empresas que se dedican a trabar con ese material.  



METODOLOGÍA

DESCRIPCIÓN DE LA SITUACIÓN Y PROBLEMÁTICA AMBIENTAL DE LA ZONA   En mi lugar de residencia si hay carros que se dedican a la recolección de la basura, aquí en el pueblo que vivo pasan solo los días martes en un horario de 8 a 9 de la mañana, los señores que se dedican a eso separan las botellas de plástico, los cartones y latas. En el centro del municipio hay personas que se dedican a recolectar cartones y plástico en las noches. En mi casa separamos todo, las botellas de plástico, las latas de aluminio, el vidrio, los cartones y el fierro, y todo lo que son residuos orgánicos los juntamos todos en un solo lado y se vuelve abono que mi mama utiliza para echarle a sus plantas. CENTROS O PLAZAS COMERCIALES Se realiza una plaza comercial solo los sábados detrás de la molinera y es grande y en el centro de Tecamachalco hay un mercado pequeño que está abierto de lunes a sábado. Cabe destacar que todos dejan limpia su área en la plaza comercial, cada quien se lleva su basura.


CONCLUSIONES

ACCIONES AMBIENTALES En la Universidad Tecnológica de Tecamachalco donde estudio, hacen recolecta de botellas de plástico y de baterías y tienen separadores de basura orgánica e inorgánica. En la preparatoria Regional Enrique Cabrera Barroso realizan recolección de botellas de plásticos y tienen separadores de basura orgánica e inorgánica. En el plantel de bachillerato el CECyTE hacen recolectas de papel reciclado de libretas y de carton. De mi parte como contribución al medio ambiente, separo los residuos en mi casa, y llevo todas las baterías que se van gastando a mi universidad donde se recolectan. En mi familia ya que tenemos algo de residuos inorgánicos los vamos a vender a los centros de recolección del municipio de al lado donde ellos se encargan de ir a venderlos a empresas que reutilizan y reciclan para cuidar al medio ambiente.   CONTRIBUCIÓN DE MI PARTE Yo estudie en la preparatoria regional Enrique Cabrera Barroso y realizábamos proyectos de reforestación e íbamos a las primarias a dar platicas a los niños pequeños de la importancia de la separación de residuos y formas de reciclar, a los niños les motivaba mucho las dinámicas que hacíamos, entonces es una propuesta que se puede llegar a realizar, y es mejor empezar a fomentar eso en los pequeños para que crezcan con esas ideas de cuidar al planeta. Otra opción que es muy buena para mantener una zona más limpia es realizar campañas de limpieza como en las calles, en el cerro, los campos y un punto importante es concientizar a las personas.
Andrade de Pro Carlos René, Universidad Tecnologica de León
Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León

SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)


SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)

Andrade de Pro Carlos René, Universidad Tecnologica de León. Gutiérrez Alcantar Maria Guadalupe, Universidad Tecnologica de León. Gutierrez Perez Brenda Esmeralda, Universidad Tecnologica de León. Hernandez Tavares Sergio, Universidad Tecnologica de León. Zendejas Gutierrez Simón Jonathan, Universidad Tecnologica de León. Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La Universidad Tecnológica de León (UTL) es una institución educativa pública de educación superior, fundada en 1995. La universidad cuenta con diversas áreas que dan apoyo al área académica, una de ellas es, la Dirección de Desarrollo Académico y Docente (DAyD) quién ha presentado la necesidad de automatizar la gestión de los procesos de Innovación educativa y de Formación académica debido a la creciente demanda de sus servicios, así como, la necesidad de implementar nuevos procesos que se tienen planeados. Cabe mencionar que la UTL cuenta con un Sistema de Información Táctico Operativo (SITO) que controla gran parte de los procesos académicos y de gestión, por lo que sería necesario que la creación de este sistema conviva con los datos que el SITO ya produce, pero que se conserve como un sistema independiente.



METODOLOGÍA

Tomando en cuenta el planteamiento del problema se decidió implementar la metodología de desarrollo de software denominada Ciclo de Vida Cascada con la variación del modelo V. Esta fusión de metodologías nos va obligando a realizar verificaciones y validaciones constantes del desarrollo del producto pasando por cada una de sus fases: Análisis, Diseño, Desarrollo, Pruebas, Cierre. Obteniendo como resultado un producto con la calidad esperada por el equipo y por las clientes. Adicional a la metodología, en cada fase se implementaron buenas prácticas de desarrollo de software como lo son: Técnicas de recolección de requerimientos, gestión de requerimientos, diseño UML, diseño de interfaces, generación y aplicación de estándares de desarrollo, pruebas unitarias, pruebas de integración, verificaciones y validaciones, La solución técnica para el proyecto consistió en el uso de las siguientes herramientas: SQL-server, HTML, JavaScript, JSP, XML y Vuetify. Se pretende que este sistema sea alojado en la nube de Azure, sin embargo, la pruebas en la nube ya no corresponden al alcance de este proyecto.  


CONCLUSIONES

Se cumplieron los objetivos y alcance señalado por nuestras clientes, gracias a la colaboración y compromiso tanto de las clientes como por el equipo. Dedicar tiempo no solo de desarrollo sino también de verificación y validación nos permitió un avance más certero y confiable. Se hizo una exposición final y la entrega de la Línea Base de Cierre a la Jefatura de Sistemas Informáticos quiénes serán los responsables de la instalación y mantenimiento del sistema.  
Angeles Martínez Gabriel, Instituto Tecnológico de Zitácuaro
Asesor: Mtra. Jhacer Kharen Ruíz Garduño, Instituto Tecnológico de Zitácuaro

TRATAMIENTO Y ANáLISIS DE LAS SEñALES ELECTRO ENCEFáLICAS PARA EL CONTROL DE MOVIMIENTOS DE UN OBJETO VIRTUAL


TRATAMIENTO Y ANáLISIS DE LAS SEñALES ELECTRO ENCEFáLICAS PARA EL CONTROL DE MOVIMIENTOS DE UN OBJETO VIRTUAL

Angeles Martínez Gabriel, Instituto Tecnológico de Zitácuaro. Asesor: Mtra. Jhacer Kharen Ruíz Garduño, Instituto Tecnológico de Zitácuaro



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema:  Uno de los problemas clave radica en la precisión y confiabilidad del reconocimiento de comandos por parte de la diadema. Aunque se ha demostrado una alta tasa de éxito en la identificación de comandos cognitivos, es fundamental profundizar en la optimización de esta funcionalidad para garantizar su adecuado rendimiento en entornos de uso más complejos y variados. Además, se ha observado la existencia de patrones cerebrales interesantes durante la ejecución de tareas cognitivas y respuestas emocionales, lo que sugiere la posibilidad de explorar aplicaciones más específicas en campos como la terapia cognitiva o la mejora del rendimiento mental. Sin embargo, se necesita una mayor investigación para comprender a fondo estas relaciones y su potencial impacto en la práctica clínica y el bienestar emocional de las personas.  La comparación entre grupos de participantes ha resaltado diferencias significativas en patrones cerebrales y respuestas emocionales, lo que plantea interrogantes sobre cómo estos hallazgos pueden ser utilizados para personalizar el uso de la diadema y adaptar sus aplicaciones a diferentes perfiles de usuarios.  



METODOLOGÍA

Si bien hay algunos elementos descriptivos en la metodología, como la recopilación de datos y la presentación de conclusiones, el núcleo de la metodología se enfoca en el análisis cualitativo de los datos para obtener una comprensión más profunda de la funcionalidad y aplicaciones de la diadema EMOTIV. Revisión Bibliográfica: Realizar una revisión exhaustiva de la literatura científica y técnica relacionada con la diadema EMOTIV y tecnologías de control neuronal basadas en electrodos húmedos.  Definición de Criterios de Evaluación: Establecer criterios de evaluación específicos para la diadema EMOTIV, centrándose en la precisión del reconocimiento de comandos, la calidad de las señales cerebrales registradas, la estabilidad y la comodidad durante su uso, así como su aplicabilidad en diferentes tareas cognitivas y respuestas emocionales. Selección de Participantes: Reclutar una muestra representativa de participantes que abarquen diferentes grupos de edad y niveles de habilidades cognitivas y emocionales. . Diseño Experimental: Diseñar un conjunto de tareas cognitivas y situaciones emocionales estandarizadas para ser realizadas por los participantes mientras utilizan la diadema EMOTIV. Recopilación de Datos: Realizar la recopilación de datos utilizando la diadema EMOTIV durante la ejecución de las tareas cognitivas y situaciones emocionales.  Análisis de Datos: Aplicar técnicas estadísticas y de análisis de señales para examinar los datos recopilados.  Comparación entre Grupos: Realizar comparaciones entre los diferentes grupos de participantes para identificar posibles diferencias en patrones cerebrales y respuestas emocionales.  Interpretación de Resultados: Interpretar los resultados obtenidos a partir del análisis de datos y las comparaciones entre grupos.  Conclusiones y Recomendaciones: Elaborar conclusiones basadas en los resultados obtenidos y presentar recomendaciones para mejorar la funcionalidad y aplicaciones de la diadema EMOTIV.  Informe Final: Presentar un informe detallado que documente todos los pasos realizados en el estudio, los resultados obtenidos y las conclusiones alcanzadas.


CONCLUSIONES

El estudio y evaluación de la diadema de control neuronal EMOTIV basada en electrodos húmedos han proporcionado resultados alentadores, lo que ha permitido vislumbrar un amplio potencial para esta tecnología en diversas áreas. A través de una metodología cualitativa que incluyó una revisión bibliográfica exhaustiva, el diseño de un plan de pruebas y el análisis de datos, se logró comprender mejor su funcionamiento y rendimiento. Los resultados obtenidos hasta ahora han demostrado una alta precisión en el reconocimiento de comandos cognitivos y una buena calidad de señales cerebrales registradas, lo que sugiere un prometedor potencial para su aplicación en asistencia médica y tecnología de asistencia. Además, se han identificado patrones cerebrales interesantes durante la ejecución de tareas cognitivas y respuestas emocionales correlacionadas, lo que abre la puerta a investigaciones futuras sobre terapia cognitiva y mejora del rendimiento mental. Sin embargo, aún quedan aspectos por abordar y resultados por obtener. Es necesario seguir investigando y mejorando la precisión del reconocimiento de comandos en entornos más complejos y variados. Asimismo, se requiere una mayor investigación para comprender a fondo las relaciones entre patrones cerebrales y respuestas emocionales, y cómo estas interacciones pueden aplicarse en la práctica clínica y mejorar el bienestar emocional de las personas. Además, se sugiere explorar más a fondo las aplicaciones específicas de la diadema en áreas como la terapia cognitiva y la mejora del rendimiento mental. La adaptabilidad y personalización de la diadema también deben seguir siendo objeto de estudio para maximizar su utilidad y beneficios en diferentes contextos y usuarios.
Anguiano Suárez del Real Juan Pablo, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

SOLUCIóN DE PROBLEMAS DE LA INGENIERíA QUíMICA CON EL APOYO DEL LENGUAJE DE PROGRAMACIóN PYTHON


SOLUCIóN DE PROBLEMAS DE LA INGENIERíA QUíMICA CON EL APOYO DEL LENGUAJE DE PROGRAMACIóN PYTHON

Anguiano Suárez del Real Juan Pablo, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La ingeniería química juega un papel muy importante en la sociedad actual, pues es la encargada del diseño, optimización y operación de procesos para la obtención de bienes materiales; sin embargo, en la industria moderna con exigencias cada vez mayores es fundamental encontrar soluciones eficientes y precisas. En muchas ocasiones, encontrar respuestas a dichos problemas requiere de la resolución de sistemas termodinámicos complejos; que implican la conjunción de mezclas multicomponentes y distintas operaciones unitarias. Ante esta necesidad, el uso de lenguajes de programación ha tomado relevancia en la última década para la automatización, simulación y análisis de datos; entre ellos, Python. Siendo este un lenguaje versátil, en cuanto a sus bibliotecas, y compatible con otros softwares generalmente usados en ingeniería química, Python se ha vuelto una herramienta ideal para abordar los desafíos que enfrentan los ingenieros en la actualidad.



METODOLOGÍA

La estancia comenzó con la resolución de algunos problemas sobre eficiencias en turbinas y ciclos Rankine, realizando diagramas de fase y gráficas con las potencias de acuerdo con distintos parámetros. Las especificaciones sobre las especies químicas a tratar se obtenían de distintos apéndices correspondientes a la literatura de Cengel (2019), Termodinámica: Una aproximación de Ingeniería; así como a Korestky (2018), Engineering and Chemical Thermodynamics. Posterior a ello, se seleccionó e investigó sobre la implementación del módulo Cantera, con la intención de que mediante esta librería se pudieran importar especies químicas y manipularlas a nuestra convenencia. En cuanto a nuestros objetivos, el módulo se ajustaba muy bien a equilibrios líquido-vapor de sistemas monocomponentes; sin embargo, en sistemas multicomponentes carecía de una forma práctica que nos permitiera obtener propiedades de mezcla a determinadas condiciones de trabajo. De igual manera, se realizó un manual básico sobre el uso y limitaciones de Cantera en donde se aborda más detalle las especies disponibles, así como recomendaciones para su instalación y empleo. También, se planteó como posible alternativa la librería Chemicals, que permite importar información de sustancias de acuerdo con sus hojas de seguridad CAS. Con la ayuda de estos dos módulos (Cantera y Chemicals) se dio paso a la programación de ecuaciones de estado de Van der Waals, Redlich-Kwong, Peng Robinson, Dietereci y Lee-Kesler. En este caso, el investigador nos proporcionó programas sobre estas realizados en estancias pasados; sin embargo, se le hizo ciertas modificaciones para su correcto ajuste a las funciones por implementar. Cada ecuación de estado cuenta con sus respectivas funciones para cálculo de temperatura, volumen y presión; para el programa principal se optó por el cálculo del volumen, pues usualmente es la que presenta mayor dificultad de medición en la industria. De manera general, el usuario solo deberá especificar las especies, fracciones molares y condiciones de temperatura y presión del sistema. Además de la entrada automática de datos, se implementó el cálculo de fugacidad y gráficas de de las mismas para sustancias puras y mezclas binarias a distintas composiciones. El programa distingue y se ajusta a la cantidad de especies y ecuación de estado seleccionada, con la regla de mezclado y ecuación de fugacidad correspondiente para cada especie. Por último, se realizó una revisión de los programas que consistía en la resolución y comparación de distintos problemas extraídos de las literaturas antes mencionadas.


CONCLUSIONES

El trabajo realizado logra cumplir con el objetivo de solucionar problemas relacionados a la ingeniería química, que a pesar de no abarcar todos los problemas, sienta las bases para extrapolar una solución a otros desafíos. Considero que es solo una pequeña demostración de las posibilidades que ofrece no solo Cantera o Chemicals; sino del alcance que tiene Python y los distintos lenguajes de programación para facilitar la enseñanza y resolución de problemas.
Angulo Márquez Luis Jorge, Instituto Tecnológico de Colima
Asesor: M.C. Guadalupe Mondragón Preciado, Instituto Tecnológico de Colima

PROPUESTA DE UNA ESTRATEGIA DE DIFUSIóN DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICAS DE LA INDUSTRIA 4.0


PROPUESTA DE UNA ESTRATEGIA DE DIFUSIóN DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICAS DE LA INDUSTRIA 4.0

Angulo Márquez Luis Jorge, Instituto Tecnológico de Colima. Asesor: M.C. Guadalupe Mondragón Preciado, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, las instituciones públicas de nivel superior enfrentan desafíos significativos en cuanto a la difusión de su oferta educativa y servicios a través de medios digitales. La industria y educación 4.0 han traído consigo una revolución digital que ha transformado el paradigma educativo. Los estudiantes digitales buscan experiencias de aprendizaje más interactivas y personalizadas, lo que exige una adaptación efectiva por parte de las instituciones educativas. Sin embargo, a pesar de las oportunidades que ofrece la industria 4.0 en el ámbito educativo, muchas instituciones públicas de nivel superior aún no han logrado aprovechar completamente sus ventajas en la estrategia de difusión de contenido digital. Existen varios obstáculos que dificultan esta implementación. El primer problema es la falta de adaptación a las preferencias y demandas de los estudiantes digitales. Aunque la tecnología está disponible, muchas instituciones no han implementado adecuadamente herramientas como la inteligencia artificial, realidad aumentada o comunidades de práctica, que podrían mejorar la experiencia de los estudiantes y captar su atención de manera más efectiva. El segundo problema está relacionado con la competencia en el mercado educativo. La digitalización ha ampliado la oferta de educación en línea y otras alternativas, lo que compite directamente con las instituciones públicas de nivel superior. Sin una estrategia de difusión adecuada y el uso de tecnologías avanzadas, estas instituciones corren el riesgo de perder su posición competitiva y, por lo tanto, su sostenibilidad financiera. El tercer problema se centra en la optimización de recursos. Las instituciones públicas de nivel superior, en muchas ocasiones, tienen limitaciones presupuestarias, por lo que es crucial utilizar eficientemente los recursos destinados a la comunicación y difusión de la oferta educativa. El no emplear herramientas tecnológicas de la industria 4.0 de manera eficiente puede llevar a un gasto innecesario y tener menos impacto en el público objetivo. Ante estos desafíos, es esencial plantear una investigación que aborde la siguiente pregunta: ¿Cómo pueden las instituciones públicas de nivel superior aprovechar las herramientas tecnológicas de la industria 4.0 en su estrategia de difusión de contenido digital para mejorar la comunicación con los estudiantes digitales, destacar en el mercado educativo y optimizar los recursos destinados a la promoción de su oferta educativa?



METODOLOGÍA

La investigación propuesta tiene un enfoque cualitativo con un alcance correlacional. Su objetivo principal es identificar los canales de comunicación utilizados por los estudiantes para informarse sobre la oferta educativa y recopilar información relevante para la toma de decisiones en la creación de contenidos digitales y selección de herramientas eficaces de la industria 4.0. La metodología se basa en la aplicación de una encuesta digital al estudiantado del Instituto Tecnológico de Colima durante el periodo Enero - Junio 2023. Los datos recopilados se someterán a un análisis e interpretación detallados para obtener resultados significativos. Se empleó la técnica del análisis documental para la búsqueda y selección de las herramientas de la industria 4.0, las estrategias de difusión.  Se seleccionaron de acuerdo al contenido y confiabilidad de la información. De manera que, el análisis se basó en la captación, selección y síntesis de los contenidos de los documentos, que contribuyeron a la toma de decisiones y de las estrategias planteadas. Se consideraron como variables independientes los canales de comunicación y las características sociodemográficas del público objetivo. Conocer los canales más utilizados y los intereses de los estudiantes permitirá diseñar una estrategia de difusión efectiva y personalizada. Las variables dependientes incluyen las herramientas tecnológicas de la industria 4.0 y las estrategias de difusión de contenido digital. La implementación de tecnologías como el cloud computing y los chatbots, así como las estrategias de difusión adecuadas aumentará el alcance de la oferta educativa.


CONCLUSIONES

Con el uso de las herramientas de la industria 4.0, podemos acercar más la información importante al público objetivo, que para efectos la investigación que se realizó, son los aspirantes al instituto. Por lo tanto, considero que se pueden alcanzar objetivos aún más ambiciosos con el uso de estas herramientas, ya que la información que encontramos y a través de la estrategia que diseñamos, se prevee que el objetivo sea satisfactorio. A lo largo de estas semanas, hemos podido constatar lo que el trabajo multidiciplinario puede lograr, ya que aportando desde puntos de vista distintos, se ha consolidado un trabajo de calidad que esperemos ver frutos proximamente.
Angulo Medina Ana Carolina, Universidad de Guadalajara
Asesor: Mtro. Hector Salvador Garcia Romo, Universidad Tecnológica de Bahía de Banderas

INSIGNIAS DIGITALES


INSIGNIAS DIGITALES

Angulo Medina Ana Carolina, Universidad de Guadalajara. Asesor: Mtro. Hector Salvador Garcia Romo, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

A raíz de la pandemia por la COVID-19 desde marzo de 2020, la educación sufrió un cambio, se implementaron las clases en línea. Este cambio generó comodidad para los alumnos y docentes, evitando el incremento de deserción escolar. La educación en línea como reconocimiento de aprobar un curso otorga insignias digitales. Las insignias digitales son una nueva forma de certificar las habilidades y logros alcanzados. Planean cambiar la forma de cómo conseguir un puesto de trabajo en una organización y las instituciones educativas deben preparar a los alumnos para el cambio. Motivando a conseguir insignias digitales y conocer las ventajas de usarlas al egresar. La investigación tiene como finalidad, conocer plataformas de creación y administración de insignias digitales para la aplicación en cursos ofrecidos por las instituciones de educación superior. Ofreciendo las herramientas necesarias para registrarse y crear una insignia, así como los precios por emitirlas. 



METODOLOGÍA

Se crearon 8 cuentas en diferentes plataformas en línea que administraban insignias digitales para su emisión. Analizando las herramientas y posibilidades que ofrecía cada una de estas, comparando los precios de emisión y la facilidad de adaptarse a la plataforma. Para analizar cada plataforma, se diseñó una insignia digital de prueba, incluyendo:  Título de la certificación, competencia o logro. Nombre de la institución emisora. Fecha de emisión y expiración. Descripción del logro, competencia o resultado del aprendizaje. Requisitos que se deberán cumplir para obtener la acreditación. Evidencia: recoge aquellos resultados que demuestran el cumplimiento de los criterios de acreditación por parte del acreditado y que sirven para mostrar a los observadores de la insignia qué destrezas ha adquirido La insignia se registrará en plataformas como Open Badge Factory, Badge List, Badgr, Moodle, Accrediblle, Acreditta, Insignias INTEF y Credly. Algunas solo solicitan un correo electrónico y contraseña, sin embargo, en otras se usó un demo o simulador proporcionado por la misma plataforma. Una vez que está registrada la insignia digital en la plataforma, se prueba la herramienta de emisión, otorgándola a un alumno. Analizando el proceso, cuantas insignias permite emitir al día y la administración.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos de las insignias digitales, además del proceso a realizar para una certificación y la obtención de una insignia digital. Los resultados obtenidos fueron que las plataformas como Badgr, Badg List, Accredible y Credly tienen su página con el idioma inglés, al traducirla con el navegador no es del todo correcto, dificultando la adaptación de las plataformas. Accredible, Open Badge Factory, Credly y Acreditta necesitan un pago de suscripción para la emisión de insignias digitales, dependiendo del número de insignias que se calcula emitir en un año, es el precio a pagar. Las plataformas de Moodle y Badge List permiten la recepción de trabajos como evidencia para la evaluación de la insignia, a la vez que son gratuitas e intuitivas. Sin embargo, no permiten compartir la insignia digital obtenida en redes sociales como, Facebook y LinkedIn. Las cuales no cumplen con el objetivo de que los estudiantes logren validar sus conocimientos y habilidades en el futuro. Dependiendo las metas de cada institución educativa, se evaluará cual plataforma para la creación y gestión de insignias digitales le conviene implementar en su sistema de evaluación.
Antillón Gutiérrez Luis Felipe, Universidad de Sonora
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

OBTENCIóN Y CARACTERIZACIóN DE HIDROGELES ACRíLICOS REFORZADOS CON PARTíCULAS LIGNOCELULóSICAS A PARTIR DE CARTóN RECICLADO, PARA LA REMOCIóN DE METALES PESADOS


OBTENCIóN Y CARACTERIZACIóN DE HIDROGELES ACRíLICOS REFORZADOS CON PARTíCULAS LIGNOCELULóSICAS A PARTIR DE CARTóN RECICLADO, PARA LA REMOCIóN DE METALES PESADOS

Antillón Gutiérrez Luis Felipe, Universidad de Sonora. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el uso del cromo y el cobre es bastante común, son utilizados en distintos procesos industriales como inhibidor de corrosión, fijador de pigmentos y colores, instalaciones eléctricas, etc. En consecuencia se genera una gran cantidad de contaminación en el agua con dichos metales y su tratamiento puede ser algo costoso para estas industrias. Lo que se busca con esta investigación es la obtención y la caracterización de hidrogeles en base a cartón reciclado analizando cual de estos tiene mejores propiedades de absorción de cromo y cobre para tratar el agua contaminada de forma óptima y eficiente.



METODOLOGÍA

Pulpeamiento: Consiste en introducir el cartón remojado a una pulpeadora con el objetivo de tener pedazos más pequeños destrozando las fibras del material. Depuración: La materia prima ya pulpeada fue introducida al depurador, tanto para lavar el material como para tamizarlo y obtener fibras con un cierto tamaño de partícula. Número de Kappa: Al realizar este procedimiento lo que se quiere obtener es el porcentaje de lignina que contiene nuestra pulpa sin trabajar, para después saber la cantidad de reactivos a utilizar al momento de blanquearla Blanqueamiento: Lo que se busca es eliminar la mayor cantidad de lignina y de hemicelulosas, tratando de tener una mayor cantidad de alfa celulosa, esto nos permite obtener una mayor cantidad de microfibras al momento de refinar y una mejor homogenización de la pulpa en el hidrogel. Alfa, Beta y Gamma celulosa: Es un análisis cuantitavo para tener una idea de que porcentaje de alfa celulosa y de hemicelulosas se encuentra en la pulpa ya blanqueada. Lo ideal es tener un porcentaje mayor al 90% de alfa celulosa para lograr obtener las microfibras. Refinación: Consiste en un aparato que hace la función de una centrífugadora pero con recipientes de metal dentro de esta. Los recipientes cuentan con una pieza de metal en su interior que ejerce la función de machacar las fibras de la pulpa con bastante fuerza con las paredes del recipiente para así obtener las microfibras. Oxidación TEMPO: Métodos de pretratamiento como, por ejemplo, la oxidación TEMPO que tienen como objetivo facilitar la disgregación de las fibras, permitiendo que las nanofibrillas de celulosas se conviertan en un material más atractivo para el desarrollo de nuevos materiales. Ya realizado el procedimiento anterior, se le realiza una refinación a la pulpa obtenida para romper las fibras y de igual manera obtener microfibras o nanofibras dependiendo de que tanto se rompan. Hidrogeles: Para la realización de los hidrogeles se utilizó Ácido acrílico, Acrilamida, N, n-metilenbisacrilamida, Fotoiniciador, Hidróxido de potasio y agua destilada. Además, se agrega una cierta cantidad de pulpa en base seca (1.08 g y 0.108 g) de cada pulpa anteriormente obtenida. Por ejemplo, se utiliza el cartón pulpeado, la pulpa blanqueada, la pulpa refinada y la pulpa oxidada refinada. Muestreo: Todos los tipos de hidrogeles se parten en pequeños cubos y se introducen a un horno a 60°C de 12 a 24 horas para eliminar toda la humedad y obtener a lo que se le conoce como "cerogeles". Después se toman 5 cerogeles de cada tipo, se pesa cada uno de ellos y se introducen en un vaso lleno de agua destilada. Cada cierto período de tiempo (1, 3, 5, 8, 24 y 48 horas) se vuelven a pesar para observar la cantidad de líquido absorbido por el cerogel. Al final se toman estos datos y se calcula la cinética de hinchamiento. Infrarrojo: Se realiza una espectrofotometría de infrarrojo para comparar el espectro obtenido de los cerogeles con los compuestos de los cuales se crearon. Debido a la falta de tiempo, no fue posible completar las lecturas del infrarrojo para los cerogeles de base de cartón reciclado. Absorción de metales: ​Se realizaron curvas de calibración en el espectrofotómetro de UV Visble y soluciones tanto de cromo hexavalente como de cobre bivalente para medir que tanto absorvían los cerogeles estos metales pesados. Los cerogeles se introducían en vasos con concentraciones conocidas tanto de cromo y cobre, cada hora por un período de 5 horas, se tomaban alícuotas y se realizaba una lectura con el espectrofotómetro de UV Visible y se comparaba con la curva de calibración para obtener cual era la concentración de la alícuota y observar la absorción de los metales en los cerogeles. Este procedimiento no pudo llevarse a cabo debido al error en la toma de lecturas del espectrofotómetro de UV Visible, a pesar de ello, se comprobó de forma cualitativa que los cerogeles sí absorbían estos metales pesados Liofilización: Se partieron los hidrogeles ya hinchados con agua destilada en un tamaño de partícula mucho menor para después introducirlos en tubos de ensayo e insertarlos dentro del liofilizador. Este congela a los hidrogeles y posteriormente removerá el hielo por sublimación obteniendo así cerogeles. Como último paso se evaluarán las propiedades de cada uno de los cerogeles a través de un microscopio, sin embargo, durante la estadía no fue posible evaluar estas propiedades.


CONCLUSIONES

Durante la estancia en el verano se logró la obtención de los hidrogeles y su cinética de hinchamiento utilizando agua destilada, sin embargo, por la falta de tiempo y errores de algunos equipos no fue posible completar todas las caracterizaciones ni la absorción de metales pesados. Según lo observado de forma cualitativa y considerando los datos de hinchamiento, se espera que los hidrogeles con 0.108 g de pulpa en base seca tengan una buena capacidad de absorción de cobre y cromo.
Antonio Arévalo Víctor Moisés, Instituto Tecnológico de Colima
Asesor: Dra. Alicia Olvera Montejano, Instituto Tecnológico de Colima

IDENTIFICACIóN DEL GRADO DEL SíNDROME DE BURNOUT EN LOS ESTUDIANTES DE LAS CARRERAS ADMINISTRATIVAS DE LA UNIVERSIDAD VIZCAYA DE LAS AMéRICAS, CAMPUS COLIMA.


IDENTIFICACIóN DEL GRADO DEL SíNDROME DE BURNOUT EN LOS ESTUDIANTES DE LAS CARRERAS ADMINISTRATIVAS DE LA UNIVERSIDAD VIZCAYA DE LAS AMéRICAS, CAMPUS COLIMA.

Antonio Arévalo Víctor Moisés, Instituto Tecnológico de Colima. Asesor: Dra. Alicia Olvera Montejano, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

El síndrome de Burnout (SB) fue publicado por primera vez en 1974 en la revista estadounidense New Yorker, por el psicoanalista alemán Herber Freudenberger. Lo definió como la pérdida progresiva del idealismo, la energía y el propósito experimentado por las personas en las profesiones de ayuda como resultado de las condiciones de vida. Actualmente, desde enero de 2022, con la inclusión por parte de la OMS del síndrome de burnout en la 11ª edición de la Clasificación Internacional de Enfermedades (CIE-11), la afección pasó de ser descrita como un estado de agotamiento vital al desgaste resultante del estrés crónico derivado del trabajo. Por ello, y debido a su gran afluencia en los últimos años, se han considerado causante de estragos en áreas como la educación. Puesto que, la vida universitaria y el entorno de sus instituciones son constantemente descritos como un lugar con altos niveles de estrés debido a los múltiples factores que se ven asociados.  Por esta razón, estudios han demostrados que el Síndrome de Burnout genera un desgaste emocional, en estudiantes universitarios, que puede impedirles una correcta realización de sus labores académicas. Asimismo, con el paso del tiempo, podrías generarles daños severos en cuanto a salud mental y física se refiere. Por tal razón, de acuerdo a los aspectos que se involucran al padecer este tipo de trastorno y tomando en cuenta que los estudios sobre el Síndrome de agotamiento emocional en el sector educativo superior, del estado de Colima, son limitados se planteo el objetivo de determinar el grado del Síndrome de Burnout manifestado en los alumnos de las carreras administrativas de la Universidad Vizcaya de las Américas, campus Colima. Esto a partir de la argumentación que se obtendría de las interrogantes, como ¿Cuál es el grado del Síndrome de Burnout que presentan los alumnos de las carreras administrativas de la Universidad Vizcaya de las Américas, campus Colima?, así mismo ¿Qué porcentaje de los estudiantes presentan Síndrome de Burnout?, ¿Qué tanto por ciento de los estudiantes presentan indicios de Síndrome de Burnout? y ¿Qué índice de los estudiantes no presentan Síndrome de Burnout?



METODOLOGÍA

El estudio básico se desarrolló a partir de una metodología de tipo no experimental de corte transversal que se llevó a cabo en los meses de junio y julio del año en curso. Estableciendo un enfoque metodológico cuantitativo por el uso de datos numéricos, instrumentos que impliquen el análisis estadístico y la detección del porcentual en relación a la presencia del trastorno a estudiar.  Referente al objetivo de la investigación, se pretendió un enfoque descriptivo el cual nos permitió conocer la cantidad de estudiantes que presenta indicios del Síndrome de Burnout, así como el índice de alumnos de nuestra población establecida que padecen dicho trastorno. Por otro lado, la población se conformaba por 189 estudiantes de las carreras administrativas de la Universidad Vizcaya de las Américas, campus Colima. Por lo tanto, con la finalidad de encuestar y obtener un nivel de confianza del 95% y un margen de error del 4%, el tamaño de la muestra resulto de 144 estudiantes. Sin embargo, en última instancia se tuvo una participación de 155 estudiantes, es decir un aumento del 7.6% de la muestra acordada. Para poder obtener los datos necesarios para su análisis y detección de dicho padecimiento, el instrumento de evaluación que se implemento fue el Inventory Maslach Burnout - Student Survey (MBI-SS), el cual es una adaptación del Maslach Burnout Inventory-Human Services Survey original. Básicamente, el MBI-SS es el cuestionario aprobado como instrumento para la detección y valoración del Síndrome de Burnout académico, este se compone de 15 ítems, las cuales se dividen en tres dimensiones para la detección de Agotamiento Emocional, Cinismo y Eficacia Académica. Cada uno de los ítems se evalúan en una escala de Likert que va desde una frecuencia nula hasta una cotidiana. Por su parte, para el análisis de los datos se utilizó el programa Microsoft Excel, mismo en el cual se implementó ciertas escalas sumatorias y ecuaciones matemáticas, como la Escala de Burnout, el Alpha de Cronbach, el Coeficiente de correlación Pearson o la Desviación estándar, todo esto con la finalidad de evaluar y validar la información recabada.


CONCLUSIONES

De esta forma, una vez aplicado cada una de las herramientas cuantitativas para estudiar las respuestas emitidas por los 155 estudiantes de las carreras administrativas de la Universidad Vizcaya de las Américas, campus Colima, esto mediante el instrumento MBI-SS, se obtuvo que: El 20.6% de los universitarios encuestados presentaron un grado alto de padecer el Síndrome de Burnout, esto principalmente por el agotamiento emocional que les genera sus actividades académicas, así como, la perdida de interés por su carrera universitaria y la falta de sentimiento por una contribución efectiva al asistir a sus clases. Asimismo, el 30.5% de los estudiantes analizados mostraron indicios de sobrellevar el Síndrome de Burnout. Mientras tanto, el 48.8% de los estudiantes de nivel superior expusieron no padecer dicho trastorno de agotamiento emocional. Con ello, se pudo confirmar la presencia de universitarios que padecen Síndrome de Burnout en la Universidad Vizcaya de las Américas, campus Colima. No obstante, con la finalidad de aseverar dicho resultado, se implementó ciertas fórmulas matemáticas, como el Coeficiente de Alpha de Cronbach, esto con el fin de cuantificar el nivel de fiabilidad del resultado obtenido, y el Coeficiente de Pearson, esto para medir la relación estadística de dos variables. De esta forma, se obtuvo un Alpha de Cronbach de α=0.7243 (Existe una aceptable relación entre las preguntas). Es decir, las respuestas proporcionada por nuestra población encuestada presentan una veracidad permisible. Por otro lado, con un Coeficiente de Pearson de r= 0.7683, esto es que, existe una correlación positiva considerable entre los ítems de cada una de las dimensiones implicadas. 
Aparicio Rodriguez Jorge, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

DISEÑO Y DESARROLLO DE UNA APP PARA EL APRENDIZAJE DE LA LENGUA MIXTECA


DISEÑO Y DESARROLLO DE UNA APP PARA EL APRENDIZAJE DE LA LENGUA MIXTECA

Aparicio Rodriguez Jorge, Instituto Tecnológico de Ciudad Altamirano. Colarte Aviles Virginia, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La lengua mixteca, también llamada Tu'un savi, es una de las lenguas indígenas más habladas en México; está compuesta por un gran número de variedades lingüísticas de filiación otomangueana, 81 según el Instituto Nacional de Lenguas Indígenas de México. En nuestra sociedad actual, la lengua mixteca enfrenta una serie de desafíos que amenazan su supervivencia y difusión. A pesar de ser hablada por una gran cantidad de personas en diversas regiones de México (Los datos del INEGI obtenidos en 2010 contemplan 496,038), la falta de recursos educativos para su aprendizaje ha resultado en una disminución en la transmisión de esta lengua indígena, lo que puede causar que en un futuro esta se extinga. La preservación y promoción de la lengua mixteca son cruciales para salvaguardar la identidad cultural y lingüística de las comunidades que la hablan. Sin embargo, la ausencia de herramientas modernas y accesibles para su enseñanza dificulta el acceso a una educación de calidad en la lengua y limita el desarrollo de habilidades lingüísticas en las nuevas generaciones.



METODOLOGÍA

Se llevó a cabo una investigación exhaustiva sobre la lengua, su gramática, vocabulario y aspectos culturales relevantes, tanto en fuentes digitales como también con un hablante nativo de la misma. Se realizo la elección de los temas sobre los cuales los usuarios aprenderían dentro de la app y seleccionamos las palabras referentes a cada tema que nos parecieron mas importantes para cada uno. En la fase de diseño y desarrollo se utilizó el entorno de desarrollo integrado Android Studio, debido a que esta es la herramienta oficial para la plataforma, y el software de gráficos vectoriales Illustrator para la creación de las ilustraciones. La aplicación incluye lecciones en las cuales el usuario puede observar la escritura de las palabras seleccionadas tanto en español como en mixteco y escuchar la pronunciación en la lengua indígena. Además, incluye pruebas de cinco preguntas para cada uno de los temas, con lo cual el usuario podrá medir de cierta forma el progreso que ha tenido en el aprendizaje de la lengua.


CONCLUSIONES

A lo largo de esta estancia de verano hemos logrado adquirir mucho conocimiento, desde el como se realiza un diseño de ilustraciones vectoriales, hasta cómo crear una aplicación móvil para Android desde cero usando el lenguaje de programación Java. De todo esto se espera que, gracias a la realización de esta app, más personas aprendan la lengua mixteca, lo cual favorecerá a la preservación de la misma. Se continuará trabajando en ella para pulir los detalles faltantes, y se estará incorporando información adicional para garantizar que la app sea lo más completa posible.
Aranda Cen Andree Gibran, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Mtra. Yara Segura de Jesús, Instituto Tecnológico de Toluca

DISEñO DE UNA SUSPENSIóN DOUBLE WISHBONE PARA UN VEHíCULO TODOTERRENO DE 4 PASAJEROS


DISEñO DE UNA SUSPENSIóN DOUBLE WISHBONE PARA UN VEHíCULO TODOTERRENO DE 4 PASAJEROS

Aranda Cen Andree Gibran, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Mtra. Yara Segura de Jesús, Instituto Tecnológico de Toluca



PLANTEAMIENTO DEL PROBLEMA

  La movilidad sostenible es crucial para los Objetivos de Desarrollo Sostenible y la industria automotriz busca soluciones eficientes y amigables con el medio ambiente. Los vehículos todoterreno son relevantes en el turismo sostenible y acceso a áreas naturales protegidas. Diseñar un vehículo todoterreno, permitiría obtener las bases para una industria automotriz en el sureste del país, específicamente en Quintana Roo, dado a que el sur del estado dependiente de la economía porcicultura, el norte del estado basada su economía en el turismo de alto impacto, alternativo y de aventura, ofrecer un vehículo con estas características a los ganaderos, sectores del turismo dependientes de paseos por terracería y demás industria que requiera un vehículo todoterreno para su producción, permitiría reducir costes, aumentar márgenes de rentabilidad, cumplir objetivos de desarrollo sostenible y una buena imagen internacional (ya que actualmente cuentan con vehículos importados, costosos y contaminantes), así como también supondría un crecimiento y diversificación de la economía de Quintana Roo al crear nuevos empleos de carácter industrial mecánico. La suspensión es un componente esencial y costoso, su diseño óptimo implica retos técnicos y económicos, siendo clave para abaratar costos e innovar en el sector automotriz



METODOLOGÍA

Para calcular las dimensiones de la suspensión se utilizaron como parámetros iniciales las características dimensionales de suspensión y chasis del vehículo XP 4 1000 marca Polaris, así como también parámetros de diseño propuestos: Ángulo de caída (camber angle): -1° Longitud del brazo de control inferior: 0.309 m Ángulo de inclinación de brazo de control inferior: -4° Estos datos fueron ingresados en la calculadora virtual para suspensiones racingaspirations.com, obteniéndose como resultado dimensiones de la suspensión: Brazo de control superior: Longitud: 0.306 m Ángulo de inclinación: -4° Acoplamiento de amortiguador: Distancia del acoplamiento del brazo de control inferior con el husillo del acoplamiento del amortiguador: 0.01 m Altura del acoplamiento del amortiguador con respecto al acoplamiento del husillo: 0.01 m Para determinar los esfuerzos se utilizaron como parámetros de masa del vehículo, ancho de vía y distancia entre ejes del vehículo todoterreno antes mencionado, adicionalmente, fueron propuestos los siguientes: Velocidad máxima: 50 km/h = 13.89 m/s Tiempo de 0 a velocidad máxima y de frenado máximo: 7s Coeficiente de fricción de llanta con el suelo: 0.85 Radio de curva: 50 m Factor de seguridad estática: 1.33 Factor de seguridad dinámica 1.5 Distribución de masa en el eje delantero/trasero: 45%/55% Con los parámetros para determinar los esfuerzos y ecuaciones de cinemática en situaciones de aceleración máxima, frenado máximo y toma de curvas máxima se determina que el mayor esfuerzo en términos de distribución de masa se presenta que en el frenado máximo existe el mayor esfuerzo con 1913.94 kg y 2251.72 kg de masa en suspensión (de un lado) delantera y trasera respectivamente. Los brazos de control superior e inferior son diseñados en SolidWorks, con las siguientes características: 2 tubos de acoplamiento del brazo al chasis de 1 in de diámetro 1/8 in de espesor y 1 in de extrusión. 2 tubos elípticos (brazos) que acoplan a los tubos del chasis de ½ in de diámetro y 1/8 in de espesor, con una saliente de barrido de los tubos del chasis al acoplamiento del husillo. Acoplamiento del husillo de un tubo de 1 in diámetro con un corte central de 1/16 in de diámetro y una extrusión de 1 in. El acoplamiento del amortiguador del brazo de control inferior fue hecho en el acoplamiento del husillo que tiene un corte cuadrado de ½ in de lado hecho con un plano de 45° con respecto a la arista perimetral superior del acoplamiento del husillo; en este, se ubican dos recubrimientos trapezoidales de base al acoplamiento del husillo de un rectángulo de 0.13 in por 0.20 in y la base superior de 0.05 in por 0.10 in; la altura de estos trapecios de 0.39 in; en un plano coincidente a la arista base de los recubrimientos trapezoidales y paralelo al plano alzado, se hace un corte que pasa por los recubrimientos trapezoidales con diámetro de 0.05 in con punto central en 10 mm del eje x y 10 mm del eje y del centro tridimensional del acoplamiento del husillo. Se ensambló un pasador que une los tubos del acoplamiento del brazo al chasis con restricción libre, posteriormente en SolidWorks Simulation se simuló las cargas de masa distribuida en el punto de máximo par (acoplamiento del husillo y acoplamiento del amortiguador) con material de acero aleado. Las imágenes colorimétricas de la simulación de tensión de los brazos de control superior e inferior muestran coloración verde en las zonas más curvas del brazo, que sobrepasan al límite elástico del acero aleado. Por su parte, en el brazo de control inferior, hay una zona roja muy pequeña próxima a la unión en el acoplamiento del husillo con los brazos.


CONCLUSIONES

Se realizó el dibujo y diseño de la estructura de los brazos de control superior e inferior de una suspensión Double Wishbone en SolidWorks para un vehículo todoterreno de 4 pasajeros y se simuló con material de acero aleado y masa distribuida en los puntos de par máximo, se observan resultados de colorimetría de tensión aceptable debido a los factores de seguridad empleados y la ausencia de simulación en conjunto de todo el sistema. Esta estancia de investigación consiguió que el estudiante de ingeniería en sistemas de energía reforzará y aumentará sus conocimientos en dinámica de partículas, mecánica de materiales y ciencia e ingeniería de materiales, profundizó la experiencia en la utilización de SolidWorks y creó precedentes en el diseño e innovación de suspensiones automotrices con condiciones de operación especiales.
Arango Cortes Ariadna Laura, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

SISTEMA HIDROPóNICO AUTOMATIZADO MEDIANTE IOT.


SISTEMA HIDROPóNICO AUTOMATIZADO MEDIANTE IOT.

Arango Cortes Ariadna Laura, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

México ha experimentado un crecimiento significativo en el cultivo de plantas de fresa, siendo el tercer país productor anual mundial, que supera las 392 mil toneladas. Sin embargo, para mantener y mejorar la productividad en un mercado cada vez más competitivo, es fundamental adoptar tecnologías nuevas e innovadoras que optimicen los recursos y mejoren el rendimiento de los cultivos. La hidroponía es un método de producción donde las raíces de las plantas no se establecen en el suelo, sino en un sustrato o solución nutritiva. Se propone el sistema como una alternativa prometedora para los cultivos, ya que ofrece un mayor control sobre las condiciones ambientales y el suministro de nutrientes, lo que genera un crecimiento más rápido y saludable para las plantas. Sin embargo, para lograr un cultivo exitoso es necesario desarrollar un sistema automatizado que asegure un adecuado suministro de agua, nutrientes y luz a las plantas



METODOLOGÍA

Para abordar el problema planteado, se siguió el siguiente procedimiento para el desarrollo del sistema hidropónico: Investigación Preliminar: Se llevó a cabo una investigación acerca de los conceptos básicos de la hidroponía y los requisitos específicos del cultivo de fresas. Se revisaron fuentes científicas y proyectos similares para adquirir un conocimiento del tema. Selección de Componentes y Materiales: Fueron seleccionados los componentes y materiales necesarios para construir el sistema hidropónico. Después de probar diversas opciones, se optó por utilizar placas de Arduino y módulos Bluetooth como controladores principales debido a sus características de conectividad, eficiencia energética y facilidad de programación, pero sobre todo su bajo costo. También se eligieron sensores de humedad del sustrato, válvulas solenoides, una bomba de agua y lámparas hidropónicas LED. Diseño del Sistema: Se diseñó el sistema hidropónico teniendo en cuenta las necesidades específicas de las plantas de fresa y los requisitos de los cultivadores. Se planificó la distribución del agua y la solución nutritiva mediante cálculos,  se elaboraron esquemas y diagramas para visualizar la disposición física de los componentes y su interconexión. Implementación del Sistema: Se procedió a ensamblar físicamente el sistema hidropónico automatizado, siguiendo el diseño establecido. Se montaron las lámparas hidropónicas, los sensores de humedad, las válvulas solenoides y la bomba de agua en las bandejas de cultivo. Se realizó la conexión de los componentes eléctricos y se programaron las placas para el control y monitoreo automatizado. Pruebas Iniciales: Se verificó el funcionamiento de los sensores de humedad, las válvulas solenoides y las lámparas hidropónicas. Ajustes y Optimización:  Se ajustaron los tiempos de riego y encendido de las lámparas para satisfacer las necesidades específicas de las plantas de fresa. Cultivo de Plantas de Fresa: Una vez que el sistema hidropónico automatizado fue probado y optimizado, se procedió a realizar el cultivo de plantas de fresa. Se seleccionaron plantas y se colocaron en las bandejas de cultivo, asegurándose de que las raíces estuvieran en contacto con el sustrato inerte y la solución nutritiva. Monitoreo y Seguimiento: Se llevó a cabo un monitoreo continuo del sistema y de las plantas de fresa durante el período de cultivo. Se registraron datos como la humedad del sustrato en una base de datos y del desarrollo de las plantas. Se realizaron ajustes adicionales según fuese necesario para garantizar un cultivo exitoso.


CONCLUSIONES

Durante la estancia de verano se logró la implementación del sistema hidropónico automatizado para el cultivo de fresa y nos ha demostrado ser una solución eficiente, prometedora y no costosa, además que cuenta  con  los objetivos 1, 2 y 11 del desarrollo sostenible. Gracias a la tecnología del "Internet de las cosas" (IoT) y la utilización de placas de Arduino como controlador principal, se logró un mayor control y monitoreo del cultivo, permitiendo una gestión más eficiente de los recursos y condiciones ambientales. Este sistema ha demostrado ser capaz de proporcionar un control de iluminación óptima para las plantas mediante las lámparas hidropónicas y un riego adecuado con la cantidad precisa de agua y nutrientes, lo que ha promovido un crecimiento saludable de cada una de las plantas. La implementación exitosa de este sistema abre nuevas posibilidades para la producción agrícola en México y otros lugares con un enfoque más sostenible y eficiente. La automatización y la integración del IoT en la agricultura ofrecen una alternativa viable para enfrentar los desafíos de la seguridad alimentaria y la preservación de los recursos naturales en el futuro. Esto permitiría a México mantenerse como uno de los países lideres en la producción de fresas y aumentar dicha producción.
Araujo Delgado Yaretzin, Instituto Tecnológico de Chilpancingo
Asesor: Dra. Nadia Teresa Adaile Benítez, Universidad Tecnológica de Nayarit

DESARROLLO DE UN SISTEMA WEB PARA LA GESTIóN DE EVENTOS ACADéMICOS DE LA UNIVERSIDAD TECNOLóGICA DE NAYARIT


DESARROLLO DE UN SISTEMA WEB PARA LA GESTIóN DE EVENTOS ACADéMICOS DE LA UNIVERSIDAD TECNOLóGICA DE NAYARIT

Araujo Delgado Yaretzin, Instituto Tecnológico de Chilpancingo. Asesor: Dra. Nadia Teresa Adaile Benítez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los centros educativos tienen la obligación de favorecer un ambiente de integración real entre los miembros de la escuela. En este sentido, los eventos escolares son una excelente estrategia para beneficiar la socialización y la participación de los actores de la comunidad institucional. Los eventos escolares constituyen un privilegiado tiempo y espacio de encuentro. A lo largo de los años, en la Universidad Tecnológica de Nayarit se concentran cada año eventos relacionados con el ámbito académico. La cantidad de carreras que ofrece de la Universidad Tecnológica de Nayarit es creciente y con ese crecimiento surge la necesidad de tener una mejor organización y administración en los eventos, talleres y actividades que se llevan a cabo. Por todo lo ya mencionado, durante el verano de investigación, se ha realizado el desarrollo de un sistema web, con el fin de solucionar los problemas existentes para realizar una tarea de manera óptima por las plataformas en las que se gestionan actualmente los eventos académicos. En el proyecto se abarca una exhaustiva selección de tecnologías para que el desarrollo se adapte de la mejor manera posible a la idea y diseño planteados inicialmente.



METODOLOGÍA

Las metodologías han logrado mejorar de manera significativa el producto de software por medio de fases o procesos efectivos que promueven la calidad en el desarrollo de sistemas informáticos. Posterior al estudio de características y funcionalidad realizado a las aplicaciones web gestoras de eventos, se definió como punto de partida para el desarrollo de la aplicación en su versión anterior 1.0, el proceso de gestión y navegación de la aplicación web, dadas sus características de fácil manejo, interface sencilla e intuitiva y proceso similar al analizado para el proyecto, permitió tener un acercamiento favorable para el desarrollo del proyecto.     PHP PHP es un lenguaje de programación interpretado de alto nivel gratuito, rápido, con buena documentación y un gran número de librerías para su programación. La compatibilidad y el soporte con las diversas bases de datos. El código PHP es fácil de mantener y actualizar a diferencia del código desarrollado en otros lenguajes. Este lenguaje es soportado por una gran comunidad de desarrolladores, dado que es código abierto, de esta manera se facilita la búsqueda de documentación y solución de posibles errores, es por ello que todo el sistema está hecho en este lenguaje. MySQL MySQL es la base de datos de código abierto más usada por las comunidades de software.  MySQL es un sistema de administración de bases de datos relacional. Este sistema está en capacidad de almacenar grandes cantidades de información y de gran variedad.  INGENIERÍA DE SOFTWARE La ingeniería de software es visto como una disciplina de la ingeniería informática dado que agrupa todos los aspectos relacionados con la producción de software desde las etapas iniciales en donde se toman los requerimientos del sistema hasta las etapas finales donde se hace entrega al cliente.  Una vez entregada la primera versión del sistema UTNAYSIS, se hizo la revisión del sistema, así como de los manuales del mismo, usuario y administrador. En el cual, se seccionaron las interfaces a modificar quedando de la siguiente manera: Corrección de ortografía al sistema UTNaySis Re diseño de pantalla principal de UTNaySis Pantallas de Usuario Inicio de Sesión Registro Home Eventos Inscribirse a eventos Actividades Constancias Pantallas de Administrador Inicio de Organizador Crear Evento Crear Actividad Ver Actividad Ver Evento Panel Evento Subir Imagen Ver Imagen Asistencia Validar Folio Gafetes Constancia Editar Evento Seguido de este proceso y de la mano de cada interfaz, utilizando la ingeniería de software se realizó la documentación de cada una de las interfaces. De igual manera, utilizando la Ingeniería de Software se realizó un modelado de negocio, con cada una de sus plantillas, agregando y seccionando cada requerimiento funcional, no funcional, así como los casos de uso y el diagrama hacia la estructura de la base de datos modelo relacional en MySQL; para la entrega de los manuales de Usuario y Administrador. Al realizar las interfaces, pudieron percatarse de las partes obsoletas que existían en el código de la versión anterior, es por ello que se agregaron nuevas versiones y optimizaciones en el código en nuevas versiones de php. Así como también se hizo un nuevo diseño, no solo de interfaces, sino también de documentación para los eventos. Una vez concluida esta sección, se procedió a realizar pruebas de caja negra y caja blanca para la revisión y funcionamiento correcto del sistema en su nueva versión, posteriormente se realizó una búsqueda de un hosting que fuera el adecuado para el sistema, que ya se encuentra funcionando en la web.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teórico-prácticos sobre la implementación de nuevas tecnologías para administrar y optimizar el código de programación que ya se tenía, así como la renovación del mismo. Teniendo en cuenta las interfaces del proyecto presentadas en el anteriormente, podemos concluir que tuvimos puntos a favor y puntos a mejorar durante todo el proceso. Evaluando así, que lo más importante es el aprendizaje que obtuvimos en cada paso y el gran antes y después que este trabajo representó. Respecto a nuestro Sistema de Gestión de Eventos, visto y considerando el número significativo de eventos que se realizan en el marco de la Universidad Tecnológica de Nayarit, y que parte de su administración solía llevarse a cabo de forma manual y bajo la dependencia de distintas plataformas, son evidentes las ventajas que este sistema le proporcionará a la Universidad Tecnológica de Nayarit como lo es la administración y organización de cada curso, taller o evento. De esta forma, se podrá generar un cambio visible a nivel administrativo en el área de extensión, así como también les facilitará a las personas el acceso a futuros eventos.
Araujo Galavíz Alejandro, Instituto Tecnológico de Morelia
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

ATERRIZAJE AUTOMáTICO DE DRONES EN ZONAS POBLADAS


ATERRIZAJE AUTOMáTICO DE DRONES EN ZONAS POBLADAS

Araujo Galavíz Alejandro, Instituto Tecnológico de Morelia. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los vehículos aéreos no tripulados, también conocidos como drones o, por sus siglas en inglés, UAVs, representan una herramienta aplicable en una gran cantidad de áreas, tales como la supervisión de estructuras, la planificación urbana, la revisión de elementos en áreas peligrosas, control prevención de plagas en cultivos, transporte de cargas, entre otras. Lo anterior ha causado que el numero de drones se incremente en los últimos años. De acuerdo con González Trejo, J. et al. en su trabajo On the Visual-Based Safe Landing of UAVs in Populated Areas: A Crucial Aspect for Urban Deployment, los drones se introducen cada vez más a actividades civiles, interactuando de manera más cercana con los individuos. No obstante, es en esto que surge una problemática al requerir realizar un aterrizaje (ya sea como parte de la misión o en caso de emergencia), cuando se encuentra sobrevolando una zona poblada, en donde el riesgo de colisión con un individuo es alto, poniendo en riesgo su salud. Con base en lo anterior, en la actualidad el uso de drones se deja principalmente para actividades agrícolas o en zonas poco pobladas, evitando su interacción con personas. Según la NOM-107-SCT3-2019, los UAVs solo pueden sobrevolar personas ajenas a su operación, siempre y cuando su masa no supere los 250 gramos en total. Si bien, las medidas adoptadas evitan el riesgo de causar daños a terceros, al mismo tiempo no permiten aprovechar todo el potencial que proveen estos dispositivos. Es por esto que surge la necesidad de generar sistemas capaces de identificar áreas seguras para aterrizar en presencia de civiles y libres de riesgo para la aeronave.



METODOLOGÍA

Para poder ofrecer una solución con respecto al manejo autónomo de drones, en primer lugar es necesario comprender el funcionamiento a nivel físico de estos equipos. Para cumplir con dicho objetivo, se procedió a realizar la simulación del modelo matemático de un UAV dentro del software Simulink incluido en la paquetería de MATLAB. Inicialmente, se tomaron como entradas los torques desarrollados en cada uno de los ejes del dron (X, Y y Z), conocidos como Pitch, Roll y Yaw; así como el empuje total de los motores orientado sobre el eje z del dron. Como los actuadores de un UAV causantes de su movimiento son los rotores, fue necesario realizar el cambio de las variables de entrada a las velocidades angulares obtenidas en cada motor, en función de las cuales se puede obtener los torques mencionados anteriormente, por medio de la diferencia de fuerzas obtenidas en el grupo de motores. Hasta este punto se obtiene el modelo del dron que simula su comportamiento en lazo abierto, sin embargo, en la vida real, un dron sin un sistema de control se vuelve muy díficil de pilotar. Es por esto que para poder simular un UAV con la capacidad de controlarse y seguir una ruta, es indispensable añadir un sistema de control a lazo cerrado. Con fines de facilitar elcontrol, se recomienda que las variables de entrada sean nuevamente los torques y el empuje total, por lo que se ocupa implementar un convertidor de estas magnitudes a una velocidad angular para cada motor, las cuales son usadas por el dron y convertidas en movimiento debido a su principio de funcionamiento. Ya que, para poder definir el estado de un dron se requieren 12 variables: 3 de posiciones, 3 de velocidades, 3 de la orientación y 3 de las velocidades angulares. Con solo 4 entradas, para poder controlar las variables, se deben identificar cuales son las que se pueden controlar de forma directa, siendo estas, los ángulos formados en cada uno de los ejes y la altura. Por cada una de estas variables se agrega un controlador PD encargado de alcanzar los valores deseados. Las otras variables cuyo valor es de interés controlar son las posiciones en los ejes X y Y, a cada una de las cuales se le aplicó un controlador PD en cascada con los controles para el Pitch y el Yaw del dron. Esto debido a que para moverse hacia adelante o atrás, el vehículo debe cambiar su orientación de manera que el empuje total tenga una componente en el eje X. Es así que, si el valor de posición en X es diferente al deseado, debe generarse un cambio en el ángulo Pitch. De forma similar se realizó con los desplazamientos en el eje Y, pero alimentando el control del ángulo Roll. Al mismo tiempo en que se realizó este modelo, también se inició una actividad de revisión bibliográfica, con el fin de identificar que avances hay hasta la fecha con respecto al tema del aterrizaje automático. Debido a la falta de artículos que trataran el tema del aterrizaje en zonas pobladas de forma directa, se buscaron fuentes que abordaran el tema del aterrizaje autónomo o se relacionaran con los temas de identificación de multitudes y de objetos. Una vez finalizado este proceso, se realizaron modificaciones sobre el script de instalación del nodo de ROS2 para DJI Tello provisto por Ferrão, J. para su implementación en la plataforma Ubuntu 22.04 con ROS2 Humble. Con el nodo habilitado, se verificó la correcta comunicación con el UAV. Posteriormente, se procedió al diseño de un algoritmo para poder seguir una pelota naranja, para lo cual, como paso intermedio, se propuso la creación de un nodo que permitiera el manejo del Tello con un Joystick. Como siguiente paso, se creó un nodo diferente para la obtención de la imagen de la cámara del vehículo para poder procesarla en la estación en tierra e identificar el objeto de interés por medio de métodos de visión por computadora. En este proceso se realizó un desenfoque de la imagen, enseguida se convirtió del modelo de color RGB al HSL para facilitar la obtención de una máscara con la información del color requerido. Finalmente, por medio de la transformada de Hough se realiza la detección de circulos sobre la máscara.


CONCLUSIONES

En esta estancia de verano se lograron aplicar algunos de los conocimientos de la teoría de control obtenidos durante la carrera. Por otra parte, permitió el aprendizaje del middleware ROS para el manejo de robots y la aplicación de algoritmos de visión. El resultado de esto fue el manejo del dron por medio de la información capturada por la cámara. Se espera que la investigación continúe para brindar una solución segura al aterrizaje de los drones para ampliar en diversas tareas donde se requiera interactuar con personas.
Arcos Alvaro Daniel, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Jazmin Perez Mendez, Universidad Tecnológica de Nayarit

EL USO DE CHAT GPT PARA EL APRENDIZAJE EN LOS ESTUDIANTES DE LA UNIVERSIDAD TECNOLóGICA DE NAYARIT.


EL USO DE CHAT GPT PARA EL APRENDIZAJE EN LOS ESTUDIANTES DE LA UNIVERSIDAD TECNOLóGICA DE NAYARIT.

Arcos Alvaro Daniel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Jazmin Perez Mendez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

El uso de modelos de lenguaje como Chat GPT se ha extendido rápidamente en diversas áreas, y la educación no es una excepción. Cada vez más, se están implementando herramientas de chat basadas en inteligencia artificial en entornos educativos para brindar apoyo y recursos adicionales a los estudiantes. Para ello se plantea darle uso a Chat GPT en interactuar diferentes promts que ayude en diseñar la creatividad hacia la educación, esto para lograr optimizar el tiempo de los estudiantes en realizar cualquier actividad escolar. Con el uso de la metodología Scrum se logró desarrollar el proyecto de manera ágil, donde se involucró en realizar una investigación documental de la inteligencia artificial, en el que se ha aplicado Chat GPT y recurso de audiovisuales para el uso adecuado de Chat GPT, esto con el fin de entender la capacidad y la eficiencia en realizar las cosas con la inteligencia artificial actual. Como finalidad de toda la investigación que se llevó  a cabo, se  logró interactuar con Chat GPT mediante los promts  dando como resultado la creación de una página web básica, con el fin de observar  la eficiencia de los promts ingresados, de tal manera que proporcione el resultado tal como se le especifica Chat GPT logrando asi una herramienta para el apoyo en la rama de la educación. Palabras clave: Inteligencia artificial, Chat GPT, Aprendizaje Guiado



METODOLOGÍA

Sprint 1. Investigación documental Con la trama del uso de Chat GPT, se optó en realizar una investigación exhaustiva a los antecedentes de la inteligencia artificial, con el fin de obtener más conocimientos del tema, para ello se realizó una consultoría más de 15 en diferentes artículos en los repositorios que se encuentran en google académico, ya con los artículos consultada se realizó su respectivo resumen de cada tema y con los créditos merecedor de cada vinculo. Sprint 2. Investigación en recursos audiovisuales Con el fin de fomentar más el conocimiento hacia el tema del uso de chat GTP, se tomó en cuenta como apoyo la plataforma YouTube, donde se visualizó algunos videos de cómo utilizar chat GPT como ayuda para crear alguna actividad, de manera adicional se averiguo como sacarle provecho la inteligencia artificial moderno y cómo utilizar al máximo el chat GPT, para ello los videos consultados explican de manera general como se puede utilizar como consultoría la IA, ya que al usar Chat GPT ahorra tiempo para realizar los trabajos en la vida cotidiana. Sprint 3. Creación de actividades Una vez entendido el tema de la inteligencia artificial y como funciona la lógica del uso de chat GPT, procedemos en realizar pruebas en la plataforma de OPENAI, para ello primero tenemos que dirigirnos al navegador y buscar Chat GPT, crear una cuenta o vincular una cuenta existente, para que podemos utilizar los promt de Chat GPT. Como primera actividad le pediremos al promt de chat GPT que nos realice un formulario de inicio de sesión, pero especificando todas las características que deseamos que tenga la actividad a realizar, de igual manera nos apoyaremos con la plataforma Codepen que sirve para visualizar el resultado que nos proporciona Chat GPT, para que nos proporcione los códigos, las especificaciones le pediremos de manera de una lista. Sprint 4. Ejecución de prácticas en Chat GPT para crear página web Con las practicas anteriores, realizaremos los mismos formularios, pero en este caso lo definiremos que sea en forma de botón, donde al darle clic se muestre el contenido del botón. Con la ayuda de chat GPT le pedimos que nos realice el trabajo, pero de manera seccionada. Sprint 5: Uso de los promts en Chat GPT para lograr interactuar con la inteligencia artificial al momento de realizar consultas de las actividades, se aplicó el apoyo de Codepen para lograr visualizar los resultados de los promts que proporciona Chat GPT.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de cómo se puede utilizar para el beneficio Chat GPT de la inteligencia artificial y ponerlo en prácticas algunas técnicas para lograr a interactuar de manera adecuada, al realizar una consulta que nos proporcione una respuesta acertada. Se logró implementar el uso de Chat GPT como apoyo para el aprendizaje hacia los estudiantes, donde al utilizar esta herramienta minimiza el tiempo en cumplir las actividades lo que normalmente lleva tiempo, para ello se realizaron varias practicas con el fin de poder interactuar con la inteligencia artificial, de tal manera que ocupando diferentes promts se logró un resultado acertada. Ya con la información obtenido del tema se llevó a cabo la practica en crear una página web con algunos componentes muy elementales, logrando realizar todas las actividades haciendo el uso de la inteligencia artificial Chat GPT, esto con la finalidad de lograr observar si cumple lo que se le indique en los promts de Chat GTP al interactuar con la persona, teniendo así una base legal para poder implementar en área hacia la educación. Se espera que la investigación realizado se puede llegar a ser implementado en la educación para el apoyo a los estudiantes, y posteriormente a las universidades en el área de los TICS esto para estar constante el uso de las tecnologías emergentes de los años presentes, pero con el fin de beneficiar en el aprendizaje. Uno de los beneficios que proporciona Chat GPT al momento de utilizarlo, es que ayuda acelerar la productividad en realizar las cosas, optimiza los tiempos de entrega de las actividades, sirve para consultar información que beneficia a los estudiantes hacia sus materias, funciona para resolver dudas en temas muy extensas, también ayuda en la creatividad de los estudiantes al utilizar la herramienta y Chat GPT lo hace posible en llevar a cabo todas esas actividades.
Arcos Gutierrez Elio, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

ANáLISIS DEL LIDERAZGO ORGANIZACIONAL EN LAS PYMES DE BALANCáN, TABASCO. (LA INFLUENCIA DEL LIDERAZGO EN EL DESEMPEñO DEL CAPITAL HUMANO DE LAS MIPYMES)


ANáLISIS DEL LIDERAZGO ORGANIZACIONAL EN LAS PYMES DE BALANCáN, TABASCO. (LA INFLUENCIA DEL LIDERAZGO EN EL DESEMPEñO DEL CAPITAL HUMANO DE LAS MIPYMES)

Arcos Gutierrez Elio, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Iniciando por las pymes se dice que las pymes se clasifican en tres partes que son micros, pequeñas y medianas empresas, basándonos en todo esto se quiere lograr identificar el impacto que tiene el liderazgo en el sector industrial en el municipio de Balancán, tabasco El liderazgo busca demostrar el rol que desempeñan los líderes en la influencia del talento humano y cómo permite la mejora continua en la organización (MiPymes). Según la asamblea general de las naciones unidas, 2022, expresa que las MiPymes a nivel mundial se han posicionado como el motor de desarrollo en todos los ámbitos económicos, generando entre el 60% y el 70% de los puestos de trabajo, y su actividad es responsable del 50% del PIB global. Las MiPymes representan el 90% de las empresas, ya que tienen el potencial de transformar las economías, fomentar la creación de empleo y promover un crecimiento económico equitativo si reciben el respaldo necesario. Las MiPymes en el municipio de Balancán, representan la principal fuente de ingresos para todas las familias balancanenses. Sin embargo, muchas de estas pequeñas y medianas empresas pierden grandes oportunidades empresariales debido a diversos factores, entre ellos la falta de relación y comunicación líder-empleados. Por consiguiente, los lideres le hace falta motivar a sus empleados que esta genera un impacto negativo en el rendimiento productivo laboral y como resultado, la pérdida de oportunidades de llevarlas a un nivel más alto tanto para los empleados y la organización dicho en otras palabras para la empresa, debido a la carencia de liderazgo enfocado en las MiPymes del municipio de Balancán Tabasco.  



METODOLOGÍA

Para el inicio de esta investigación sobre el liderazgo en el sector industrial se empezó con los antecedentes esto para conocer cuando y donde se creó el liderazgo y por qué es tan importante esto haciendo una investigación sobre lo que mencionaba cada autor haciendo reseñas y referencias como tambien tomar en cuenta la justificación, objetivos generales y específicos estos son una de las partes más importantes para dicha investigación despues de esto se continuo haciendo el marco teórico haciendo todo esto basándonos en lo que menciona cada autor y dar una buena definición y poder conocer más a fondo en como a afectado el mal uso del liderazgo en las MiPyMes  del sector industrial. Y para continuar con la elaboración de la encuesta fue necesario analizar y determinar la muestra y se estableció el tamaño de la muestra tomando en cuenta el tamaño de la población N = 83 de las empresas con actividad industrial en Balancán, con un nivel de confianza Z = 95% = 1.96, que representa el nivel de confianza, con un margen de error e = 0.05, una probabilidad p = 0.5 de éxito y una probabilidad q = 0.5 de fracaso; utilizando estos parámetros se obtendrá una muestra de tamaño n de nuestra población general de las empresas industriales a encuestar, por lo tanto, utilizando la fórmula n=(N*Z_α^2*p*q)/(e^2*(N-1)+Z_α^2*p*q) se obtuvo un tamaño de muestra de 66 MiPyMes. Una vez completado este procedimiento se elabora el instrumento de evaluación más adecuado para medir el liderazgo. Por lo tanto, el cuestionario se estructuró con 20 preguntas y 4 áreas de enfoque (comunicación, motivación, liderazgo y productividad) en las pequeñas y medianas empresas del sector industrial en Balancán, Tabasco. Después de haber realizado las encuestas en las 66 pequeñas y medianas empresas (MiPymes), se recopiló la información y se organizó utilizando gráficos en Excel y tablas, lo cual permitió una lectura clara sobre el impacto del liderazgo en estas MiPymes. Se descubrió que, en cuanto al enfoque de comunicación y liderazgo, las MiPymes obtuvieron una calificación alta con una mínima deficiencia. Sin embargo, en los enfoques de motivación y productividad, se observó un porcentaje menos satisfactorio debido a que el personal mostró indiferencia ante las preguntas correspondientes. Por lo tanto, se busca presentar estrategias para lograr una mejora continua en estos aspectos.


CONCLUSIONES

Durante la investigación de verano delfín se logró conocer más acerca del liderazgo como adquirir nuevos conocimientos teóricos sobre el liderazgo  en cómo es usada y como a ayudado a las MiPyMes a obtener un desarrollo saber de cómo ha estado evolucionando y como es aplicado en la actualidad como bien sabemos un buen líder en toda organización es muy importante que mantenga buena comunicación y motivación hacia sus empleados para lograr todos los objetivos que tiene cada organización, un buen líder debe ser capaz de mantener un buen control de personal, mantener una buena comunicación, usar estrategias, desempeñar cada trabajo sin correr peligro y sobre todo motivar a su personal por esto la importancia de un buen liderazgo en toda organización para cumplir con los objetivos y tener éxito laboral  como tambien éxito en la organización.
Arcos Lopez Yadira Elizabeth, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos

MEJORA DE LA PRODUCTIVIDAD EN LA CADENA DE PRODUCCIóN DE QUESO DE PORO ATRAVéS DEL ANáLISIS DE TIEMPOS Y MOVIMIENTOS.


MEJORA DE LA PRODUCTIVIDAD EN LA CADENA DE PRODUCCIóN DE QUESO DE PORO ATRAVéS DEL ANáLISIS DE TIEMPOS Y MOVIMIENTOS.

Arcos Lopez Yadira Elizabeth, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

1.1. Objetivos 1.1.1. General: Incrementar la productividad en el proceso de elaboración de queso de poro en la Fábrica de quesos Bejucal®, mediante la aplicación del estudio de tiempos y movimientos que permita eficientar las operaciones y los recursos empleados 1.1.2.Específicos: 1. Conocer e identificar las actividades que involucran el proceso de elaboración de queso de poro. 2. Identificar los indicadores que permitan medir el flujo productivo del proceso de elaboración de queso de poro. 3. Aplicar herramientas para la medición del análisis de las operaciones en el proceso de elaboración. 4. Desarrollar una propuesta para eficientar las operaciones y los recursos empleados.



METODOLOGÍA

El método de investigación usado para la investigación fue el hipotético – deductivo que fue una herramienta muy útil porque permitió desechar ideas incorrectas sobre el funcionamiento de la investigación. Cabe recalcar que la muestra fue extraída de una de las diez queserías dedicadas a la elaboración de queso de poro. La quesería lleva por nombre: Fábrica de quesos Bejucal®, ubicada en el municipio de Balancán, Tabasco, con dirección en la calle Francisco I: Madero 712, Las flores, 86930 colindando con la calle 27 de febrero y la calle Agustín de Iturbide. Para la recolección de datos se usaron la observación directa y toma de tiempos cronometrados, así como toma de fotos y videos del proceso. Pero también se recolecto información mediante una encuesta aplicada al propietario de la Fábrica de quesos Bejucal®. Además de una hoja descriptiva de procesos, que incluye el numero de operarios y la duración de las actividades involucradas. Los datos obtenidos fueron procesados en el software como Minitab, utilizando diversas herramientas estadísticas que permitieron interpretar de manera cuantitativa los resultados. Por otra parte, también se usó Visio que es un software donde fue posible realizar diagramas de calidad.


CONCLUSIONES

investigación que presenta un flujo de trabajo acorde a los objetivos propuestos. 1. Estudio de campo; Como primera etapa para conocer e identificar las actividades involucradas en el proceso de elaboración de queso de poro se requiere observar el proceso de elaboración de queso de poro, así mismo se realiza un mapeo de procesos que describa el flujo de trabajo existente. Para esta primer etapa se realizaron las siguientes herramientas: Encuesta, hoja de recolección de datos (basado en tiempos y movimientos),SIPOC, mapeo de proceso, AMEF. 2. Análisis de operaciones; Para poder identificar los indicadores que permitan medir el flujo productivo del proceso de elaboración de queso de poro. Se realiza un análisis de operaciones que conlleva un diagrama de operaciones y un diagrama de recorrido del estado actual de la fábrica. En la segunda fase se elaboró el Layout actual de la Fábrica de quesos Bejucal, el diagrama de operaciones, y el diagrama de recorrido. 3. Análisis de tiempos y movimientos: Las herramientas para la medición del análisis de las operaciones serán dadas en base al análisis de tiempos y movimientos. El cual incluye diagramas bimanuales y diagrama de Pareto de la situación actual de la empresa. Se realizo un Diagrama bimanual, tablas de tiempos y movimientos, un diagrama Pareto, AMEF 2da que parte del resultado del primer AMEF. 4. Diseño de estrategias: Se desarrollo la propuesta que conlleva la actualización de los siguientes diagramas; mapeo de procesos, diagrama de operaciones, diagrama de recorrido, diagrama bimanual. Estas propuestas son realizadas para eficientar el proceso de producción de queso de poro. Mediante los pasos anteriores fue posible cumplir los objetivos propuestos al inicio de la investigación y obteniendo resultados favorables para la empresa, contribuyendo a mejoras a una empresa productiva del municipio de Balancán, Tabasco, impactando directamente dentro de la Agenta 2030 dentro del objetivo 9: Industria, innovación e infraestructura, específicamente en el subtema 9.4 donde se enfoca en la planeación de modernizar la infraestructura y reconvertir las industrias para que sean sostenibles, utilizando los recursos con mayor eficacia, así también promoviendo que los procesos sean industrialmente limpios y ambientales razonables.l
Arcos Roblero Cristian Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Arnulfo Rosales Rosales, Instituto Tecnológico de Tuxtla Gutiérrez

CULTIVO DE DOS MICROALGAS ENDéMICAS DEL ESTADO DE CHIAPAS


CULTIVO DE DOS MICROALGAS ENDéMICAS DEL ESTADO DE CHIAPAS

Arcos Roblero Cristian Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Arnulfo Rosales Rosales, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

El estado de Chiapas es reconocido mundialmente por su destacada biodiversidad, contando con reservas de biosfera, parques nacionales y áreas naturales protegidas. Su ubicación cercana al Golfo de México y su variada topografía brindan una amplia diversidad de ecosistemas acuáticos, como ríos, lagos y lagunas. En general, Chiapas ha mantenido un buen estado en cuanto a la contaminación de los cuerpos de agua. No obstante, estudios recientes han revelado la presencia de diversos contaminantes, especialmente concentraciones de metales pesados, en el Parque Nacional Lagunas de Montebello. La conservación y protección de estos valiosos ecosistemas resultan cruciales para preservar la biodiversidad, garantizar el acceso a recursos hídricos y mantener el equilibrio ecológico de la región. En este contexto, las microalgas se han mostrado como una esperanzadora alternativa en el campo de la biorremediación. Estos sorprendentes microorganismos tienen la capacidad de eliminar contaminantes del agua de manera amigable con el ambiente y renovable, abriendo una prometedora solución para enfrentar desafíos medioambientales. Con el objetivo de contribuir a esta causa, se llevó a cabo un procedimiento experimental durante la estancia de verano, centrado en el cultivo de dos microalgas endémicas de Chiapas: Chlorococcum sp. y Haematococcus pluvialis. El propósito fue evaluar su producción de biomasa para su posible uso en la biorremediación.



METODOLOGÍA

• Preparación de medios de cultivo Primeramente se prepararon medios de cultivo aptos para el crecimiento de microalgas, uno fue el medio BBM (Basal Bold Medium), medio con el cual con anterioridad el laboratorio ha trabajado y obtenido resultados positivos, mientras que el otro fue el medio F/2, medio con el cual no se ha trabajado mucho en el laboratorio. • Selección e inoculación de las microalgas Posteriormente para el proceso de inoculación se utilizaron dos cepas puras previamente identificadas de Chlorococcum sp. y Haematococcus pluvialis obtenidas del laboratorio 7 del Polo Tecnológico Nacional de Pruebas Analíticas en Biocombustibles del ITTG.  La inoculación se hizo de acuerdo al procedimiento descrito por la metodología del laboratorio, en condiciones de esterilidad y con el equipo de seguridad personal adecuado. • Cultivo de Chlorococcum sp. y Haematococcus pluvialis  Una vez inoculados los medios de cultivo, los cultivos fueron dispuestos en el reservorio de microalgas del laboratorio en condiciones de temperatura de 24 ºC, sin agitación, un fotoperiodo de 12/12 y una intensidad lumínica de entre 100 y 200 µE sec-1 m-2. • Evaluación y control del crecimiento microalgal Durante un período de aproximadamente 21 días se dejó que las microalgas crecieran bajo las condiciones anteriormente descritas, tomando muestras cada 5 días, las cuales eran utilizadas para la determinación de biomasa y clorofila dentro del cultivo; para la determinación de biomasa se siguió el procedimiento por conteo en cámara de Neubauer, mientras que para la determinación de clorofila fue realizada de acuerdo a la metodología descrita por Wellburn en 1994.  Determinación de biomasa (Conteo en cámara de Neubauer) El conteo en cámara se realizó cada 5 días para llevar un seguimiento en cuanto al crecimiento de las microalgas. Se tomaban muestras 2 mL de cada cultivo, de las cuales, solo se necesitaba una gota para realizar el conteo. Esta se colocaba con ayuda de una micropipeta sobre la cámara de Neubauer y se ponía posteriormente un cubreobjetos para que esta se llenara por capilaridad. Una vez cargada la cámara, esta se llevó al microscopio y con ayuda del objetivo de 40x se enfocó para que las células se pudieran ver nítidas. Una vez encontrado el enfoque, se buscaba el primer cuadrante para comenzar con el conteo.  Determinación de clorofila  La determinación de clorofila se realizó cada 5 días. Se tomaban muestras de 5 mL de cultivo, para posteriormente centrifugarse a 3500 rpm durante 15 minutos, una vez centrifugadas, estas era vaciadas y el sobrenadante era resuspendido en 5 mL de metanol para poder ser agitado y calentado a 60 ºC durante 10 minutos con ayuda de una parrilla y finalmente las muestras eran refrigeradas en oscurdad hasta el día siguiente. Al día siguiente las muestras eran centrifugadas a 3500 rpm durante 10 minutos, pasando los sobrenadantes a otro tubo y aforados hasta 5 mL con metanol. Finalmente las muestras obtenidas de todo el procedimiento eran leídas espectrofotométricamente a longitudes de onda de 653 y 666 nm. • Construcción de la cinética de crecimiento Para determinar la cinética de crecimiento de las algas, se analizaron las muestras tomadas cada 5 días durante todo el desarrollo del cultivo y crecimiento. Se consideró el día de inoculación como el día 0 y el día 21 como el día final para el análisis de la cinética.


CONCLUSIONES

Durante el desarrollo de la estancia de verano no solo se logró adquirir conocimientos teóricos y prácticos de las microalgas y el cultivo de estas, sino que también se obtuvo conocimientos teóricos y prácticos sobre el análisis ambiental de lagos, aguas residuales y lixiviados. Como análisis de discusiones que se pueden hacer del trabajo, con lo experimentado durante la estancia se puede afirmar que los factores de desarrollo son importantes para controlar las condiciones de crecimiento, entre ellos, los más importantes, el medio de cultivo (nutrientes) y el fotoperiodo (luz/oscuridad). En cuanto los resultados del trabajo, gracias a las cinéticas de crecimiento realizadas, se puede concluir que el mejor medio de cultivo para el crecimiento de las algas es el BBM, mientras que la microalga que mejor se puede adaptar a este es Chlorococcum sp., obteniendo de esta muy buenos rendimientos en comparación al tiempo empleado durante el cultivo de esta, al menos a nivel de matraz. Aunque el trabajo inicial podría decirse que ha terminado, el objetivo de realizar la evaluación del crecimiento microalgal a nivel biorreactor no fue alcanzado, por lo que no se puede concluir si la producción de biomasa microalga sería la suficiente para utilizarse con fines de biorremediación.
Arellano Acosta Ixchel, Instituto Politécnico Nacional
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

ANáLISIS ESPACIO-TEMPORAL DE DATOS ABIERTOS DE SALUD


ANáLISIS ESPACIO-TEMPORAL DE DATOS ABIERTOS DE SALUD

Arellano Acosta Ixchel, Instituto Politécnico Nacional. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El objetivo general del proyecto fue, utilizando técnicas de ciencia de datos, machine learning y minería de datos, crear un servicio web interactivo que, proporcionando el parámetro de la localidad de residencia de un individuo, este fuera capaz de predecir las probabilidades de morir por asma y/o estado asmático. Dada la alta tasa de población en las ciudades, enfermedades como el asma y las pulmones crónico obstructivas se han incrementado, lo que ha llevado a la creación de grandes bases datos, lo que quería una oportunidad y retos relacionados con el análisis de estos datos para lograr entendimiento del desarrollo de dichas enfermedades. Para el análisis epidemiológico de bases datos los análisis de estadística simple pierden utilidad de tal forma que se genera un campo de oportunidad para las técnicas de machine learning e inteligencia artificial. (Spathis & Vlamos, 2019) El asma es una enfermedad de duración variable, por lo que se considera de tipo crónico, que afecta a las vías respiratorias. Es más común en los niños, aunque los adultos también pueden padecerla. (National Center for Environmental Health, 2019) De tal forma que este estudio examina los datos recopilados por la Dirección General de Información en Salud (DGIS), de pacientes con asma y los examina para buscar patrones usando machine learning. Machine learning es una técnica de la inteligencia artificial que permite aprender de datos disponibles y hacer predicciones de condiciones que puedan ser pasadas por alto en las técnicas de análisis epidemiológico tradicional.  



METODOLOGÍA

1) Entendimiento del caso de estudio: Se llevó a cabo una revisión exhaustiva de la literatura y recursos relacionados con el análisis espacio-temporal utilizando datos abiertos de salud y censos de la Ciudad de México (CDMX). DGIS INEGI Se realizó una familiarización detallada con los conjuntos de datos de defunciones por asma y el censo de la CDMX. Se identificaron las variables relevantes y se establecieron los criterios espacio-temporales adecuados para el análisis.   2) Entendimiento de los datos: Se analizó y exploró las bases de datos de defunciones de la DGIS y del censo de la INEGI, encontrando relaciones entre sus variables y haciendo su respectiva unión, además de la creación de un reporte con el cual se pudieron visualizar de mejor manera los datos y su comportamiento, encontrando información relevante como el número de celdas vacías, número de variables categóricas y numéricas y la correlación entre las variables de las bases de datos.   3) Preprocesamiento de datos: Se eliminaron las variables irrelevantes o aquellas que podrían afectar el análisis. Se separaron los datos categóricos y numéricos para lograr un adecuado tratamiento. Se aplicó un proceso de Pipeline para los datos numéricos y OneHotEncoder para los datos categóricos con el uso de la librería Sklearn.   4) Modelado: Se emplearon las siguientes librerías de Python, como Kaggle, Pycaret, Sklearn y pandas, para implementar el proceso de machine learning. La metodología se basó en la aplicación de regresión lineal supervisada como técnica principal de predicción, haciendo uso de modelos como Dummy Classifier, Random Forest Classifier, Extra Trees Classifier, Gradient Boosting Classifier, Light Gradient Boosting Machine, Extreme Gradient Boosting, K Neighbors Classifier, Ridge Classifier, regresión logística, Ada Boost Classifier, análisis lineal discriminante, clasificador de árbol de decisión, SVM - Linear Kernel, Naive Bayes y análisis cuadrático discriminatorio.   5) Evaluación y validación: Para la evaluación y validación de datos se usaron las siguientes técnicas:  Matriz de confusión, Precision Recall, Class Report, curva de aprendizaje, dimensiones y mapa de decisión, mediante la librería Pycaret. Se procedió a analizar detalladamente los resultados obtenidos y se compararon con la información relevante sobre salud y localidades previamente definidas.   6) Documentación y presentación: Se generó una documentación completa y detallada del proyecto, que incluye todos los pasos seguidos, metodología empleada y resultados obtenidos. Se preparó una presentación final, destacando los hallazgos y contribuciones del estudio. Se llevó a cabo una presentación y discusión de los resultados y conclusiones del proyecto, poniendo énfasis en las gráficas de predicción de muertes por asma o estado asmático según la localidad de residencia de la persona fallecida.


CONCLUSIONES

Como resultado, el modelo con mayor precisión, en el análisis de datos fue Dummy Classifier, con una precisión de 0.7684. Además, la clase donde hubo una mayor precisión fue la 2 (J459), esto debido a que fue la clase con una mayor cantidad de datos (alrededor de 1900 datos). Con esto se puede concluir que, para obtener una mayor precisión en la predicción de los datos, es necesario un mayor conjunto de datos. No se logró cumplir con todos los objetivos deseados debido al tiempo, pero los resultados fueron, si no satisfactorios, interesantes y pueden ser posteriormente analizados nuevamente con otro método de aprendizaje para seguir trabajando con estos y lograr mejores resultados, además de su implementación en un servicio web disponible para el público general.  
Arellano Alcántar Diana Laura, Instituto Tecnológico de Morelia
Asesor: Dra. Claudia del Carmen Gutiérrez Torres, Instituto Politécnico Nacional

SIMULACIóN NUMéRICA EN FENóMENOS DE TRANSPORTE


SIMULACIóN NUMéRICA EN FENóMENOS DE TRANSPORTE

Arellano Alcántar Diana Laura, Instituto Tecnológico de Morelia. Lorenzo Torres Esteban Gabriel, Instituto Politécnico Nacional. Salinas Dominguéz Jaquelin, Instituto Tecnológico de Gustavo A. Madero II. Asesor: Dra. Claudia del Carmen Gutiérrez Torres, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en reproducir mediante un software CAT las diferentes geometrías del copo de nieve de Koch que es una geometría fractal que ha sido estudiada en diferentes ámbitos para diferentes aplicaciones y generar barras sólidas que tengan ese tipo de geometrías en su sección transversal para posteriormente realizar una simulación numérica del flujo sobre esta barra con la finalidad de analizar el comportamiento de las fuerzas de arrastre en las geometrías.  



METODOLOGÍA

La simulación numérica se llevó a cabo utilizando los softwares Ansys-Fluent y Solidworks, en dos y tres dimensiones, pero con las mismas condiciones de flujo, es decir, con el mismo número de Reynolds. Posteriormente, se realizará una comparación del flujo alrededor de estas barras con respecto al flujo sobre un cilindro liso. La idea principal es comparar los campos de flujo (velocidad, presión) de las diferentes geometrías de los copos de nieve de Koch con los del cilindro circular liso cuando en dichos flujos se tiene un número de Reynolds de 30000.


CONCLUSIONES

El objetivo final es determinar si el uso de estas geometrías de copo de nieve de Koch pueden representar un ahorro de energía en términos de reducción del arrastre a geometrías similares como lo es la de un cilindro liso con sección transversal circular. De ser así, este tipo de geometrías podría ser utilizada en el diseño de dispositivos de ingeniería que utilicen cilindros dentro de su construcción y en los que se presente una interacción sólido-fluido como por ejemplo en intercambiadores de calor. Será necesario estudiar los efectos a diferentes números de Reynolds antes de tener conclusiones contundentes al respecto.
Arellano Fonseca María Regina, Universidad de Sonora
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

DECODIFICACIóN DE SEñALES CEREBRALES DURANTE LECTURA SILENCIOSA Y HABLA IMAGINADA


DECODIFICACIóN DE SEñALES CEREBRALES DURANTE LECTURA SILENCIOSA Y HABLA IMAGINADA

Acosta Griego Yesenia, Universidad de Sonora. Arellano Fonseca María Regina, Universidad de Sonora. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La Esclerosis Lateral Amiotrófica (ELA) es una enfermedad degenerativa neuromuscular, afectando a las neuronas que controlan los músculos voluntarios; se comporta de manera progresiva afectando a las células nerviosas del cerebro y de la médula espinal. Debido a cómo progresa la enfermedad sobre la acción de los músculos voluntarios, los pacientes pueden quedar totalmente paralizados, sin embargo, la sensibilidad y la inteligencia quedan intactas. Los principales síntomas son: Dificultad para caminar Tropiezos y caídas Dificultad al tragar Calambres y/o contracción de los músculos La enfermedad suele atacar entre los 40-60 años y afecta a más hombres que a mujeres. Las personas afectadas con ELA pueden tener problemas al mover los labios, la lengua, el bajo paladar o las cuerdas vocales, haciendo el habla una actividad complicada o incluso imposible. Lo que hace que se desarrolle este procedimiento experimental para poder diferenciar, gracias a las señales cerebrales, las palabras que está queriendo comunicar un paciente con esta enfermedad.



METODOLOGÍA

El experimento actualmente se está realizando en 3 distintos grupos: Jóvenes sanos (18-39 años) Adultos sanos (+40 años) Adultos con la enfermedad (+40 años) En el presente proyecto, solamente se trabajó con el primer grupo mencionado. El objetivo de este proyecto es recolectar señales cerebrales utilizando métodos no invasivos durante la lectura silenciosa y el habla imaginada de cuatro palabras en español: Si, Negativo, Bebida y Baño. Estas señales recolectadas serán utilizadas en la investigación titulada Multimodal speech decoding for patients with amiotrophycal lateral sclerosis. Antes de iniciar con la recolección de señales en cada participante, se aseguró de que cada uno de ellos firmará un Consentimiento Informado el cual explicaba con claridad que se realizaría en el experimento y cuáles eran sus objetivos, así como también se pedía el consentimiento para poder tomar fotografías y hacer uso de ellas para distintos fines (mostrarlas a participantes, añadirlas a alguna presentación o publicación científica, etc.) además, se realizaron algunas preguntas como su edad, si son diestros o zurdos o si tiene algún padecimiento neurológico diagnosticado. Durante el experimento el participante se sentara delante de un monitor (la distancia entre el monitor y el participante fue la misma para todos), se colocaron 16 electrodos de encefalograma, además del electrodo Tierra, todos los electrodos fueron distribuidos a lo largo del cuero cabelludo junto con la cantidad necesaria de gel conductor. También se hizo uso de un electrodo de Referencia el cual se colocó en la oreja de los participantes. Una vez ya colocados todos los electrodos y el participante se encuentre lo más cómodo posible, se explicó con más claridad en qué consiste el experimento: Primeramente aparece una cruz en el centro de la pantalla llamada Fixation, esta cruz tiene el objetivo de que el participante se enfoque en la pantalla porque se está apunto de comenzar. Saldrá una pantalla en negro, esta no tiene algún significado. Después, saldrá la primera palabra, en este momento es cuando se realiza la lectura silenciosa. Lo siguiente será una pantalla en negro, cuando esta aparezca se realizara el habla imaginada; el participante deberá repetir en su mente la palabra que salió anteriormente, la indicación que se da es que debe de pronunciar la palabra en su mente casi como si quisiera pronunciarla con su voz, pero no moverá su boca ni nada por el estilo. Se repetirá lo del punto 3 y 4 con otras palabras y el participante tendrá que hacer lo mismo. (Cabe aclarar que las palabras no tienen un orden en específico, se colocan aleatoriamente.) Después de un tiempo determinado saldrá un punto en el centro de la pantalla, este indica Descanso, en este momento el participante podrá parpadear todo lo que necesite, moverse un poco, rascarse, apretar la mandíbula, etc., acciones que tiene que evitar realizar lo más que pueda mientras no salga esto en la pantalla porque cada una de estas acciones afecta la lectura de las señales y la exactitud de estas. Se repite todo el proceso. El experimento consiste en 6 corridas con mínimo 3 minutos de descanso entre ellas. El tiempo de duración aproximado del experimento es de 1 hora y media. Después de la recolección de los datos de cada participante, las señales son procesadas en el software Matlab para observar si es posible diferenciar entre la lectura silenciosa y el habla imaginada, así como también si se puede determinar automáticamente qué palabra leyó o pronunció el participante, no obstante, esta parte del proyecto aún sigue en desarrollo.


CONCLUSIONES

Durante este verano de investigación obtuvimos conocimientos teóricos y experimentales del registro de señales EEG, se logró con éxito registrar las señales EEG de más de 25 participantes así como conocimientos de la enfermedad ELA. Actualmente se encuentra en proceso el desarrollo del procesamiento de las señales obtenidas en las corridas en el software Matlab y se espera igualmente tener éxito en esta parte del proyecto. Esperamos que el grupo el cual fue asignado a nosotras sea de gran ayuda en la investigación titulada Multimodal speech decoding for patients with amiotrophycal lateral sclerosis y se pueda ayudar a muchas personas que padecen esta enfermedad a poder comunicarse lo mejor posible. Nos encontramos muy agradecidas de haber tenido y aprovechado esta oportunidad la cual nos ayudó a conocer un rubro más de nuestro campo laboral, ser encargadas de un experimento y ser reconocidas de parte de nuestros asesores por nuestro trabajo, esperamos más oportunidades así en un futuro.
Arellano Ochoa Daniel Ignacio, Instituto Tecnológico de Querétaro
Asesor: Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional

APLICACIóN DEL TRACKING DE LA INTELIGENCIA ARTIFICIAL EN EL MONITOREO Y RECONOCIMIENTO DE INDIVIDUOS DE TORTUGAS MARINAS


APLICACIóN DEL TRACKING DE LA INTELIGENCIA ARTIFICIAL EN EL MONITOREO Y RECONOCIMIENTO DE INDIVIDUOS DE TORTUGAS MARINAS

Arellano Ochoa Daniel Ignacio, Instituto Tecnológico de Querétaro. Asesor: Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

México es un país con gran diversidad tanto en fauna como en flora, en ese sentido México tiene la fortuna de recibir a seis de las siete especies de tortugas marinas que existen en el mundo. En nuestro país, durante años se ha visto el interés de investigación para la preservación y conservación a través del monitoreo de este magnífico animal. Se utilizan métodos que pueden llegar a ser bastante invasivos, por lo que se está buscado nuevos métodos de monitoreo con menor impacto al individuo y más eficientes.   Actualmente para realizar esta área, se utilizan algoritmos matemáticos de inteligencia artificial en programas digitales de identificación de tortugas marinas que usan como información imágenes y videos. La identificación de tortugas marinas es un verdadero reto y problema abierto, debido a que, para tener una mayor precisión en la identificación, se requiere desarrollar métodos de inteligencia artificial que puedan trabajar con imágenes adquiridas en su hábitat normal de las tortugas marinas. Lo cual resulta un gran reto debido a que las tortugas marinas poseen una gran habilidad y velocidad para nadar, mientras que, en tierra, aunque su movilidad se vuelve más lenta, intervienen otros factores como seria la misma arena que puede obstruir rasgos importantes para su reconocimiento, debido a cubrir en ocasiones partes de su caparazón o de su cabeza.   La tarea del reconocimiento de la especie de tortuga marina se basa en características morfológicas bien definidas para cada especie como son la forma y color del caparazón y cabeza. La tarea de mayor reto es el reconocimiento de cada individuo, ya que para esto nosotros nos enfocamos en el reconocimiento de los escudos ubicados atrás de la cabeza. Estos escudos durante su crecimiento de las tortugas marinas van tomando forma, además de crecer se exponen a varios peligros los cuales pueden provocar rasguños o daños en estos escudos dificultando aún más su reconocimiento.  



METODOLOGÍA

Para este proyecto se utilizó una red neuronal enfocada en Agrupamiento Piramidal Espacial (Spatial Pyramid Pooling, SPP). Esta red se enfoca en calcular la distancia de los pixeles que hay del objeto de interés de una imagen (en inglés frame) a otra imagen (frame). Esto lo consigue a partir de una clasificación de clases basadas en la distancia entre pixeles que se detecte. Otra particularidad de esta red SPP, es la rotación de las imágenes que realiza con el objetivo de detectar el desplazamiento. Esto permite que el desplazamiento se pueda dar en cualquier dirección sin ningún problema.  Para tener los puntos de interés de la intersección de los escudos de la cabeza de las tortugas marinas, se analizó la red SuperPoint, la cual se enfoca en detectar y colocar punto de interés automáticamente.   Para la implementación de estas redes se utilizó imágenes en color (canales Rojo, Verde, Azul; RBG) de 224x224 pixeles.  


CONCLUSIONES

Para el análisis correcto de los individuos de tortugas marinas, la mejor implementación sin duda será las redes SPP principalmente por su característica de procesar imágenes de distintos tamaños dando flexibilidad a las bases de datos que tengamos en nuestra disposición. Además de la red SuperPoint la cual permite automatizar la colocación de puntos de referencia dejando el proceso de reconocimiento por completo a la red sin la necesidad de una gran intervención por parte del usuario. Por ello, se realizarán pruebas y entrenamiento exhaustivo hasta conseguir un umbral de éxito. Cabe mencionar que durante la estancia de verano se logró adquirir importantes conocimientos, entre los que puedo destacar la morfología de las tortugas marinas, así como su importancia en el medio ambiente. Finalmente, el tener un mayor entendimiento sobre de aprendizaje profundo en el área de inteligencia artificial fue de gran relevancia dada la carrera que estudio. Agradezco al programa DELFIN, al TECNM campus Querétaro, al Dr. Alejandro Ramírez Acosta y al laboratorio de la Dra. García por esta oportunidad.
Arenas Baeza Domingo Antonio, Instituto Tecnológico Superior de Los Ríos
Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre

ANALíTICA DE DATOS EN ACCIDENTALIDAD DE VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.


ANALíTICA DE DATOS EN ACCIDENTALIDAD DE VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.

Arenas Baeza Domingo Antonio, Instituto Tecnológico Superior de Los Ríos. Pozo Castillo Roger Alberto, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

La accidentalidad vial es un tema crucial que siempre ha sido de interés reducir, sin embargo, hasta ahora no se han implementado técnicas tecnológicas para identificar y comprender el comportamiento vial en función de las diferentes variables involucradas. Por lo tanto, surge la necesidad de contribuir a esta comprensión de la accidentalidad vial con el fin de respaldar los esfuerzos de mitigación y, en última instancia, salvar vidas. Todo esto aborda desde a arquitectura hasta las técnicas de extracción de datos viales en la ciudad de Bogotá, un enfoque necesario para llevar a cabo el análisis estadístico que nos permita comprender dicho comportamiento. Los accidentes viales representan un serio problema de salud pública. La Organización Mundial de la Salud expresa que, en el mundo, más de 1.25 millones de personas fallece cada año en las vías. Los accidentes representan un desafío significativo para las naciones de todo el mundo, ya que generan costos sustanciales tanto en términos humanos como económicos. La magnitud de este problema es tal que ha sido incluido en la Agenda 2030 para el Desarrollo Sostenible, un ambicioso plan global que busca abordar diversos problemas sociales y ambientales.  El transporte de alimentos a través de vehículos de carga en el corredor vial de la calle 13 ha sido una actividad de vital importancia para la distribución eficiente de mercancías en la región. Sin embargo, la mayor problemática es que en los últimos años, se ha evidenciado un preocupante aumento en la frecuencia de accidentes que involucran a estos vehículos, lo que ha generado la necesidad de abordar esta problemática a través de la analítica de datos.



METODOLOGÍA

El trabajo de investigación que se realizo fue descriptivo, ya que se podrán describir los hechos de los cuales surgió el problema actual, los cuales permitirán determinar las posibles acciones que se deben tomar en cuenta para dar solución a dicho problema. En la realización del proyecto se llevó a cabo patrones, tendencias y factores que contribuyan a los accidentes en este tipo de vehículos. Lo que se hizo fue lo siguiente: Recopilación de datos. Preparación de los datos. Analisis exploratorio de los datos. Identificación de los factores de riesgo. Una vez se realizó todo esto se procedió a lo que fue llevar los datos obtenidos a el programa Power Bi todo esto con el fin de obtener el indice de accidentalidad por hora, por año y el origen del accidente. Como sabemos la accidentalidad vial es un tema crucial que siempre ha sido de interés reducir, sin embargo, hasta ahora no se han implementado técnicas tecnológicas para identificar y comprender el comportamiento vial en función de las diferentes variables involucradas. Por lo tanto, surge la necesidad de contribuir a esta comprensión de la accidentalidad vial con el fin de respaldar los esfuerzos de mitigación y, en última instancia, salvar vidas. Todo esto aborda desde a arquitectura hasta las técnicas de extracción de datos viales en la ciudad de Bogotá, un enfoque necesario para llevar a cabo el análisis estadístico que nos permita comprender dicho comportamiento. En primer lugar, se ha desarrollado una arquitectura autosostenible para la recolección de datos viales utilizando información proveniente de redes sociales. Este enfoque innovador nos ha permitido obtener una gran cantidad de datos relevantes para nuestro estudio. Una vez recopilada la información, se ha procedido a su representación visual utilizando una herramienta geográfica. Esta visualización ha facilitado la comprensión de patrones y tendencias en los incidentes viales, lo que nos ha brindado una primera impresión sobre la situación. Sin embargo, el análisis no se detiene allí, ya que se han aplicado técnicas estadísticas geográficas más avanzadas para profundizar en el estudio. Estas técnicas nos han proporcionado una visión más completa y objetiva de los factores que contribuyen a la accidentalidad vial en la ciudad. El análisis estadístico realizado hasta el momento es de vital importancia, ya que nos brinda información valiosa que permitirá tomar decisiones más informadas y efectivas para la prevención de accidentes de tránsito. Al comprender mejor el comportamiento vial y los lugares donde ocurren más frecuentemente los incidentes, se podrán implementar medidas específicas para reducir los riesgos y aumentar la seguridad de los ciudadanos. Según un estudio de tránsito de la ciudad de Bogotá los accidentes viales suceden muy seguido, un accidente ocurre de 5 a 6 minutos.


CONCLUSIONES

Durante la estancia del verano de investigación se logró obtener conocimientos sobre la accidentalidad con vehiculos de carga de alimentos en el corredor vial de la calle 13 de Bogota D.C. Todo esto con estudios mediante la analítica de datos el cual es una herramienta fundamental para abordar los desafíos del sector de alimentos en el corredor vial de la Calle 13. Se crearon graficas en Power Bi todo esto con el fin de obtener el indice de accidentalidad ocurridos en la calle 13 de Bogota D.C. La frecuencia de accidentes evidencia claramente la necesidad de implementar medidas preventivas y correctivas para reducir la accidentalidad en esta zona específica. Esto implica la identificación y atención de las principales causas de los accidentes, como pueden ser el exceso de velocidad, la falta de mantenimiento de los vehículos, la fatiga del conductor, entre otros factores. Se debe realizar la implementación de un sistema de análisis de datos en tiempo real, que permita monitorear y detectar patrones de fallas y comportamientos riesgosos, ya que esto es esencial para mejorar la seguridad en el corredor vial. Este sistema podría estar basado en la recopilación de datos a través de tecnologías como GPS, sensores en los vehículos y cámaras de vigilancia, que proporcionen información sobre el estado de los vehículos, la velocidad, los tiempos de conducción, entre otros aspectos relevantes. Como posibles resultados se obtuvo lo que fue el numero de muertos y heridos por hora, por años y la gravedad por clase de siniestro, es decir, si fue atropello, choque volcamiento, etc.
Arenas Lobo Juliana Alejandra, Universidad de Investigación y Desarrollo
Asesor: Mtro. Samuel Efrén Viñas Alvarez, Instituto Tecnológico de Zitácuaro

APLICACIóN DE TéCNICAS DE APRENDIZAJE AUTOMáTICO PARA LA DETECCIóN Y CLASIFICACIóN DE ATAQUES EN SERVIDORES DE LA RED DE DATOS EN UNA UNIVERSIDAD


APLICACIóN DE TéCNICAS DE APRENDIZAJE AUTOMáTICO PARA LA DETECCIóN Y CLASIFICACIóN DE ATAQUES EN SERVIDORES DE LA RED DE DATOS EN UNA UNIVERSIDAD

Arenas Lobo Juliana Alejandra, Universidad de Investigación y Desarrollo. Asesor: Mtro. Samuel Efrén Viñas Alvarez, Instituto Tecnológico de Zitácuaro



PLANTEAMIENTO DEL PROBLEMA

La Universidad de Investigación y Desarrollo enfrenta el desafío de proteger la seguridad de sus servidores de red de datos frente a los constantes ataques cibernéticos. Sin embargo, las soluciones actuales carecen de eficacia y precisión, lo que pone en riesgo la integridad y confidencialidad de la información institucional. Es necesario desarrollar un enfoque basado en técnicas avanzadas de aprendizaje automático supervisado en inteligencia artificial para detectar y prevenir los ataques en tiempo real. El problema radica en la falta de un sistema robusto y efectivo para la detección y prevención de ataques en los servidores de la UDI. Las soluciones existentes no abordan de manera adecuada los desafíos específicos de esta institución, lo que resulta en vulnerabilidades y exposición a posibles amenazas. Por lo tanto, este proyecto tiene como objetivo desarrollar una solución integral basada en técnicas de aprendizaje supervisado que mejore la seguridad de los servidores de la red de datos de la Universidad de Investigación y Desarrollo. Mediante la implementación de algoritmos y modelos de inteligencia artificial, se busca detectar y bloquear ataques en tiempo real, salvaguardando la integridad y confidencialidad de la información institucional. Además, se realizará una evaluación del rendimiento, eficiencia y escalabilidad de la solución propuesta, sentando las bases para futuras investigaciones en seguridad informática y aplicaciones de inteligencia artificial en entornos universitarios.



METODOLOGÍA

La metodología Kanban será utilizada en el proyecto para optimizar el flujo de trabajo en la implementación del sistema de detección y prevención de ataques en los servidores de la Universidad de Investigación y Desarrollo. Se visualizará el trabajo a través de un tablero con columnas y tarjetas que representan las tareas y su progreso. Se identificarán y priorizarán las tareas necesarias, y se realizará un seguimiento continuo para monitorizar su avance. La metodología OCTAVE, por otro lado, se empleará para evaluar y mitigar los riesgos de seguridad en la universidad. Identificará amenazas, evaluará activos críticos y analizará vulnerabilidades para establecer una estrategia de seguridad efectiva. Se realizarán evaluaciones exhaustivas para priorizar esfuerzos de seguridad y asignar recursos adecuadamente. Las fases incluirán la definición del alcance, la evaluación de riesgos y la creación de un plan de tratamiento de riesgos.


CONCLUSIONES

Conclusiones: El uso de técnicas de inteligencia artificial (IA) y aprendizaje automático (AM) para la detección y clasificación de ataques a servidores de redes de datos reviste gran importancia, especialmente en el contexto de una universidad. Con la creciente cantidad de datos que se generan y almacenan, cada vez es más difícil detectar y prevenir los ataques a las redes de datos. Las técnicas de IA y AM pueden ayudar a automatizar el proceso de detección y clasificación de ataques, lo que puede ahorrar tiempo y recursos a las universidades. En particular, el uso de algoritmos de aprendizaje automático como XGBoost y Random Forest puede ser muy eficaz para detectar y clasificar ataques a servidores de redes de datos. XGBoost es un potente algoritmo conocido por su rapidez y precisión, y se ha utilizado con éxito en diversas aplicaciones, como la detección de intrusiones en la red. Random Forest es otro algoritmo popular conocido por su capacidad para manejar grandes conjuntos de datos y características complejas. Ambos algoritmos pueden entrenarse en grandes conjuntos de datos de tráfico de red para identificar patrones y anomalías que puedan indicar un ataque. El uso de XGBoost, ha demostrado ser específicamente muy eficaz en la detección y clasificación de ataques a servidores de redes de datos. En un estudio realizado por investigadores de la Universidad de California, Riverside, se descubrió que XGBoost superaba a otros algoritmos de aprendizaje automático en términos de precisión y velocidad cuando se utilizaba para la detección de intrusiones en la red. Esto lo convierte en una opción ideal para las universidades que buscan implementar técnicas de IA y AM para la detección y clasificación de ataques a sus servidores de red de datos. Resultados: Aunque no se haya llevado a cabo una implementación directa de los algoritmos, los resultados que se presentan en este trabajo se basan en una sólida investigación respaldada por varios artículos científicos; adicionalmente, de acuerdo con la literatura estudiada se esperan obtener resultados positivos con la aplicación de estos dos algoritmos de aprendizaje supervisado, en la detección de ataques a servidores. Entre los algoritmos estudiados, tanto Random Forest como XGBoost han sido ampliamente utilizados para abordar la detección de ataques en servidores mediante aprendizaje automático supervisado. Sin embargo, las investigaciones han sugerido que XGBoost parece ser el algoritmo más efectivo para esta tarea en particular. Por ejemplo, en un estudio específico centrado en la detección de ataques DDoS en la computación en nube, XGBoost logró alcanzar una impresionante precisión del 99,9%. Otro estudio se enfocó en detectar ataques de botnets al tráfico de datos en el Internet de las cosas (IoT) y encontró que XGBoost obtuvo una precisión del 99,8%. Estos resultados indican que XGBoost es altamente confiable y eficiente en la identificación de ataques cibernéticos en entornos de servidores. Además de su precisión, XGBoost ha demostrado ser un algoritmo altamente eficiente, capaz de manejar grandes conjuntos de datos con un alto número de características. Esto es de particular importancia en el contexto de la detección de ataques en servidores, ya que los sistemas involucrados pueden generar una gran cantidad de datos y registros que deben ser analizados de manera oportuna para garantizar una detección temprana y efectiva de amenazas.
Arenas Perdomo Juan Manuel, Universidad Simón Bolivar
Asesor: Dr. Hector Hugo Aviles Arriaga, Universidad Politécnica de Victoria

DESARROLLO DE MÓDULOS PARA LA ESTIMACIÓN DE POSICIÓN Y CONTROL DE DIRECCION PARA ROBOT AUTOMINY IMPLEMENTANDO FILTROS KALMAN Y CONTROL P.I.D.


DESARROLLO DE MÓDULOS PARA LA ESTIMACIÓN DE POSICIÓN Y CONTROL DE DIRECCION PARA ROBOT AUTOMINY IMPLEMENTANDO FILTROS KALMAN Y CONTROL P.I.D.

Arenas Perdomo Juan Manuel, Universidad Simón Bolivar. Hernández Oaxaca Haziel, Instituto Tecnológico de Reynosa. Ordoñez Saavedra Maximiliano, Instituto Tecnológico de Reynosa. Asesor: Dr. Hector Hugo Aviles Arriaga, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

Al inicio de la estancia, el coche autónomo Jaguares (UPV-UNAM) carecía de un módulo para calcular o estimar su posición en un mapa. Específicamente, no tenía conocimiento de su ubicación en los ejes X e Y, ni de su orientación θ (theta). Sin este módulo, el vehículo solo podía reconocer las marcas blancas en una pista, similar a cómo un robot limpiador detecta las paredes en una habitación. El robot limpiador se mueve de un lado a otro, a veces quedando atrapado en ciertas áreas y sin saber qué partes ya ha limpiado, lo que impide una limpieza eficiente. De manera análoga, el coche autónomo no puede estimar trayectorias eficientes, y enfrenta una situación similar a una persona caminando en un cuarto oscuro. Sin la capacidad de ubicarse, el coche se enfrenta a un entorno complejo y peligroso, donde no puede navegar de manera óptima, lo que representa un desafío significativo.



METODOLOGÍA

Los objetivos específicos del proyecto se establecieron, como la implementación de la estimación de posición en los ejes X e Y, así como la orientación θ (theta) del coche autónomo. Se determinaron los requisitos técnicos y funcionales para el desarrollo de los módulos, incluyendo los sensores disponibles en el coche, la frecuencia de actualización de los datos y las restricciones de hardware y software. Se realizó una revisión bibliográfica sobre filtros Kalman, control P.I.D. y técnicas de estimación de posición para vehículos autónomos. Se adquirieron las herramientas y software necesarios, como Webots para la simulación del coche autónomo, ROS para la integración de componentes y OpenCV para el procesamiento de imágenes. Se configuró el entorno de desarrollo con Ubuntu, ROS y las herramientas adicionales necesarias para el desarrollo del coche autónomo. Se instaló Webots para la simulación del coche autónomo y la validación de los módulos desarrollados. Se llevó a cabo un estudio y análisis del coche autónomo AutoMiny, comprendiendo su estructura y arquitectura, revisando la documentación y el código fuente disponible, e identificando los sensores disponibles y su funcionamiento, así como la comunicación con los demás componentes del sistema. Se desarrolló el módulo de estimación de posición con filtro Kalman extendido, implementando el filtro Kalman para estimar la posición del coche autónomo utilizando los datos de los sensores disponibles, como las marcas blancas de la pista y otros sensores de localización, y se configuraron los parámetros del filtro Kalman para lograr una estimación precisa y robusta de la posición y orientación del vehículo. También se desarrolló el módulo de control P.I.D., implementando el control P.I.D. para el control de dirección del coche autónomo, con el objetivo de seguir la trayectoria de forma suave y precisa, y se ajustaron los parámetros del control P.I.D. para lograr una respuesta óptima y reducir el error de seguimiento de la trayectoria. Se integraron los módulos de estimación de posición y control P.I.D. en el coche autónomo AutoMiny, utilizando ROS para gestionar la comunicación entre los componentes, y se realizaron pruebas en el entorno simulado (Webots) para verificar el funcionamiento de los módulos y validar la precisión de la estimación de posición y el control de dirección. Se evaluó el rendimiento de los módulos mediante pruebas y análisis de resultados, identificando posibles problemas y errores, y realizando correcciones y ajustes necesarios para mejorar el rendimiento del coche autónomo. Se evaluó la escalabilidad de los módulos para su implementación en un coche autónomo real, teniendo en cuenta las diferencias entre el entorno simulado y el mundo real, y se realizaron pruebas y ajustes adicionales para adaptar los módulos al coche autónomo real (AutoMiny). Se documentó todo el proceso de desarrollo, desde la investigación hasta la implementación y las pruebas, y se preparó una presentación con los resultados obtenidos y los logros alcanzados durante el proyecto.


CONCLUSIONES

En conclusión, el desarrollo de módulos para la estimación de posición y control de dirección en el coche autónomo AutoMiny mostraron ser utiles, los modulos ayudaron a que el coche autonomo avanzara en linea recta sin casi desviarse y el modulo de estimación lograba representar de manera precisa la ubicación y orientacion en la que el coche se encontraba
Arévalo Hernández Mariana, Universidad de Sonora
Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo

ANáLISIS DE DATOS CON PYTHON PARA DETERMINAR EL PERFIL DE VíCTIMAS DE VIOLENCIA CON EL OBJETIVO DE PREVENIR EL FEMINICIDIO.


ANáLISIS DE DATOS CON PYTHON PARA DETERMINAR EL PERFIL DE VíCTIMAS DE VIOLENCIA CON EL OBJETIVO DE PREVENIR EL FEMINICIDIO.

Arévalo Hernández Mariana, Universidad de Sonora. Silva Camargo Mariana, Universidad de Sonora. Suazo Buenas Ma del Carmen, Instituto Tecnológico de Ciudad Altamirano. Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El análisis de datos y el lenguaje de programación se han convertido en herramientas fundamentales en la lucha contra la violencia de género y el feminicidio. Estas tecnologías permiten abordar el problema desde una perspectiva más informada y eficiente, identificando patrones y tendencias que ayudan a comprender mejor el perfil de las víctimas y, en última instancia, a prevenir futuros casos de feminicidio. El feminicidio, entendido como el asesinato de mujeres por razones de género, es una de las manifestaciones más extremas y preocupantes de la violencia de género. Para abordar este problema, es esencial contar con una comprensión sólida de las características comunes entre las víctimas. Aquí es donde entra en juego el análisis de datos y el lenguaje de programación.   El análisis de datos implica la recopilación, procesamiento y examen de información relevante para obtener conocimientos significativos. En el contexto de la prevención del feminicidio, esto se traduce en recabar datos sobre las víctimas, como su edad, ubicación, ocupación, estado civil, historial de violencia y otros factores relevantes.   El lenguaje de programación es una herramienta poderosa para procesar grandes cantidades de datos de manera rápida y eficiente. Con él, se pueden desarrollar algoritmos y modelos predictivos que ayuden a detectar patrones en tiempo real y a evaluar el riesgo potencial de que una mujer sea víctima de feminicidio.  



METODOLOGÍA

Preparación del entorno Se han llevado a cabo las instalaciones de los programas Anaconda, destinado para la utilización del lenguaje de programación Python, y Mysql Workbench, empleado para el manejo de datos mediante la instalación de MySQL. Recopilación y preparación de datos Se realizó un análisis en la Página de Mujer Segura, considerando las variables más específicas. Selección de campos Se consideró la base de datos; dicha información fue de gran utilidad para incrementar la certeza y precisión en nuestro análisis de datos. Modelo relacional El modelo relacional se establece con el propósito de representar la estructura y las relaciones entre los datos en una base de datos de manera lógica y coherente. Su objetivo principal es proveer una forma organizada de almacenar y gestionar datos de la violencia  para que puedan ser fácilmente accesibles y manipulados de manera eficiente y efectiva. Análisis Exploratorio de Datos Se llevó a cabo un análisis exploratorio de datos considerando una muestra de 235 mujeres. Se evaluaron variables relevantes como número de hijos, estado civil, edad, grupo étnico, entre otras. Para ello, se construyó un dataset que refleja la información obtenida de cada una de ellas respecto a las variables mencionadas. Asimismo, se realizó un proceso de limpieza de datos para eliminar valores atípicos, datos duplicados o faltantes, y se adecuaron los datos a un formato apropiado para su posterior análisis.  Creación de un Modelo Predictivo.  Utilizar algoritmos de regresión lineal para crear un modelo predictivo. Para utilizar un algoritmo de regresión lineal, es esencial que la tendencia de los datos sea lineal.  Para llevar a cabo la implementación del modelo, inicialmente se importa la librería "sklearn" con el propósito de acceder a funciones que facilitarán la aplicación del modelo.    A continuación, es necesario proceder a la división de los datos, utilizando la regla del 70/30, donde el 70% de los datos serán destinados al conjunto de entrenamiento y el 30% restante al conjunto de prueba. Los datos estaban guardados en un objeto tipo *Series* y se cambia el objeto a uno tipo *Array*. También es necesario redimensionar el arreglo, de 1 dimensión a 2 dimensiones. El modelo de regresión se inicia mediante la asignación de la función "LinearRegression()" proporcionada por la librería Sklearn. Para llevar a cabo el entrenamiento del modelo, se emplea la función "fit", a la cual se le pasan los datos de entrenamiento, tanto los valores de entrada "x" como los valores objetivo "y", como parámetros.  En la etapa de prueba o testeo, utilizaremos la función "predict", en la cual pasaremos como parámetro los datos de prueba "x". Esta función nos proporcionará las predicciones para "y", las cuales serán almacenadas en la variable "y_predict"  


CONCLUSIONES

El "Mean Squared Error" (MSE) es útil para evaluar la precisión de un modelo de regresión. Un 23% de error sugiere relación entre Edad y Estado Civil. Sin embargo, para abordar violencia de género y feminicidio, el análisis de datos y programación son herramientas, pero insuficientes. Es crucial un compromiso activo de toda la sociedad y enfoque multidisciplinario que incluya educación, justicia y salud. El análisis de datos ayuda a entender a las víctimas y factores, pero la erradicación requiere colaboración y políticas efectivas para lograr una sociedad segura e igualitaria. La transformación social precisa esfuerzo conjunto en todos los niveles. Tecnología y enfoque holístico pueden proteger los derechos de las mujeres y promover respeto, igualdad y seguridad.
Arevalo Navarro Erick Wladimir, Universidad de Pamplona
Asesor: Ing. Cupertino Luna Trejo, Instituto Tecnológico Superior de Huauchinango

IMPACTO DEL DESARROLLO FULL STACK EN LOS APRENDIENTES DE LOS úLTIMOS TRES SEMESTRES DE LA CARRERA DE INGENIERíA EN SISTEMAS COMPUTACIONALES DEL ITSH


IMPACTO DEL DESARROLLO FULL STACK EN LOS APRENDIENTES DE LOS úLTIMOS TRES SEMESTRES DE LA CARRERA DE INGENIERíA EN SISTEMAS COMPUTACIONALES DEL ITSH

Arevalo Navarro Erick Wladimir, Universidad de Pamplona. Cruz del Angel Alan, Instituto Tecnológico Superior de Huauchinango. Asesor: Ing. Cupertino Luna Trejo, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La aplicación web de la papelería en línea de Huauchinango es una solución digital innovadora que ha transformado la forma en que los usuarios realizan compras de suministros de papelería. En un mundo cada vez más digitalizado, esta plataforma se ha convertido en una opción preferida para aquellos que buscan una experiencia de compra práctica y segura desde la comodidad de sus dispositivos móviles o computadoras. El catálogo de la aplicación ofrece una amplia gama de productos de papelería, que van desde útiles escolares hasta artículos de oficina y materiales de arte. Los clientes pueden navegar fácilmente por las diversas categorías y utilizar un sistema de búsqueda eficiente para encontrar rápidamente los productos que necesitan.



METODOLOGÍA

La implementación de la metodología Scrum en el proyecto de desarrollo web de venta de artículos de papelería se llevará a cabo con los siguientes roles: Product Owner: Dulce Abigail, quien será responsable de definir y priorizar los requisitos del proyecto en colaboración con las partes interesadas. Scrum Master: Erick Arevalo, encargado de facilitar el proceso Scrum, asegurar el seguimiento de las prácticas y eliminar obstáculos. Equipo de Desarrollo: Todos los miembros del equipo, responsables del diseño, desarrollo y pruebas del software. Los eventos en Scrum incluirán: Sprint Planning: Reunión al inicio de cada sprint (6 o 7 semanas) para seleccionar tareas del backlog y establecer objetivos. Daily Scrum: Reunión diaria breve para compartir progreso y abordar problemas. Sprint Review: Reunión al final de cada sprint para demostrar funcionalidades y recibir comentarios. Sprint Retrospective: Reunión para evaluar el desempeño y planificar mejoras. Los artefactos en Scrum serán: Product Backlog: Lista de requisitos funcionales y no funcionales, actualizada y priorizada por el Product Owner. Sprint Backlog: Lista de tareas seleccionadas para el sprint actual. Incremento: Entrega funcional y desplegable al final de cada sprint, con nuevas funcionalidades y mejoras. La implementación seguirá el siguiente proceso: El Scrum Master organizará la primera reunión de Sprint Planning para definir tareas del Sprint Backlog. Reuniones diarias de Daily Scrum para mantener alineado al equipo y eliminar obstáculos. Sprint Review al final de cada sprint para presentar avances y recibir retroalimentación. Sprint Retrospective para analizar el sprint y planificar mejoras para el siguiente. Con Scrum, buscamos mejorar la colaboración, enfoque en la entrega de valor y eficiencia en el desarrollo del proyecto, asegurando una experiencia satisfactoria para nuestros usuarios y la adaptabilidad necesaria en un mercado en constante evolución.


CONCLUSIONES

  Se ha logrado cumplir con el objetivo del proyecto teniendo como resultado un sitio web donde se pueden comprar de manera fácil productos de papelería sin tener que salir al punto en físico a comprar, el sitio web permite visualizar los productos que se encuentras disponibles así como las categorías con las que se cuentan, además de poder visualizar los productos se puede realizar un registro para poder realizar compras por distintos medios de pago como mercado pago y Paypal. Y se cuenta con un apartado para editar la información de usuario como correo, contraseña, dirección entre otros datos. Eso sería por el lado del cliente, para la parte de administración se cuenta con una interfaz donde se pueden ver, editar y agregar los productos y demás información necesaria para el sistema.
Argote Barrientos Jaime Adrián, Instituto Tecnológico Superior de Guanajuato
Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

OBTENCIóN Y DETERMINACIóN DE PROTEíNA HIDROLIZADA DE HARINA DE ACHETA DOMESTICUS, ALIMENTADOS CON DIFERENTES DIETAS, PARA CONSUMO HUMANO.


OBTENCIóN Y DETERMINACIóN DE PROTEíNA HIDROLIZADA DE HARINA DE ACHETA DOMESTICUS, ALIMENTADOS CON DIFERENTES DIETAS, PARA CONSUMO HUMANO.

Argote Barrientos Jaime Adrián, Instituto Tecnológico Superior de Guanajuato. Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La organización de las naciones unidas estima que para el 2050 la población mundial llegará a un pico de 9,700 millones aunado a que la producción de alimentos deberá incrementarse un 70%. Debido a que la fuente principal de proteína que el humano consume proviene de animales como; el ganado, gallinas, pescado, y el cerdo. Tan solo con la actividad ganadera que es una de las actividades económicas más importantes se estima que genera un 37% de gas metano al ambiente, el cual es un gas de efecto invernadero, además del uso de recursos hídricos y de espacio. Hoy en día se estima que al menos el 8.9 % de la población padece hambre, puede ser por varios factores como la mala distribución de alimentos o la pobreza en países subdesarrollados. Debido que se necesitan muchos recursos para la ganadería se busca nuevas fuentes de proteína que sean más amables con el medio ambiente y que puedan ser accesibles a personas en estado de vulnerabilidad, una alternativa a esta problemática es la entomofagia. El consumo de insectos constituye una fuente nutricional de proteínas, las cuales cumplen con los requerimientos de aminoácidos, ácidos grasos y minerales, que pueden contribuir a cubrir el requerimiento nutricional de las personas en cualquier etapa de vida. Los insectos son altos en contenido proteínico, va de un 35% a un 75%, el cual puede ser comparable a las fuentes actuales de proteína como la carne de pollo. El grillo común o grillo de casa (Acheta Domesticus) es un atractivo para investigación, hoy en día ya se encuentras harinas comerciales, pero no pasa de su sacrificio, secado, molienda para su empaquetado y su posterior venta, debido a que este grillo es omnívoro se pueden plantear diferentes dietas para averiguar cuál es la mejor opción para la cantidad e v lo que en este trabajo de investigación planteamos la hidrolisis de proteína por medio de enzimas ya que este proceso es el más empleado para generar péptidos con actividad biológica, los cuales tienen la capacidad de generar efectos fisiológicos que favorecen la salud del consumidor.



METODOLOGÍA

Para obtener un marco de referencia con posibles investigaciones futuras se realizó esta metodología con una harina comercial, para el hidrolizado de proteína se realizó en varias fases, controlando el pH, obteniendo extractos proteínicos, aislados proteínicos y finalmente un hidrolizado proteínico con dos tipos diferentes de enzimas como la tripsina y pepsina las cuales trabajan en pH alcalino y ácido respectivamente, la última fase se llevó a cabo en una incubadora durante 24 horas a una temperatura de 37°c. La cuantificación de proteína se llevó a cabo con el método Bradford (1976) con un colorante G-250 azul brillante comassie en un espectrofotómetro calibrado a 595nm. Para la hidrolisis enzimática se usaron dos enzimas digestivas la pepsina con un pH de 2 y la tripsina con un pH de 8, con una relación 1:20, durante 24 horas a 37°C y se cuantifico el líquido del sedimento para determinar cuanta proteína hidrolizó cada enzima. Para la cuantificación se realizó una curva de dispersión con una concentración conocida de proteína para obtener la ecuación de la línea de tendencia y comparar nuestros resultados por método Bradford con la muestra de concentración de proteína conocida.


CONCLUSIONES

En esta investigación se trató de comparar la muestra de harina comercial con otras dos muestras, obtenidas de dos poblaciones de grillos (Acheta Domesticus), que fueron criados y alimentados con dietas diferentes. Durante este proceso hubo varias limitantes, una población se pretendía alimentar exclusivamente solo con alimento fresco, más específicamente con frutas y hortalizas, simulando alimentarlos con desperdicio de verdulerías, pero esa población opto por el canibalismo y la cantidad de grillos se vio disminuida en gran cantidad, la otra población que fue alimentada con alimento para gallinas tuvo un buen desarrollo, pero no alcanzó su estado de madures para el momento del reporte de esta investigación, así que solo se presentaran los resultados obtenidos con la harina de grillo comercial. La ecuación que obtuvimos de acuerdo con la concentración conocida fue de y=0.3535x + 0.612 con un R2=.9918, siendo la variable x la concentración de proteína en mg/ml y la variable y la absorbancia. Al someter nuestro Aislado Proteínico a la cuantificación por método Bradford se obtuvo una absorbancia de 0.3635 el cual despejando la variable x de la ecuación obtenemos que: x= (0.3635-0.1612) / 0.3535 ⇒ la concentración de proteína es de x=0.572 mg/ml. por otra parte al momento de la hidrolisis de proteína por medio de enzimas se observa que la solubilidad decae en un pH asido, ya que al llegar a un ph4 la proteína solubilizada comenzaba a precipitarse y sedimentarse, lo que significa que al utilizar la enzima pepsina la cual su rango óptimo de trabajo es de pH 2 tenía poco sustrato, al medir el hidrolizado obtuvimos que la absorbancia con la pepsina es de 0.028 alcanzando así una hidrólisis completa ya que no hay estructuras cuaternarias o terciarias de proteínas , por ende es más parecido al blanco con el que se calibró el espectrofotómetro, en cambio con la tripsina obtuvimos una absorbancia de 0.218, obteniendo que aun después de la hidrolisis había 0.1695 mg/ml de proteína suspendida, que igualmente es un buen resultado pero en comparación en la hidrolisis con pepsina concluimos que la mejor opción con esta metodología.
Arias Aguilar Emmanuel, Instituto Tecnológico de Querétaro
Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO


DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO

Arias Aguilar Emmanuel, Instituto Tecnológico de Querétaro. Ceja Govea María Fernanda, Instituto Tecnológico de Estudios Superiores de Zamora. Gutiérrez Nava Martin Uriel, Instituto Tecnológico de Chilpancingo. Herrera Tovar Mariela, Instituto Tecnológico de Estudios Superiores de Zamora. Melgoza Tamayo Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Ríos Fuentes Karla Araceli, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los profesores en general tienen la necesidad de medir el aprendizaje de sus estudiantes. Para esto se piensa que una aplicación personalizable y gratuita pueda ayudar. Por supuesto existen muchas herramientas hoy en día, quizá la mas famosa sea Kahoot, sin embargo, en esa aplicación los estudiantes pueden responder sin necesidad de pensar en la respuesta, basta con oprimir cualquier botón. Otra forma de jugar mientras se mide el aprendizaje de los estudiantes es que ellos deban teclear la respuesta. En la aplicación se plantea realizar preguntas específicas por el profesor en el momento, y que así mismo las respondan los estudiantes, con esto se ayudará al aprendizaje constante de los estudiantes y se tendrán ventajas de mayor rendimiento.



METODOLOGÍA

La metodología utilizada consistió en una serie de pasos para creación de la aplicación web desde la planificación de las tecnologías utilizadas. 1. Recopilación de requerimientos con el cliente Se tuvo una reunión con el cliente para conocer el tipo de proyecto en el cual se estaría trabajando durante la estancia, a su vez se plantearon los requerimientos importantes para un buen desarrollo de la aplicación. En este caso, el cliente fue una profesora. 2. Planteamiento y estudios de las tecnologías Se realizó un análisis de diferentes tecnologías, con la finalidad de seleccionar y estudiar las que sean más acordes al tipo de proyecto y requerimientos que fueron planteados por el cliente. 3.Asignación de equipos de trabajo Se realizó el análisis de las actividades a realizar en el desarrollo de la aplicación y se asignaron equipos de trabajo y actividades para cada uno. 4. Creación de tablero de trabajo Se creó un tablero con las actividades asignadas con anterioridad para poder tener definidas las actividades, metas y avances durante el desarrollo. 5. Realización del prototipo de baja fidelidad Con los integrantes de los equipos de trabajo compuestos por dos integrantes en cada uno, se diseñaron las interfaces de cada una las pantallas de la aplicación web 6. Creación del modelo entidad- relación Se diseñó y se discutió el modelo entidad-relación con el propósito de definir los datos requeridos de acuerdo a la necesidad de la aplicación 7. Creación e implementación de la base de datos Se realiza creación de la base de datos con ayuda del diagrama entidad-relación 8. Conexión de base de datos Se realiza la conexión de la base de datos back-end y front-end 9. Implementación de Front-end Con ayuda mediante los prototipos de baja fidelidad la creación de front-end de las pantallas de la aplicación web. 10. Implementación de Back-end Se agregó la funcionalidad de las pantallas y el quiz con el uso de la base de datos. Resultados finales Se realizan las implementaciones correspondientes para la creación de de la aplicación web para su total funcionalidad.  


CONCLUSIONES

Este trabajo de investigación se implementó una aplicación web para impulsar el aprendizaje en estudiantes durante sesiones en línea, se concluyó con una aplicación web remasterizada con un diseño más dinámico y con funciones adicionales a las proporcionadas en el inicio del proyecto. La siguiente parte del proyecto consistirá en hacer análisis del uso de esta aplicación considerando distintos tipos de usuarios y grupos.
Arias Castellanos Juan Carlos, Universidad de Colima
Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua

MAPAS DE RIESGO DE INUNDACIóN ANTE EL CASO HIPOTéTICO DE ROTURA DE LA PRESA DE YOSOCUTA


MAPAS DE RIESGO DE INUNDACIóN ANTE EL CASO HIPOTéTICO DE ROTURA DE LA PRESA DE YOSOCUTA

Arias Castellanos Juan Carlos, Universidad de Colima. Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

INTRODUCCIÓN Una inundación se define como aquel evento que, debido a la precipitación, oleaje, marea de tormenta, o falla de alguna estructura hidráulica provoca un incremento en el nivel de la superficie libre del agua de los ríos o el mar mismo, generando invasión o penetración de agua en sitios donde usualmente no la hay y generalmente, daños en la población, agricultura, ganadería e infraestructura. Las inundaciones por falla de infraestructura hidráulica son las más graves de todas, ya que el beneficio obtenido a lo largo del tiempo se multiplicaría en cuestión de horas. Para prevenir estas complicaciones existen las medidas estructurales y las medidas no estructurales, una de las cuales son los mapas de riesgo por inundaciones, que se define como representaciones por medio de una base cartográfica, en los cuales se plasma la probabilidad de incidencia de un evento, sus características e intensidades, así como la manera en que impactan los sistemas afectables, principalmente caracterizados por la actividad humana. (Salas Salinas & Jiménez Espinosa, 2004).   OBJETIVOS Objetivo general ● Generar mapas de riesgo por inundación ante la rotura de la presa Yosocuta utilizando los Sistemas de Información Geográfica (SIG) y el geoprocesamiento de la información. Objetivos específicos ● Realizar geoprocesamientos para obtener la información necesaria para la construcción de los mapas de riesgo. ● Generar los mapas de peligro y vulnerabilidad por inundación utilizando la información y criterios establecidos. ● Aplicar el modelo de rotura de la presa Yosocuta para estimar el riesgo de inundación. MARCO NATURAL Esta obra se ubica en las coordenadas 17° 43’ 32 latitud norte y 97° 49’ 36 longitud oeste de Greenwich, sobre el río  Huajuapan  afluente  del río Salado, formador del río Mixteco que a su vez contribuye a la formación del río Atoyac, Poblano o Balsas en la cuenca parcial del Alto Balsas. Esta presa se localiza en la Ranchería de San Francisco Yosocuta del Municipio de San Marcos Arteaga, Distrito de Huajuapan de León, Oaxaca.    



METODOLOGÍA

MARCO PRÁCTICO Procesamiento de información Mediante el programa IBER se generó un geoprocesamiento del caso hipotético de la rotura de la presa de Yosocuta, mediante los datos generados, se pudo acceder a velocidades y tirantes de las zonas afectadas, así como tiempo de respuesta. Con los datos obtenidos se pudo construir una grafica de centroides de cada polígono generado tanto de velocidades como tirantes y así seguir con una gráfica que delimita el nivel del riesgo, para poder determinar su amenaza.   Mapa de Amenaza de Inundación Mediante lo dicho  anterior se generaron  más de 110 000 puntos que analizar, clasificándolos según la gráfica en amenazas con amenaza baja, amenaza media, amenaza grave, en la zona afectada por los polígonos analizados de calados y velocidades. Mapas de Vulnerabilidad de Inundación En este proceso se analizó a la población que podría ser afecta ante esta falla, se siguió el criterio de articulo de (Reyes, Adame y Cadena, 2018) donde estipulan parámetros de vulnerabilidad en base a indicadores.  


CONCLUSIONES

RESULTADOS Mapa de Amenaza de Inundación Mediante las geolocalizaciones de los centroides de los polígonos de los ráster de velocidades y calados, se representó los puntos, mediante la gráfica anterior se clasificaron el riesgo de amenaza, dando amenaza alta (rojo), amenaza media (naranja), amenaza baja (amarillo) y se expresó en un mapa de amenaza de inundación. Mapa de vulnerabilidad de Inundación Mediante los indicadores calculados se hizo la clasificación por rangos dando, cinco tipos de, siendo de predominancia la vulnerabilidad media y vulnerabilidad alta. Mapa de riesgo de inundación Con los mapas generados, se logró hacer un análisis de amenaza y vulnerabilidad, el conjunto de estas dos variables dio como resultado el mapa de riesgo de inundación. Este nivel de riesgo representa una afectación al patrimonio de los ciudadanos urbanos en una pérdida económica estimada de 78,485,245.26 de pesos y una afectación a la agricultura de los ciudadanos rurales de 911,106.56 de pesos. Se tiene como indicador del mapa de riesgo de inundación el criterio de porcentaje de perdida del patrimonio por vivienda. Riesgo Alto - 100% de perdida de patrimonio Riesgo Medio - 50% de perdida de patrimonio Riesgo Bajo - 50% de perdida de patrimonio Mediante la delimitación de las áreas agrícolas afectadas se contó con un área total de 15.5 hectáreas en riesgo de inundación, 5.16 hectáreas por cada cultivo. Mediante datos de la Secretaria de Medio Ambiente y Recursos Naturales y la Comisión Nacional del Agua se obtuvieron rendimientos de cada cultivo en el estado de Oaxaca y estados cercanos para llegar a una  estimación de patrimonio agrícola perdido de manera económica por hectárea que afectariá directamente a la población agrícola de la zona. Se tiene como indicador del mapa de riesgo de inundación el criterio de porcentaje de perdida del patrimonio por agricultura. Riesgo Alto - 100% de perdida de patrimonio Riesgo Medio - 100% de perdida de patrimonio Riesgo Bajo - 100% de perdida de patrimonio CONCLUSIONES La prevención de inundaciones es una cuestión de vital importancia debido a las graves consecuencias que estos eventos pueden tener, no solo en términos económicos, sino también en la pérdida de vidas humanas. Las comunidades más vulnerables suelen ser las más afectadas, ya que pueden carecer de recursos para enfrentar adecuadamente las inundaciones y para recuperarse después del desastre. Durante este verano de investigación aprendí mucha metodología en el área de hidráulica, tanto análisis de datos, interpretación de datos, representación de los mismos. Programas nuevos en mi área como Qgis, IBER.  Nota. este resumen se entendería mejor si pudiera adjuntar los mapas, tablas realizadas  
Arias Marulanda Ana Paula, Servicio Nacional de Aprendizaje SENA - Regional Risaralda
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

ANáLISIS DEL LIDERAZGO ORGANIZACIONAL EN LAS PYMES DE BALANCáN, TABASCO.( LA INFLUENCIA DEL LIDERAZGO EN EL DESEMPEñO DEL CAPITAL HUMANO DE LAS MIPYMES).


ANáLISIS DEL LIDERAZGO ORGANIZACIONAL EN LAS PYMES DE BALANCáN, TABASCO.( LA INFLUENCIA DEL LIDERAZGO EN EL DESEMPEñO DEL CAPITAL HUMANO DE LAS MIPYMES).

Arias Marulanda Ana Paula, Servicio Nacional de Aprendizaje SENA - Regional Risaralda. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Partiendo de lo conocido, se dice que las MiPymes son clasificadas en micro, pequeña y medianas empresas,a raíz de esto se desea  identificar el impacto de liderazgo que hay en el sector industrial del municipio de balancán-Tabasco, pero a continuación  habrá información acerca de las MiPymes a nivel mundial, nacional y por ultimo local.  Las MiPymes a nivel 7 se han posicionado como el motor de desarrollo en todos los campos económicos, generando entre el 60% y el 70% de los empleos, y su actividad es responsable del 50% del PIB global. Las MIPymes representan el 90% de las empresas, ya que tienen el potencial de transformar las economías, fomentar la creación de empleo y promover un crecimiento económico equitativo si reciben el apoyo necesario. Así mismo en México, en cuanto a la constitución de las empresas, las microempresas representan un 94% del total establecida en este país, las pymes representan más del 5% y las grandes empresas representan menos del 1%. De lo anterior se nota que las pymes generan un mayor rendimiento en la economía y generación de empleo, a pesar de carecer de avances tecnológicos en comparación con las grandes empresas.  Ahora bien, partiendo de Las MiPymes en el municipio de Balancán, estas  representan la mayor fuente de ingresos para las familias balancenses. Sin embargo, muchas de estas pequeñas y medianas empresas pierden grandes oportunidades empresariales debido a muchos factores, entre ellas la falta de relación y comunicación líder-empleados. por ende la falta de motivación del personal genera un impacto en el rendimiento productivo laboral y como consecuencia la pérdida de oportunidades de llevarlas a un nivel más alto, a causa del liderazgo orientado en las mipymes del municipio de Balancán Tabasco. Esta investigación busca demostrar el papel que desarrollan los líderes en la influencia del capital humano y como permite la mejora continua en la organización.



METODOLOGÍA

Para el comienzo de la investigación del proyecto, empezamos a construir las generalidades, utilizando reseñas o investigaciones relacionadas con el liderazgo, además de la justificación, objetivos entre otros puntos relevantes. Luego proseguimos a el marco teórico y todo lo relacionado con autores y  su definición, luego continuamos con las construcción los instrumentos de medición para su aplicación en las MiPymes de Balancan, Tabasco y por ultimo los resultados esperados para la conformación de las estrategias referidas a los objetivos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de las definiciones del liderazgo y sobre todo su evolución y como se  ah visto hasta la actualidad, a demás de conocer la importancia y la influencia que genera un buen liderazgo en la organización, incluso observar la reacción de los trabajdores y como es su sentir encuanto a la persona que los dirige, por esto la importancia de un buen liderazgo, permitiendo el éxito de la organización y un buena clima laboral.
Arias Mendoza Jesús Esteban, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora

REINVENCIÓN DE HERRAMIENTAS PARA LA SEGURIDAD COTIDIANA, PRODUCCIÓN Y CONSUMO RESPONSABLES.


REINVENCIÓN DE HERRAMIENTAS PARA LA SEGURIDAD COTIDIANA, PRODUCCIÓN Y CONSUMO RESPONSABLES.

Arias Mendoza Jesús Esteban, Instituto Tecnológico de Estudios Superiores de Zamora. Cortez Navarro Francisco Ja Vier, Instituto Tecnológico de Estudios Superiores de Zamora. Molina Sales Miguel Angel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

DENTRO DE NUESTRO DÍA A DÍA ENCONTRAMOS COMO INVESTIGADORES NUMEROSOS CAMPOS DE REINVENCIÓN PARA MEJORAR EN TODOS LOS ASPECTOS NUESTRAS VIDAS, UNO DE LOS MÁS IMPORTANTES DESDE NUESTROS INICIOS CÓMO CIVILIZACIÓN HA SIDO LA BUSQUEDA DE TRANQULIDAD CREADA A PARTIR DE LA SEGURIDAD.   EL EQUIPO EN FUNCIÓN SE ENCUENTRA IDENTIFICACANDO DE QUE MANERA SE PUEDEN REALIZAR ,FUNCIONALMENTE Y CON PRESUPUESTOS QUE SE AJUSTEN AL PARAMETRO DADO,  PRÁCTICAS DE SEGURIDAD PARA IMPLEMENTAR EN NUESTRO ENTORNO. COMENZAREMOS POR DEFINIR LA PALABRA SEGURIDAD.   LAS CERRADURAS AUTOMÁTICAS HAN EXPERIMENTADO UN CRECIENTE INTERÉS EN LOS ÚLTIMOS AÑOS DEBIDO A SU CAPACIDAD PARA MEJORAR LA SEGURIDAD Y COMODIDAD EN EL ÁMBITO RESIDENCIAL Y COMERCIAL. ESTAS CERRADURAS UTILIZAN TECNOLOGÍAS AVANZADAS, COMO LA BIOMETRÍA, LA CONECTIVIDAD INALÁMBRICA Y LOS SISTEMAS DE CONTROL REMOTO, PARA PROPORCIONAR UN ACCESO SEGURO Y CONVENIENTE A LAS PROPIEDADES. ESTA REVISIÓN DE LITERATURA TIENE COMO OBJETIVO EXAMINAR LAS INVESTIGACIONES MÁS RECIENTES SOBRE EL DESARROLLO Y LAS APLICACIONES DE LAS CERRADURAS AUTOMÁTICAS, CENTRÁNDOSE EN SU FUNCIONAMIENTO, CARACTERÍSTICAS DE SEGURIDAD, VENTAJAS Y DESAFÍOS.



METODOLOGÍA

DE ACUERDO A LA AGENDA 2030 PUBLICADA POR LA ORGANIZACIÓN DE LAS NACIONES UNIDAS EL CONSUMO Y LA PRODUCCIÓN MUNDIALES (FUERZAS IMPULSORAS DE LA ECONOMÍA MUNDIAL) DEPENDEN DEL USO DEL MEDIO AMBIENTE NATURAL Y DE LOS RECURSOS DE UNA MANERA QUE CONTINÚA TENIENDO EFECTOS DESTRUCTIVOS SOBRE EL PLANETA. EL PROGRESO ECONÓMICO Y SOCIAL CONSEGUIDO DURANTE EL ÚLTIMO SIGLO HA ESTADO ACOMPAÑADO DE UNA DEGRADACIÓN MEDIOAMBIENTAL QUE ESTÁ PONIENDO EN PELIGRO LOS MISMOS SISTEMAS DE LOS QUE DEPENDE NUESTRO DESARROLLO FUTURO (Y CIERTAMENTE, NUESTRA SUPERVIVENCIA). EL CONSUMO Y LA PRODUCCIÓN SOSTENIBLES CONSISTEN EN HACER MÁS Y MEJOR CON MENOS. TAMBIÉN SE TRATA DE DESVINCULAR EL CRECIMIENTO ECONÓMICO DE LA DEGRADACIÓN MEDIOAMBIENTAL, AUMENTAR LA EFICIENCIA DE RECURSOS Y PROMOVER ESTILOS DE VIDA SOSTENIBLES. EL CONSUMO Y LA PRODUCCIÓN SOSTENIBLES TAMBIÉN PUEDEN CONTRIBUIR DE MANERA SUSTANCIAL A LA MITIGACIÓN DE LA POBREZA Y A LA TRANSICIÓN HACIA ECONOMÍAS VERDES Y CON BAJAS EMISIONES DE CARBONO. DICHO ÉSTO SE INTENTA LOGRAR UN USO ERGONÓMICO Y SIMPLE. SE UTILIZARAN COMPONENTES DE BAJO COSTO, AMABLES CON EL MEDIO AMBIENTE, RECICLABLES Y DE FÁCIL MANTENIMIENTO. AL ENGLOBAR LOS OBJETIVOS A ALCANZAR CON ESTA INVESTIGACION SE PREVEE GENERAR UTENCILIOS DE USO DIARIO REPARABLES Y CON UNA VIDA UTIL MUY ACEPTABLE.   SERÁ UN EQUIPO DE SEGURIDAD QUE ESTARÁ DE PARTE DEL CONSUMIDOR PARA RESOLVER SU PROBLEMATICA AL MANETENER SUS PUERTAS CON UN SISTEMA ESTABLE Y CONFIABLE. ANTE LA PROBLEMÁTICA DE EXTRVIO DE LLAVES NUESTRA CERRADURA SERÁ PARTE VITAL Y UNA DE LAS ESTRATEGIAS DE MERCADEO PARA QUE SEA UN PRODUCTO EXITOSO.   SE UTILIZARÁ UNA CERRADURA  Y UNA PUERTA SIMPLE, COMÚN Y CORRIENTE. CÓMO REQUISITOS ADICIONALES SE USARA UN MECANISMO DE CARGA, QUE USARÁN LOS COMPONENTES DIGITALES. EL MONTAJE SE RELIZARA DENTRO DE LA MISMA CORAZA DE LA CERRADURA SIN MÁS CABLEADO QUE EL QUE SE USA DENTRO DEL ARDUINO Y LA ALIMENTACIÓN ENERGÉTICA DEL MISMO.


CONCLUSIONES

EN RESUMEN, DESTACA QUE LAS CERRADURAS AUTOMÁTICAS SON UNA OPCIÓN PROMETEDORA PARA MEJORAR LA SEGURIDAD Y LA COMODIDAD EN EL ACCESO A PROPIEDADES RESIDENCIALES Y COMERCIALES. A PESAR DE LOS DESAFÍOS MENCIONADOS, LA TECNOLOGÍA CONTINÚA AVANZANDO EN TÉRMINOS DE SEGURIDAD, CONECTIVIDAD Y FACILIDAD DE USO. PARA FUTURAS INVESTIGACIONES, ES IMPORTANTE ABORDAR LAS PREOCUPACIONES DE SEGURIDAD Y GARANTIZAR LA INTEROPERABILIDAD CON OTROS SISTEMAS INTELIGENTES EN EL HOGAR. ADEMÁS, ES NECESARIO CONSIDERAR LA ACEPTACIÓN Y ADOPCIÓN POR PARTE DE LOS USUARIOS, ASÍ COMO LAS IMPLICACIONES LEGALES Y ÉTICAS RELACIONADAS CON EL USO DE DATOS BIOMÉTRICOS EN LAS CERRADURAS AUTOMÁTICAS.
Arias Renteria Maximiliano, Universidad de Guadalajara
Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISPOSITIVO DE EMBOTELLADO UNIFORME ENFOCADO EN VINO ARTESANAL.


DISPOSITIVO DE EMBOTELLADO UNIFORME ENFOCADO EN VINO ARTESANAL.

Arias Renteria Maximiliano, Universidad de Guadalajara. Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En la vinicultura existe todo un sector que no esta industrializado, que conserva las tradiciones originales en la producción de pisco, y, por lo tanto, los procesos de éstos son artesanales o rústicos. Sin embargo, el mercado enfocado en este sector crece en gran medida y los fabricantes se enfrentan a demanda de producto que excede su capacidad con las herramientas rudimentarias que suelen utilizar. Este no es el único problema que encaran, existen otros en la producción; como pérdidas por escasa precisión o el tiempo de transformación de la materia prima hasta el producto final. La mayor problemática que presenta el empresario en cuestión es un sistema con graves desventajas en la etapa de embotellado del vino. Principalmente no cuenta con ninguna herramienta mas que un embudo y el contenedor de vino. Lo cual representa que el operario vierte el fluido del contenedor hacia la botella, y resulta en proporciones volumétricas desiguales entre los productos finalizados. Un aspecto para resaltar es que el microempresario no cuenta con un capital tan grande dedicado a este proyecto, por lo que se tendrá que optimizar el diseño.



METODOLOGÍA

En la primera etapa del desarrollo, se mostró a detalle las necesidades del empresario, y consecuentemente se llevo a cabo una lluvia de ideas, para comenzar a determinar una solución a la problemática. Con el uso de herramientas de diseño tridimensional asistido por computadora, como SolidWorks, comenzó la fase de diseño. En la cual se realizaron múltiples soluciones, comenzando con la mas simple y conceptual, hasta desarrollarla contemplando aspectos como la fabricación, la estructura e integridad de las piezas. La primera propuesta que se desarrolló consta de un sistema electromecánico semiautomatizado, ésta en planteamiento es simple, pero en elaboración se convierte en algo complejo. Consta de una estación de pre-llenado donde se mesura el volumen de fluido en función de la altura, después se dirige a la estación de llenado donde se vierte el fluido al envase final. Las dos de etapas del sistema están regulados por un par de electroválvulas, una controla el paso del contenedor principal hacia la estación de pre-llenado; y detiene el flujo con la ayuda de un sensor de nivel previamente calibrado. En el apartado del control, el sensor de nivel es la primera parte de una secuencia de dos actuadores, el otro será un sensor de peso extensiométrico, que permitirá conocer el estado de llenado del vino dentro de la botella. Este dictará el momento de conmutación de la electroválvula que permitirá el flujo de vino hacia su destino último. Durante el desarrollo de esta propuesta, se convertía en algo cada vez mas complejo de realizar y aumentaba la cantidad de componentes necesarios, por lo que se optó por repetir el proceso desde el inicio y buscar una solución nueva, más simple y práctica. Para el cual, se dictó la propuesta de diseño definitiva. Ésta se encuentra enfocada en solo una de las múltiples fases de la producción industrial de vino; el embotellado o llenado. Éste es un ensamble simple, con piezas que son sólidos de revolución y que deben ser maquinados en acero inoxidable con la ayuda de un torno y una fresadora. Creado eficazmente para su simplicidad en armado y mantenimiento, así como para evitar cualquier clase de derrame o desperdicio. Diseño simplificado, de bajo costo, que aprovecha la presión atmosférica ejercida sobre el fluido en un contenedor expuesto, y que ésta imparta energía al vino canalizando la dirección hacia una válvula específicamente dispuesta para que detenga la inserción del líquido a determinada altura, en función de la distancia de la boquilla a un arreglo de aberturas en la punta de la válvula. Sistema eficiente en materia de higiene, porque la misma válvula impide las perdidas o derrames gracias a la corredera impulsada por la tensión del resorte. También se le puede considerar como un sistema semiautomático, por que el operario simplemente insertara la válvula en el cuello de la botella y esta se encargara de todo lo demás.


CONCLUSIONES

Gracias a la estancia de verano se adquirieron conocimientos avanzados en desarrollo de proyectos, específicamente aquellos que entran en rubros como la Mecánica de Fluidos y CFD, así como el Diseño mecánico y Transferencia de calor y masa. El proyecto en cuestión inició sin ningún planteamiento preliminar y se desarrolló continuamente con diversas propuestas de solución, hasta analizar un modelo real en el que se toma en cuenta la fabricación y el ensamblado, por último, el proyecto llego hasta la etapa de prototipado.
Arias Rico Monserrath, Instituto Tecnológico de Morelia
Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE MATERIALES DE M*MOW SOPORTADOS EN NB-SBA-15 UTILIZANDO áCIDO CíTRICO COMO AGENTE QUELANTE (M* = NI, CO, FE, RU)


SíNTESIS DE MATERIALES DE M*MOW SOPORTADOS EN NB-SBA-15 UTILIZANDO áCIDO CíTRICO COMO AGENTE QUELANTE (M* = NI, CO, FE, RU)

Arias Rico Monserrath, Instituto Tecnológico de Morelia. Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Existen normativas ambientales que exigen la producción de combustibles más ligeros y más limpios, la norma NOM-086 (2006) restringe las ppm de azufre máximo que tiene que contener la gasolina y el Diesel, siendo 80 ppm el contenido máximo de azufre. En el proceso de hidrodesulfuración (HDS) son utilizados catalizadores que permiten alcanzar dichas concentraciones, esto se debe a que se eliminan moléculas de azufre de baja reactividad, esto debido a que HDS es un proceso de eliminación catalítica de azufre en el petróleo.  Durante el desarrollo de la investigación se trabajará con catalizadores heterogéneos, y estos se pueden distinguir dos tipos, los catalizadores másicos y los soportados. Los catalizadores másicos son aquellos en los que la fase activa constituye el conjunto del catalizador, y los catalizadores soportados constituyen la parte más importante de los catalizadores heterogéneos y son los que tienen el mayor impacto económico, especialmente en procesos de refinado e industria química. Los catalizadores soportados son catalizadores heterogéneos en los cuales pequeñas cantidades de material catalíticamente activo, sobre todo metales, se depositan en la superficie de otro material, normalmente un sólido inerte poroso, llamado soporte, siento este último el tipo de catalizador con el que se trabajara. 



METODOLOGÍA

Para este proyecto se sintetizaron dos soportes de Nb-SBA-15 los cuales están hechos a base de Pluronic P-123 (polyethylene glycol -block- polypropylene glycol -block- polyethylene glicol), TEOS (tetraethyl orthosilicate al 98%), Ácido Clorhídrico (HCl) y Niobio (Nb). En estos soportes se impregnaron cuatro soluciones a base de diferentes metales, en las cuales se usó el ácido cítrico como agente quelante, además, se busca que las soluciones a impregnar tengan un pH específico, en nuestro caso pH 9, ya que se ha comprobado que de esta manera se obtiene mejores resultados, y esto se lograba al adicionar amonio y agua en un volumen total de 25 ml. Una vez sintetizado y teniendo listo el soporte se mide el nivel de impregnación del soporte, ya que este es el volumen máximo de solución que el soporte podría recibir para que este solo quede húmedo, y para medir este volumen de impregnación, procedemos con la ayuda de una pipeta y agua a humedecer nuestro soporte gota a gota mientras se mezclaba cuidadosamente hasta observar que el soporte ha quedado humedecido en su totalidad sin quedar demasiado mojado, y simplemente la cantidad de mililitros de agua que se depositaron en el soporte es el volumen de impregnación.  Después de medir el volumen de impregnación el soporte es llevado a una estufa en la cual se dejará para mantenerlo seco hasta ser impregnado con la solución, la impregnación se hará en 1 gr de soporte respetando el volumen de impregnación de cada uno de estos soportes, posteriormente a la impregnación se somete a una calcinación y ahora si nuestro soporte está listo para pasar a la parte de caracterización, en nuestro caso DRX.     


CONCLUSIONES

Las muestras obtenidas han sido enviadas a un centro de investigación en la ciudad de Querétaro para hacer el análisis de DRX. 
Aristizabal Lopez Danna Katherine, Colegio Integrado Nacional Oriente de Caldas
Asesor: Dra. Berta Ermila Madrigal Torres, Universidad de Guadalajara

DESAFíOS LEGALES Y ADMINISTRATIVOS PARA FORMALIZAR LA EMPRESA: CASO CAFé COLOMBIA


DESAFíOS LEGALES Y ADMINISTRATIVOS PARA FORMALIZAR LA EMPRESA: CASO CAFé COLOMBIA

Aristizabal Lopez Danna Katherine, Colegio Integrado Nacional Oriente de Caldas. Asesor: Dra. Berta Ermila Madrigal Torres, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Se enfoca en los desafíos legales y administrativos que enfrenta una empresa de café en Colombia al formalizarse. Se busca analizar los procesos y requisitos necesarios para cumplir con la formalización, identificar los obstáculos en el camino y proporcionar recomendaciones para superarlos. ¿POR QUE EL REGISTRO? Existen varias razones importantes por las cuales es fundamental hacer el registro de una empresa de café en Colombia. Cumplimiento legal: El registro de la empresa es un requisito legal en Colombia.  Acceso a derechos y beneficios: Al registrar tu empresa de café, obtienes una serie de derechos y beneficios legales. Generación de confianza y credibilidad: El registro de la empresa brinda confianza y credibilidad tanto a tus clientes como a tus proveedores. Protección de tus derechos como empresario: Al registrar tu empresa, te aseguras de proteger tus derechos como empresario.  Cumplimiento de requisitos fiscales y tributarios: El registro de la empresa te permite cumplir con las obligaciones fiscales y tributarias establecidas por las autoridades colombianas. Esto implica obtener un Número de Identificación Tributaria (NIT), registrarte ante la Dirección de Impuestos y Aduanas Nacionales (DIAN) y cumplir con los pagos de impuestos correspondientes.  



METODOLOGÍA

Cuantitativa y Descriptiva   Revisión bibliográfica exhaustiva de la literatura relacionada con los obstáculos que han enfrentado las empresas a la hora de legalizarlas Entrevistas y encuestas con expertos en la legalización de las empresas en Colombia. Recopilación de datos cuantitativos del análisis de datos de las empresas que han formalizado sus empresas. Se utilizará un análisis de caso para ilustrar la importancia de la legalización de las empresas Entrevistar a emprendedores y empresarios que han enfrentado obstáculos en el proceso de formalización, con el objetivo de recopilar sus experiencias y obtener información detallada sobre los desafíos específicos que han enfrentado.


CONCLUSIONES

•       En resumen, la formalización de una empresa de café en Colombia implica enfrentar desafíos legales y administrativos que deben ser abordados de manera adecuada. Estos desafíos van desde cumplir con la normativa legal y los requisitos de calidad hasta gestionar aspectos laborales y fiscales. Sin embargo, la formalización trae consigo una serie de beneficios, como el acceso a derechos y beneficios legales, generación de confianza y credibilidad, protección de los derechos del empresario y acceso a financiamiento y apoyo empresarial.   •       La investigación realizada a través de una metodología cuantitativa y descriptiva ha permitido identificar y analizar en detalle estos desafíos, proporcionando información valiosa para los emprendedores y legisladores. Los resultados de esta investigación contribuirán al fortalecimiento del entorno empresarial y promoverán la formalización de empresas en el sector cafetero en Colombia. Además, se generarán recomendaciones prácticas y aplicables que podrán ser utilizadas por los emprendedores y las autoridades pertinentes para fomentar el crecimiento y la sostenibilidad de las empresas de café en el país.   DESAFIOS MAS COMUNES POR LOS CUALES UNA EMPRESA NO LOGRA LEGALIZARCE EN COLOMBIA Costos asociados: Los costos asociados con la legalización, como tarifas de registro, honorarios legales y otros gastos administrativos, pueden ser altos para algunos emprendedores, especialmente aquellos con recursos financieros limitados. Infraestructura y recursos limitados: En áreas rurales o en pequeñas comunidades, la falta de infraestructura y recursos puede dificultar el acceso a servicios gubernamentales y asesoramiento profesional necesario para la legalización. Condiciones económicas y financieras: Las condiciones económicas y financieras pueden influir en la capacidad de los emprendedores para legalizar su empresa de café, especialmente si el acceso a financiamiento es escaso o costoso. Falta de capacitación y asesoramiento: Los emprendedores pueden enfrentar dificultades para encontrar información y asesoramiento adecuado sobre el proceso de legalización, lo que puede llevar a errores y malentendidos. Cumplimiento de normativas específicas del sector cafetero: La industria del café puede estar sujeta a regulaciones específicas relacionadas con la calidad, la seguridad alimentaria, el comercio justo y la sostenibilidad, entre otros aspectos, lo que puede requerir un cumplimiento adicional por parte de los emprendedores. Obstáculos culturales y sociales: En algunas comunidades, pueden existir obstáculos culturales o sociales que dificulten la aceptación de la formalización de empresas, lo que podría influir en la decisión de algunos emprendedores. Es importante que los emprendedores estén bien informados, busquen asesoría profesional y se preparen adecuadamente para enfrentar los desafíos que surgen en el proceso de legalización de una empresa de café. La planificación cuidadosa y la búsqueda de apoyo adecuado pueden ayudar a superar estos desafíos y lograr la legalización exitosa de la empresa.
Aristizabal Noreña Sebastian, Servicio Nacional de Aprendizaje SENA - Regional Caldas
Asesor: Dra. María Juliana Cardona Márquez, Universidad Autónoma de Manizales

SISTEMA HíBRIDO DE GENERACIóN DE ENERGíA ELéCTRICA A TRAVéS DE BOMBEO FOTOVOLTAICO Y MICRO CENTRAL HIDROELéCTRICA EN EL PREDIO EL EDéN DE LA CENTRAL HIDROELéCTRICA DE CALDAS – CHEC


SISTEMA HíBRIDO DE GENERACIóN DE ENERGíA ELéCTRICA A TRAVéS DE BOMBEO FOTOVOLTAICO Y MICRO CENTRAL HIDROELéCTRICA EN EL PREDIO EL EDéN DE LA CENTRAL HIDROELéCTRICA DE CALDAS – CHEC

Aristizabal Noreña Sebastian, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Asesor: Dra. María Juliana Cardona Márquez, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

El cambio climático y el proceso por el cual atravesamos desde nuevas perspectivas de conciencia ambiental, está permitiendo que se adhieran nuevas miradas a temas que nos favorezcan como comunidad. Es así como surgen desde la innovación y sostenibilidad nuevas maneras de generar energía eléctrica y desde allí, estos modelos híbridos, como el que se muestra en el proyecto El Eden, y que resuelven la dificultad que se presentan en algunas zonas no interconectadas las cuales, proporcionan recursos naturales que pueden autogenerar energía eléctrica. Esta investigación fomenta también la forma de poder dar remuneración a sectores que se encuentren en proceso de crecimiento frente a las energías renovables y más específicamente la solar.   Es así, como durante la pasantía delfín, logramos simular datos específicos desde cada elemento del medio ambiente que interviene en el diseño e instalación del sistema solar fotovoltaico y el hidráulico, la resistividad de los equipos y la eficiencia desde la radiación del área; solo fueron algunos de los datos que nos mostraban el camino a seguir para darle una mayor exactitud, y así, disminuir los riesgos de cualquier tipo.



METODOLOGÍA

Se usaron en primera instancia recolección de datos, análisis de los mismos a través de recursos como el PVsys, Excel, bases de datos, entre otros. Todo fue direccionado a través del modelo de maduración tecnológica el cual se encontraba requiriendo alimentar nuevos elementos que debían ser sustituidos, por lo cual se pudo también apoyar en el proceso de memoria descriptiva y algunos otros elementos que corresponden a la ingeniería conceptual. Se comenzaron a desarrollar tareas primero relacionadas con la influencia de la temperatura, la radiación solar, la irradiancia, la latitud, longitud y altitud, con el fin de reconocer desde la simulación y el análisis, la favorabilidad en que pueda incurrir estas variables, a cada uno de los elementos del sistema que se quiere instalar. Se simuló también a partir de la adecuada inclinación de los paneles, analizándolo desde algunos detalles a través de los planos de la estructura que los sostiene. Para que este proceso se pudiera ubicar en un área específica, se tomó la potencia instalada empezando a dimensionar como quedarían los tomas y las luminarias que se observaron en los planos eléctricos. El plano eléctrico, el cuadro unifilar y los diferentes diagramas, fueron transmitiendo mayor comprensión frente a lo requerido desde cada elemento para su construcción; esto a partir desde la bocatoma hasta su ubicación en los tanques donde finaliza el sistema de bombeo solar el cual se transforma en energía hidráulica, por caída de gravedad, para entregarle electricidad a la casa guardabosques durante la noche, como sistema de baterías. La novedad de la iniciativa y la forma de construirse cada una de las ideas y elementos por medio del modelo de maduración tecnológica, fue una cercanía para la comprensión de una mejor relación con la sostenibilidad y los procesos que ofrece, como la posibilidad de una energía limpia como la solar e hidráulica, que en su fusión van dando camino de recuperación ambiental.


CONCLUSIONES

Mi experiencia se enriqueció desde las bases técnicas, a través del conocimiento y la comprensión necesaria para la instalación de un sistema solar hibrido y su dimensión. Desde mi perspectiva como psicólogo, dejando claro que debemos mejorar la relación con el ambiente, para que este deba y pueda ser transitado, el proceso, la pasantía y cada uno de los compañeros y cursos, enriquecieron enormemente mis conceptos metodológicos sobre la investigación.
Ariza Estrada Yoiner David, Universidad de la Guajira
Asesor: Dra. Tania Gutierrez Macias, Instituto Mexicano de Tecnología del Agua

TRATAMIENTO DE AGUA DE NEJAYOTE MEDIANTE CELDAS DE COMBUSTIBLE MICROBIANO (CCM) Y EVALUACIóN A LA PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES CERRO DE LA ESTRELLA.


TRATAMIENTO DE AGUA DE NEJAYOTE MEDIANTE CELDAS DE COMBUSTIBLE MICROBIANO (CCM) Y EVALUACIóN A LA PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES CERRO DE LA ESTRELLA.

Ariza Estrada Yoiner David, Universidad de la Guajira. Asesor: Dra. Tania Gutierrez Macias, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El agua es uno de los recursos de mayor importancia para los seres humanos, sus usos van desde los domésticos hasta usos a escala agrícola e industrial. De hecho, Fernández et al., (2010) establecen que aproximadamente el 59 % del agua que consumen los países desarrollados, es destinada al uso industrial. El problema que genera esto, es que al ser el sector industrial, el que más contamina el recurso hídrico, habrá una mayor demanda que a su vez incrementará del mismo modo la contaminación sobre este.  Una de las mayores industrias de México es la de alimentos, entre las que destaca la de producción de harina y tortillas mediante el método de nixtamalización, siendo las tortillas un producto fundamental para la dieta de los mexicanos. La nixtamalización es la cocción alcalina del maíz, en la que los granos secos se cuecen y se sumergen en una solución alcalina generalmente de agua e hidróxido de sodio, y que permite convertirlo en masa y harina de maíz, para posteriormente obtener una gran variedad de productos, el más conocido la tortilla. En un informe de 2014 realizado por el Grupo Minsa, Sociedad Anónima Bursátil de Capital Variable, estimó que, aproximadamente el 55% de las tortillas que se consumen en México se elaboran utilizando el método del nixtamal, que como se mencionó anteriormente, requiere de grandes volúmenes de agua (Núñez y Sempere, 2016). El agua que se produce como residuo del proceso de nixtamalización, llamada nejayote, es  uno de los principales causantes de la   problemática de la contaminación del agua, debido a que cuando se desecha tiene un pH alcalino mayor a 10 y valores de demanda química de oxígeno (DQO) de 40,058 mg/L (Figueroa, 2020). Dentro de las consecuencias que el nejayote puede producir dentro de los cuerpos de agua son zonas anóxicas y la nitrificación, lo que a su vez trae consigo el crecimiento y proliferación de comunidades de bacterias y virus, relacionadas con enfermedades como la diarrea, el cólera, la hepatitis A, entre otros (OMS, 2022). Otra de las problemáticas que se pretende analizar en el marco de este proyecto, es el uso de recursos naturales (biomasa) como fuente para la obtención de energía, es decir, a partir del nejayote. En los últimos años ha llamado la  atención el uso de las aguas residuales (AR) como medio para obtener energía limpia y mitigar, en parte, el impacto ambiental que el manejo inadecuado de las AR ha venido causando a nivel global (Santamaria, 2020). Este proyecto se fundamenta en la reutilización del nejayote, donde el material considerado como residuo se convierte en la materia prima de otros procesos orgánicos, tecnológicos o industriales, con lo cual se crean nuevos productos, disminuyendo de esta manera el gasto energético involucrado en su producción.



METODOLOGÍA

Las muestras que se analizaron en este estudio fueron obtenidas de dos CCM, estas están compuestas por  tres cámaras (dos cámaras catódicas y una anódica). En la cámara  anódica se llevan a cabo las reacciones de oxidación del sustrato, que en este caso está compuesto por nejayote diluido y lodo anaerobio, mientras que en las cámaras catódicas se llevan a cabo las reacciones de reducción, cuyo sustrato está compuesto por una solución de macronutrientes más lodo aerobio. Ambas CCM trabajan por ciclos con duración de quince días. Cuando finaliza cada ciclo se realizan las alimentaciones, donde se obtienen muestras de las soluciones de entrada y salida de cada una de las cámaras, tanto de las anódicas como las catódicas y de cada una de las CCM. A partir de estas muestras se realizan los diferentes análisis que permiten caracterizar la calidad del agua que entra y sale de las CCM, estos análisis son de tipo cualitativo (permite identificar la sustancia) y cuantitativo (permite determinar la cantidad de la sustancia), este último comprende una serie de métodos que se organizan de la siguiente manera: Métodos gravimétricos: Sólidos suspendidos totales y sólidos suspendidos volátiles.  Métodos volumétricos: dureza cálcica y alcalinidad total. Métodos espectroscópicos: Proteínas, carbohidratos, y DQO. En lo concerniente a la evaluación de la PTAR Cerro de la Estrella en Ciudad de México, la cual es una planta cuya operación se fundamenta en procesos biológicos, y cuyo tren de tratamiento se compone principalmente de un tratamiento primario, sedimentadores, reactor biológico, filtros y un tanque de gas cloro, se realizó  una  visita la cual permitió verificar el estado de funcionamiento de las unidades de tratamiento, las condiciones de seguridad e higiene en las que labora el personal de la planta, entre otros aspectos.           


CONCLUSIONES

Durante el periodo de la estancia se obtuvieron conocimientos prácticos que permitieron conocer nuevas técnicas de análisis fisicoquímicos, destacando así, los métodos espectroscópicos como proteínas, carbohidratos y ortofosfatos. De igual manera, es destacable el hecho de conocer nuevas técnicas innovadoras para dar tratamiento a las aguas residuales y aprovechar los subproductos obtenidos. Entre estos mecanismos se encuentran las celdas de combustible microbiana, las cuales se basan en el uso de microorganismos,  para tratar aguas residuales, degradar la materia orgánica y producir energía. Al ser un extenso trabajo, aún se encuentra en la fase experimental, por lo que los voltajes más altos que se obtuvieron  fueron de 0,90093 voltios en circuito abierto y 0,87522 voltios  en circuito cerrado. Sin embargo, se espera obtener voltajes de 1 volt, y porcentajes de remoción en función de la DQO de hasta 74 %. En cuanto a los procesos de evaluación de PTAR, se realizó una visita a la PTAR Cerro de la Estrella donde se pudo evidenciar que muchas unidades de tratamiento no estaban en funcionamiento y algunas de las estructuras de estas unidades se encontraban en malas condiciones, presentando varillas expuestas, zonas oxidadas, muros agrietados entre otras cosas. A pesar de los hallazgos, el agua tratada por esta planta cumple con los estándares establecidos en la NOM 001 SEMARNAT 2021.   
Armendáriz Martínez María Fernanda, Instituto Tecnológico de La Piedad
Asesor: Dr. Javier García Gutiérrez, Universidad Autónoma del Estado de México

GESTIóN Y OPTIMIZACIóN DE LA CADENA DE SUMINISTRO TRUTíCULA EN EL ESTADO DE MéXICO


GESTIóN Y OPTIMIZACIóN DE LA CADENA DE SUMINISTRO TRUTíCULA EN EL ESTADO DE MéXICO

Armendáriz Martínez María Fernanda, Instituto Tecnológico de La Piedad. Asesor: Dr. Javier García Gutiérrez, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La producción de trucha en el Estado de México ha sido tradicionalmente artesanal, lo que ha limitado su capacidad para satisfacer la creciente demanda en el mercado. La falta de procesos estandarizados y tecnología adecuada ha impactado negativamente en la eficiencia productiva, resultando en costos más altos y precios menos competitivos para los consumidores. El mercado de la trucha en el Estado de México ha experimentado un crecimiento significativo en los últimos años, lo que representa una oportunidad para los productores locales. Sin embargo, la falta de conocimiento mercadológico ha llevado a una distribución inadecuada de los productos y una limitada penetración en nuevos segmentos de mercado. Además, los productores de trucha en el Estado de México enfrentan una dura competencia con los productores del estado de Puebla. Esta competencia ha ejercido presión sobre los precios y ha puesto en riesgo la sostenibilidad económica de los productores locales.



METODOLOGÍA

Para abordar los desafíos planteados, se utilizó una metodología mixta. En primer lugar, se llevaron a cabo varios estudios de casos de productores locales de trucha para comprender sus prácticas actuales y desafíos específicos. Estos estudios permitieron obtener información detallada sobre los problemas que enfrentan los productores y las oportunidades de mejora en sus operaciones. Además, se revisaron encuestas aplicadas a piscicultores en años anteriores. Estas encuestas proporcionaron datos cuantitativos sobre aspectos como la producción, los costos, los ingresos y las perspectivas de crecimiento en la industria de la trucha en el Estado de México. La información recopilada a través de las encuestas permitió identificar tendencias y patrones en la producción y comercialización de trucha. Por otro lado, se analizaron archivos de técnicas de optimización para identificar las mejores prácticas en la gestión de la cadena de suministro trutícula. Estos archivos contenían información sobre estrategias y herramientas utilizadas en otros contextos similares que podrían ser adaptadas y aplicadas en la industria de la trucha en el Estado de México.


CONCLUSIONES

En conclusión, la gestión y optimización de la cadena de suministro trutícula en el Estado de México requiere un enfoque integral que aborde los desafíos de la producción artesanal, el crecimiento del mercado, la falta de conocimiento mercadológico y la competencia con productores de otros estados. La adopción de tecnologías modernas, el desarrollo de estrategias de marketing efectivas y la colaboración entre los productores son aspectos clave para mejorar la producción y comercialización de la trucha en la región. Con un enfoque adecuado en la gestión de la cadena de suministro, la industria de la trucha en el Estado de México puede alcanzar mayores niveles de eficiencia, competitividad y sostenibilidad económica.
Armenta Reynoso Jhanina Fernanda, Universidad Autónoma de Baja California
Asesor: Mg. Maricell Tordecilla Altamar, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISEñO DE BRANDING Y PROTOTIPADO EN 3D POR MEDIO DE FABRICACIóN ADITIVA.


DISEñO DE BRANDING Y PROTOTIPADO EN 3D POR MEDIO DE FABRICACIóN ADITIVA.

Armenta Reynoso Jhanina Fernanda, Universidad Autónoma de Baja California. Asesor: Mg. Maricell Tordecilla Altamar, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

El problema principal en las grandes y pequeñas industrias es la falta de implementación del diseño, prototipado y fabricación de las ideas, pensadas para dar solución a una necesidad o problema que se esté presentando en el entorno, esto en relación al diseño de producto y/o de marca, lo que se descubrió este verano fue que en Colombia tienen una institución que cuenta con una estrategia llamada Tecnoparque encaminada a fortalecer a los emprendedores y empresarios que tengan una idea de base tecnológica y que esta requiera ser materializada a través de un prototipado rápido o un diseño de branding para su precomercialización de su producto logrando llegar así a un nivel de maduración TRL6 al TRL 9. En Tecnoparque se desarrollan distintos proyectos al mismo tiempo, por lo tanto, participé en dos proyectos con enfoques diferentes y uno más que es confidencial, en estos proyectos se observaron problemáticas de diseño de branding y diseño de empaques, por lo tanto, se trabajó principalmente: Branding, diseño de packaging y modelado 3D mediante un software CAD que luego de ser diseño paso a un proceso de prototipado rápido por medio de la impresión 3D.



METODOLOGÍA

Para el primer proyecto que fue el diseño de empaque funcional se realizó una búsqueda de productos similares y existentes en el mercado, además se tuvo en cuenta las NTC- Normas Técnicas Colombianas para tener en cuenta a la hora de diseñar el packaging de los snacks para mascotas. Se utilizaron distintas formas de cajas, sobres y empaques para ver cual era mas factible para el producto. Se hicieron distintas pruebas de tamaños, materiales y diseños para los snacks para perro. Se inicio el bocetaje del producto y luego se realizó una maqueta de la plantilla con papel y pegándola con cinta para ver la forma deseada, una vez llegando a la forma deseada se elaboro el prototipo de cartón en el tamaño deseado y teniendo el visto bueno canalizando así al área de diseño de branding. Teniendo el diseño adecuado con sus respectivas especificaciones técnicas se procede a diseñar unas propuestas de dijes que irán inmersa en la parte interna del empaque como extras en los snacks, estas propuestas se diseñaron en el software CAD Solidworks para poder ser modelarlas en 3D y luego convertirlas en un archivo STL para su debida impresión en una máquina de fabricación aditiva. Al tener listas estas piezas impresas de los prototipos se someten a una post producción para luego incluirlas en el diseño del empaque y realizar el feed back con el talento dueño del producto. Además, se realizó el molde para los snacks el cual también se hizo en Solidworks para imprimirlo en 3D y entregarle la propuesta de tamaño y diseño del molde para los snacks. Así concluyo mi participación en este primer proyecto.   El segundo proyecto consistía en el rediseño de marca con su respectivo manual de identidad, la marca comercial se llama GUAY y su enfoque son las velas aromáticas, sellos de cera y macetas todo en un concepto de equilibrio con uno mismo, balance y energías. Se propuso rediseñar el logo, cambiar la paleta de colores de la marca de acuerdo a la conceptualización que se estableció en el brief y presentar las variaciones del mockup del empaque con la nueva marca y colores de cómo se verían sus productos con este rediseño. Este branding se diseñó en IIlustrator y se entregó la carta de presentación del logo (colores, patterns, variaciones, tipografía a utilizar) este será impreso en papel china que es para envolver los productos. También se hicieron prototipos de macetas en el CAD SolidWorks para después convertirlos a archivos STL y así poder ser impresos en 3D para recubrirlos de silicona y así elaborar moldes de silicón ya que el talento hace las macetas y la base de las velas en concreto y se necesitaba un nuevo molde de silicón para las velas, se hicieron dos moldes de distintos tamaños, uno más pequeño que otro para la propuesta entregada y así concluyó mi participación en este segundo proyecto.


CONCLUSIONES

En mi estancia realizada en el Sena desarrolle mis competencias profesionales y personales al involucrarme en nuevos proyectos asumiendo así nuevos retos, adquiriendo nuevos conocimientos, nuevos procesos y a trabajar con un equipo multidisciplinar. Aprendí a utilizar el programa de Illustrator, el programa CAD de SolidWorks, también como desarrollar todo el branding de una marca junto a los brief de presentación. Aprendí también que muchas veces nosotros como diseñadores pensamos que es factible una cosa o un tipo de diseño y al momento del prototipado las cosas no salen como necesitamos y hay que revisar muy juiciosamente los detalles, a configurar las impresiones para imprimir en 3D junto a la cortadora láser. Una cosa que me queda mucho de mi investigadora es que me enseñó que muchas veces nosotros queremos hacerlo solos y en ocasiones se necesita un equipo de donde apoyarte y en el Sena el equipo es increíble como todos se apoyan entre todos, cosa que en México no pasa mucho. Por último, quiero agregar que el diseñar se trata de una prueba y error para que las cosas funcionen de manera correcta y mucho mas cuando trabajamos con algún cliente o persona en especifico y teniendo las herramientas y el equipo correcto los diseños van a funcionar.
Arriaga Bueno María Guadalupe, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dra. Florentina Zurita Martínez, Universidad de Guadalajara

TRATAMIENTO DE VINAZAS TEQUILERAS MEDIANTE HUMEDALES CONSTRUIDOS


TRATAMIENTO DE VINAZAS TEQUILERAS MEDIANTE HUMEDALES CONSTRUIDOS

Arriaga Bueno María Guadalupe, Tecnológico de Estudios Superiores de Jocotitlán. Clemente Jimenez Fernanda, Tecnológico de Estudios Superiores de Jocotitlán. Rugerio Sánchez Alejandra Abigail, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Florentina Zurita Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA Jalisco es el principal productor de Tequila en México, sin embargo, cada día que se produce Tequila al mismo tiempo se genera Vinaza. ¿Cuál es el problema con la vinaza? La vinaza es un residuo generado en la destilación del Tequila añadiendo que por cada litro de tequila se generan de 12 a 15 litros de Vinaza a una temperatura de 90 ⁰C, un pH de 4, se caracteriza por ser de un color cafe oscuro, tener mucha materia órganica, es decir que su DQO y la DBO son demasiado altas y que lamentablemente  es vertida en ríos o cerros ocasionando un impacto negativo en el ambiente contaminando el suelo y cuerpos de agua.  Por lo tanto esta investigación se dedica a hallaer una manera de reducir este impacto implementando una técnologia de control de la contaminación de la vinazas tequileras y con el objetivo de reutilizar el agua ya tratada.



METODOLOGÍA

HUMEDALES CARGA DE VINAZA A TANQUES DE ALMACENAMIENTO La vinaza es transportada desde una tequilera hasta los humedales, en donde se tiene preparado un tanque de almacenamiento para pasar la vinaza que llega a un tanque de almacenamiento más grande que corresponde a 5000 L. La vinaza antes de llegar al CVS que corresponde a un tanque de almacenamiento pasa por otros dos los cuales ayudan a que los sólidos se sedimenten correspondiendo a una etapa se pretratamiento antes del ingreso a los humedales. NEUTRALIZACIÓN DE VINAZA Cuando el CVS se llena de vinaza, debido a sus propiedades es neutralizada por medio de hidróxido de calcio en la cual se deberá diluir primero en agua y posteriormente vaciar en el CVS monitoreando el pH por medio de un sensor. RELLENO DEL CI De manera para mantener el almacenamiento de vinaza apropiado este proceso se hace cada 9 días, por lo que asegura que la alimentación a los humedales no se agote. CALIBRACIÓN DE BOMBAS PERISTÁLTICAS Para tener un buen funcionamiento en los humedales y tener controlado las entradas y salidas del flujo es de gran importancia que las bombas trabajen bien. La calibración de las bombas es fundamental ya que nos permiten garantizar la precisión de los caudales. MEDICIÓN DE CLOROFILA Para evaluar el estado de la planta que están en los humedales se mide la clorofila mediante un equipo que arroja directamente su valor, cuando se mide se deberá tomar la clorofila aproximadamente 10 veces en hojas de las plantas y presionamos el botón average y procedemos a leer el dato. El cual nos permite evaluar la sobrevivencia de la planta. PARAMETROS AMBIENTALES Se cuenta con un monitoreo ambiental que corresponde a la medición de luz, humedad Relativa y la temperatura ambiental. La cual sirve para saber las condiciones en las que trabajan los humedales. MEDICIÓN DE CAUDALES Se realiza una medición de caudales en los humedales para balances de materia en el H1, H2 con un caudal aproximadamente de 10 litros de cada uno por cubeta en un día y su respectivo caudal se regresa a una deposito que alimenta los humedales V1, V2 teniendo un caudal de 5 litros de cada uno para el regado de plantas en análisis, esto se realiza todos los días en un horario de 10:00 am. PARAMETROS IN SITU De manera en la que se puedan monitorear los humedales, se mide semanalmente el pH, conductividad, Oxígeno Disuelto (OD) y Potencial de óxido reducción (ORP). ORP Los sensores de potencial de reducción de la oxidación (ORP/Redox) o redox mide la capacidad de una solución de mezclas de vinaza para actuar como agente oxidante o reductor. OD El oxígeno disuelto (OD) es necesario para la respiración de los microorganismos aerobios y anaerobios, así como para otras formas de vida aerobia. pH Se monitorea el pH para tener un mejor control con el influente debido a que los humedales y en especial los microorganismos. Conductividad Nos permite conocer la dureza del agua, el total de iones lo cual nos da una idea de la purificación del agua. ANÁLISIS Para evaluar el funcionamiento y comprobar su efectividad es necesario realizar ciertos analisis que nos apoyaran a saber la diferencia y comprobar si se lleva acabo exitosamente el tratamiento de la vinaza. DETERMINACIÓN DEL COLOR APARENTE DETERMINACIÓN DE NITRATOS DETERMINACIÓN DE NITRITOS DQO DBO5 COLOR VERDADERO SOLIDOS SUSPENDIDOS TOTALES Y SOLIDOS DISUELTOS TOTALES FOSFORO TOTAL NITRÓGENO KJELDAHL FENOLES  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos prácticos del tratamiento de vinazas tequileras mediante humedales construidos, así mismo se aprendió de técnicas para caracterizar la vinaza y los efluentes obtenidos de los humedales. Sin embargo, al ser un proyecto de investigación y que busca recolectar datos para asemejarse a la realidad aún se está evaluando y se espera que este proyecto sirva de apoyo para el Consejo Regulador de Tequila (CRT). Aunque, de acuerdo con los resultados obtenidos en los análisis ya antes mencionados, podemos concluir que el humedal cumple con la función de tratar la vinaza cruda, puesto que da resultados demasiado exitosos comparando la DQO y DBO del influente y efluente obteniendo una remoción mayor del 95%. Así mismo, con ayuda de la experimentación de las plantas nos da una alternativa de uso de esta agua tratada.
Arriaga Piña Laura, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

DESARROLLO DE UN MODELO DE NEGOCIO PARA UNA EMPRESA DE COSMéTICOS ARTESANALES


DESARROLLO DE UN MODELO DE NEGOCIO PARA UNA EMPRESA DE COSMéTICOS ARTESANALES

Arriaga Piña Laura, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Un producto artesanal nos permite en primer lugar, volver a nuestros orígenes, a nuestras raíces. Encontrar aquello genuino y natural de los productos que sabes que no se han hecho en una cadena de producción en masa. Y es que los productos artesanales cuidan cada detalle para volverlos especiales y únicos. Generalmente los productos artesanales se elaboran en talleres muy pequeños y la producción es lenta, muchas veces las personas no valoran el gran trabajo que conlleva realizarlo, es por ello que se crea este modelo de negocios para crear estrategias las cuales ayuden a que las personas conozcan esta gran empresa y sus productos.



METODOLOGÍA

Dentro del posicionamiento de una empresa exitosa, existe una excelente planeación de marketing, la cual, abrirá caminos para posicionarse en el mercado. Es por ello que se crearon estrategias a corto plazo para llegar al punto deseado, las cuales son: • Elaborar campañas que ayuden a disminuir la contaminación periódicamente en la región Tacambarense en el siguiente mes.  • Generar sentido de pertenencia mediante las redes sociales para una mayor fidelización y retención de futuros clientes en un periodo de un mes y medio.  • Colaborar en eventos de la región para impulsar el crecimiento de las ventas ante el mercado en los próximos 2 meses.  • Realizar un estudio de mercado por medio de encuestas ante nuestro público real y los próximos intermediarios en un periodo mínimo de 1 mes.  • Buscar nuevas relaciones con intermediarios para un mayor alcance de nuestras proyecciones de ventas ante el mercado de la región Tacambarense en el próximo mes. • Generar un buen impacto con nuestro envase reutilizable ante el consumidor en los próximos 2meses.  Antes que todo, se debe estudiar y observar con claridad cada aspecto tanto interno como externo de la empresa, si no la conocemos jamás podremos crear las estrategias y tácticas necesarias para mejorar y crecer. Es necesario conocer las preferencias y necesidades del consumidor, por tal motivo, es justo el llevar a cabo un estudio de mercado. El estudio de mercado realizado ante una muestra de 245 personas nos da resultados que son sumamente importantes para el crecimiento de este proyecto, concretando diferentes datos relevantes para el mismo.  Datos como el sexo, que nos muestran que el público principal, sin duda es ante mujeres, pero que sin duda muestra impacto en los hombres, que equivalen al 28% de la muestra. Gracias a esto, podemos realizar publicidad y propaganda más específica y personalizada.  El tipo de clima es muy importante, ya que gracias a esto podemos determinar de cierta manera su tipo de piel y poder determinar el producto por sus beneficios y que sea el más adecuado ante el mercado. Nuestro mayor objetivo a llegar se encuentra en la edad de 15 y 25 años, pero alcanza hasta 45 años y más, por ende, debe ser distinta nuestra manera de comunicarnos con cada uno de nuestros posibles clientes. Nuestra publicidad será principalmente enfocada a nuestro primer rango de edad, pero no descarta el posicionarnos en los demás rangos establecidos en la encuesta, ya que tenemos la iniciativa de crecer y expandirnos.  El 40% de la muestra nos dice que utilizan algunas veces jabones para el cuidado de la piel, mientras que el 9% es siempre y más del 60% de los encuestados cree necesario utilizar jabones para el cuidado de la piel, lo que nos da pauta a poder llegar a ellos mediante una buena estrategia de marketing.  Basado en los cuestionamientos de los aromas, los más calificados a usar dentro de nuestros jabones son; aroma de frutos rojos, coco, lavanda, y en último lugar, de fresa.  Más del 60% les agradan los beneficios principales que con nuestros productos ofrecemos, lo que nos muestra que podemos generar un gran impacto ante el público.   El 51% en la gran mayoría de veces comprarían el producto en tarros de cristal, mientras que el 31% lo adquiriría siempre, lo que suena muy importante para el crecimiento de ventas.  El producto es específicamente para un nivel socio-económico medio alto y alto.  Los resultados nos muestran que, efectivamente contamos con la aceptación de las personas para adquirir y consumir nuestros productos.  Dentro de nuestra planeación es necesario conocer aspectos esenciales como el punto de equilibrio, costos fijos y variables, así como materiales para hacer efectiva la producción en una mayor escala, además, realizar una proyección de ventas aproximada a la realidad.  Hoy en día existen eco-tecnologías que nos ayudan a realizar mejor nuestros productos y aportar sustentabilidad a la sociedad para ayudar al medio ambiente, por ello es que nos enfocamos en esta tendencia, que la englobamos a la elegancia y otras variables para que sea más efectiva dentro del proyecto realizado.  


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos sobre como llevar a cabo un modelo de negocios, para el cual se necesita de otras ramas como lo son: las matemáticas, marketing, así como también hacer el estudio de mercado en el que se pone en práctica la parte social, estadística e informática utilizando programas para poder saber si es viable lanzar el producto.
Arriaga Salazar Karina, Instituto Tecnológico de Toluca
Asesor: Post-doc Cesar Leandro Londoño .calderon, Universidad Autónoma de Manizales

REMOCIÓN DE CONTAMINANTES ORGÁNICOS A PARTIR DE BIOMASA DESLIGNIFICADA


REMOCIÓN DE CONTAMINANTES ORGÁNICOS A PARTIR DE BIOMASA DESLIGNIFICADA

Arriaga Salazar Karina, Instituto Tecnológico de Toluca. Cruz Román Dione Alejandra, Universidad Veracruzana. Asesor: Post-doc Cesar Leandro Londoño .calderon, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Los residuos agroindustriales son un tipo de biomasa generada principalmente por el procesamiento de materiales orgánicos.En Colombia, la industria del café es una de las principales ya que es el segundo productor a nivel mundial, por lo cual, los residuos generados son demasiados que al no ser utilizados para alguna otra actividad se consideran como un tipo de contaminante. Es por ello por lo que para aprovechar estos residuos agroindustriales se decide realizar la deslignificación del pergamino de café en un solo paso para la obtención de biomasa el cual será utilizado como material activo para la remoción de compuestos orgánicos en soluciones acuosas.



METODOLOGÍA

Fase 1. Previo al diseño de experimentos, se realizó la lectura y exposición de los resultados encontrados en el artículo Evaluation of Soda Delignification and Single-Stage Hydrogen Peroxide Bleaching for the Ethiopian Sugarcane Bagasse for Paper Production, en donde se propone a la deslignificación como principal metodología para la extracción de celulosa Fase 2. Se realizó un diseño de experimentos de estructura 23, en este el valor 2 hace referencia a los niveles con los que se trabajó, es decir, valor alto (valor +1) y valor bajo (valor -1), mientras que el superíndice 3, indica las variables con las que se implementaron, las cuales son: Concentración de peróxido de hidrogeno (H2O2) (3% y 1%). Tiempo (60 minutos y 30 minutos). Temperatura (60° C y 40° C) Fase 3. Para la parte de desarrollo experimental, la parte inicial se centra en la obtención de las cantidades de los reactivos, con este objetivo, fue necesaria la estandarización del volumen total, de 150 ml, ya que, de esa manera se logra un mayor control, en donde la relación del pergamino es de 10% (m/v) por lo que en toda la experimentación se utilizaron 15 g para cada prueba. En cuanto a los reactivos, el H2O2 se tomó en cuenta como variable principal para el proceso de deslignificación, ya que al variar la concentración de 1% o 3%, también influye en la solución de hidróxido de sodio (NaOH). Una vez obtenidos los valores y concentraciones, la parte práctica se centra en el cuidado y verificación constante de las temperaturas, así como los tiempos requeridos para cada una de las pruebas, recordando que, al término, se sometían a un proceso de filtración al vacío para así poder separar el residuo sólido y el residuo líquido. El residuo sólido es aquel de principal interés, de manera que se encuentra la celulosa ya deslignificada, es decir, se eliminaron los compuestos lignocelulósicos, los cuales se encuentran en el residuo líquido. Las etapas finales de cada uno de estos residuos fueron, para el sólido, secado a 100° C durante 1 hora o bien 25° C durante toda la noche, mientras que, para el líquido, el almacenamiento temporal, razón que como parte de la sostenibilidad de este proyecto se propuso la elaboración de nanopartículas de hierro reutilizando dicho residuo. Fase 4. La celulosa obtenida como producto final del proceso de deslignificación se sometió a trituración y posteriormente a pruebas como colorimetría, microscopia óptica, microscópica electrónica, UV-VIS y espectroscopia infrarroja, con el fin de observar la estructura y composición de nuestro residuo final, para así poder determinar previamente si tiene capacidades como medio adsorbente de compuestos orgánicos como lo es el azul de metileno. Para la elaboración de la biopelícula se implementó un proceso denominado acetilación, el cual consiste en 3 etapas, en la primera se adicionan ácido acético (CH₃COOH) y ácido sulfúrico (H₂SO₄) a la celulosa obtenida, las cantidades dependen del tamaño de muestra de celulosa que se disponga a acetilar, durante 1 hora con agitación, posterior a ese tiempo, en la etapa 2 se adicionan anhidrido acético (C4H6O3) y CH₃COOH a baño maría de 60° C, durante 30 minutos y con agitación, finalmente con CH₃COOH, agua y H₂SO₄, aumenta la temperatura hasta 80° C y se deja reaccionar durante 3 horas. Como parte de la obtención del acetilado, transcurridas las 3 horas se debe lavar con agua destilada y filtrar, para asi poder obtener un residuo solido que se seca en horno a 100° C durante 12 horas. Fase 5. En la elaboración de las películas, se hace uso de 144 ml de acetona (C3H6O) que  se disuelven 2.8 g de acetato de celulosa, con agitación alta durante 3 horas sin calor, posterior al tiempo se agregan 2.8 g de glicerol (C3H8O3), o bien, 44 gotas de la solución, manteniendo la agitación y con un tiempo de espera de 30 minutos, para que finalmente se vierta la solución sobre una charola lo suficientemente lisa y plana, para que se deje secar a temperatura ambiente durante 12 horas aproximadamente. Fase 6. Como parte del objetivo principal, la adsorción de azul de metileno por medio de biopelículas se realizó cortando 2 cuadros con medidas de 2 cm x 2 cm de cada una de las películas, las cuales se añadieron a una solución de 20 ppm de azul de metileno. Con el fin de conocer la capacidad de adsorción de las películas, se sometieron a pruebas de absorbancia con espectrofotometría UV-VIS, con un espectro de 400 a 900 nm y medidas durante 6 horas, haciendo chequeos de las soluciones cada 30 minutos, siendo asi la primera medición del tiempo 0 sin películas, posteriormente un tiempo de 30 minutos y asi sucesivamente hasta el tiempo de 360 minutos.


CONCLUSIONES

Con el proceso de deslignificación empleado en este proyecto de investigación se optimizó el proceso convencional en el cual se disminuyen tiempos, reactivos, energía y la cantidad de producto obtenido incrementa. Además, se empleó la economía circular debido que el residuo generado de la deslignificacion fue utilizado como materia prima para la elaboración de nanopartículas de hierro. Con esto contribuimos a la disminución de contaminación ya que los materiales se reutilizan.
Arriola Colorado Carlos Yair, Instituto Tecnológico Superior de Tierra Blanca
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

SISTEMA DE ENFRIAMIENTO PARA TRANSISTORES


SISTEMA DE ENFRIAMIENTO PARA TRANSISTORES

Arriola Colorado Carlos Yair, Instituto Tecnológico Superior de Tierra Blanca. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los inventos que estan relacionados para poder disipar el calor de sistemas o componentes que requeiren de largo uso de operación, el calor por el trabajo generado en los dispositivos o elementos electronicos ha sido un problema, estos problemas pueden variar, por ejemplo; en los sensores el calor generado alrededor de ellos y en su misma circuiteria, tienen dificultades para tomar lecturas, en un proceso indusrtrial donde se tenga que medir la temperatura (como bien podria ser un horno-industrial para poder fundir metales) es preciso que dichos sensores tomen la lectrura en todo momento, sin embargo con el paso del tiempo, el mismo dispositivo se empieza a calentar provocando una degradacion del tiempo util del mismo sistema o elemento que esta tomando lectura.   Dicho lo anterior hay diferentes soluciones para realizar lecturas eficientes, pueden ser desde el mismo programa en el que se esta reciviendo los datos  que esta tomando el sensor, otras son el uso de sensores mas precisos que toman lecturas pero dichos sistemas son mas costosos y repararlos es tardado, sin embargo, tambien influyen mas problemas como el tiempo de vida util, que si bien puede alargar el tiempo de uso de los sistemas, siguen teniendo el mismo problema del calor generado entre ellos, por las mismas maquinas que estan alrededor o que cumplen una funcion de la linea de produccion del complejo.   En los grandes sistemas de potencia de circuitos las temperaturas generada, ya sea por los dispostivos o por los efectos medio ambientales, generan un calor por el trabajo que se realiza, a mayor trabajo hay un mayor flujo de electrones, por lo tantro hay un efecto de calentamiento o elevacion de la temperatura en la superficie del dispositivo o componenete.   En algunos sistemas de enfirmiento industrial aplican celdas peltier a determinados componentes para disipar la atemperatura genera por el trabajo, sin embargo, a la larga las placas peltier tambien sufren una aumento considerable de la temperatura que contrarrestan provocando una deficiencia de operación en el sistema, aun que este sistema con respecto a otros son mas eficientes sufren del mismo problema.



METODOLOGÍA

Una solucion que se propone es colocar materiales mas resistentes al calor de tal forma que se puedan fusionar para que soporten mas el calor generado por el trabajo hecho.   (placa de disipacion para transistor de acero) El dispositivo fue creado para poder soportar y disipar el calor generado por el trbajo en los transistores de alta potencia, en estos transistores se encuentraan los transistores de union bipolar (BJT) y los MOSFET.   El dispositivo cuenta con las siguientes caracteristicas. 1.-Dependiendo el MOSET a utilizar se tomara encuenta el voltaje, corriente, resistencia y ganacia de cada uno de los dipositivos.   2.- cada placa de disipacion esta hecha de acero llegando a coportar hasta los 200°c de operación continua.   3.-se les puede intercambiar las piezas que tiene el componente como puede ser. 3.1transistor. 3.2 ventiladores.   Esta formada por: 1.-4 transistores MOSFET 1.-6 ventiladores SMD 3.-4 placas de disipasion de acero 4.-una carcasa plastica de 10cm3 5.-2 ventiladores de nivel 2.   Estos componentes forman un compoenete llamado modulo de potencia; este Modulo de potencia simplifica una modificacion de enfirmiento anteiormente mostrada, esta mejora basa su funcionamiento en la dinamica del fluido del aire para poder enfirar un conjunto de transistores.   (prototipo de componente de modulo de disipacion de temperatura). Funcionamiento:los ventiladores mas grandes que tiene se encarga de darle direccion al aire trasnsitado por debajo de el dicho aire se mezcla co el aire caliente de los disipadores individuales de los transitores, tiene la finalidad de expulsar parte del aire caliente que genera por el calor.   Como complemento se realizo un codigo par poder controlar la temperatura del dispositivo con los sensores LM35 y para haerlo mas comodo se hio una conexión por bluetooth y por medio de pagina de internet, asi como tambien poder encender o apagar el circuito de manera remota  segura.   La temperatura mostrada en la aplicación es un promedio de 4 valores obtenidos por los potenciometros, la temperatura obtenida se divide en 5 rangos.   1.-Si el PROMEDIOTOTAL es menor a 10°C entonces es ESTABLE.   2.-Si el PROMEDIOTOTAL es mayor a 10°C pero menor o igual a 15°C entonces la tenperatura es MODERADA.   3.-Si el PROMEDIOTOTAL es  mayor o igual 16°C pero menor o igual a 20°C entonces el estado se pondra en ALERTA.   4.-Si el PROIMEDIOTOTAL es mayor a 20°C pero menor o igual  25°C entonces el estado de la temperatura es PELIGROSA.   5.-Si el PROMEDIOTOTAL  es mayor o igual a 26°C pero menor o igual a 30°C entonces entra en estado de AVALANCHA. Dado los resultados teorizados del sistema de enfriamiento para transistores, es una idea a interpretar las aplicaciones pueden variar según el proposito, antes de dar mi conclucion final hay puntos a considerar del prototipo.   Desventajas: 1.-es muy pesado: el peso puede rondar desde los 300mg a 2kg dependiendo el tipo de proposito. 2.- su diseño es complejo. 3.-su esamblaje es muy primitivo y poco intuitivo. 4.-se debe de poner en un area donde alla un flujo de aire.   Ventajas. 1.-es barato: el dispositivo tiene un estimado de fabricacion de $2000. 2.-es relativamente pequeño: sus tamaño es de 10cm3. 3.-soporta temperaturas de hasta 1500°c. 4.-por el tipo de diseño tiene opcion de mejorar. Ejemplo, ventilacion, transistores, cantidad de transistores y ventilacion. 5.-tiene un tiempo de vida util largo(si se mantiene monitoreado el dispositivo). 6.-tiene opcion de IOT y de reconfiguracion del sistema de control.   Por ultimo hay un problema grave dentro de la construccion de este dispositivo, la carcasa en la que esta recubierta es un polimero de acero que ha sido como ultimo recurso,se propone  de manera poco satisfactoria ya que este aumentara el peso del modulo final, al pesar tanto no se puede mantener una placa de PCB de manera segura, ya que esta podria roperse


CONCLUSIONES

Debido a que no hay materiales baratos, ligeros y que soporten las temperaturas altas, el dispositivo no es viable para colocarlos en una placa de PCB, se necesita de un sistema senscillo de sensores para monitorear su operación de manera segura, puede llegar a ser complejo entre mas modulos hay conectados, debido a su funcionamiento logra disipar de manera teorica hasta un 60% del calor generado por el trabajo realizado, en mi conclucion no es viable el dispositivo, esta en una fase muy temprana y esto es lo que pude corroborar de manera segura en la investigacion.
Arroyo Carbajal Diana Guadalupe, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

ANáLISIS INTERACTIVO DE LA SATURACIóN HOSPITALARIA POR SARS-COV2 EN MéXICO


ANáLISIS INTERACTIVO DE LA SATURACIóN HOSPITALARIA POR SARS-COV2 EN MéXICO

Arroyo Carbajal Diana Guadalupe, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

A medida que comenzó la propagación de la enfermedad por coronavirus (COVID-19) en diciembre de 2019, la manera en que vivimos nuestras vidas también ha sido un constante cambio para adaptarnos y cuidarnos. El sector de salud es el primero en tener un impacto significativo contra el COVID-19, ya que son ellos quienes se han enfrentado a los desafíos en la disponibilidad de recursos médicos, equipo de protección del personal y capacidad hospitalaria para hacer frente a la pandemia. Desde el inicio hasta la actualidad, pareciera que el covid ha llegado a su fin. Sin embargo, pese a que no vemos la situación como a principios de la pandemia, hasta el momento hay más de 15,431,000 de personas atendidas, de quienes el 36.9% de los casos son positivos. El propósito principal de este trabajo es realizar un análisis exploratorio e interactivo a nivel nacional frente a esta problemática, enfocándose en nuestros sectores de salud, identificando quienes han sido los más saturados, las situaciones en que se encontraban los pacientes dentro de estas instituciones y las defunciones en cada uno. Y con ello, poder acceder a esta información mediante un repositorio utilizando un cubo de datos, para tener todas las posibles respuestas a duda ya pre calculadas; todo esto con el fin obtener datos de manera más eficiente.



METODOLOGÍA

Primero se realizó la elaboración de prácticas y estudio teórico de análisis estadístico de datos, para lo cual se utilizó material de apoyo proporcionado por el investigador, recolección de información y un dataset del titanic con el fin de practicar con él y conocer las bases requeridas para el desarrollo de esta estancia de investigación, Después se seleccionó este tema de investigación, SARS-CoV2 con un enfoque al sector de salud y a la situación hospitalaria. Se hizo una búsqueda de información y recolección de datasets, para lo cual se utilizaron datos abiertos del coronavirus de la página oficial de la Secretaría de Salud del Gobierno de México y artículos de interés de fuentes oficiales. Posteriormente, se llevó a cabo la examinación de datos para ver como se encontraban, contar con los requerimientos, como son el catálogo y diccionario de datos para interpretar el contenido de los datos, reconocer los metadatos que ocupamos, seleccionar las variables de estudio e identificar las reglas que se aplicarían en los algoritmos para el dataset limpio, así mismo se propusieron preguntas de negocio para la perspectiva de esta investigación. Ya con un solo dataset limpio, se realizaron los programas para el análisis de datos. Con las variables con las que se quería trabajar para la dirección de esta investigación se realizaron algoritmos con Python para la obtención los datos estadísticos, así mismo se contestó a cada una de las preguntas de negocio textualmente junto con representación gráfica. Para poder crear un repositorio (base de datos), se eligió utilizar un cubo de datos para la obtención eficiente de respuestas. Se recopiló información respecto a que son los cubos de datos y cómo desarrollar un algoritmo para realizar uno con los datos del dataset que se está usando. Se seleccionaron los atributos y los hechos del dataset que tendría el cubo de datos, a partir de estas variables, se realizó un algoritmo en Python que utilizando estos atributos y hechos se crearían las tablas en una base de datos, la cual se gestionaría en el entorno de desarrollo local web con XAMPP. Se llevó a cabo una modificación al algoritmo para también tomar en cuenta los atributos que tienen jerarquía. También se hizo una segunda versión del programa para que se pueda usar de manera general a cualquier dataset, sus atributos y hechos con o sin jerarquía. De igual modo, se modificó para que se rellenarán las tablas con los datos del dataset para cumplir con su meta. Finalmente, de manera local se realizaron pruebas y se corrigieron detalles al momento de que se realiza el repositorio y se llenan los datos de este. A su vez se analizaron los datos que muestran las situaciones en los sectores y entidades del país.


CONCLUSIONES

Gracias a la estancia del verano se logró adquirir conocimientos básicos del análisis de datos, lo cual abarca el saber buscar datos en datasets, información del tema de interés en artículos avalados por fuentes oficiales, realizar una limpieza en un dataset y aplicar la estadística descriptiva en este. Incluso llegué a abarcar los cubos de datos de manera. Los resultados muestran que en la actualidad (hasta el momento en que se recolectó información), el 58.9% de los casos atendidos en el país han sido declarados como negativos al covid-19  y solo el 4.2% se quedan como sospechosos. El sector con más atendidos de estos casos es la Secretaría de Salud (SSA) con el 56.24% del total de atendidos en el país, dado que es el sector con más atendidos, también es el que tiene la mayor cantidad de casos positivos al covid-19 con el 30.31% de la cantidad de atendidos que tuvo; este sector ha tenido 43,752 personas que han entrado a UCI de los cuales el 48.51% han sido intubados. Por el momento, el 92.2% de los casos atendidos en nuestro país han sido hospitalizados, de los cuales 80,784 personas han entrado a UCI y el 48.62% de estos han fallecido. Se concluyó que en el cubo de datos para el repositorio se prefiere que las respuestas a las consultas se obtengan más rápido, por lo que se eligen tablas más anchas horizontalmente con pocos registros, haciendo más eficaz la obtención de respuestas de resultados. Al estar los datos guardados localmente, se espera que en el futuro el repositorio pueda ser accedido a él mediante un sistema web y mostrar así de manera visual los resultados obtenidos automáticamente mediante gráficas y que sean datos actuales referentes al portal de oficial de La Secretaría de Salud del Gobierno de México.
Ascencio González Pamela, Instituto Politécnico Nacional
Asesor: Dra. Hayde Peregrina Barreto, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESCRIPTORES DE TEXTURA PARA SU APLICACIóN EN EL PROCESAMIENTO DE IMáGENES DEL áMBITO MéDICO E INDUSTRIAL MEDIANTE VISIóN POR COMPUTADORA.


DESCRIPTORES DE TEXTURA PARA SU APLICACIóN EN EL PROCESAMIENTO DE IMáGENES DEL áMBITO MéDICO E INDUSTRIAL MEDIANTE VISIóN POR COMPUTADORA.

Ascencio González Pamela, Instituto Politécnico Nacional. Asesor: Dra. Hayde Peregrina Barreto, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos tecnológicos desarrollados durante los últimos años nos han permitido realizar estudios para diversos campos de la ciencia, obteniendo imágenes que nos muestran una visión más estructural de los objetos de estudio. Sin embargo, aunque se obtengan imágenes y/o muestras con información significativa que no son visibles para el ojo humano, muchos de estos dispositivos no son capaces de cuantificar de manera automática el numero componentes que se tienen de un conjunto o subconjunto, delimitar los bordes de algún componente, célula, tejido, grano o aplicar filtros para la modificación de imágenes y resaltar aquellas zonas de interés. A pesar de que estas muestras se realicen en laboratorios, existen diversos factores que intervienen en todo este proceso como; existir malformaciones en el ojo humano de los laboratoristas o del personal especializado que pueden llegar a afectar el estudio, al añadir algunas tiniciones, no suministrar las cantidades adecuadas de cada uno de los fluidos o componentes, asi como el periodo que se tienen de diferencia entre la toma de cada una de las muestras, tambien como la falta de calibración de los instrumentos utilizados, entre muchos otros. Por lo anteriormente mencionado, es importante poder encontrar una herramienta tecnológica que nos permita caracterizar distintas imágenes, procesándolas mediante la visión por computadora.



METODOLOGÍA

En primera instancia, se realizó la búsqueda en diversas fuentes de información para la obtención de distintas bases de datos, de las cuales se extrajeron imágenes en referencia a que mostraran características particulares, para mayor practicidad en la realización de la investigación, se optó por formar tres distintos grupos de imágenes, en el primero se encontraban pruebas de tejido de cáncer de mama, muestras textiles y muestras de aleación de metales. Posteriormente, se investigó acerca de los descriptores de textura. Estos descriptores hacen referencia a aquel conjunto de métricas calculadas al momento de procesar imágenes con el objetivo principal de poder cuantificar las texturas y/o los componentes que las conformen o zonas de interés. Para la utilización de los descriptores, al ser una prueba inicial en la que se analizarían las imágenes, se aplicaron descriptores estadísticos de textura de primer y segundo orden, dividiéndose en cuatro secciones, los cuales nos muestran más información. Es importante mencionar que la programación se desarrolló en el entorno de MATLAB, además, para poder procesar la imágenes correctamente, estas deben ser transformadas a tonos de grises, ya que las imágenes originales se encuentran en los tres planos de color conocidos como RGB. En la primera sección, se analizaron las imágenes por cinco categorías cuantitativas pertenecientes a los descriptores estadísticos de primer orden, estos fueron, la media, la desviación estándar, el sesgo, la curtosis y la entropía, cada una de estas métricas nos proporciona información cuantitativa, es decir, valores numéricos, los cuales nos permiten categorizar valores dentro de rangos para aquellas imágenes que sean similares o para poder diferenciarlas unas de otras, además de observar que las tonalidades de grises que se tienen en cada una de las imágenes demuestran una variación en los resultados obtenidos. Se logra apreciar que en los valores de media, curtosis y sesgo tienden a ser mayores si las tonalidades son más claras, mientras que cuando los valores son más obscuros, tienden a ir disminuyendo estas métricas, al igual que se puede observar en el caso de desviación estándar y entropía, tienden a tener un valor menor cuando los tonos son claros a comparación que aumentan cuando son obscuros. En la segunda sección se aplicaron filtros pertenecientes a las métricas de media, desviación estándar y entropía, ya que estos nos permiten obtener imágenes que destaquen aquellas regiones que no son distinguibles, lo anteriormente mencionado se muestra al calcular el valor de las métricas en cada uno de los pixeles que compone la imagen mediante un ventaneo de matrices de 3x3. Al utilizar estos filtros nos percatamos que existían una mejora en las imágenes procesadas, haciendo uso de los filtros de entropía y desviación estándar. En la tercera sección se hizo uso de los descriptores de textura de segundo orden, específicamente de la matriz de coocurrencia. Estos se diferencian de los de primer orden debido a que mediante la programación de MATLAB no solo se obtienen resultados cuantitativos sino tambien se muestran gráficamente, mediante imágenes. Estos descriptores nos muestran resultados que se encuentran divididos en cuatro categorías; el contraste, la correlación, la energía y la homogeneidad, todos estos valores obtenidos se encuentran aplicados dentro del imagen, modificando y mostrando aquellas zonas de interés. En la aplicación de estos, logramos observar que se tuvo un resultado mayormente satisfactorio en las muestras de granos en las aleaciones de aluminio. Para la cuarta sección se utilizo el descriptor LBP (Local Binary Patern), en el cual se obtienen resultados meramente gráficos, los cuales exclusivamente resaltaron las fibras en los tejidos de las muestras de cáncer de mama, esto se realiza mediante la conversion de valor de 0 y 1, a aquellos pixeles que cumplan con la condición de valor del píxel central, obteniendo una imagen con tonos blanco o negro.


CONCLUSIONES

Se espera que con el estudio y los valores obtenidos de cada uno de los procesamiento de las imágenes asi como el código desarrollado, ser de utilidad dentro del campo de estudio del cáncer de mama, ayudando a distintos investigadores que actualmente se encuentran en el estudio de este, a comparar los resultados mediante el uso de softwares alternativos y pueda ser implementado en el campo medico en un futuro. Además de que se logró demostrar el amplio campo de aplicación de los descriptores de textura.
Ascencio Salazar Othmar Gibrán, Instituto Tecnológico de Morelia
Asesor: Dra. Ingrid Mayanin Rodriguez Buenfil, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

FORMULACIóN DE UNA GALLETA TIPO POLVORóN ENRIQUECIDA CON MIEL EN POLVO DE YUCATáN, MéXICO, RICA EN POLIFENOLES Y CAPACIDAD ANTIOXIDANTE


FORMULACIóN DE UNA GALLETA TIPO POLVORóN ENRIQUECIDA CON MIEL EN POLVO DE YUCATáN, MéXICO, RICA EN POLIFENOLES Y CAPACIDAD ANTIOXIDANTE

Ascencio Salazar Othmar Gibrán, Instituto Tecnológico de Morelia. Asesor: Dra. Ingrid Mayanin Rodriguez Buenfil, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Pese a los potenciales beneficios de incorporar productos alimenticios enriquecidos con miel de abeja ricos en polifenoles con capacidad antioxidante en la dieta, existen desafíos y obstáculos que impiden que la población mexicana acceda a estos alimentos y aproveche sus ventajas para la salud. La falta de conciencia y educación nutricional, la preferencia por alimentos procesados y altos en azúcares añadidos, así como la desinformación y mitos en torno a estos productos, contribuyen a perpetuar una dieta menos saludable. Además, la dependencia de la industria alimentaria y la publicidad que promueve opciones menos nutritivas agrava la situación. Para abordar esta problemática, el presente proyecto implementóestrategias para la formulación de un alimento enriquecido con miel secada por aspersión rica en polifenoles de abeja Apis mellifera de la floración Gymnopodium floribundum Rolfe de Yucatán, México ofreciendo a sus consumidores los beneficios de una dieta rica en antioxidantes. De esta forma se promueve el uso de miel de Yucatán el acceso a alimentos saludables y su inclusión en la dieta.



METODOLOGÍA

Secado por aspersión de la miel. a) Condiciones de secado de la miel  b) Caracterización fisicoquímica de la miel en polvo. Las condiciones del secado por aspersión de la miel de Yucatán, México de la especie Apis mellifera de la región de Acanceh y floración Gymnopodium floribundum Rolfe se realizó de acuerdo a la reportado por Avilés-Betanzos, et al 2023). Se utilizaron los equipos spray dryer (MOBILE MINOR™ GEA ® Modelo MM estándar, Düsseldorf, Alemania) con temperaturas de entrada de 90°C a 110°C, , bomba peristáltica (easy-Load®, MASTERFLEX®, L/S®, modelo 7518-00, USA) con un flujo de 10ml/min,cabina de flujo laminar vertical Purifier™ (Labconco™ MODELO 3970421), Maltodextrina una mezcla de polímeros de glucosa que aparecen al hidrolizar almidón y Goma guar un potente espesante que ayuda a aumentar la densidad de determinados alimentos sinperjudicar su olor ni sabor ambos, usados como agentes encapsulantes,  entre otros. Para la obtención de la miel en polvo se utilizaron dos tratamientos o condiciones de secado por aspersión, el primer tratamiento fue de una proporción de agente encapsulante (AE) y miel (ML) de 2:1 (AE:ML, p/p), y de 3:1 (AE:ML, p/p), a una temperatura de entrada de 110 y 90°C con un porcentaje de Goma Guar (GG) de 3 y 5% respectivamente. Para ambas mielesse realizó una caracterización fisicoquímica pre y posterior al secado por aspersión, evaluando la capacidad antioxidante (Ax) mediante la metodología de DPPH, porcentaje de humedad, contenido total de polifenoles(CTP) por el método Folin-Ciocalteu y azucares reductores directos (ARD). Las condiciones para  2. Formular galletas tipo polvorón endulzadas con miel en polvo de la especie Apis mellifera de la región de Acanceh y floración Gymnopodium floribundum Rolfe. Formulación de 3 tipos diferentes de galleta: a. Galleta enriquecida con miel en polvo en la masa (GMM). b. Galleta enriquecida con miel en polvo espolvoreada (GME).  c. Galleta Control endulzada con sacarosa(CNT). 3. Caracterización fisicoquímica de las galletasenriquecidas con miel de abeja de la especie Apis mellifera Determinación de Polifenoles Totales por la metodología de Folin-Ciocalteu. (Oney-Montalo, J. et al 2018) a) Evaluación de la capacidad antioxidante por DPPH. (Chel‐Guerrero, et al., 2021) b) Determinación de humedad. (Li, Y. et al.,2017) c) Determinación de azucares reductores directos. (Miller 1959) 4. Análisis sensorial las diferentes formulaciones de galletas enriquecidas con miel en polvo.


CONCLUSIONES

El análisis de resultados para las galletas formuladasobservó un incremento en la Ax de la GME al compararla con el CNT. La mayor Ax y CTP se observaron en la GME con 9.61 ± 2.28 % Inhibición y CTP de 5.68 ± 0.05 mg GAE / 100g polvo seco Por otro lado, GMM también mostró una concentración de CTP con 3.68±0.06 mg GAE / 100g polvo seco, porarriba del CNT, esta tendencia también se observó al comparar el Ax del GMM y CNT, con un valor de 8.42±0.89 y 7.85±1.65 obteniendo un incremento para GME de 22.42% y GMM 7.26% respectivamente.  También se observó que el análisis sensorial presentó valores altos en los cuatro diferentes atributos: textura, olor, color y sabor para GMM y GME en comparación a CNT. Los resultados del trabajo evidencian mejores características fisicoquímicas y sensoriales en las galletas enriquecidas con ML en polvo. Los resultados (CTP, Ax) se favorecen al espolvorear la ML en polvo sobre la galleta debido a que los microencapsulados de ML no se degradan por el tratamiento térmico durante el horneado como ocurrió con GMM.
Astorga Sanchez Miguel Angel, Universidad Autónoma de Sinaloa
Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

ADAPTACIóN DE UN PROTOTIPO DE COCHE DE 2 RUEDAS SUSTITUYENDO SU MICROCONTROLADOR ARDUINO UNO POR EL ESP 32


ADAPTACIóN DE UN PROTOTIPO DE COCHE DE 2 RUEDAS SUSTITUYENDO SU MICROCONTROLADOR ARDUINO UNO POR EL ESP 32

Astorga Sanchez Miguel Angel, Universidad Autónoma de Sinaloa. Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La robótica es un campo multidisciplinar donde se conjugan habilidades y saberes de electricidad, electrónica e informática.   Este proyecto describe una secuencia de adaptación de un prototipo existente, el cual consiste en un coche de 2 ruedas controlado mediante conexión bluetooth y sobre el cual se pretende sustituir su microcontrolador actual, un Arduino Uno, con un esp32.   El objetivo de este cambio en el prototipo existente es el de conocer y aprender la utilización en un microcontrolador distinto de Arduino, para así expandir el conocimiento en el uso de distintas plataformas existentes en la actualidad.



METODOLOGÍA

En el trascurso de la estancia correspondiente al Verano Delfín 2023, en la cual se desarrolló el presente proyecto, se trabajó mediante tareas incrementales hasta lograr el producto final, consistente la adaptación de un vehículo controlado mediante bluetooth utilizando el esp32.   Como primera etapa, se buscó información en textos y videos relacionada al ecosistema del microcontrolador esp32, sus características, aditamentos y su forma de programación; así como información comparativa con la plataforma arduino.   En una segunda etapa se realizaron diversos trabajos de aprendizaje, tanto simulados con la herramienta Wokwi, esto a que es compatible con los dos distintos microcontroladores que se estarán utilizando; así como con conexiones física, lo cual se describe a continuación: 1: encendido y apagado de un led. 2: encendido y apagado de 4 leds al mismo tiempo. 3: encendido y apagado de 4 leds en orden secuencial. 4: variación del brillo en un led. 5: encendido de un motor con el uso del controlador L293D. 6: variación en la velocidad de un motor e identificación del giro en ambos sentidos  de un motor. 7: encendido de 2 motores e identificación de conexiones para lograr que ambos giren en el mismo sentido al mismo tiempo.   En los trabajos de la tercera etapa nos auxiliamos con la ayuda de una aplicación Android para dispositivos móviles, la cual realiza las funciones de control remoto mediante el protocolo bluetooth, para lo cual se realizaron adecuaciones en el código cargado en el esp32, siguiendo el mismo orden en de las tareas de la etapa anterior.   Una vez logrado el aprendizaje en el uso del esp32 para las tareas que deberá desempeñar, se procedió a sustituirse en lugar del Arduino uno, adaptando las conexiones correspondientes centro del prototipo del coche.   Por último, se realizó una documentación de todos los trabajos llevados a cabo en un sitio web.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para la construcción de dispositivos robóticos controlados remotamente mediante un microcontrolador esp32, en este caso, mediante la sustitución de un arduino uno en un coche de 2 ruedas, así mismo se logró la conformación de documentación suficiente para que otras personas interesadas en el tema logren reproducir los trabajos que aquí se realizaron para construir su propio vehículo o incluso construir otro tipo de robot controlado remotamente con el uso de esta tecnología.   Teniendo un punto de comparación entre el uso de estas dos distintas plataformas en un coche que cumple las mismas funciones, una de las principales diferencias es la conectividad inalámbrica que integra el esp32, a diferencia de Arduino que debe de utilizar un modulo externo y lo cual implica un trabajo extra en conexiones y configuración de dicho modulo.   Todo lo anterior se cumplió dentro del contexto de la robótica educativa y los pasos para su correcta aplicación, los cuales son: Diseñar, Construir, Programar, Probar y Documentar.
Atempa Basilio Cesar Eduardo, Instituto Tecnológico de Chilpancingo
Asesor: Dra. María Zavala Hurtado, Instituto Tecnológico de Chilpancingo

SISTEMA DE CONTROL DE ASISTENCIA A TRAVéS DE RECONOCIMIENTO FACIAL


SISTEMA DE CONTROL DE ASISTENCIA A TRAVéS DE RECONOCIMIENTO FACIAL

Atempa Basilio Cesar Eduardo, Instituto Tecnológico de Chilpancingo. Godinez Santana Eduardo, Instituto Tecnológico de Chilpancingo. Moras Moras José Armando, Instituto Tecnológico de Chilpancingo. Asesor: Dra. María Zavala Hurtado, Instituto Tecnológico de Chilpancingo



PLANTEAMIENTO DEL PROBLEMA

En el TecNM campus Chilpancingo, como la mayoría de las instituciones educativas, realizan un seguimiento constante de la asistencia de los estudiantes con el fin de ayudar al profesor a conocer la presencia, ausencia o retardos de los estudiantes y así poder resolver algunos problemas que se puedan presentar. El proceso de registro de asistencia dentro de las aulas del TecNM campus Chilpancingo por parte de los profesores es de manera manual, se anuncia el nombre de cada uno de los estudiantes y en una lista se registra la asistencia, retardo o falta. Esto implica que, en una clase de 60 minutos, con un promedio de 30 alumnos el docente invierte de 10 a 15 minutos registrando la asistencia. Aunado a lo ya mencionado, este proceso es susceptible a errores humanos (registrar asistencia, falta o retardo donde no corresponde) ocasionando reportes incorrectos sobre el tema en cuestión.



METODOLOGÍA

Las metodologías ágiles son flexibles y ofrecen una respuesta inmediata; además, son adaptables a la forma de trabajo de los proyectos, permiten construir un producto de forma incremental, hacer modificaciones y cambios en cualquier etapa del proyecto. Dentro de estas metodologías ágiles se seleccionó el método Scrum porque trabaja en pequeños proyectos; en cada Sprint se realiza la planificación, análisis, creación y comprobación, también se caracteriza por las entregas regulares y parciales del producto final. Aunado a lo anterior, cuando se detecta problemas en un Sprint puede volver a la fase del error para corregir el problema (las Heras del Dedo, R. d., Álvarez García, A., Lasa Gómez, C., 2018) El método Srum se trabajó apoyándose en tres procesos: Construcción de la base de datos del sistema de control de asistencia y el diseño de la interfaz final. Desarrollo de la API de reconocimiento facial a través de imágenes. Construir la API de reconocimiento facial a través de video. En cada proceso se realizó la planeación, el análisis, la creación de la iteración y por último se probó el correcto funcionamiento del sistema, además se realizaron pruebas finales con la integración de cada proceso. Planeación. Se definieron los objetivos y se fijaron fechas de entrega de los sprint. Análisis. Se analizaron los requisitos del proyecto, considerando la automatización, la precisión y registro de asistencia en la base de datos, la rápida identificación de los estudiantes y monitoreo en tiempo real.   Creación: Se construyó cada sprint utilizando como principal lenguaje de programación python, la biblioteca OpenCV y el SGBD MariaDB, se utilizó el algoritmo de FaceNet implementado a través de la biblioteca face_recognition para el reconocimiento facial tanto de imagen como video Comprobación: Durante y después de cada sprint, se realizaron pruebas para asegurarse de que el software cumple con los requisitos y funciona como se planeó. Las pruebas también ayudaron a identificar la eficiencia de los algoritmos de reconocimiento de imagen y video.


CONCLUSIONES

El desarrollo del Sistema de Control de Asistencia a través de Reconocimiento facial representa un importante avance en la administración académica y en la gestión del tiempo en el ámbito educativo. El sistema fue desarrollado con el uso de diversas herramientas y bibliotecas como: Python, OpenCV, Dlib y face_recognition, llegando a las siguientes conclusiones: El reconocimiento facial requiere de un algoritmo capaz de entrenarse para que la eficiencia logre el menor margen de error al momento de la comparación entre imagenes, en este caso se utilizó el algoritmo FaceNet implementado a través de la biblioteca face_recognition, alcanzando una compatibilidad hasta del 80% en las pruebas realizadas. Se utilizó una base de datos donde se guarda permanentemente la información de los estudiantes y las materias que cursa, así como su asistencia. El Sistema Gestor encargado de eso fue MariaDB por la cantidad de registros que almacena, además de ser OpenSource. El guardado de imágenes en la base de datos se realizó convirtiendo la imagen a escala de grises con cvtColor, enseguida se utilizó el clasificador Haar.igual para ser guardado en la base de datos, proceso que fue exitoso para poder recuperar la imagen, ser comparada con el rostro y registrar la asistencia cuando existen coincidencias. Se integró correctamente los algoritmos de reconocimiento facial a través de imagen y video en el sistema de control de asistencia, logrando el objetivo planeado. Aunque las pruebas se realizaron de manera local con más de 20 rostros, se recomienda realizar un test del sistema en un ambiente real.
Atienzo Acosta Jesús Elena, Universidad Autónoma de Sinaloa
Asesor: Dr. José Ramón Gaxiola Camacho, Universidad Autónoma de Sinaloa

CáLCULO DE LA RESPUESTA SíSMICA DE UN MARCO DE ACERO SOMETIDO AL TERREMOTO NORDHOFF FIRE STATION USANDO SAP2000


CáLCULO DE LA RESPUESTA SíSMICA DE UN MARCO DE ACERO SOMETIDO AL TERREMOTO NORDHOFF FIRE STATION USANDO SAP2000

Atienzo Acosta Jesús Elena, Universidad Autónoma de Sinaloa. Asesor: Dr. José Ramón Gaxiola Camacho, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los sismos representan una gran cantidad de pérdidas económicas y humanas alrededor del mundo, por ejemplo, el terremoto de Northridge en 1994 causó gran afectación en la infraestructura de california, donde gran porcentaje de estructuras estaba constituido de sistemas sismorresistentes a base de acero. La relevancia de esta investigación es que se estudió el comportamiento de un marco de acero resistente a momento con la respuesta real del sismo de Northridge recolectadas en la estación llamada Nordhoff Fire Station.



METODOLOGÍA

1. Cálculo de carga • Carga muerta: Se puede definir como carga muerta a todos los elementos constructivos, acabados y elementos que ocupan una posición permanente y tienen un peso que no varía a lo largo del tiempo.  • Carga viva: incluye las acciones derivadas del uso del edifico y que pueden variar en forma importante en el tiempo, distinguiéndose así de la carga muerta. Incluye mobiliario, equipo, personas y vehículos. Dependiendo del uso que se le dará al piso o cubierta es la manera en la que se obtiene la carga viva de acuerdo a la Tabla 6.1.1 Cargas vivas unitarias de la Gaceta Oficial de la Ciudad de México 2017. • Carga de viento: Según el procedimiento de manual de obras civiles CFE (2008), se consta de una serie de pasos para calcular la carga por viento: Definir la altura de la estructura, clasificar la estructura, dterminar distintos factores de acuerdo a la región, etc. Fuerzas respectivas al lado barlovento de la estructura en cada nodo desde la azotea hasta el segundo entrepiso: 1.93 Ton,2.35 Ton, 2.27 Ton, 2.19 Ton, 2.08 Ton, 1.97 Ton y 2.56 Ton. Fuerzas respectivas al lado sotavento de la estructura en cada nodo desde la azotea hasta el segundo entrepiso:1.3 Ton,1.6 Ton, 1.53 Ton, 1.48 Ton, 1.4 Ton, 1.33 Ton y 1.73 Ton. 2. Software SAP2000 SAP 2000 es un software comercial que se basa en el Método de los Elementos Finitos (MEF). Lo usamos para el cálculo de todo tipo de estructuras en el sector de la edificación. Este software es utilizado en el campo de la ingeniería civil, desde la hidráulica, hasta las estructuras, ya que con él se pueden realizar diseños y también someter a cargas las estructuras. (CivilMac,2020). Dentro del programa SAP2000, se ingresaron ciertos datos, como cargas, secciones, combinaciones de cargas, etc. Como parte de la realización previa al análisis. La estructura, esta sometida a las siguientes cargas muertas, en los entrepisos, se registra una carga muerta de 2.71 Ton/m y en la azotea la carga muerta es de 2.35 Ton/m. También, la estructura está sometida a las siguientes cargas vivas, de acuerdo a los cálculos. En los entrepisos la carga viva es de 1.96 Ton/m y en la azotea es de 0.8 Ton/m. La carga por viento fue representada en el programa, de la manera que se muestra en la sección llamada carga por viento. Se utilizó SAP2000 v22.0.0, debido a que al ser una de las versiones más recientes, permite una mayor precisión en el análisis, tanto para la modelización como para el cálculo de estructuras, además de que por ser uno de los más actualizados permite un mayor rendimiento y velocidad. Las combinaciones de carga utilizadas son las siguientes según las recomendaciones ASCE 7-16 (2017): 1. 1.4D  2. 1.2D+1.6L+0.5Lr  3. 1.2D+1.6Lr+(0.5L o 0.5W)  4. 1.2D+1.0W+0.5L+0.5Lr 5. 1.2D+1.0E+0.5L 3. Estructura - Marco de Acero La estructura tiene 7 plantas, distribuidas en 7 pisos sobre el nivel del suelo, la primera planta tiene una altura de entrepiso de 5.5 metros, mientras que la segunda hasta la séptima planta tiene una altura de entrepiso de 3.5 metros. Las secciones de acero que fueron utilizadas en las trabes es; W21X73 en los primeros 3 entrepisos, y W21X68 del cuarto piso a la azotea. Para columnas exteriores se usaron los perfiles; W14X99, W14X90, W14X61. Y para las columnas interiores se usaron los perfiles W14X132, W14X120, W14X68. 4. Sismo - Nordhoff Fire Station El terremoto de Northridge registró una magnitud de 6.7.  El acelerograma nos presenta la aceleración que sufrió el terreno basado en el registro en Nordhoff Fire Station debido al movimiento fuerte producido por el sismo Northridge 1994. En la Nordhoff Fire Station, se registraron datos del sismo en 40 segundos, registrados con un intervalo de 0.02 segundos. Siendo 2000 aceleraciones registradas.


CONCLUSIONES

Resultados ​Desplazamiento de azotea: El desplazamiento máximo obtenido es 0.939018 m. Distorsión del cuarto nivel: La distorsión máxima obtenida en los 40 segundos es 0.171111 m. Rotación del nodo superior derecho: La rotación máxima obtenida es 0.00757 rad. Momentos en columnas y vigas: El momento máximo obtenido en el análisis de la viga es 131.6451 Tonf.m.El momento máximo obtenido en el análisis de la columna es 201.796 Tonf.m. Carga axial en vigas y columnas: La carga axial máxima obtenida en la viga es 12.936 Tonf. La carga axial máxima obtenida en la columna es 4.1823 Tonf. Conclusión En este caso se les dio uso a los datos de aceleración del terremoto Northridge California (sismo real), los cuales fueron obtenidos en Nordhoff fire Station, una vez evaluado se nos pudo reflejar los datos de desplazamientos que presentó la estructura ante tal sismo. Se llegó a la conclusión que la estructura a la que fue analizada al no ser diseñada para este tipo de sismos sufrió fallas de gran magnitud, el desplazamiento en la azotea fue de 0.939018 m lo que nos permite saber que en caso que a esta estructura en la vida real sea inducida ante un sismo como el que fue analizado su deformación en ese punto seria la anteriormente mencionada. Gracias a este ensayo, pudimos identificar las deformaciones y posibles fallas que pudo haber tenido esta estructura. Es importante que se evalúen las estructuras ante sismos reales puesto que se debe garantizar que la estructura no sufrirá daños cuando estos se presenten, además de ser una manera de mejorar la seguridad, la resistencia que tienen las construcciones en zonas sísmicas. Por otro lado, es favorable utilizar un sismo como el que usamos en esta evaluación, debido a que mejoramos la precisión y confiabilidad de los datos.
Avalos Medina Alan Jordi, Instituto Tecnológico de Toluca
Asesor: Dr. Gustavo Chacón Contreras, Corporación Politécnico de la Costa Atlántica

REALIDAD AUMENTADA COMO APOYO EN PROCESOS DE COMPRENSIóN LECTORA EN ESTUDIANTES UNIVERSITARIOS PERTENECIENTES AL PROGRAMA DE INGENIERíA DE SISTEMAS DEL POLITéCNICO COSTA ATLáNTICA


REALIDAD AUMENTADA COMO APOYO EN PROCESOS DE COMPRENSIóN LECTORA EN ESTUDIANTES UNIVERSITARIOS PERTENECIENTES AL PROGRAMA DE INGENIERíA DE SISTEMAS DEL POLITéCNICO COSTA ATLáNTICA

Avalos Medina Alan Jordi, Instituto Tecnológico de Toluca. Fonseca Flores Leonardo, Instituto Tecnológico de Toluca. Asesor: Dr. Gustavo Chacón Contreras, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Los bajos niveles de comprensión lectora en todo Latinoamérica, especialmente en la ciudad de Barranquilla, Colombia causan que muchos estudiantes a nivel licenciatura de ingeniería de sistemas en la Costa Atlántica enfrentan dificultades para comprender y retener la información presentada en textos complejos y técnicos. Hoy han surgido muchas herramientas tecnológicas con las que se puede mermar dicho problema, una de ellas es la realidad aumentada (RA), que, gracias al avance tecnológico, se ha vuelto fácil usar por cualquiera. Lo que se propone es que el alumno pueda utilizar dicha herramienta en los textos académicos como apoyo para su mejor entendimiento.



METODOLOGÍA

1. Lectura y análisis del Modelo de Rejilla para Análisis de los Textos proporcionado por el investigador: Leer y analizar el Modelo de Rejilla proporcionado por el investigador para comprender y analizar el texto seleccionado. Identificar los siguientes elementos del texto: Género del texto. Autor del texto. Propósito y actividades que el docente realizará con el texto. Conceptos clave presentes en el texto. Propósito y actividades que el estudiante realizará con el texto. 2. Fase de Lectura: Leer el apartado de la fase que describe las actividades que el docente llevará a cabo y los activadores de realidad aumentada que se esperan utilizar durante la enseñanza del texto. 3. Lectura del Texto: Proceder a leer el texto seleccionado que será utilizado como base para la creación del activador de realidad aumentada. 4. Lectura de los Activadores a Crear y Recomendaciones: Analizar y comprender los activadores de realidad aumentada que se deben crear de acuerdo con la fase y las recomendaciones proporcionadas. 5. Diseño del Ejemplo de Realidad Aumentada: Diseñar un modelo de realidad aumentada que combine audio, imágenes y cuadros de diálogo para mejorar la comprensión del texto por parte del estudiante. 6. Búsqueda de Foto Libre de Derechos de Autor: Realizar una búsqueda de una foto libre de derechos de autor que esté relacionada con el tema principal del activador de realidad aumentada. 7. Creación del Activador en la Plataforma ROAR: Utilizar la plataforma ROAR para crear el activador de realidad aumentada basado en el diseño y la foto seleccionada. 8. Realización de Pruebas y Ajustes: Realizar pruebas con un dispositivo móvil para comprobar la funcionalidad y efectividad del activador de realidad aumentada. En caso necesario, realizar ajustes para mejorar la experiencia del usuario y garantizar una mejor comprensión del texto seleccionado. Con esta metodología, se busca utilizar la realidad aumentada como herramienta complementaria en el proceso de comprensión lectora, brindando a los estudiantes una experiencia enriquecedora y facilitando la asimilación de la información contenida en el texto seleccionado.


CONCLUSIONES

Se aprendió mucho en el proceso. Se consiguió un aprendizaje satisfactorio en lo referente a la realidad aumentada por medio de la aplicación de ROAR. En estas 7 semanas de trabajo, logramos conocer los avances tecnológicos y las formas en las que se puede aplicar, no solo en el apoyo a la comprensión lectora, sino igualmente las diversas ramificaciones que esto conlleva, y como en un futuro dicha tecnología despegará para ser cada vez más accesible para la persona promedio y termine permeando a cada vez más gente. Los activadores fueron satisfactorios, por lo que muchos de ellos serán considerados para ser usados en la rejilla final que se usará al culminar el proyecto. Esta investigación no solo nos enseñó una probada en el mundo de la investigación tecnológica referente a la realidad aumentada, sino que igualmente aprendimos a convivir con otra forma de vida muy distinta a nuestro país, siendo un choque cultural bastante interesante. L a estancia fue muy productiva y enriquecedora que nos ayudará en gran medida en nuestro futuro como ingenieros en sistema.
Avalos Zamudio Anette Yoselyn, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

MODELACIóN SUBTERRáNEA CON TRANSPORTE DE ARSéNICO EN EL ACUíFERO MORELIA-QUERéNDARO


MODELACIóN SUBTERRáNEA CON TRANSPORTE DE ARSéNICO EN EL ACUíFERO MORELIA-QUERéNDARO

Avalos Zamudio Anette Yoselyn, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El arsénico es un elemento que se encuentra presente en todo nuestro planeta, incluidos el agua, el suelo y los seres vivos. Este se puede formar de manera natural por la interacción de algunos compuestos. Así como también puede ser creado artificialmente, dando como resultado una expresión de este elemento altamente tóxico para el consumo humano.(A.C. Galvao & Corey, 1987) La presencia del arsénico en el agua es un problema ambiental de especial cuidado ya que si sus concentraciones se encuentran fuera del valor máximo que establece la NOM 127 SSA (0.01 mg/L) implica un alto riesgo para la salud humana principalmente. Es por esto que conocer la traza del arsénico en los acuíferos que abastecen a las poblaciones para consumo humano es el primer paso para posteriormente realizar una evaluación sobre las áreas donde este se presenta y en qué concentraciones principalmente. Y de este modo, realizar una evaluación del riesgo que este elemento presenta realmente para una población.



METODOLOGÍA

Para comenzar con este trabajo de investigación primero fue necesario conocer la zona de estudio, la cuál es el acuífero Morelia-Queréndaro, ubicado al NE del estado de Michoacán, México. Posteriormente con datos previos generados en otra investigación, se realizó la modelación del acuífero a través del programa ModFLOW. Dentro del programa, el modelo se realizó con una malla de 38 filas por 45 columnas, y se trabajó con una sola capa.   El tiempo con el que se realizó el modelo del flujo fue de octubre de 2006 a septiembre de 2022, comprendido por 192 meses. Una vez realizado el modelo, se dio inicio a organizar y clasificar las lecturas de arsénico obtenidas de tres bases de datos que incluían datos de diferentes pozos en Michoacán, dichos datos eran; coordenadas de cada pozo, sus lecturas respectivas de arsénico y la fecha en la que cada una se obtuvo. Esto con la finalidad de colocar los datos en un formato que sea compatible con nuestro programa para modelación. Más específicamente con el de MT3D, que nos permitió realizar la traza del arsénico de acuerdo al flujo en un parámetro del tiempo. De este modo se generaron un total de 38 matrices que contienen la concentración del arsénico de cada pozo en la celda de la malla que le corresponde dependiendo de su ubicación en el acuífero. Cada matriz, corresponde a un bimestre del periodo de tiempo especificado anteriormente, en el que se encuentren registros de las lecturas de arsénico. Una vez que se termine el modelado del arsénico con MT3D se realizará un análisis de los datos para saber cuáles son las zonas con más riesgo por este contaminante.


CONCLUSIONES

Durante esta estancia se han obtenido conocimientos sobre el manejo y análisis de datos, así como del funcionamiento de diversos programas tales como; ModFLOW, MT3D y Qgis. Estos siendo una clave fundamental para realizar esta investigación. Se ha logrado apreciar el comportamiento del flujo subterráneo del acuífero Morelia-Queréndaro, sin embargo, esta semana se terminará el análisis de los datos de arsénico para conocer las zonas del acuífero con mayor exposición a este, así como su comportamiento a través del tiempo.
Avendaño Tovar Miguel de Guadalupe, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Jorge Iván Silva Ortega, Universidad de la Costa

ANÁLISIS DEL DESEMPEÑO TÉRMICO DE TRANSFORMADORES DE DISTRIBUCIÓN INMERSOS EN ACEITE VEGETAL


ANÁLISIS DEL DESEMPEÑO TÉRMICO DE TRANSFORMADORES DE DISTRIBUCIÓN INMERSOS EN ACEITE VEGETAL

Avendaño Tovar Miguel de Guadalupe, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Jorge Iván Silva Ortega, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Los transformadores eléctricos son máquinas utilizadas para transformar la energía eléctrica y facilitar la transmisión y distribución de la electricidad a largas distancias. Entre las diversas tecnologías de transformadores, se encuentran los transformadores inmersos en aceite. Estos transformadores utilizan aceite con propiedades dieléctricas y refrigerantes durante su funcionamiento para garantizar su eficiencia y rendimiento. El aceite desempeña un papel fundamental en el aislamiento eléctrico y en la disipación del calor generado por el transformador para evitar sobrecalentamientos y garantizar su correcto funcionamiento.  Tradicionalmente los aceites minerales han sido utilizados para esta tarea, sin embargo, estos el impacto ambiental y de salud es un factor preocupante, así como los antecedentes registrados frente a la exposición de bifenilos policlorados (PCBs) que en su momento el ASKAREL como aditivo generó y que sigue siendo un reto en la contaminación cruzada en laboratorios y centros de mantenimiento y reparación de transformadores.  No obstante, los aceites minerales requieren aditivos para mejorar las condiciones de aislamiento y temperatura, lo cual ha sido un tema de investigación desde la separación de ASKAREL, por eso se propone el uso de aceites naturales como alternativas ecológicas, renovable y cuyo impacto con el ecosistema no genere un deterioro o afectación en caso de presentarse derrames o vertimientos accidentales.   A nivel mundial, se han generado pilotos de implementación de transformadores con aceites de origen vegetal, no obstante, su implementación y proliferación requiere de un mayor número de registros, diseños y materiales que permitan evidenciar su desempeño adecuado y ajustado a las especificaciones del aceite mineral.   A pesar del atractivo potencial de los aceites naturales en términos de sostenibilidad, su viabilidad como sustitutos de los aceites minerales en transformadores eléctricos sigue siendo objeto de investigación y debate. El comportamiento térmico de los aceites es un aspecto crucial que determina la eficiencia y la vida útil del transformador. De esta forma se busca trabajar en un diseño ajustado y debidamente dimensionado que responda a las especificaciones técnicas planteadas. A partir de lo anterior surge la siguiente pregunta problema: ¿Cómo es el desempeño térmico de los transformadores de distribución funcionado con aceite de origen vegetal? 



METODOLOGÍA

Investigación documental:  En esta etapa, se optó una revisión exhaustiva de la literatura científica relacionada con los aceites naturales (Natural Esters) y los aceites minerales utilizados en transformadores eléctricos. La investigación documental te permitió obtener un conocimiento profundo del tema, identificar investigaciones previas, tesis, artículos de revistas, conferencias y patentes relacionadas con los aceites naturales. Este análisis bibliográfico sirvió como punto de partida para comprender la base teórica y las investigaciones previas sobre el comportamiento térmico de ambos tipos de aceites.    Selección del enfoque 2D:  Dada la limitación de recursos computacionales y el alto número de elementos requeridos para una simulación 3D, se tomó la decisión de utilizar un enfoque 2D para el análisis térmico de los aceites naturales y el aceite mineral en el transformador eléctrico. La simetría del transformador permitía asumir que el comportamiento térmico sería similar en el plano 2D seleccionado.    Reducción del número de elementos:  Para poder realizar la simulación en 2D con una cantidad de elementos manejable, se optó por utilizar elementos triangulares. Estos elementos son adecuados para representar geometrías complejas y reducir la cantidad de elementos en comparación con otros tipos de elementos. El uso de aproximadamente 2800 elementos permitió un análisis más eficiente sin comprometer significativamente la precisión de los resultados.    Condiciones de frontera:  Se establecieron las condiciones de frontera en la simulación, lo que implica definir las temperaturas de los conductores y los límites del transformador. Las temperaturas en los conductores se fijaron en un rango realista de 80°C a 90°C para simular el escenario operativo típico. En los límites, se aplicó la temperatura ambiente para modelar la transferencia de calor hacia el entorno. 


CONCLUSIONES

Los resultados de la simulación comparativa entre el aceite natural FR3 (Natural Ester) y el aceite mineral en transformadores eléctricos han demostrado que el FR3 exhibe una estabilización más rápida y una temperatura promedio más baja una vez alcanzado el equilibrio térmico. Estas diferencias se deben a la mayor conductividad térmica y menor capacidad calorífica constante del FR3 en comparación con el aceite mineral.
Avila Alvaro Wendy, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)

CARACTERIZACIÓN DEL USO DE LA GAMIFICACIÓN EN INGENIERÍA DE SOFTWARE


CARACTERIZACIÓN DEL USO DE LA GAMIFICACIÓN EN INGENIERÍA DE SOFTWARE

Avila Alvaro Wendy, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la población estudiantil que toma la materia de Ingeniería de Software carece de métodos de aprendizaje más efectivos, dado que las técnicas son convencionales, lo que implica que la mayoría de los estudiantes se estresen o aburran de los temas impartidos en clase. Esta necesidad surge a partir de generar la documentación pertinente del software y/o sistema que se desarrolla, debido a que prefieren solo involucrarse en el desarrollo y no en la documentación, lo que hace que el mantenimiento y/o actualizaciones del software sean difícil de realizarse. Considerando que los estudiantes aprenden de forma más didáctica, es pertinente implementar la gamificación como parte la enseñanza, esto permitirá a los estudiantes aumentar el involucramiento y motivación, y por tanto se espera el rendimiento del desarrollo de software [1]. La gamificación es definida como el uso de elementos de diseño de juegos en contextos que no son juegos [2] para fomentar comportamientos específicos y lograr objetivos. A pesar del creciente interés en la gamificación en la ingeniería de software, existe una falta de comprensión de su verdadero impacto y alcance en el área. Aunque ha habido algunas investigaciones sobre este tema, la mayoría de ellos se centran en estudios de casos específicos, y falta una descripción completa y general del uso de la gamificación en el área de Ingeniería de Software. Por lo tanto, el propósito de esta investigación es identificar el uso de la gamificación en la enseñanza de la Ingeniería de Software, mediante la realización del mapeo sistemático. Además, se desarrolla una propuesta de entorno de gamificación.



METODOLOGÍA

1) Desarrollar el protocolo de mapeo sistemático: Se definió un protocolo para el desarrollo del mapeo sistemático. 2) Ejecución de mapeo sistemático: Se identificaron las fuentes de búsqueda, se seleccionaron y analizaron los documentos para el estudio. 3) Establecer conclusiones del uso de gamificación en IS: Se plasmaron los resultados obtenidos en el mapeo sistemático. 4) Seleccionar una estrategia para gamificación de tema seleccionado: La estrategia de gamificación seleccionada fue la propuesta por Edgar Bonilla Rivas en su Tesis Estrategia para la capacitación en estándares de desarrollo de software basado en un juego serio: aplicación   al   estándar   ISO/IEC   29110, debido a que analizó cuatro estrategias que carecían de pasos para la creación de un juego serio y de la gamificación. 5) Desarrollo de estrategia: Se plasmo la propuesta del entorno de gamificación con la herramienta Figma la cual permitió hacer el prototipado de la propuesta. 6) Establecer resultados: Los resultados de la investigación fueron favorables ya que nos da una base sólida para futuras investigaciones y entornos en instituciones de educación de nivel medio superior y superior.


CONCLUSIONES

La implementación de la gamificación en la enseñanza de la Ingeniería de Software muestra un gran potencial para mejorar la experiencia educativa de los estudiantes. A través de la ejecución del mapeo sistemático de los estudios, se pudo identificar las áreas de la Ingeniería de Software que más han adoptado estrategias de gamificación y los mecanismos utilizados para evaluar su efectividad. El entorno de gamificación propuesto está enfocado en el área de Requisitos de Software debido que con base a los resultados del mapeo sistemático, la utilización de elementos de gamificación, como sistemas de puntos, tablas de clasificación y recompensas, se pretende fomentar la participación y la competencia amistosa entre los alumnos. Es importante destacar que los resultados obtenidos hasta ahora muestran un impacto positivo de la gamificación en el proceso de aprendizaje de la Ingeniería de Software. Sin embargo, se requiere de una validación exhaustiva para confirmar la efectividad de esta estrategia en un entorno educativo real. En conclusión, la gamificación puede ser una herramienta valiosa para mejorar la enseñanza de la Ingeniería de Software y fomentar un ambiente de aprendizaje más estimulante y participativo. Esta investigación sea punto de partida para diseñar estrategias educativas más efectivas en el área de la Ingeniería de Software, proporcionando una base sólida para futuras investigaciones y entornos en instituciones de educación de nivel medio superior y superior.
Avila Avila Esperanza Margarita, Universidad Tecnológica de Nayarit
Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz

CONTANDO UNA HISTORIA DE MIGRACIóN EN COLOMBIA: UNA EXPERIENCIA CON REALIDAD VIRTUAL


CONTANDO UNA HISTORIA DE MIGRACIóN EN COLOMBIA: UNA EXPERIENCIA CON REALIDAD VIRTUAL

Avila Avila Esperanza Margarita, Universidad Tecnológica de Nayarit. Diaz Angel, Universidad de Guadalajara. Zazueta Morales Kevin David, Universidad Tecnológica de Nayarit. Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

La crisis migratoria que afecta a Venezuela hacia Colombia es un fenómeno complejo que ha generado desafíos significativos en términos de un flujo migratorio descontrolado, así como importantes impactos socioeconómicos y la aparición de xenofobia y discriminación. Esta situación ha sido impulsada principalmente por la profunda crisis política, económica y social que ha experimentado Venezuela en los últimos años. Según la Organización Internacional para las Migraciones (OIM), se estima que más de 5 millones de venezolanos han abandonado su país desde aproximadamente el año 2015, siendo Colombia el país que ha recibido la mayor cantidad de migrantes venezolanos en comparación con otras naciones de América Latina y el Caribe. Por lo tanto, resulta fundamental comprender los desafíos que enfrenta Colombia y las implicaciones a corto y largo plazo de esta crisis migratoria. Es por esta razón que consideramos que el uso de tecnología de Realidad Virtual puede ser una herramienta invaluable para fomentar la empatía y sensibilización ante esta situación. La inmersión que brinda la Realidad Virtual puede ayudar a generar una mayor comprensión de la realidad de los migrantes y las dificultades que enfrentan, lo que permitirá una perspectiva más cercana y empática hacia sus circunstancias. No obstante, es importante destacar que la solución a la crisis migratoria va más allá de la empatía y la sensibilización. Se requiere una respuesta integral que incluya medidas políticas, sociales y humanitarias para abordar los retos que enfrentan tanto los migrantes como los países receptores. La cooperación internacional y el apoyo solidario son fundamentales para encontrar soluciones sostenibles a esta situación compleja.



METODOLOGÍA

Para llevar a cabo esta línea de investigación, fue necesario completar diversos cursos en la plataforma de Unity Learn, incluyendo VR Development, Roll-a-ball e Introduction to 3D Animations. Estos cursos nos proporcionaron los conocimientos y la lógica de programación necesarios para desarrollar diferentes escenas que narran la historia de una inmigrante venezolana en el puente fronterizo entre Colombia y Venezuela. Mediante la animación del Avatar, lipsync y la inclusión de objetos, creamos variaciones de las escenas con el fin de analizar cuáles generaban un mayor impacto en el usuario. En general, el proyecto consiste en un avatar que explica su razón para emigrar a Colombia, los sucesos que atravesó durante el proceso y cómo se estableció en el país vecino. Es importante mencionar que en este proyecto se abordaron temas clave como el diseño, la programación orientada a objetos, el uso de máquinas de estado y la implementación de animaciones. Este enfoque en el uso de Unity y las diferentes técnicas aplicadas permitieron crear una experiencia inmersiva y emotiva que busca generar empatía y conciencia en quienes interactúan con la historia de la inmigrante. Al combinar la tecnología de Realidad Virtual con una narrativa impactante, se logra transmitir de manera más efectiva la realidad y los desafíos que enfrentan los migrantes venezolanos al cruzar la frontera hacia Colombia.


CONCLUSIONES

En conclusión, el proyecto realizado durante el verano, que consistió en desarrollar una escena de Realidad Virtual basada en la historia de una migrante venezolana y las dificultades que enfrentó, ha sido una experiencia valiosa y enriquecedora en múltiples aspectos. A través de la creación de esta experiencia inmersiva, se logró adquirir un profundo conocimiento teórico y práctico en el desarrollo de Realidad Virtual, lo que incluyó el dominio de la lógica de programación y el diseño de escenas envolventes. Estos nuevos conocimientos representan una habilidad técnica relevante y actual, que pueden ser utilizados con aplicaciones potenciales en diversas áreas profesionales. Uno de los aspectos más significativos del proyecto fue su enfoque en contar la historia de la migrante, lo que permitió comprender de manera más cercana las dificultades y desafíos a los que se enfrentan quienes atraviesan procesos migratorios. La Realidad Virtual resultó ser una poderosa herramienta para fomentar la empatía y la sensibilización, ya que los usuarios podían prácticamente "ponerse en los zapatos" de la protagonista y experimentar de forma más íntima su realidad. Al abordar temas relacionados con la migración y la reducción de desigualdades, el proyecto contribuyó directamente al logro del Objetivo de Desarrollo Sostenible (ODS) número 10, que busca reducir las desigualdades dentro y entre países. La Realidad Virtual tiene el potencial de generar conciencia sobre los desafíos sociales y fomentar la solidaridad hacia las personas que enfrentan situaciones difíciles como las migrantes. En resumen, el proyecto de desarrollo de una escena de Realidad Virtual ha sido una experiencia enriquecedora tanto a nivel técnico como humano. Ha demostrado el poder de la tecnología para crear empatía y sensibilización en torno a temas sociales importantes, al tiempo que ha contribuido a abonar al cumplimiento del ODS de reducción de desigualdades. Este tipo de iniciativas creativas y concienciadoras son fundamentales para promover una sociedad más inclusiva y solidaria, y es una muestra del impacto positivo que puede tener la tecnología cuando se utiliza para el bienestar de la humanidad.
Ávila Márquez Athziri Alejandra, Universidad de Guadalajara
Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional

DESEMPEñO FOTOCATALíTICO DE MATERIALES PARA REMEDIACIóN AMBIENTAL


DESEMPEñO FOTOCATALíTICO DE MATERIALES PARA REMEDIACIóN AMBIENTAL

Ávila Márquez Athziri Alejandra, Universidad de Guadalajara. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la creciente preocupación por la contaminación ambiental, el desarrollo de fotocatalizadores se ha convertido en una línea de investigación prometedora para el tratamiento de aguas residuales y la descontaminación del aire. A pesar de los avances en el diseño de materiales catalíticos, los métodos convencionales presentan limitaciones en términos de eficiencia y selectividad para eliminar los contaminantes presentes en aguas residuales y en el aire. En este sentido, las heterouniones catalíticas emergen como una estrategia innovadora para mejorar significativamente la actividad fotocatalítica y promover una mayor degradación de los contaminantes. Estas heterouniones, resultado de la combinación de materiales con propiedades complementarias, podrían superar las barreras existentes, como la falta de estabilidad y la baja reactividad de los materiales convencionales. Pese a los avances recientes, todavía existen desafíos cruciales en el diseño y la síntesis de fotocatalizadores de heterouniones, así como en la comprensión detallada de los mecanismos de reacción en estas interfaces. Por lo tanto, el presente estudio tiene como objetivo principal explorar, optimizar y caracterizar fotocatalizadores de heterouniones con una alta eficiencia para el tratamiento de aguas residuales y la purificación del aire, abriendo así nuevas posibilidades para una solución más efectiva y sostenible a los problemas de contaminación ambiental.



METODOLOGÍA

La heterounión de Cu2O/NKBT 60:40 se llevo acabo mediante dos procesos fundamentales:   Principalmente mediante la sintetización de estado solido para la obtención de perovskitas a base de bismuto, se llevo acabo el siguiente proceso:  Calcinar en la mufla durante 1hr a 250ºC, polvos de alta pureza: Bi2O3, TiO2, Na2CO3 y K2CO3. Se introdujo en la molienda planetaria dos viales con bolas de Si3Na con una relación 5:1 para 50 g de polvo, durante 15 min a 80 rpm y posteriormente por 5 hrs a 250 rpm.  Se seco la suspensión durante 6hrs a 100°C, en la estufa eléctrica. Posteriormente se obtuvo el polvo seco separado las bolas  de Si3Na del polvo con una coladora.     Se introdujo a presión el polvo obtenido en un crisol, como preparación para la calcinación que se realizo a 700ºC con rampas de 10ºC/min durante 3hrs. El resultado de la calcinación fue molido en un mortero de ágata para nuevamente introducirlo a una calcinación de 920ºC con una rampa de 10ºC/min durante 5hrs. Como resultado de esta síntesis se obtuvo NKBT 60:40.     Después de la sintetización se  realizo un acoplamiento de alta energía con Cu2O el cual consistió en la molienda de alta energía  con bolas de Si3N4 y Etanol, a 8000 rpm durante 1 hr, el procedimiento se repitió 3 veces en diferentes proporciones (25%-75%, 50%-50%, 75%-25%) de Cu2O y NKBT respectivamente, y finalmente se envolvió la suspensión obtenida en papel aluminio y se introdujo a un secado de 100ºC durante 3 hrs en la estufa eléctrica.     Para comprobar la pureza de la síntesis de los materiales se les realizo diferentes pruebas como lo fueron: XRD para la obtención de difractometrias de difracción de riedveld, SEM y EBSD para encontrar la morfología y la diferencia de fases entre un material y otro, en electrones secundarios y retrodispersados.  Con las muestras obtenidas se realizaron pruebas fotocatalíticas, las cuales fueron introducidas a exposición en un reactor de xenón a una irradiación de 14 Watts con azul de metileno a 5 ppm en un volumen de 50 ml y 0.05 gr de catalizador por 3 hrs. Se tomaron muestras a 0 min y 30 min en oscuro, para después tomar muestras cada 15 min en irradiación. En tubos eppendorf se le coloco 1 ml de cada muestra tomada para centrifugar a 5000 rpm por 5min, las muestra previamente centrifugadas se midieron en UV-vis para medición de absorbancia de 664 nm.  Se realizaron pruebas de fotoxidacion de metanol mediante exposición en una lampara de luz UV a un volumen de 10% metanol, y 90% agua destilada equivalente a 50 ml durante 1 hr, se tomaron muestras en oscuro a 0 min y 30 min para después tomar muestras cada 10 min en irradiación. Las pruebas tomadas fueron centrifugadas a 5000 rpm por 5min para posteriormente ser medidas en UV-vis para medición de absorbancia de 410 nm. Finalmente mediante la formula de la Ley de Beer-Lambert se obtuvo la concentración de formaldehídos.


CONCLUSIONES

Durante esta estancia delfín se adquirieron conocimientos teórico-practico sobre la fotocatalisis en distintos fotocatalizadores, se desarrollo la síntesis y acoplamiento de semiconductores, se aprendió el funcionamiento y operación de distintos equipos de laboratorio como lo son; molienda planetaria, reactor de Xenon, centrifugadora, molienda de alta energía, UV-vis. Técnicas de preparación de muestras de exposición UV y para pruebas de XRD, SEM y EBSD. Se concluyo que la heterounion de Cu2O con NKBT no resulto en una mejora en la capacidad de la degradación fotocatalica, y mostró que mientras mayor es la proporción de Cu2O existe un menor efecto fotocatalítico.      De las pruebas de la síntesis y de los resultados obtenidos en el caso del XRD se concluye que los patrones de difractancia corresponden con la calidad del ajuste. De las pruebas EBSD se lograron apreciar la diferencia entre los materiales con lo que se concluye que existe un buen acoplamiento logrando visualizar las diferentes presencias de Cu2O y NKBT. Con esto podemos definir que las partículas nanométricas esféricas corresponden al NKBT y las partículas irregulares con un tamaño alrededor de 2 µm corresponden al Cu2O. Aunque la fotocatálisis ha sido ampliamente estudiada y ha demostrado su eficacia en el tratamiento de aguas residuales, aún existen desafíos que deben superarse para lograr un desempeño fotocatalítico óptimo de los semiconductores.
Avila Milanez Alexa Daniela, Instituto Politécnico Nacional
Asesor: Dr. Jesús Darío Mina Antonio, Centro Nacional de Investigación y Desarrollo Tecnológico

MODELADO Y SIMULACIóN DE BANCO DE BATERíAS PARA PROCESO DE CARGA Y DESCARGA


MODELADO Y SIMULACIóN DE BANCO DE BATERíAS PARA PROCESO DE CARGA Y DESCARGA

Avila Milanez Alexa Daniela, Instituto Politécnico Nacional. Asesor: Dr. Jesús Darío Mina Antonio, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

Las pilas desechadas son una pequeña muestra de la enorme cantidad de basura tóxica que cotidianamente van a parar a basureros a cielo abierto y rellenos sanitarios, con imprevisibles consecuencias para la salud y el medio ambiente. El manejo inadecuado de estos residuos es actualmente uno de los problemas de tipo ambiental y de carácter social que afecta a la población mundial. Al término de su vida útil la mayoría de pilas son desechadas junto con la basura doméstica. Ocasionando graves daños a la salud y al ambiente, debido a que los materiales químicos que contienen, con el tiempo pierden las carcasas y sufren de corrosión por la acción climática y procesos de fermentación de la basura, con lo que sus compuestos tóxicos se filtran contaminando suelos y cuerpos de agua. Si éstas después de desecharlas son quemadas, se producen vapores que se dispersan por el aire y cuando llueve, los metales son arrastrados hacia el suelo y a los cuerpos de agua. Todo lo antes señalado y de manera enunciativa y no limitativamente nos muestra que las pilas son uno de los residuos más peligrosos, que conlleva a la contaminación de nuestro planeta.



METODOLOGÍA

Principalmente para poder realizar el proyecto de investigación se consulto el cronograma otorgado por el investigador a cargo, planteamos como el objetivo general el obtener un modelo de batería que permita monitorear los diversos fenómenos asociados a la misma como es el proceso de carga, descarga y cambios en la temperatura; evaluando el efecto que se tiene sobre la batería, de los procesos de carga/descarga de algunas aplicaciones que utilizan baterías como sistemas de almacenamiento de energía. Derivado de lo anterior se analizaron diferentes ensayos y publicaciones de divulgación científica que coincidieran con el tema del proyecto y así poder seleccionar y parametrizar el modelo de baterías a desarrollar, un artículo sobresaliente y del cual se ocupó la mayoría de información fue de la Universidad Politécnica de Cartagena, este se basa en diferentes autores, como lo son, Giglioli (Universidad de Pisa, Italia), Buonarota y Menga (ENEL-D.S.R, Italia), Massimo Ceraolo (C.R.I.T.A, Italia) y de Stefano Barsali ( Universidad de Pisa, Italia) A pesar de que se utilizaron diversos modelos tomamos como referencia el de tercer orden publicado por Massimo Ceraolo, se centra en hacer una analogía eléctrica del comportamiento de baterías para así facilitar la comprensión del análisis. Este circuito presenta una reacción principal (reversible) que dependiendo de la precisión requerida la respuesta de la batería puede ser aproximada por la suma de curvas exponenciales con diferentes constantes de tiempo más un término proporcional al escalón de corriente. El mismo modelo daba valores para la obtención de parámetros de la batería al igual que las ecuaciones y constantes, esto nos facilito desarrollar la siguiente parte especificada en el cronograma que seria las pruebas de simulación para validación de carga/descarga de baterías. Para esto utilice el software Matlab-Simulink Battery guiándome de un diagrama de bloques que se mostraba como ejemplo, a pesar de que anteriormente no había utilizado este programa poco a poco comprendí su funcionamiento y logre desarrollar el mismo sistema de bloques agregando las ecuaciones solicitadas, pero implementando una extensión de variable de temperatura al igual que estimando la intensidad de descarga, parámetros del modelo térmico el cálculo de capacidad y el Estado de Carga (SOC).


CONCLUSIONES

Durante la estancia de verano, se adquirieron nuevos conocimientos teóricos sobre el modelado y simulación de banco de baterías para proceso de carga y descarga, siendo un tema el cual en mi ámbito escolar nunca había ejecutado, pero gracias a la orientación del Doctor Jesús Darío Mina Antonio logre comprender más y así desarrollar un prototipo básico de tercer orden en el software Matlab Simulink-Battery, obteniendo así graficas sobre los niveles de SOC en descenso y la temperatura que poco iba aumentando, siendo así exitoso el procedimiento de carga y descarga. El articulo indicaba que los modelos eran sencillos y de una fácil comprensión técnica obteniendo así buenos resultados  
Avila Paz Victoria, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

MICROSIMULACIóN DE CRUCERO VIAL EN IRAPUATO


MICROSIMULACIóN DE CRUCERO VIAL EN IRAPUATO

Avila Paz Victoria, Instituto Tecnológico de Ciudad Juárez. Gallardo Villegas Andres Alejandro, Instituto Tecnológico de Ciudad Juárez. Hernández Cazares Arlette, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

México ocupa el séptimo lugar mundial en accidentes viales, en el 2022 se registraron al menos 40 fallecimientos al día a causa de eventos viales y un aumento del 28% respecto a personas heridas. En algunos puntos de la ciudad se presentan problemas de congestión vehicular debido a la infraestructura vial y malas prácticas de conducción, por lo que se propone realizar una microsimulación de puntos de conflicto.



METODOLOGÍA

El inicio de esta investigación se centró en la recopilación de información clave para entender esta problemática mediante la técnica conocida como Data mining el cual es un proceso de descubrimiento y extracción de información útil mediante métodos de estadística, inteligencia artificial, aprendizaje automático y bases de datos para analizar datos y encontrar relaciones significativas entre variables, tales como la cantidad de personas que utilizan transporte público, cantidad de accidentes viales en el municipio, etc. Posteriormente se realizó una investigación de campo, toma de tiempo y muestreo del área, en una avenida llamada cuarto cinturón vial una de las calles mas afectadas por esta problemática, después de eso se migro dicha información al programa VISSIM, donde se realizó la simulación de ese muestreo, con el objetivo de encontrar la manera en que se reduzca la cantidad de accidentes viales.


CONCLUSIONES

La microsimulación permitió identificar que las malas prácticas de conducción, en este caso la invasión de carriles, contribuye a incrementar un 28% la línea de espera en los semáforos del punto evaluado. Considerando todos los aspectos que toman un papel importante a la hora de manejar, consideramos que es importante contar con una mejor educación vial para prevenir este tipo de siniestros.  Cabe mencionar que realizar esta investigación nos ayudo a expandir mucho nuestros conocimientos mediante el uso de nuevas herramientas como Google Colab, Octave, Qgis, Vissim y sobre todo expandir nuestra capacidad de análisis estadístico.
Avila Tamayo Karla Lizbeth, Instituto Tecnológico de La Piedad
Asesor: Dr. Juan Felipe Soriano Peña, Universidad Michoacana de San Nicolás de Hidalgo

DISEÑO DEL SISTEMA DE AUTOMATIZACIÓN PARA UN ROBOT AUTÓNOMO.


DISEÑO DEL SISTEMA DE AUTOMATIZACIÓN PARA UN ROBOT AUTÓNOMO.

Avila Tamayo Karla Lizbeth, Instituto Tecnológico de La Piedad. Asesor: Dr. Juan Felipe Soriano Peña, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En el desempeño de un robot, es muy importante tener en tiempo real los valores de algunas variables, como son: la dirección, la velocidad, la posición, la distancia a otros objetos, etc., lo que se resuelve con sistemas de automatización. A través de sensores se toman referencias instantáneas que permiten tomar decisiones oportunas con el propósito de que el robot llegue al lugar esperado con los menores gastos de energía, de ahí la importancia del presente trabajo. Tmabién es importante que los componentes como la ESP 32, batería, etc., estén un poco más arriba y asegurarnos que no se vayan a mojar al momento en que el robot tome la muestra de agua, al igual que estén bien aislados por precaución.



METODOLOGÍA

En dicho proyecto utilizaremos una ESP 32, ya que nos permite estar conectados a internet todo el tiempo. Hoy en día es indispensable estar conectado a internet, la ESP 32 es sencillo de programar y funciona bien para el trabajo que tenemos que realizar, también utilizaremos distintos sensores los cuales son compatibles con la placa, ya que es un robot autónomo, el cual deberá detectar el agua y poder hacer las actividades correspondientes. Se utilizaran los siguientes sensores.  Utilizamos  sensores ultrasónicos que miden la distancia mediante el uso de ondas ultrasónicas. El cabezal emite una onda ultrasónica y recibe la onda reflejada que retorna desde el objeto. El sensor de lluvia es un dispositivo que distingue cuando está lloviendo y el nivel de intensidad. El sensor de temperatura y humedad  es fácil su uso. Utiliza un sensor capacitivo de humedad y un termistor para medir el aire circundante, y muestra los datos mediante una señal digital en el pin de datos (no posee salida analógica). Es bastante simple de usar tanto en hardware como software. El único inconveniente de este sensor es que sólo se puede obtener nuevos datos una vez cada 2 segundos. Sensor láser es un módulo es útil para determinar la distancia de un objeto o la detección o alarma de movimiento en caso de ser necesario      


CONCLUSIONES

El propósito del proyecto era hacer la programación por medio de Home Assistant pero se complicó un poco la instalación en el equipo que estábamos trabajando, decidimos hacer la programación en Arduino y al final tuvimos éxito, todos los sensores funcionaron correctamente, aunque tuvimos un poco de complicaciones con el sensor de humedad y temperatura, pero al final se puedo concluir correctamente.   
Ávila Tinoco Javier Eduardo, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

IMPLEMENTACIóN DE GOOGLE Y POWER APPS EN NORMA ISO 21001 DE LA UNIVERSIDAD TECNOLóGICA PASO DEL NORTE


IMPLEMENTACIóN DE GOOGLE Y POWER APPS EN NORMA ISO 21001 DE LA UNIVERSIDAD TECNOLóGICA PASO DEL NORTE

Ávila Tinoco Javier Eduardo, Instituto Tecnológico de Ciudad Juárez. Robles Valenzuela Pedro Ivan, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

Caso de estudio Servicio - Implementación de Google y Power apps en NORMA ISO 21001 de la universidad tecnológica paso del norte. Asesor: Dr. Ivan Martínez Mendoza Estudiante: Avila Tinoco Javier Eduardo, Robles Valenzuela Pedro Ivan. Planteamiento del problema Las empresas que ofrecen un bien o servicio están dedicadas a enfocarse totalmente en la satisfacción al cliente. Son las encargadas de asegurarse en cumplir con las expectativas y requisitos propuestos por el cliente, por lo cual, es necesario para estas empresas llevar un total control sobre los servicios que se ejecutan y los bienes que se producen, para asegurarse que el trabajo se este realizando adecuadamente por parte de los trabajadores. Como sabemos la tecnología está creciendo día con día, y nos tenemos que adaptar al entorno en que vivimos. Con el crecimiento de la tecnología también crecen los problemas, por lo que se debe de tener una gestión de calidad optima y apoyándonos con herramientas de Google apps y Power apps, nos pueden ser útiles al documentar y optimizar actividades, manteniendo la efectividad en cada operación.



METODOLOGÍA

Se definió el proyecto elaborando una breve introducción sobre la empresa, se elaboró un enunciado problema con apoyo de la implementación de las Power apps y Google Apps en la gestión de calidad en la cual nos estamos apoyando en la ISO 21001. Hemos logrado adquirir conocimiento de las diferentes aplicaciones de Power apps y Google apps, aplicando a la automatización de los sistemas de gestión de calidad. Se realizo un plan de acción de mejora para las variables que intervienen en el proceso, se generaron posibles soluciones, se evaluaron las soluciones, se pusieron a prueba las diferentes aplicaciones mencionadas, recabando información para identificar cuáles de estas pueden ser más útiles e implementadas en una empresa para realizar de manera más sencilla y eficaz nuestras tareas más exigentes.


CONCLUSIONES

Durante la estancia de verano hemos logrado adquirir conocimiento de las diferentes aplicaciones de Power apps y Google apps, aplicando a la automatización de los sistemas de gestión de calidad. En conjunto con la Universidad Tecnológica Paso del Norte hemos aprendido como utilizar diversas herramientas que antes no imaginábamos tener al alcance desde cualquier dispositivo ya sea ordenador o móvil, y lo mejor es que hemos aprendido como usarlas tanto en el ámbito casual del día a día como en el ámbito profesional, ya que estas apps te hacen las tareas más sencillas y te ayudan a recordar tus tareas pendientes.
Aviles Alvarado Manuel, Instituto Tecnológico de Morelia
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

RIESGO ACCIDENTE MOVILIDAD CICLISTA (RAMCI)


RIESGO ACCIDENTE MOVILIDAD CICLISTA (RAMCI)

Aviles Alvarado Manuel, Instituto Tecnológico de Morelia. García Sandoval Jesús Mario, Instituto Tecnológico Superior de Cajeme. Vazquez Mendez Lizeth Jackeline, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea el desarrollo de una plataforma, con base en algoritmos y técnicas de inteligencia artificial, donde el usuario pueda visualizar la clasificación del riesgo, resultado de un proceso de investigación y análisis que abarca desde la recolección de información de distintas bases de datos de instituciones dedicadas a recolectar información en donde ciclistas fueron parte de accidentes.



METODOLOGÍA

Desarrollar e implementar la plataforma inteligente de predicción de la severidad de accidentes de movilidad  ciclistas en tiempo real.  Para ello se definieron los siguientes fases: generación del dataset (homologación, variable de tráfico por vialidad, variable de tráfico de zona), predicción de severidad (selección de variables, pruebas de concepto con modelos de machine learning, codificación y pruebas de algoritmos en Python) e implementación de la plataforma.    


CONCLUSIONES

A la finalización del proyecto se destacan los siguientes puntos:  Se creó una plataforma web con base en inteligencia artificial (con aproximadamente 2 mil líneas de código en python). Se creó la arquitectura software (con aproximadamente 20 diagramas de planos arquitectónicos). Se creó la wiki del proyecto. Se crearon 7 repositorios. Se creó 2 la variables de flujo de tráfico. Como resultado, en la plataforma se pueden visualizar tres mapas distintos: mapa basado en los datos de la infraestructura de la ciudad para el uso de las bicicletas como medio de transporte; mapa con datos dinámicos respecto al día, la hora y el tráfico de la ciudad junto con los datos de infraestructura; y mapa con datos dinámicos personalizables según el usuario, tomando en cuenta su edad, sexo y los otros tipo de vehículos que circulan.
Ayala Fontal Juan Carlos, Unidad Central del Valle del Cauca
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

PROTOTIPO DE SISTEMA INTEGRADO PARA AUTODIAGNóSTICO DE PRUEBAS RáPIDAS DE LABORATORIO (PRESIóN, GLUCOMETRíAS, OXIMETRíAS, CARDIO-PULMONARES, EMBARAZO Y OTRAS) PARA CITAS MéDICAS QUE MEJORE LA ATENCIóN EN PROCESOS DE DIAGNóSTICOS MéDICOS.


PROTOTIPO DE SISTEMA INTEGRADO PARA AUTODIAGNóSTICO DE PRUEBAS RáPIDAS DE LABORATORIO (PRESIóN, GLUCOMETRíAS, OXIMETRíAS, CARDIO-PULMONARES, EMBARAZO Y OTRAS) PARA CITAS MéDICAS QUE MEJORE LA ATENCIóN EN PROCESOS DE DIAGNóSTICOS MéDICOS.

Ayala Fontal Juan Carlos, Unidad Central del Valle del Cauca. Leal Ramos Felipe, Universidad Tecnológica de Tecamachalco. Perez Santamaria Oscar, Universidad Tecnológica de Tecamachalco. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Hoy en día en el mundo existen pocos proyectos y dispositivos que analisen y generen resultados de pruebas de toma de exámenes médicos de forma rápida e integral, por tal motivo es importante pensar en este tipo de proyectos que se puedan diseñar, codificar y construir a partir de partes electrónicas que sean favorables considerando los costos de fabricación y ensamblaje. Un proyecto que aproveche los datos de resultados generados por los dispositivos permite la búsqueda de nuevas alternativas para los pacientes donde se fortalezca la forma como se pueden realizar los exámenes de laboratorio médico de forma rápida para evitar retrasos en los diagnóstico que el especialista en la salud le deba formular al paciente. En otro escenario el paciente llega a los centro de salud sin realizarse las pruebas de laboratorio y esto genera retrasos o inconvenientes al especialista en la salud en cuanto a diagnosticar al paciente.  En el proyecto se estudia, diseña, ensambla y evalúa los dispositivos integrados en el sistema de autodiagnóstico de pruebas rápidas de laboratorio por medio de la utilización de modelos de simulación de circuitos que respondan a ¿Cómo hacer para generar los resultados de exámenes de laboratorio de forma rápida para poder realizar diagnósticos médicos? Para poder dar solución a esta pregunta se ha optado por la utilización de la electrónica considerando que esta cuenta con técnicas avanzadas que pueden dar como resultado una aproximación a los valores esperados en la generación de resultados de pruebas rápidas que sean integradas a un mismo dispositivo.  



METODOLOGÍA

Se trabaho en una metodologia de prototipo evolutivo donde se realizaron las siquientes etapas: Recolección de informacion y componetes electronicos para el refinamiento del equipo Modelado, diseño rápido y simulacion de los componentes electronicos  Construcción del Prototipo Desarrollo, evaluación del prototipo Refinamiento del prototipo Producto de Ingeniería


CONCLUSIONES

Este proyecto aprovecha los datos de resultados generados por los dispositivos  electrónicos contribuyendo a incorporar nuevas alternativas para los pacientes donde se fortalezca la forma como se pueden realizar los exámenes de laboratorio médico de forma rápida para evitar retrasos en los diagnóstico que el especialista en la salud le deba formular al paciente. El proyecto es una guía para construir, ensamblar y utilizar este tipo de nuevos sistemas para el diagnóstico de pruebas de laboratorio que ahorran tiempo y costos por ser un prototipo que se realiza desde la academia.  
Ayala González Arturo, Universidad Autónoma del Estado de México
Asesor: Post-doc Wilfredo Marimon Bolivar, Universidad Católica de Colombia

EVALUACIóN DEL TRANSPORTE DE SEDIMENTOS CONTAMINADOS POR METALES PESADOS A CAUSA DE LA ACTIVIDAD MINERA EN LA CUENCA DEL RíO QUITO, DEPARTAMENTO DE CHOCó, COLOMBIA.


EVALUACIóN DEL TRANSPORTE DE SEDIMENTOS CONTAMINADOS POR METALES PESADOS A CAUSA DE LA ACTIVIDAD MINERA EN LA CUENCA DEL RíO QUITO, DEPARTAMENTO DE CHOCó, COLOMBIA.

Ayala González Arturo, Universidad Autónoma del Estado de México. Asesor: Post-doc Wilfredo Marimon Bolivar, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Desde finales de los años 90’s, personas foráneas llegaron a la cuenca del Río Quito debido a la potencial actividad económica minera, quienes comenzaron a utilizar técnicas de extracción de metales con maquinaria pesada. Entre 2004 y 2009 la técnica de explotación aurífera por medio de dragas fue la más predominante. Habitantes cercanos al río reportan que la explotación minera fue tan grande que 27 dragas se encontraban en actividad al mismo tiempo. El mercurio es el metal más utilizado para el proceso de separación del oro. Esto implica que importantes cantidades de este metal pesado se vierten a las aguas del río provocando la contaminación de este. Esta situación podría desencadenar problemas para la salud humana y para la vida acuática. A lo largo del Río Quito se presentan concentraciones de metales pesados como el cromo, el mercurio, arsénico, níquel, entre otros. Indudablemente, la presencia de estos se debe a la minería y actividades como la deforestación, degradando la calidad del agua, contaminando el ambiente y presentando un riesgo para la salud. Actualmente, la explotación del oro ha desatado un conflicto socioambiental importante y los ríos de la cuenca del Rio Atrato se encuentran bajo protección de la Corte Constitucional por el daño que han recibido los ríos y el medio ambiente debido a la actividad minera. Sin embargo, el daño continúa en el Rio Quito ya que la práctica de la minería aún es practicada debido al ineficiente control por parte de las autoridades. A pesar de que se han hecho diversos estudios para el cálculo del transporte de sedimentos en el Río Quito; aún falta que se determine con precisión la cantidad de metales pesados que son depositados y transportados a lo largo del río ya que no se sabe con certeza cuál es la cantidad de sedimentos que se depositan en el trascurso del río.



METODOLOGÍA

En el trabajo de investigación que se realizó se abordó acerca del proceso llevado a cabo para obtener la información relacionada con la cantidad de sedimentos depositados o erosionados a lo largo del Río Quito. Esta información será utilizada en un futuro estudio enfocado a obtener la cantidad de metales depositados a lo largo del río. Para llevar a cabo la tarea del cálculo de los sedimentos depositados y erosionados a lo largo del Río Quito se elaboró un modelo del Río Quito utilizando el software de uso libre HEC-RAS en su versión 6.2, el cual fue desarrollado por el Cuerpo de Ingenieros del Ejército de los Estados Unidos. La simulación del río en el software se llevó a cabo desde el 1 de febrero de 2022 a las 07:00 horas hasta el 28 de febrero de 2022 a las 18:00 horas. La información necesaria para alimentar el modelo en el software se tomó de la información recopilada por el Ministerio de Ambiente y Desarrollo Sostenible de Colombia (2022) en el marco de los trabajos realizados en su proyecto Generación de insumos técnicos y de apropiación social para el diseño de la estrategia de rehabilitación y/o restauración ecológica de la cuenca del Río Quito, en el marco de la sentencia T-622 de 2016.


CONCLUSIONES

El transporte de sedimentos en el Río Quito se ha visto incrementado debido a la actividad minera que ilegalmente se desarrolla en el Departamento de Chocó, Colombia. Es importante realizar la evaluación del transporte de sedimentos en este río ya que los contaminantes metálicos productos de la actividad minera se mezclan con las aguas del río y se adhieren a las partículas sólidas. Es decir, el primer paso para conocer la cantidad de contaminantes metálicos transportados y depositados a lo largo del río es conocer la cantidad de sedimentos que se depositan en él. En la siguiente lista, se muestra la comparación de la cantidad de sedimentos, en masa, que se depositan en el río y en cuál sección es donde más ocurre el depósito, es decir, la sección crítica donde más depósito de sedimentos y de contaminantes se pudiera encontrar. Como se pude observar, el escenario que más provoca depósito de sedimentos es el de caudales máximos en la sección cuya estación es la 1,001 m; la cual se está repitiendo como la más crítica en tres de los cuatro escenarios. Caudales mínimos 199,000 toneladas de sedimentos depositadas en la sección 11,911 m. Caudales promedio 152,000 toneladas de sedimentos depositadas en la sección 1,001 m. Caudales máximos 401,000 toneladas de sedimentos depositadas en la sección 1,001 m. Caudales de restauración 177,000 toneladas de sedimentos depositadas en la sección 1,001 m.
Ayala Hernandez Orlando, Universidad Vizcaya de las Américas
Asesor: Dr. Jesús Murillón Duarte, Instituto Tecnológico Superior de Uruapan

USO Y EFICIENCIA DE ROTONDAS EN LA CIUDAD DE URUAPAN, MICHOACÁN


USO Y EFICIENCIA DE ROTONDAS EN LA CIUDAD DE URUAPAN, MICHOACÁN

Ayala Hernandez Orlando, Universidad Vizcaya de las Américas. Asesor: Dr. Jesús Murillón Duarte, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La presente investigación se enfoca en el uso y eficiencias de rotondas o glorietas en Uruapan, las glorietas tienen ya varios años que surgieron y se volvieron un gran método para que el trafico fluyera, las cuales son muy funcionales y eficaces en diversos continentes en especial en Europa, pero por esta ocasión nos enfocaremos en México y específicamente en la ciudad de Uruapan Michoacán. Se enfocara la investigación, en si realmente son útiles y necesarias las glorietas en la ciudad de Uruapan, Michoacán.



METODOLOGÍA

Por esta ocasión se realizó una investigación mixta la cual es una metodología de investigación que consiste en recopilar, analizar e integrar tanto investigación cuantitativa como cualitativa. Este enfoque se utiliza cuando se requiere una mejor comprensión del problema de investigación, y que no te podría dar cada uno de estos métodos por separado. Los datos cuantitativos incluyen información cerrada como la que se utiliza para medir actitudes, por ejemplo, escalas de puntuación.


CONCLUSIONES

Se llego a la conclusión gracias a la investigación cuantitativa como cualitativa de que efectivamente el uso de las glorietas o rotulas son más adecuadas para evitar el tráfico en las ciudades, Respecto al tiempo, una glorieta reduce las demoras de los vehículos entre un 13 y un 23 por ciento y la proporción de vehículos que se detuvieron se redujo entre un 14 y un 37 por ciento. ya que se pierde mucho tiempo muerto en los semáforos los cuales no pasan nada de carros, Dado que las rotondas mejoran la eficiencia del flujo de tráfico, también reducen las emisiones de los vehículos y el consumo de combustible.
Ayala Jeronimo Carmen Gabriela, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla

SISTEMAS TUTORES INTELIGENTES ADAPTATIVOS Y SISTEMAS HIPERMEDIA ADAPTATIVOS


SISTEMAS TUTORES INTELIGENTES ADAPTATIVOS Y SISTEMAS HIPERMEDIA ADAPTATIVOS

Ayala Jeronimo Carmen Gabriela, Instituto Tecnológico de Estudios Superiores de Zamora. Magdaleno López Angel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La Facultad de Ciencias de la Computación de la BUAP enfrenta un grave problema de reprobación y bajo rendimiento académico para los estudiantes, especialmente en las materias de Metodología de la Programación y Programación I. Aunque se realizaron modificaciones al plan de estudio para abordar esta situación, el porcentaje de reprobados sigue siendo alto, y el bajo rendimiento académico se extiende a lo largo de varios cuatrimestres. Se han identificado múltiples factores que contribuyen a estos resultados, incluyendo el ausentismo, falta de asesoría individualizada, deficiencia en la comprensión y solución de problemas, y limitadas estrategias de aprendizaje por parte de los estudiantes. Aprender a programar se considera una tarea difícil, y muchos estudiantes novatos tienen dificultades en planificar programas y combinar conocimientos y estrategias de programación. Se ha observado que hay diferencias marcadas entre los resultados de los estudiantes, independientemente del profesor que imparta la materia. Por lo tanto, se plantea la necesidad de investigar el aprendizaje autónomo como un proceso individual que depende del trabajo, los hábitos de estudio y las estrategias del alumno. El propósito final de esta investigación es proporcionar un proceso de enseñanza para ampliar y mejora el repertorio de estrategias de aprendizaje de los alumnos, para poder avanzar de manera autónoma en la materia de Metodología de la Programación y, con ello, reducir los índices de reprobación.



METODOLOGÍA

A partir de la revisión de varios resultados de estudios y artículos relacionados con el diseño de sistemas hipermedia educativo-adaptativos, se han identificado diferentes herramientas y estrategias que se pueden utilizar para desarrollar estos sistemas. Los STI y STA utilizan algoritmos y técnicas de inteligencia artificial real o simulada para evaluar el desempeño de los estudiantes y ofrecer recomendaciones y actividades adaptadas a su nivel de conocimiento. A través de interacciones con el estudiante, estos sistemas pueden detectar errores comunes, evaluar el progreso y ajustar el contenido para optimizar el aprendizaje. Lo anterior es expuesto en el artículo de Walkington, C., & Bernacki, M. L. (2019). Donde se menciona que en un sistema tutor inteligente se deben llevar registro de indicadores de atención del estudiante. Se indica que se debería registrar el utilizar indicadores como solicitudes de ayuda anteriores, duración de las acciones, la frecuencia con la que una pista se sigue de un error, acciones en las que se predice que el estudiante ha aprendido después de adivinar, dar una respuesta incorrecta en lugar de pedir una pista, entre otros. Por otro lado, las ayudas de hipermedia dinámicas, como las utilizadas por Salazar (2017), se destacan por su capacidad para dinamizar la enseñanza y promover el trabajo colaborativo entre docentes y estudiantes mediante el uso de herramientas como videos, pruebas en línea y aprendizaje basado en problemas de la vida real. El impacto del uso de sistemas hipermedia educativo-adaptativos en el aprendizaje es un tema relevante en la educación, sobre todo en la moderna. Varias investigaciones han abordado esta temática, proporcionando diferentes enfoques y criterios para el diseño de estos sistemas. Benigni y Marcano (2014) examinaron los criterios que debe satisfacer un sistema hipermedia adaptativo, destacando la forma de hipertexto o hipermedia, el incluir un modelo de usuario y la capacidad de adaptarse según este modelo. Asimismo, identificaron diversas formas de adaptación tanto en la presentación como en la navegación, como la provisión de explicaciones adicionales, prerrequisitos, comparaciones, variantes y ordenaciones. En el trabajo realizado por Ingrid y Gladis, en las escuelas, liceos y universidades en Venezuela que utilizan los medios tecnológicos para incentivar y motivar el aprendizaje, como es el caso del proyecto Programa de Fomento al Uso de Redes Avanzadas en Latinoamérica para el Desarrollo de la Ciencia, Tecnología e Innovación, Los criterios que debe satisfacer un sistema hipermedia adaptativo en base a lo que establece Buitrago (op. cit.), son tres (3): a) ser un sistema hipertexto o hipermedia, b) tener un modelo de usuario y c) ser capaz de adaptar el hipermedia usando este modelo. Por otro lado, Ponce, Pintado y Biset (2019) realizaron un análisis de implementaciones de sistemas tutores inteligentes y afectivos, utilizando electrocardiogramas y otras mediciones fisiológicas para evaluar las respuestas emocionales de los estudiantes. Encontraron que la intervención emocional no siempre es necesaria, pero que ciertas emociones como el aburrimiento y la insatisfacción pueden afectar la interacción con el sistema tutor. Además, Reyes, Hernández, Martínez y Esquivel (2021) exploraron la gamificación como herramienta de apoyo en sistemas tutores inteligentes. Se destacó que los juegos pueden ser efectivos para enganchar a los estudiantes y facilitar el aprendizaje de manera lúdica. Apoyando este artículo, Gutiérrez (2016) exploró el impacto de un tutor inteligente de entrenamiento de atención selectiva sobre el aprendizaje matemático. Se resaltó la importancia de la atención selectiva en el proceso de aprendizaje y cómo los STI pueden incluir pequeños videojuegos para trabajar con esta habilidad. Por lo que se concluye que el uso de Sistemas Tutores Adaptativos a manera de juego, son una excelente opción para mantener centrados y motivados a los estudiantes, solucionando así los problemas que presentaban Ponce, Pintado y Biset en su artículo, donde se menciona que el estudiante no se debe aburrir ni sentir insatisfacción.


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos teóricos sólidos de los sistemas tutores inteligentes adaptativos, sistemas hipermedia adaptativos y la comprensión de nuevos conceptos. Sentimos que desconociamos que existiera tanta información en diversos idiomas de estos temas, nos resultó muy interesante que desde hace años atrás se estuvieran llevando a cabo extensos estudios sobre los STI y que, además, tuvieran tan buenos resultados. Nos enseñó un nuevo panorama sobre lo que podemos lograr siendo profesionista como Ing. en Sistemas Computacionales. Además, nos generó interes por que tantos parametros se deben medir para mejorar la educación, que consas infuyen y nos ayudo demasiado entender como funcionan plataformas de este tipo que inclusive ya hemos usando con anterioridad, como lo es Khan Academy, la cual fue con la que más tuvimos contacto durante la estancia. Se espera la implementación exitosa de todas las actividades trabajadas en la materia de matemáticas, puntualmente de algebra, dentro del Sistema Educativo desarrollado, logrando así el objetivo esperado.
Ayala Pérez Rosa Elia, Instituto Tecnológico de Morelia
Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia

PRACTICA DE LA SOLDADURA SMAG Y GMAW


PRACTICA DE LA SOLDADURA SMAG Y GMAW

Ayala Pérez Rosa Elia, Instituto Tecnológico de Morelia. García Cruz Brenda, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernández Salinas Gerardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez González Aradei, Instituto Tecnológico de Morelia. Pérez Padilla Maria Mercedes, Instituto Tecnológico de Morelia. Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La soldadura es un proceso fundamental en la fabricación y construcción de estructuras de acero utilizadas en diversos sectores industriales, como la construcción, la industria automotriz, la fabricación de maquinaria pesada, entre otras. Dos de los métodos de soldadura más comunes y ampliamente utilizados son la Soldadura por Arco de Metal con Gas (GMAW) y la Soldadura por Arco de Metal Protegido (SMAW). El proceso de soldadura GMAW, también conocido como soldadura MIG (Metal Inert Gas), utiliza un arco eléctrico entre un electrodo continuo de alambre y la pieza de trabajo, mientras que un gas inerte protege la soldadura del contacto con el aire. Por otro lado, la soldadura SMAW, también conocida como soldadura con electrodo revestido o soldadura al arco, emplea un electrodo recubierto que proporciona el metal fundido y crea un gas protector. El objetivo de esta práctica fue proporcionar una evaluación comparativa exhaustiva entre la soldadura GMAW y la soldadura SMAW, basada en teoría y prácticas para determinar cuál de los dos métodos es más adecuado para aplicaciones específicas en la industria de la construcción y fabricación de estructuras de acero. Una vez practicado los dos tipos de soldadura, podremos tener claro las diferencias y similitudes entre GMAW y SMAW, se podrán tomar decisiones informadas para mejorar la calidad y eficiencia de las soldaduras en el futuro.



METODOLOGÍA

GMAW Para este tipo de soldadura se utiliza un alambre sólido (hilo-electrodo) , la composición química del alambre debe ser muy similar a la de la placa donde se va a soldar, una de las diferencias que se percataron con el SMAW es que en este se forma una pequeña escoria en el cordón, más sin embargo en el de GMAW no sucede esto, por el gas protector, el gas base que se utiliza es argón (Ar), y en este proceso se pueden agregar a parte de este gas otros diferentes, la principal función del gas de protección es servir de barrera para el aire atmosférico, y tener un acabado de cordón sin poros y sobre todo muy estético.  Este proceso consiste en una fuente de energía que tiene generalmente una salida de voltaje constante regulable entre 15 y 50 voltios, una torcha, el recipiente fuente de gas y el alimentador de alambre, la cual es usada en conjunto con un sistema alimentador de alambre con velocidad regulable, que va desde 1 a 20 metros por minuto. Ahora bien, funciona de la siguiente manera; Un generador proporciona una potencia eléctrica que crea un arco eléctrico entre el hilo-electrodo (metal de aporte) y la pieza que se va a soldar, provocando un calor de gran intensidad. Esto permite la fusión de las piezas metálicas que se van a unir y del metal de aporte. A parte, maneja tres diferentes modos de transferencia, cada uno trabaja con diferente presión y voltaje. Globular En esta transferencia el diámetro de las gotas aumenta siendo iguales o hasta mayores que el diámetro del alambre este tipo de transferencia ocurre en la zona de transición cuando los niveles de amperaje y voltaje se encuentran entre el punto de cortocircuito y spray ocasionando en la mayoría de los casos un alto nivel de inestabilidad no es utilizado en la mayoría de las aplicaciones, la fase globular se genera en una corriente entre 200 o 250 amperios   Corto Circuito Esta transferencia se genera cuando el alambre toca la placaahí se genera el cortocircuito y ahí se comienza a desprender el material, el corto circuito es el modo de transferencia que menor calor aporta presenta, se genera entre 150 y 200 amperios   Spray Esta transferencia se genera en altos niveles de amperaje, se utiliza principalmente en superficies horizontales y planas, al utilizar voltajes altos se obtienen cordones de soldadura gruesos, este proceso presenta un arco estable y libre de salpicaduras. SMAW La soldadura SMAW es un proceso en el cual la fusión del metal se produce debido al calor generado por un arco eléctrico que se crea entre el extremo de un electrodo y el metal base al que se va a unir. El material de aportación, es decir, el que se obtiene del cambio sólido a líquido del electrodo se da en forma de gotas pequeñas. Equipo El equipo necesario para realizar una soldadura SMAW consta de cinco elementos: Fuente de energía Pinza porta electrodos Electrodo revestido Conexión a masa Cables de soldeo Aplicaciones La SMAW es la soldadura por arco más utilizada debido a que es aplicable a una diversidad de materiales y a que es requerida en industrias de sectores diferentes. Acerca de los materiales, la SMAW es útil para unir aceros (al carbono, altamente inoxidables y de baja aleación), fundiciones y metales no férreos (aluminio, cobre, níquel y sus aleaciones).  La SMAW puede utilizarse con corriente alterna o continua. La elección de una u otra depende del electrodo elegido, de la fuente de corriente disponible y del material base. Sobre los sectores industriales, la soldadura por arco con electrodo revestido tiene aplicación en todos aquellos en los que se involucre la construcción de calderas, esferas de almacenamiento, gasoductos, oleoductos, puentes, recipientes a presión, refinerías y tanques.


CONCLUSIONES

GMAW. Después de haber empleado distinto parámetros operativos, mezclas de gases, técnicas  de soldeo y modos de transferencia de metal de aporte, se pudo corroborar la gran versatilidad del proceso para ser empleado en una gran gama de materiales y espesores.  Lo anterior permite generar un ahorro significativo  en tiempos de manufactura y por ende en costos de fabricación SMAW. Con el uso de distintos tipos de electrodo en distintas posiciones de soldeo, se pudo entender que la habilidad de soldar es crítica para la correcta ejecución del proceso y asegurar la sanidad de las uniones realizadas. A pesar de ser un proceso manual, de un relativo bajo rendimiento y que no es automatizable, es ampliamente usado porque, con soldadores certificados, permite realizar uniones en sitios de trabajo incomodos e  inhóspitos debido a la sencillez del equipo y consumibles empleados  
Ayala Reyes Arely Daniela, Universidad de Guadalajara
Asesor: Dr. Fernando Pech May, Instituto Tecnológico Superior de Los Ríos

MAPEO DE INUNDACIONES UTILIZANDO APRENDIZAJE PROFUNDO E IMáGENES SENTINEL: UN ANáLISIS DE ENFOQUES


MAPEO DE INUNDACIONES UTILIZANDO APRENDIZAJE PROFUNDO E IMáGENES SENTINEL: UN ANáLISIS DE ENFOQUES

Ayala Reyes Arely Daniela, Universidad de Guadalajara. Asesor: Dr. Fernando Pech May, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es la causa principal del aumento significativo de desastres naturales en todo el mundo. Esto conlleva a riesgos y afectaciones a millones de personas en todo el mundo. Es importante destacar que más del 75\% de los desastres naturales a escala mundial están relacionados con inundaciones. Estos eventos de inundación representan el fenómeno hidrológico más recurrente y devastador en términos de pérdidas humanas y económicas. Las consecuencias de las inundaciones pueden ser devastadoras en múltiples aspectos de nuestra vida cotidiana. No solamente ponen en peligro nuestra salud y estabilidad económica, sino que también ejercen un impacto grave en la infraestructura que sustenta nuestras comunidades y en la estructura misma de la sociedad en su conjunto. En este contexto la generación de mapas de inundación sería de gran utilidad para identificar zonas de mayor daño así como el trazo de rutas para acceso a pronta ayuda, entre otros. Con el avance de las herramientas y tecnologías, es posible utilizar distintas estrategias para el desarrollo de mapeo de inundaciones. La teledetección y la inteligencia artificial está llevando a una rápida expansión en el desarrollo de estrategias para el mapeo de inundaciones. No obstante, dado que aún se trata de un tema emergente, surge la necesidad de comprender el contexto en su totalidad. En este sentido, es importante analizar las distintas estrategias propuestas para el mapeo de inundaciones que utilizan técnicas y herramientas de inteligencia artificial, específicamente aprendizaje profundo y el uso de imágenes satelitales del Programa Copernicus.



METODOLOGÍA

Con el propósito de obtener una comprensión más completa de los avances tecnológicos en teledetección, aprendizaje profundo y mapeo de inundaciones, se lleva a cabo un análisis sistemático de una variedad de investigaciones publicadas. En un principio, se recopilaron aproximadamente 46 investigaciones que se centran en el mapeo de inundaciones mediante la aplicación de algoritmos de aprendizaje profundo. Estos estudios fueron seleccionados de diversas fuentes, como MDPI, arXiv, Elsevier e IEEE. Posteriormente, se aplicó un filtro con el objetivo de elegir exclusivamente aquellos trabajos que utilizaran conjuntos de datos obtenidos de los satélites de la misión Sentinel de la Agencia Espacial Europea (ESA). Tras la aplicación del filtro, se obtuvo un total de 7 trabajos para ser sometidos a revisión. Para dar inicio a la revisión, se procede a organizar de manera sistemática los trabajos recopilados, realizando una lectura preliminar de títulos, resúmenes y palabras clave de cada artículo. Esto tiene la finalidad de obtener una visión general de su contenido y relevancia dentro del contexto de la investigación. A continuación, se realiza una lectura minuciosa de los artículos seleccionados, tomando notas detalladas sobre los enfoques de Aprendizaje Profundo empleados, los conjuntos de datos utilizados, los resultados obtenidos y otros aspectos cruciales para un análisis posterior. Con el propósito de efectuar una comparación exhaustiva, se construye una tabla que resume las características distintivas de cada trabajo seleccionado. Finalmente, se redacta un resumen de cada trabajo destacando los aspectos más relevantes, lo que sienta las bases para la posterior elaboración de un análisis que abarcará los 7 trabajos en conjunto.


CONCLUSIONES

El análisis busca resaltar los logros significativos obtenidos mediante la aplicación de estos algoritmos, especialmente en situaciones de desastres que abarcan inundaciones, donde entran en juego múltiples factores críticos como la salud, la infraestructura y las consideraciones económicas. Al mismo tiempo, brindar un contexto que permita comprender el estado actual y la dirección futura de estas tecnologías, así como los desafíos que actualmente surgen durante su implementación.
Ayala Romero Daniela, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE PRODUCCIóN EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU.


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE PRODUCCIóN EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU.

Ayala Romero Daniela, Instituto Tecnológico Superior de Uruapan. Ochoa Sierra Fernanda, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

RESUMEN: La productividad de las empresas públicas está íntimamente relacionada con las políticas gubernamentales de carácter popular insertas en la planeación nacional, para un mejor uso de los recursos humanos y materiales con los que cuenta la nación. El Service Level Management es uno de los cinco componentes fundamentales del área de prestación de servicios ITIL, y su comprensión es fundamental para garantizar el cumplimiento del nivel de servicio ofrecido tanto a clientes, usuarios y proveedores.



METODOLOGÍA

DMAIC Definir: Barreras encontradas (Falta de maquinaría, organización administrativa, operatividad, control de materiales) Acciones emprendidas (estandarización, tiempos, muestreos, análisis de los flujos de los procesos, priorización de atención a reportes) Medir: Muestreos en base a tiempos de trabajo Productividad Características de los tipos de reportes Analizar: Diferentes tipos de reporte El proceso de producción de los diferentes tipos de reportes Mejorar Tiempos en los procesos de producción Aumentar la atención de reportes por día, con finalidad de terminación Establecer políticas para atención a reportes como: Criterios de importancia en base al tiempo (primeras entradas primeras salidas), zona, tipo de reporte y gravedad de afectación social. Estandarización de tiempos en concluir un reporte operativamente. Proponer sistema de pago por destajo. Controlar: Flujos de salida y entrada de material en cuanto a cantidad y costo


CONCLUSIONES

Resultados A través de la metodología aplicada, algunos resultados obtenidos y por definir dentro del proyecto en la Institución Pública y de Servicios CAPASU, se describen de la siguiente forma: * Diagramas de flujo de todos los procesos * Estándar de tiempos del proceso * Formato de hoja del material utilizado por día * Muestreo de productividad * Tabla de características de tipos de reporte * Catálogo de materiales del departamento de producción.
Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Ayala Sosa Luis Alfredo, Instituto Tecnológico de Morelia
Asesor: Dra. María del Rocío Carranza Alcántar, Universidad de Guadalajara

MONITOREO DE SENSORES A TRAVéS DE SERVIDOR LAMP, UTILIZANDO RASPBERRYPI Y ESP32


MONITOREO DE SENSORES A TRAVéS DE SERVIDOR LAMP, UTILIZANDO RASPBERRYPI Y ESP32

Ayala Sosa Luis Alfredo, Instituto Tecnológico de Morelia. Reyes Castañeda Andrés Josue, Instituto Tecnológico de Morelia. Asesor: Dra. María del Rocío Carranza Alcántar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El presente documento tiene como objetivo presentar el procedimiento detallado para la prueba y monitoreo de un sensor DHT11, el cual proporciona información crucial sobre la temperatura y humedad del entorno. Para llevar a cabo esta tarea, se ha empleado una computadora de tamaña reducido, Raspberry Pi 3 con un sistema operativo Raspbian OS, a la cual se le instaló un servidor LAMP. Además, se complementa con un microcontrolador ESP32 programado mediante Arduino IDE. La colaboración entre estos componentes permite establecer una comunicación efectiva entre el sensor, arduino IDE y la Raspberry Pi 3.



METODOLOGÍA

Se eligió la configuración LAMP ya que ofrece diferentes herramientas que son bastante útiles además de la gran cantidad de información que existe de las mismas, con esta configuración el microcontrolador ESP32 podrá conectarse a al servidor alojado en la Raspberry Pi, donde se estará almacenando los datos emitidos por este, los cuales pueden ser lecturas de diferentes sensores según se requiera o comandos para el uso o control de un servomotor por ejemplo. Para este caso práctico se realizarán pruebas con un sensor de temperatura y humedad DHT11. Por medio de la consola de la Raspberry se realizó la debida instalación de Apache, MySQL y PHP, además de la configuración básica al crear un usuario y contraseña para acceder a phpmyadmin y visualizar las bases de datos además se configuró el tamaño de los datos ya que el servidor tendría que almacenar y recibir información. Se creó un archivo php el cual sería el encargado de comunicarse con el ESP32, recibir los datos y almacenarlos en una variable para después entrar a la base de datos y registrarlos dentro de la misma.


CONCLUSIONES

Al final del proyecto de investigación, se logró establecer con éxito una conexión adecuada entre un ESP32 y el servidor LAMP alojado en una Raspberry Pi. El código desarrollado para el ESP32 funcionó sin problemas, y se pudo verificar la confirmación de lectura, análisis y envío de los datos recopilados del sensor DHT11 a través del monitor serial. Los registros obtenidos del sensor DHT11 mostraron mediciones precisas y consistentes, lo que respaldó la eficacia del sensor. Mediante la imagen 3 y 4 se puede observar cómo se llevaron a cabo las interconexiones. Finalmente, este proyecto sienta las bases para expandir las capacidades y funcionalidades del sistema. Se podrían considerar mejoras como la incorporación de más sensores para monitorear diversas variables ambientales, como la humedad del suelo o la calidad del aire. Además, se podría explorar la integración de técnicas de análisis de datos avanzadas para extraer patrones y tendencias significativas, lo que permitiría una toma de decisiones más informada en tiempo real. este proyecto sienta las bases para expandir las capacidades y funcionalidades del sistema. Se podrían considerar mejoras como la incorporación de más sensores para monitorear diversas variables ambientales, como la humedad del suelo o la calidad del aire. Además, se podría explorar la integración de técnicas de análisis de datos avanzadas para extraer patrones y tendencias significativas, lo que permitiría una toma de decisiones más informada en tiempo real. 
Ayon Dueñas Cristhian Jael, Instituto Tecnológico de Tepic
Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo

ANALISIS DE CONGLOMERADOS DE COSTOS DE MONTAJE Y OPERACION DE UNA PLANTA DE RESIDUOS DE RCD


ANALISIS DE CONGLOMERADOS DE COSTOS DE MONTAJE Y OPERACION DE UNA PLANTA DE RESIDUOS DE RCD

Ayon Dueñas Cristhian Jael, Instituto Tecnológico de Tepic. Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

Los residuos de construcción y demolición “RCD” actualmente son causa de degradación ambiental y del paisaje urbano debido a su mala gestión en el intento de deshacerse de ellos, por lo tanto, este estudio tiene como objetivo comparar el capital requerido para construir y operar plantas de tratamiento de RCD en diferentes partes de el mundo, con el fin de aprovechar mejor estos residuos y reducir el impacto ambiental, se considerarán datos de países de todos los continentes: Europa, Asia y América, esta última enfocándose más en América del Sur.



METODOLOGÍA

Se realizaron búsquedas bibliográficas en ScienceDirect, Scopus y Google Seller. Recolectando información de diferentes países sobre el costo de operación y montaje de plantas de tratamiento de residuos RCD, esta información fue posteriormente recopilada en una base de datos donde se tomaron en cuenta diferentes aspectos económicos de los costos de estas plantas, luego se procedió a actualizar los precios de la planta. listados para el año en curso y luego se traslada la información de la base de datos al software de análisis estadístico, donde se realiza el proceso de agrupamiento, y a través del gráfico y la cantidad de conglomerados sugeridos, podemos observar cómo se agrupan los diferentes datos. Es por esto que se pueden llegar a las conclusiones hasta el momento, ya que la investigación aún está en curso y se pueden seguir recopilando datos de otros países.


CONCLUSIONES

El costo de una fábrica varía según la ubicación y la capacidad de la fábrica, esto juega un papel importante en la inversión. El costo de las fábricas europeas es más alto porque consideran la construcción general de infraestructura vial, servicios e instalaciones. Las fábricas asiáticas cuentan con tecnología europea, pero no consideran los mismos costos de infraestructura que en Europa,a igual que las fábricas latinoamericanas se esfuerzan por reducir los costos de fábrica y minimizar los gastos de infraestructura.
Azabay Najera Juan Daniel, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero

DESARROLLO DE UNA APLICACIóN WEB PARA SISTEMATIZAR EL PROCESO DE COTIZACIóN Y GESTIóN DE TRANSPORTES TERRESTRES EN LA AGENCIA DE VIAJES QUALITY


DESARROLLO DE UNA APLICACIóN WEB PARA SISTEMATIZAR EL PROCESO DE COTIZACIóN Y GESTIóN DE TRANSPORTES TERRESTRES EN LA AGENCIA DE VIAJES QUALITY

Azabay Najera Juan Daniel, Instituto Tecnológico de Chilpancingo. de la Cruz Nava Victor Manuel, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

En la agencia de Viajes Quality existe una problemática en su servicio de renta de transportes terrestres, ya que muchos clientes interesados no finalizan el proceso de contratación. Esta situación se debe en gran parte a que existen algunas deficiencias en el proceso que hacen que el tiempo de respuesta sea indefinido. Actualmente, el tiempo de respuesta puede tardar desde cinco minutos hasta más de un día. Lo que genera una experiencia inhóspita y poco confiable para los clientes. En el proceso de renta de transportes terrestres, es necesario que el agente de ventas recopile los datos necesarios de diversas fuentes, verificando previamente que estén actualizados. Después de obtener la información requerida, se deben realizar cálculos manuales con herramientas como papel, lápiz y calculadora, lo que puede generar retrasos y errores humanos en el proceso de cotización. Al obtener el precio, el agente de ventas debe consultar la disponibilidad de los transportes terrestres con el encargado correspondiente. Sin embargo, este último suele tener otras responsabilidades, lo que puede resultar en una respuesta tardía. Una vez confirmado el precio y la disponibilidad de cada transporte que se desee cotizar, se informa al cliente sobre el costo de la renta y las fechas disponibles. En este punto, el cliente debe confirmar si desea tomar el servicio. Si es así, se llega a un acuerdo mediante un contrato realizado en Excel para el servicio de transporte en las fechas y unidades solicitadas. Si se requiere actualizar el anticipo o hacer cambios en el nombre del contrato, es necesario realizar un nuevo contrato desde cero, ingresando todos los datos nuevamente. Si se desea modificar el itinerario, se debe volver a cotizar, lo que implica repetir todo el proceso. Todo lo anterior hace que el servicio de renta de transportes terrestres resulte fastidioso y lento tanto para el cliente como para el agente de ventas, lo que puede afectar negativamente la reputación de la empresa. Esto hace que el posible cliente al no tener una respuesta próxima decida buscar nuevas opciones de servicio con otras agencias ya que ellos buscan resolver su necesidad en el menor tiempo posible, a veces no considerando otros factores como el precio o la calidad del transporte. Por lo que es fundamental mejorar la eficiencia de este servicio para retener al cliente potencial y evitar la pérdida de oportunidades de negocio.



METODOLOGÍA

La metodología para desarrollar la página web de la agencia de viajes Quality se basará en un enfoque ágil y centrado en el usuario. Se comenzará con el análisis de requerimientos y el diseño de la interfaz de usuario utilizando Bootstrap para lograr un diseño responsivo y atractivo. Luego, se dividirá la interfaz en componentes de React para mejorar el modularidad y la reutilización de código, la metodología también incluye una comparación de páginas de agencias de viajes similares para tomar ideas y mejorar el diseño y las funcionalidades de la página web de la agencia Quality. Esto permite identificar las mejores prácticas y características de la competencia, con el objetivo de superar sus propuestas y brindar una experiencia más atractiva y satisfactoria a los usuarios. El desarrollo incluirá la implementación del flujo de cotización de precios, donde los usuarios ingresarán datos como fechas de salida y llegada, lugares de salida y destino, entre otros. Estos datos se procesarán para ofrecer opciones de viaje y sus precios correspondientes. React React es una biblioteca de JavaScript ampliamente utilizada para construirinterfaces de usuario interactivas y dinámicas en aplicaciones web. Desarrollada y mantenida por Facebook, React se centra en la construcción de componentes reutilizables que representan diferentes partes de la interfaz de usuario. La principal característica de React es su enfoque en el rendimiento y la eficiencia. Emplea un concepto llamado "Virtual DOM" (DOM virtual) que permite realizar actualizaciones en la interfaz de usuario de manera eficiente al minimizar las manipulaciones directas del DOM. Cuando los datos cambian en una aplicación React, React compara la representación virtual del DOM con el DOM real y actualiza solo las partes que han cambiado, evitando actualizaciones costosas en términos de rendimiento. React también es conocido por su programación declarativa. En lugar de manipular directamente el DOM para realizar cambios en la interfaz de usuario, en React se describe cómo debería lucir la interfaz en diferentes estados y React se encarga de realizar los cambios necesarios en el DOM real para que coincida con esa descripción.


CONCLUSIONES

Durante la estancia logramos adquirir el conocimiento sobre el lenguaje React, su entorno de programación y como ponerlo en practica para desarrollar la página de cotización para los clientes de la empresa Quality permitiéndonos dividir la interfaz en componentes reutilizables, como formularios de selección de destinos, fechas y preferencias. El trabajo realizado se encuentra en su etapa de despliegue a la espera de ser subido a un servidor en línea para que sea accesible en Internet.
Azuara Castro Irving Yatseel, Instituto Politécnico Nacional
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

COMPARATIVA ENTRE LAS TéCNICAS CLáSICAS DE PROCESAMIENTO DE IMáGENES Y EL USO DE MODELOS NEURONALES EMPLEADOS PARA EL RECONOCIMIENTO DE FORMAS Y COLORES EN IMáGENES.


COMPARATIVA ENTRE LAS TéCNICAS CLáSICAS DE PROCESAMIENTO DE IMáGENES Y EL USO DE MODELOS NEURONALES EMPLEADOS PARA EL RECONOCIMIENTO DE FORMAS Y COLORES EN IMáGENES.

Azuara Castro Irving Yatseel, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el ámbito del procesamiento de imágenes y visión artificial, actualmente, se emplean técnicas clásicas para extraer los datos, así como, modelos neuronales de forma que aprenda rasgos característicos de los objetos, y pueda identificarlos en las imágenes. Es necesario determinar qué tipo de algoritmos emplear con el objetivo de lograr extraer la mayor cantidad de datos, de este hecho surge la necesidad de conocer las ventajas del uso de técnicas convencionales como de las ventajas de implementar un sistema neuronal. Con base en lo expuesto, el presente trabajo hace la comparativa de los resultados obtenidos, así como del proceso de programación que requiere implementar ambas soluciones: un sistema neuronal y las técnicas convencionales de procesamiento de imágenes, ambas aplicadas para identificar formas y colores en imágenes.



METODOLOGÍA

Inicialmente se realizó una investigación de las técnicas convencionales de procesamiento de imágenes y visión artificial, de la información recabada se concluye que al emplear técnicas convencionales de procesamiento de imágenes se debe seguir el siguiente proceso para poder identificar la mayor cantidad de detalles: Inicialmente se recomienda detectar el color, ya que discriminará la mayor cantidad de datos útiles. Para la detección específica del color, las máscaras y filtros basados en el modelo de color HSV dan los mejores resultados. Lo siguiente es buscar los bordes; para esto es requerido que previamente la imagen esté en escala de grises. Aplicar un filtro Gaussiano, de forma que los bordes sean resaltados. Aplicar un reconocedor de bordes denominado Canny en Python con la biblioteca de OpenCV que elimina el resto de la información en la imagen. A continuación, se dilata de forma que los bordes identificados aumenten su tamaño. Adicionalmente, se aplica la erosión para eliminar aquella información que no forme parte de un contorno. Por último, se identifican los contornos y se crean relaciones geométricas de los datos para poder etiquetar los hallazgos en figuras geométricas conforme el número de vértices encontrados y la distancia entre ellos. Como resultado se obtiene la imagen original con las formas encontradas y resaltadas, así como la etiqueta correspondiente de la figura geométrica y el color de esta. Respecto al sistema neuronal, se documentó acerca de modelos neuronales ya probados como es el caso de YOLO, que es un método de detección de objetos pre entrenado de código abierto que puede identificar objetos en imágenes o videos. Al comprender la estructura de los sistemas neuronales, se trabajó en la construcción de uno con la librería de OpenCV para el manejo de las imágenes, la librería numpy para el manejo de matrices, así como la librería tensorflow, específicamente keras, que simplifica la construcción de un modelo neuronal. Para el entrenamiento del modelo neuronal se empleó un conjunto de imágenes etiquetadas de círculos y cuadrados en color verde, así como rojo, teniendo dos clases, una para la forma geométrica, otra para el color; mismas imágenes que fueron normalizadas. Por último, se empleó un dataset de menor dimensión con imágenes de prueba, de forma que ambos métodos de solución emplean las mismas imágenes, para así poder analizar el desempeño de los dos algoritmos.


CONCLUSIONES

Sobre lo aprendido y experimentado en la construcción de un modelo neuronal, se requiere de un gran conocimiento teórico, acompañado de una buena habilidad de programación. En el caso del modelo neuronal desarrollado se encontró como problema el sobre ajuste del sistema, de forma que, en lugar de aprender de las características de las imágenes, las memorizaba, por lo que las predicciones no son del todo correctas. Para mejorar el funcionamiento del modelo es necesario generar un dataset mayor, con una gran cantidad de imágenes que propicien el aprendizaje del sistema; también se observó una mayor velocidad de respuesta; sin embargo, el proceso de entrenamiento del modelo es tardado, además de requerir de una gran cantidad de recursos de cómputo. Sobre el proceso convencional se observaron resultados no del todo correctos, sobre todo en la identificación de formas, debido a que se reconoce una gran cantidad de vértices; debido a esto, suele suceder tener falsos positivos, que determina que es un círculo, más que por la geometría, por el exceso de vértices encontrados. Por último, el proceso de construcción de un modelo neuronal es más tardado que el proceso convencional y requiere de un dataset amplio que permita generar aprendizaje; sin embargo, presenta mejores resultados; por otro lado, el método convencional requiere de un menor tiempo de programación y recursos de cómputo, sin embargo, para obtener mejores resultados, requiere ajustarse para cada imagen.
Babilonia Meza Nohemi Esther, Fundación Universitaria Tecnológico Comfenalco
Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua

PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.


PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.

Babilonia Meza Nohemi Esther, Fundación Universitaria Tecnológico Comfenalco. García Gálvez Jesús, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Muñoz Torres Eduardo Antonio, Instituto Tecnológico de Tepic. Nieto Mora Stefania, Institución Universitaria Colegio Mayor de Antioquia. Nieves Rivera Pablo Germán, Instituto Tecnológico de Tepic. Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La calidad del agua de las fuentes de abastecimiento se puede ver alterada por diversos factores, cuyo origen puede ser natural o antropogénico. La materia orgánica es uno de los contaminantes que puede encontrarse en los acuíferos por infiltración de aguas negras domésticas o industriales. El pozo de agua potable Tulyehualco, ubicado en la Ciudad de México, presenta un nivel significativo de materia orgánica medida como Demanda Química de Oxígeno (DQO). Debido a lo mencionado anteriormente, es importante buscar alternativas para el tratamiento del agua de dicha fuente de abastecimiento para disminuir la cantidad de materia orgánica presente dado que los métodos convencionales no logran cumplir con este objetivo. En este proyecto se llevó a cabo el método de foto-Fenton homogéneo, donde se implementó peróxido de hidrógeno y un agente oxidante que se obtuvo con hierro extraído de escoria de cobre en presencia de ácido cítrico para formar el complejo de citrato-hierro. Se buscó evaluar las mejores condiciones, por medio de un diseño experimental multifactorial, para lograr la disminución de la materia orgánica del pozo descrito anteriormente. Una vez formado el citrato de hierro y comenzada la reacción foto-Fenton, se liberan radicales hidroxilos (•OH) los cuales reaccionan con el agua problema para eliminar la materia orgánica.



METODOLOGÍA

Para la presente investigación se seleccionó el agua del pozo de Tulyehualco ubicado en la Ciudad de México la cual es distribuida para el consumo humano. Curva de calibración de peróxido de hidrógeno Se tomaron 3 mL de peróxido de hidrógeno al 30% y se aforó a 1 L con agua desionizada en un matraz volumétrico. A partir de esta solución madre se preparó una segunda solución madre en un volumen de medio litro y a una concentración de 250 mg/L. Las soluciones patrón se prepararon a partir de la segunda solución madre, tomando alícuotas de esta última y aforando a 100 mL con agua desionizada en matraces volumétricos. Se procedió a tomar 3 mL de cada uno de los patrones preparados y se depositaron en frascos viales. A cada frasco vial se le agregaron 300 µL de oxisulfato de titanio IV y se homogenizaron. Se realizó la lectura de absorbancia en el espectrofotómetro. La concentración de peróxido de hidrógeno se obtiene a partir de la siguiente ecuación: [H2O2] = (Fd•A)/0.0276 Donde [H2O2] es la concentración de peróxido de hidrógeno en mg•L-1, Fd es el factor de dilución, A es la absorbancia y 0.0276 es la pendiente de la relación de la absorbancia entre la concentración de peróxido de hidrógeno cuyas unidades son mg-1•L. Preparación del complejo citrato-hierro Para la reacción foto-Fenton se utilizó un complejo de citrato-hierro obtenido partir de ácido cítrico y escoria de cobre. Se prepararon 3 L de complejo citrato-hierro, por cada litro se pesó 38.428 g de ácido cítrico y 10 g de escoria de cobre. Se diluyeron los 38.428 g de ácido cítrico en 1000 mL de agua desionizada junto con la escoria de cobre en un vaso de precipitado de 2 L, el cual se cubrió completamente con papel aluminio para evitar una foto-degradación, finalmente so colocó con una agitación de 300 rpm. Montaje de los reactores Los reactores montados se dividen en 3 partes: base, tapa y lámpara. Para cada reactor se usó depósito rectangular de acrílico con dimensiones 9.8 cm x 53.4 cm x 2.9 cm acondicionado con un divisor para el control de flujo del agua. Esta base cuenta con orificios adaptados para que estén conectados para la recirculación de agua problema por medio de una manguera marca Máster Flex y una bomba peristáltica. Se utilizó una lámpara de 15 W (en cada reactor). Se cubrieron con papel aluminio y se introdujeron electrodos del potenciómetro para medir el pH y temperatura durante la operación. Reacción foto-Fenton Se realizó un diseño experimental factorial 2k (k=2 hierro y peróxido) para tratar el agua problema con concentraciones de hierro (13, 71.5, 130 mg/L) y peróxido (65, 357.5, 650 mg/L). Para la toma de muestras se extrajeron del reactor 5 mL cada hora para medir: hierro, peróxido y UV. Al finalizar el tiempo de operación (3-6 horas) se llevó a cabo la caracterización una caracterización completa del agua.


CONCLUSIONES

Al implementar condiciones de 130 mg/L de hierro y 65 mg/L de H2O2 se observó que, en los primeros 60 minutos se consume el 75 % y, entre 120 y 180 minutos hay un residual del orden de 3 mg/L, a los 240 minutos se observa un ligero incremento a 4.5 mg/L, mientras que el hierro permaneció disuelto durante las 4 horas de operación. En el ensayo con 130 mg/L de Fe y 650 mg/L de H2O2 a los 60 minutos se consumió el 60 % del peróxido y se llevó 4 horas para llegar a un residual en 0.5 mg/L, en este ensayo el hierro se también se encontraba disuelto durante el funcionamiento del reactor; caso contrario a lo que ocurría con concentraciones bajas de hierro (13 mg/L), en donde el hierro disuelto disminuía conforme transcurría el tiempo y, al finalizar, se formaba un precipitado de color rojizo característico de este mismo. Por otra parte, el complejo de citrato-hierro proporciona un aumento en el color verdadero. Siendo un aumento del 75 % en condiciones de 130 mg/L de hierro y 650 mg/L de peróxido, 46 % en condiciones de 71.5 mg/L de hierro y 357.5 mg/L de peróxido y un 16 % en condiciones de 13 mg/L de hierro y 65 mg/L de peróxido. Aumenta de manera proporcional al aumentar la dosis de hierro mediante el extracto de citrato de hierro. Se espera con esta investigación encontrar la mejor relación entre hierro y H2O2 para disminuir de manera eficiente la materia orgánica presente en el agua problema evitando la generación de subproductos que pudieran ser más contaminantes. El extracto utilizado como fuente de hierro para generar la reacción Fenton aporta color verdadero por lo que requiere un estudio más detallado para comprobar si este color es fácil de eliminar. Para de esta manera, definir si el extracto de escoria de cobre es apto para su uso en potabilización.    
Báez Báez Luis Fernando, Universidad Nacional de Ingeniería
Asesor: Dr. Alain Picos Picos, Instituto Politécnico Nacional

DISEÑO DE UN REACTOR DHS COMO TRATAMIENTO SECUNDARIO DE UN SISTEMA DE LODOS ACTIVADOS UBICADO EN UNA ZONA PERIURBANA MEDIANTE UN MÉTODO DE INGENIERIA INVERSA


DISEÑO DE UN REACTOR DHS COMO TRATAMIENTO SECUNDARIO DE UN SISTEMA DE LODOS ACTIVADOS UBICADO EN UNA ZONA PERIURBANA MEDIANTE UN MÉTODO DE INGENIERIA INVERSA

Báez Báez Luis Fernando, Universidad Nacional de Ingeniería. Valdivia Mendoza Josue Bismarck, Universidad Nacional de Ingeniería. Asesor: Dr. Alain Picos Picos, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

¿Cómo puede optimizarse el diseño y funcionamiento de los sistemas de tratamiento de aguas residuales existentes para lograr una mayor eficiencia en la remoción de DBO, DQO, Sólidos Totales y Nutrientes, asegurando así el cumplimiento de los estándares ambientales y la sostenibilidad del proceso? En el contexto de la creciente preocupación por la calidad del agua y la preservación del medio ambiente, las plantas de tratamiento de aguas residuales desempeñan un papel crucial en la mitigación de la contaminación y el aseguramiento de la salud pública. Sin embargo, con las tecnologías actuales y altos costos energéticos uno de los desafíos más significativos que enfrentan los países en desarrollo es garantizar que estas plantas tengan una remoción eficiente de parámetros críticos como la Demanda Bioquímica de Oxígeno (DBO), la Demanda Química de Oxígeno (DQO), los Sólidos Totales y Nutrientes presentes en las aguas residuales. El desafío radica en optimizar el diseño y funcionamiento de los sistemas en las plantas de tratamiento de aguas residuales para lograr una mayor eficiencia. Esto implica encontrar soluciones que aseguren la remoción efectiva de estos parámetros, garantizando al mismo tiempo el cumplimiento de los estándares ambientales y la sostenibilidad del proceso. Para abordar este problema, es necesario evaluar diferentes tecnologías y estrategias de tratamiento, así como considerar factores como el flujo de aguas residuales, las características de la materia orgánica presente y los recursos disponibles. Asimismo, se requiere estudiar los posibles efectos secundarios de las técnicas aplicadas, como la generación de lodos o subproductos, y buscar soluciones que minimicen su impacto ambiental. La optimización del diseño y funcionamiento de los sistemas en las plantas de tratamiento de aguas residuales es crucial para asegurar la protección del medio ambiente, la salud pública y la disponibilidad de recursos hídricos de calidad. Por lo tanto, esta investigación se propone analizar el diseño de una tecnología innovadora que contribuya a un manejo más eficiente y sostenible de las aguas residuales, teniendo en cuenta la remoción efectiva de la DBO, DQO y Sólidos Totales, y cumpliendo con los estándares ambientales y normativas vigentes.



METODOLOGÍA

Diseño del reactor DHS Partiendo del criterio de funcionamiento del reactor DHS como un filtro percolador (Cambronero, 2019) el diseño del equipo, por lo tanto, no sería distinto a estos y por ello se aplicará la metodología seguida por Tchobanouglus (2013). Cabe resaltar, los factores que se consideran en el diseño de filtros percoladores incluyen: Tipo y caracteristicas fisicas del material filtrante utilizado. Velocidad de Flujo. Tipo y caracteristicas de la dosificación en la distribución del sistema. Configuración del sistema de desague. Tipo de Aireación (natural o forzada). Diseño de tanque de sedimentación. El material filtrante ideal es aquel que tiene una alta superficie de contacto por unidad de volumen, un bajo costo, una alta durabilidad y una alta y suficiente porosidad que minimice las obstrucciones y permita una buena circulación de aire. Los materiales tipicos utilizados son empaques plasticos y rocas. Sin embargo, la caracteristica principal en el reactor DHS es que se utilizarán como medio filtrante esponjas de poliuretano suspendidas dentro de un soporte cilíndrico de polietileno de alta densidad. La configuración de esponjas suspendidas que se implementará será de tercera generación debido a su disposición al azar dentro de los segmentos del reactor. Las dimensiones de las esponjas son de 0.03 x 0.03 m, y su recubrimiento con un diámetro interno de 0.03 m y 0.032 m de diámetro externo con altura de 0.03 m. El material de las esponjas tiene una densidad de 30 kg/m3, un área superficial especifica de 256 m2/m3, una porosidad del 90% y un tamaño de poro de 0.63 mm (Zidan, Nasr, Fujii, & Ibrahim, 2023). En las esponjas se alojarán los microorganismos provenientes del contenido orgánico de las aguas residuales, formando una película de biomasa microbiana que propiciará al tratamiento de la carga orgánica contaminante en dichas aguas residuales. El volumen del reavtor es de aproximadamente 40 Litros, el diametro del mismo es de 0.15 metro, este se encuentra dividido en 3 etapas con una altura de 0.8 metros cada una. Los resultados que se espectan en base a diversos estudios, relacionados a la eficiencia de remoción de la carga orgánica de DQO, STT, NH3 y STD son de 90%, 88.3%, 55% y 25.3% respectivamente.


CONCLUSIONES

Con los resultados se corroboraría que la tecnología cuenta con altos niveles de eficiencia de remoción y en conjunto que se destaca por ser de bajo costo de operación y mantenimiento, con estructura compacta y ahorro energético. Este trabajo se desarrollo durante las 7 semanas del verano de investigación de Delfín en conjunto con el asesor Dr. Alain Picos del Instituto Politécnico Nacional de México que nos proporcionó las herramientas necesarias para la búsqueda y obtención de información de suma relevancia, como lo fue por ejemplo el aporte del libro Tchobanoglous. Con esto se puede argüir que se alcanzaron los objetivos esperados del verano de investigación, así como los establecidos para el desarrollo de este proyecto que en consecuencia se seguirá trabajando a futuro ya que esto forma parte de algo mas grande relacionado al grupo de investigación Science of Design de la Facultad de Ingeniería Química.
Baeza González Luis Fernando, Instituto Tecnológico de Morelia
Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

ELABORACIóN DE UN NUEVO PRODUCTO ALIMENTICIO DE ALTO VALOR AGREGADO A PARTIR DE PULPO MAYA(OCTOPUS MAYA)


ELABORACIóN DE UN NUEVO PRODUCTO ALIMENTICIO DE ALTO VALOR AGREGADO A PARTIR DE PULPO MAYA(OCTOPUS MAYA)

Baeza González Luis Fernando, Instituto Tecnológico de Morelia. Gallegos Rangel Andrea, Instituto Tecnológico de Morelia. Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El pulpo maya, una especie endémica de la península de Yucatán en México, es altamente valorado por su sabor y calidad nutritiva. Sin embargo, a pesar de su popularidad, el consumo del pulpo maya se limita principalmente a formas de preparación convencionales. Por lo anterior se propone la elaboración de Nuggets adicionados con pulpo maya, lo que se presenta como una alternativa atractiva y novedosa para un snack accesible para cualquier individuo. El término "Nuggets" en inglés significa "pepitas". Es un producto alimenticio elaborado con una pasta finamente picada de pollo u otras carnes. Antes de cocinarlo, la carne se recubre con rebozado. Para este proyecto se utilizaron: a) diferentes proporciones de pulpo maya y pollo, b) diferentes tipos de fritado los cuales son con aceite vegetal y con freidora de aire a Nuggets y en c) diferentes etapas que fueron recién elaborados y después de un proceso de congelamiento y almacenado, las variables de respuesta evaluadas mediante un análisis estadístico fueron 1) textura, mediante la dureza, adhesividad, fuerza adhesiva, energía en A1 y 2) los parámetros de color, los cuales son L*, a* y b*.



METODOLOGÍA

  Se adquirió el pulpo maya  pre-cocido congelado de un mercado local y pollo fresco del supermercado Chedraui selecto marca bachoco. Se utilizaron también otros ingredientes que se encontraban en el laboratorio de alimentos del CIATEJ subsede sureste como ajo en polvo pimienta, sal, azúcar, tomillo, bicarbonato de sodio, harina de trigo y sorbato de potasio.   Elaboración del Nugget de pulpo maya Limpieza y corte Se limpiaron el pulpo y pollo manualmente retirando impurezas como piel, pellejos y huesos   para posteriormente obtener trozos del pulpo y cubos del pollo (como suplemento de proteína marina y avícola, respectivamente) manualmente con un cuchillo obteniendo cubos de pollo de aproximadamente de 2cm3 y trozos de brazo de pulpo de aproximadamente 2 cm de largo (diámetro variable entre 1 y 1.5cm). Cocción En el caso del pulpo se le dio un tratamiento térmico de entre 90-100 °C durante 40 minutos, mientras que en el caso del pollo fue de entre 20-30 minutos a la misma temperatura. Pesado Se pesaron 430 gramos de pulpo y pollo  para lograr un 80% de la masa resultante que se necesita  para obtener los Nuggets. De igual manera se llevó a cabo el pesado de los demás ingredientes, aditivos y conservadores que serán utilizados. Ingrediente                Porcentaje(%) Pulpo y pollo                    80 Harina de trigo                 16 Sal                                 1.25 Azúcar                            0.5 Pimienta                         0.1 Tomillo                          0.05 Bicarbonato de sodio       1 Sorbato de potasio          0.1 Ajo en polvo                      1   Molienda Una vez que se obtuvieron los trozos de pulpo y pollo, se colocaron en un procesador (FP4200, Black&decker, Nueva Bretaña, EEUU) de 450 watts. Se molieron los trozos de pulpo y pollo con la velocidad alta del procesador, para obtener una masa  homogénea de ambas materias primas. Mezclado Posteriormente, la mezcla homogeneizada de pulpo y pollo se adiciona con los ingredientes, aditivos y conservadores que fueron pesados previamente para la obtención de una masa homogénea. Moldeado Se pesaron 20 gramos de la masa homogenizada para cada pieza de nugget y se les dio manualmente forma de campana. Empanizado Para el empanizado, las piezas previamente moldeadas se sumergieron individualmente en 5 mililitros de huevo, posteriormente se realizó el empanizado manualmente con 3 gramos de pan molido para cada nugget hasta observar una capa superficial homogénea que se adhiriera de una manera eficaz y homogénea al nugget. Fritado y pre fritado Se llevó a cabo un proceso de fritado completo mediante dos procesos: a) 3 Nuggets en aceite a 150°C durante 2 minutos y b) 3 Nuggets en freidora de aire (RJ38-V3-DC35, CHEFMAN, EEUU) a 150°C durante 5 minutos, de cada una de las diferentes proporciones de pulpo y pollo. Por otro lado, se llevó a cabo un pre fritado para c) 3 Nuggets en aceite a 150°C durante 45 segundos y d) 3 Nuggets en freidora de aire aceite a 150°C durante 2 minutos por cada proporción (25:75, 50:50, 75,25) de pulpo y pollo. Asimismo, se realizó el análisis a los nuggets recién elaborados (RE) y después de un proceso de almacenamiento (DC) mediante las propiedades de textura y color. Congelado Los Nuggets de pulpo y pollo se colocaron en bolsas plásticas (ziploc). Luego fueron llevados a congelar a una temperatura comercial de -17°C en un congelador (4052, Metalfrio,Celaya,México) Almacenamiento Se realizó por un tiempo de dos días con la finalidad de conservar los Nuggets obtenidos. Determinación de textura El análisis de textura fue llevado a cabo con un texturómetro (EZ-SX, Shimadzu, Tokio, Japón), mediante una prueba de compresión para la cual se programó un método con la ayuda del software Trapezium®, el cual registra los datos mediante dos ciclos de compresión con una deformación de 50%, una velocidad de ensayo de 5mm/s y un tiempo de espera de 5 s, con una sonda de compresión de 3cm de diámetro y una base universal para compresión. Color Para la determinación del color se utilizó un colorímetro (MiniScan EZ, HunterLab, Fairfax, EEUU). Se calibró el equipo mediante el uso de placas negra y blanca. Se colocó el nugget en un plato color blanco y se procedió a hacer la medición de las propiedades colorimétricas (L*, a* y b*) en el centro del nugget. Las mediciones se realizaron por duplicados de cada tratamiento.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de cómo hacer e interpretar un análisis de perfil de textura, haciendo uso de un texturómetro y también sobre cómo realizar colorimetría y como interpretar los parámetros que se miden usando el colorímetro. De igual manera se adquirio conocimiento teórico y práctico de cómo se lleva a cabo la elaboración de nuggets con diferentes proporciones de pulpo y pollo. Sin embargo, el presente proyecto posiblemente servirá para la base de una solicitud de patente por lo que no es posible divulgar los resultados puntuales obtenidos. En perspectiva, se espera que al nugget desarrollado sea le realicen análisis microbiológicos y sensoriales para lograr una aceptación por parte del consumidor.
Bailón Bustos David, Instituto Tecnológico de Morelia
Asesor: Dr. Jaime Cerda Jacobo, Universidad Michoacana de San Nicolás de Hidalgo

EL APRENDIZAJE AUTOMáTICO COMO HERRAMIENTA PARA EL DIAGNóSTICO DE LA RETINOPATíA DIABéTICA.


EL APRENDIZAJE AUTOMáTICO COMO HERRAMIENTA PARA EL DIAGNóSTICO DE LA RETINOPATíA DIABéTICA.

Bailón Bustos David, Instituto Tecnológico de Morelia. Asesor: Dr. Jaime Cerda Jacobo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La retinopatía diabética, es una complicación ocular de la diabetes mellitus, los altos niveles de glucosa presentes en la sangre provocan daño y alteraciones a los vasos sanguíneos de la retina, obstaculizando el aporte de oxígeno, provocando la manifestación de microaneurismas, hemorragias, exudados en etapas tempranas de la enfermedad donde el paciente es poco probable que distinga síntomas (retinopatía no proliferativa), hasta llegar a condiciones más graves de isquemia macular, edema macular, neovascularización, hemorragia vítrea y desprendimiento de la retina por tracción, presentes en retinopatía diabética proliferativa causando visión borrosa, moscas volantes (manchas negras) o destellos de luz en el campo visual (fotopsias) y pérdida visual indolora grave de inicio súbito. Según una publicación presentada el 22 de julio de 2018 por la Secretaria de Salud, este padecimiento crónico y progresivo tiene una prevalencia de 31.5 por ciento en México, y en los países industrializados se ha convertido en la causa principal de pérdida visual parcial y de ceguera. Gracias al desarrollo tecnológico, actualmente es posible presentar una solución para efectuar diagnósticos rápidos y de efectividad considerablemente alta. Esto es utilizando modelos de redes neuronales capaces de analizar imágenes de retina de un nuevo paciente y generar un diagnóstico cuyo grado de efectividad está ligado al aprendizaje logrado durante el entrenamiento del modelo.



METODOLOGÍA

Se obtuvieron distintos datasets,  todos ellos compuestos por un archivo csv que contiene los nombres del conjunto de imágenes a utilizar para el entrenamiento y prueba de la red neuronal, además de sus respectivos diagnósticos con los números del 0 al 4, siendo estos sin retinopatía diabética (0), retinopatía leve (1), moderada (2),  severa (3) y retinopatía diabética proliferativa. También se almacenaron las imágenes de examen de fondo de ojo correspondientes a cada documento csv. Para el diseño de las redes neuronales en Python se utilizó la biblioteca de Tensorflow, además de sklearn para implementar un procedimiento de cross-validation. El primer estudio, se realizó sobre un grupo de 7243 imágenes que se encontraban en escala de grises y dedicadas en su totalidad para el entrenamiento y validación de modelos sencillos. Posteriormente, se optó por un conjunto de imágenes diferentes para entrenar otro modelo, rescatadas de la competencia en Kaggle "Aptos 2019 Blindness Detection", siendo un total de 3662 imágenes a color, 3077 de ellas fraccionadas de manera aleatoria para entrenamiento y validación, mientras que 585 para pruebas. Las arquitecturas diseñadas para el entrenamiento de estos modelos consisten en 4 capas convolucionales con kernel 3x3 de 32, 64, 128 y 256 filtros, entre cada una de ellas una capa MaxPooling con kernel 2x2 hasta llegar a dos capas densas con 256 y 512 neuronas para, finalmente, dar un diagnóstico gracias a la capa con de salida con 5 neuronas cuya función es softmax. Puesto que se observó que las imágenes no tenían las mismas características dimensionalmente, se optó por aplicar un pre-procesamiento que recortara los bordes innecesarios de la fotografía  (crop_image), logrando que el modelo se enfoque más en la sección de la retina del examen de fondo de ojo. En una tercera prueba, además de lo anterior se realizó una alteración adicional a las imágenes (circle_crop), esta consistió en crear una máscara que completara circularmente aquellas fotografías de ojos que no tenían esta geometría, de manera que todas ellas ahora tenían el mismo tamaño, acercamiento y forma circular. Posteriormente, se optó por aplicar difuminación gausiana al procesamiento de imágenes, intentando resaltar las características que para diferenciar entre los grados de severidad de la retinopatía diabética. Como solución alternativa, se implementó un ensamble de dos modelos de redes neuronales convolucionales. El primero de ellos con clasificación binaria, encargado de decidir si la imagen indica un paciente sano o enfermo, si la imagen indica que el paciente está afectado, el siguiente modelo se dedica a determinar el nivel de retinopatía qué posee la persona.


CONCLUSIONES

Durante la estancia de verano adquirí muchos conocimientos nuevos en relación a machine learning y redes neuronales, aprendí desde la base de visualización y análisis de la información disponible, la importancia del pre-procesamiento de los datos, diseño de modelos simples de regresión y clasificación hasta arquitecturas un poco más complejas de redes neuronales convolucionales, así como sus métricas de evaluación. En las pruebas iniciales, los resultados reflejaron una eficiencia menor al 40%, mientras que al usar el set de imágenes a color y mejores modelos la eficiencia rondó entre el 70 y 80 %. Al aplicar los procedimientos para el pre-procesamiento de las imágenes se obtuvieron aún mejores resultados. Siguiendo el método de crop_image la eficiencia de prueba fue igual a 83.93 % y kappa metric (métrica de evaluación que usan en la competencia) de 81.768 % aplicando XGBoost. Utilizando circle_crop la eficiencia de prueba fue de 80 % y  kappa metric igual a 74.791 %. Al agregar la difuminación gausiana a lo anterior, se llegó una eficiencia en las imágenes de prueba igual a 84.27 % y la métrica kappa resultó 83.28 %, siendo esta la metodología que reflejó mejores resultados. Finalmente, el ensamble de dos redes neuronales aún no está listo, pero se espera que la eficiencia se incremente hasta el 86% con este modelo y las anteriores referencias. Considero que los resultados obtenidos antes de finalizar la estancia son buenos y cercanos a las mejores soluciones públicas de la competencia de APTOS 2019, no obstante se requieren estudiar y utilizar diferentes técnicas para el procesamiento de las imágenes para lograr una eficiencia más alta en las predicciones realizadas.
Ballesteros Pérez Aneth Rocío, Universidad de Guadalajara
Asesor: Dra. Patricia Batres Mendoza, Universidad Autónoma Benito Juárez de Oaxaca

SOFTWARE PARA LA DETECCIÓN DE EMOCIONES MEDIANTE EMOTIV EPOC+ Y PROCESOS DE M.L.


SOFTWARE PARA LA DETECCIÓN DE EMOCIONES MEDIANTE EMOTIV EPOC+ Y PROCESOS DE M.L.

Ballesteros Pérez Aneth Rocío, Universidad de Guadalajara. Asesor: Dra. Patricia Batres Mendoza, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Las emociones humanas son respuestas psicofisiológicas y subjetivas que experimenta el ser humano en respuesta a diversos estímulos y situaciones, afectando a las decisiones, acciones y percepciones del mundo que lo rodea. Emociones como la alegría, tristeza, miedo, ira, emoción, sorpresa, etc., son fundamentales para la comunicación y relaciones interpersonales. Debido a lo anterior, y con la llegada de tecnologías emergentes como la inteligencia artificial; las emociones han tomado un gran interés en esta área. Por ello, la detección de emociones es ya un reto. En el caso de este proyecto, el objetivo se enfocó en establecer las bases para el desarrollo de un sistema que realizará la adquisición de señales electroencefalográficas a través de una interfaz cerebro-computador, para su posterior análisis y detección de emociones con redes neuronales artificiales.  Durante el desarrollo del proyecto se presentaron diversas interrogantes como las siguientes: ¿Cómo estoy seguro si lo que observo es tristeza o enojo?, ¿Hay alguna medida estándar para estos factores?, Utilizando la electroencefalografía (EEG), ¿Cómo podría procesar los datos EEG de manera correcta?. Para lograrlo, es esencial tener objetivamente clara la descripción de nuestra emoción. Otro de los retos fue identificar el equipo para la realización de los experimentos en la adquisición de las emociones, pues al utilizar la electroencefalografía, las señales EEG adquiridas eran sensibles al ruido ocasionado por el mismo equipo que en este caso es la diadema de electrodos Emotiv Epoc+ y las intervenciones del ambiente en el que se realizó el experimento, dificultando la obtención e interpretación de datos.



METODOLOGÍA

El proceso de realización del sistema fue relativamente sencillo porque se tenía muy claro desde el principio los objetivos principales y el cómo se iban a llevar a cabo, la parte complicada fue obtener la suficiente información de los sujetos de prueba para trabajar con el sistema y que el procesamiento de los datos EEG fuera certero para hacer los ajustes necesarios.  En una primera etapa, se realizó la parte FrontEnd. una interfaz que sirviera de apoyo en la organización de los datos EEG recuperados y una mejor visualización de los mismos. Así, los datos EEG adquiridos podrían ser divididos por segmentos de acuerdo a su distribución en el cerebro (electrodos frontales izquierdos y derechos, parietales y occipitales) y divididos por archivos: el archivo de muestra donde se tiene la emoción que se va a comparar y el archivo de pruebas donde se determina si existe alguna emoción. De igual forma, la interfaz desarrollada permite realizar el procesamiento de los datos, mostrando los resultados obtenidos con gráficas fáciles de comparar y sin el ruido que se pudo haber obtenido al hacer la prueba de adquisición de emociones. Con ayuda del plugin chartJs se pudo simplificar las gráficas y realizar un diseño fácil y útil para la interpretación de los datos. Además, gran parte del diseño intuitivo de la interfaz fue gracias a ionic Framework, un SDK de código abierto para el desarrollo de aplicaciones híbridas basada en tecnologías web. Como segunda etapa, se desarrolló la parte BackEnd para realizar el procesamiento de los datos EEG adquiridos, quitar el ruido de fondo de las señales adquiridas y desarrollar la Red Neuronal Artificial (RNA) que se encargaría de realizar el procesamiento de los datos y encontrar patrones que permitieran identificar las  diferentes emociones generadas por un determinado sujeto. Para esto fue necesario identificar los electrodos ubicados en la corteza cerebral que servirían de entrada a la RNA para la identificación de emociones, por lo que se tomó en cuenta aquellos ubicados en el lóbulo frontal y parietal: F3, AF4, P7 y P8. La red neuronal no funciona de manera simple ya que el sistema mismo nos dice cuántos son los datos que van a ingresar por lo que no es un número fijo, entonces todas las variables a excepción de las capas son calculadas por el mismo sistema. Las funciones utilizadas en la Red Neuronal es la RELU ya que nos facilita la entrada de datos y Sigmoid que también es una función muy útil para redes neuronales binarias. Una vez desarrollado el sistema, se realizó la parte de experimentación, donde se sometieron a prueba a diversos sujetos. A cada uno se le colocó el dispositivo Emotiv EPOC+ y se le fueron presentando diversas imágenes y redes sociales con la intención de generar algún sentimiento y/o emoción. De igual forma, se le dio la tarea de jugar en un entorno de Realidad Virtual con la gafas VR de meta quest (una actividad nueva y emocionante para el individuo).


CONCLUSIONES

El estudio de las emociones humanas en la actualidad es esencial para las nuevas tecnologías emergentes y fortalecer su desarrollo. En este proyecto, se desarrolló un software en python y ionic framework  (javascript, typescript, html, css.) para la detección de emociones basado en el dispositivo Emotiv Epoc+, con llado  El sistema fue sometido a pruebas suficientes con diferentes sujetos, donde se tuvieron dos casos muy buenos de desempeño del sistema. Dos sujetos del sexo masculino de 20 y 23 años de edad, y a los que se les pudo identificar un sentimiento parecido al de felicidad cuando se le mostraron imágenes y redes sociales, como lo indican los electrodos analizados: Sujeto 1 (F3: 0.93, AF4: 0.94, P7:0.93, P8: 0.93) y Sujeto 2( 3: 0.70, AF4: 0.70, P7:0.70, P8: 0.70). Los resultados permitieron validar el funcionamiento de la Red Neuronal con diversas personas y diferentes emociones.  
Ballesteros Rozo Leidy Tatiana, Fundación Universidad de América
Asesor: Dr. Lorenzo Tepech Carrillo, Universidad Autónoma Benito Juárez de Oaxaca

MODELACIóN DE PROPIEDADES DFT ESTRUCTURALES, ELECTRóNICAS Y óPTICAS DEL PEROVSKITA DE SRTIO3 DOPADA CON COBRE PARA EL USO DE MATERIALES TERMOELéCTRICOS


MODELACIóN DE PROPIEDADES DFT ESTRUCTURALES, ELECTRóNICAS Y óPTICAS DEL PEROVSKITA DE SRTIO3 DOPADA CON COBRE PARA EL USO DE MATERIALES TERMOELéCTRICOS

Ballesteros Rozo Leidy Tatiana, Fundación Universidad de América. Asesor: Dr. Lorenzo Tepech Carrillo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Los materiales termoeléctricos como el titanato de estroncio (SrTiO3) han tenido un auge investigativo en la actualidad, como tecnología para la recolección de energía renovable y reducción de gases de efecto invernadero debido a la conversión de energía potencial a la energía térmica y eléctrica; contribuyendo al objetivo de desarrollo sostenible # 7, energía asequible y no contaminante, que de acuerdo a la agenda del 2030 de la organización de naciones unidas de busca garantizar el acceso a una energía asequible, fiable, sostenible y moderna para todos. El perovskita de Titanio de estroncio (SrTiO3), clasificado como material de tipo N debido a su alta estabilidad química y conductividad en comparación con materiales termoeléctrico inorgánicos y óxidos conductivos que son caros y no se pueden aplicar en grandes áreas a diferencia del SrTiO3 es un material eficiente por su bajo costo, baja temperatura de procesamiento y flexibilidad mecánica.   En el presente estudio se abordó la teoría funcional de la densidad para estudiar las propiedades estructurales, electrónicas y ópticas del perovskita de SrTiO3 dopada con cobre con el fin de modelar el comportamiento de la estructura de bandas semiconductora (distribución de bandas de energía electrónica de material semiconductor), al introducir una pequeña cantidad de átomos de cobre en la red cristalina, con el fin de predecir las propiedades de los materiales a nivel atómico. (distribución de bandas de energía electrónica). En este caso de acuerdo a los resultados generados por modelación en Materials studio, de la estructura del material mediante la teoría de densidad funcional, Fig 1, evalúa la incorporación de cobre afecta la estructura cristalina de SrTiO3, así como las propiedades electrónicas y ópticas del material, mediante graficas de propiedades como bandas de energía, niveles de energía, densidades de estados electrónicos y absorción de luz molecular.



METODOLOGÍA

En la presente investigación Modelación de propiedades DFT estructurales, electrónicas y ópticas del perovskita de SrTiO3 dopada con cobre para el uso de materiales termoeléctricos, por la modalidad corresponde a un proyecto experimental y analítico, encaminado a resolver la pregunta problema ¿Cuál es el comportamiento del perovskita de SrTiO3 dopada con cobre?, la metodología se desarrolló bajo el siguiente esquema: inicialmente una revisión bibliográfica de, por concerniente se plantea desarrollar de manera analítica y descriptiva, una investigación cuantitativa y cualitativa de lo que corresponde los resultados de los modelos realizados, para demostrar las propiedades electrónicas y ópticas del material termoeléctrico. Los datos obtenidos corresponden a datas reales de La modelación de la estructura cristalina pura y dopada, realizadas en Universidad Autónoma Benito Juárez de Oaxaca (México) Posteriormente se plantea un análisis y comparativo, de acuerdo a los resultados obtenidos. Para analizar la densidad funcional DFT las gráficas realizadas tanto el perovskita de SrTiO3 puro y dopado con cobre tienen diferencias estructurales generando cambios en sus propiedades ópticas del material. En análisis a la función de pérdida de energía muestra cómo la energía es absorbida y disipada en el material. En el caso del SrTiO3 puro, se puede observar una pérdida de energía en ciertas frecuencias. Sin embargo, al estar dopada con cobre, generan una mayor capacidad de disipación de energía y un comportamiento distinto en términos de absorción y emisión de luz. Para el caso del coeficiente de extinción muestra la tasa en la que la luz se absorbe o dispersa mientras atraviesa el material; donde el SrTiO3 puro y el dopado con Cobre, se obtienen coeficientes de extinción distintos, lo que implica una diferencia en la interacción de la luz en ambos materiales. Los espectros de absorción para el SrTiO3 puro muestran picos distintivos en ciertas longitudes de onda, lo que indica su capacidad para absorber la luz. Por otro lado, el dopado con Cobre genera una modificación en este espectro, mostrando diferentes patrones de absorción y una mayor absorción de luz en ciertas regiones. Finalmente, se analiza la reflectividad del SrTiO3 puro muestra una tendencia característica en función de la longitud de onda. Cuando se introduce el cobre en el material, se producen variaciones notables en la reflectividad en diferentes longitudes de onda, lo que indica diferencias importantes en la capacidad del material para reflejar la luz.


CONCLUSIONES

El perovskita de SrTiO3 dopada con cobre en comparación con el material puro tiene cambios significativos en su comportamiento en relación a las propiedades ópticas, generando un interés investigativo a profundidad para la aplicación de un material termoeléctrico en la industria energética renovable. Durante la estancia de verano se logró adquirir conocimientos teóricos y analíticos en relación a las propiedades de densidad funcional DFT estructurales, electrónicas y ópticas, Además del perovskita de SrTiO3 dopada con cobre para el uso de materiales termoeléctricos; sin embargo al ser un proyecto de investigación tan robusto, aún se encuentra en fase de desarrollo, ya que falta correlacionar modelar y correlacionar los espectros y establecer un margen de error para tener unos resultados más confiables.
Baltazar Alvarez José Luis, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Pascual Eduardo Murillo Alvarado, Universidad de La Ciénega del Estado de Michoacán de Ocampo

DISTRIBUCIóN OPTIMA EN EL NEXO AGUA-ENERGíA EN LA REGIóN LERMA CHAPALA, MICHOACáN


DISTRIBUCIóN OPTIMA EN EL NEXO AGUA-ENERGíA EN LA REGIóN LERMA CHAPALA, MICHOACáN

Baltazar Alvarez José Luis, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Pascual Eduardo Murillo Alvarado, Universidad de La Ciénega del Estado de Michoacán de Ocampo



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la contaminación del agua en México abarca múltiples puntos, como el vertido de desechos industriales y aguas residuales sin tratar, deforestación, uso de pesticidas y desechos sólidos en cuerpos de agua. La estrategia histórica de verter aguas residuales directamente en cuerpos de agua buscaba procesar contaminantes de manera natural, pero el aumento del volumen de descargas ha generado problemas sanitarios y ambientales. La contaminación de ríos, lagos y mares ha sido una preocupación a lo largo del tiempo. Se estima que las instalaciones hídricas y de aguas residuales contribuyen al tres al siete por ciento de los gases de efecto invernadero. En Michoacán, se generan 11 mil litros por segundo de aguas residuales, de los cuales solo 2 mil 931 litros (25.6%) se tratan. Esto resalta la magnitud del problema actual de contaminación del agua y la necesidad de abordarlo de manera urgente. Las PTAR, mediante distintos procesos, eliminan los contaminantes originados por el uso que le han dado los distintos sectores (urbano, agrícola, domestico etcétera) y buscan su reaprovechamiento, c sin embargo, uno de los problemas actuales en México es que no hay suficientes plantas tratadoras, esto conlleva a que la evacuación de aguas residuales contaminadas vayan a cuerpos de agua para uso humano, ocasionando problemas de salud pública y ambiental. Michoacán cuenta con 79 plantas de tratamiento de aguas residuales, de las cuales, sólo funcionan 45 (CONAGUA, 2021). Se eligió el Estado de Michoacán como caso de estudio y se delimitó la selección a la región hidrológica RH12 Lerma Santiago debido a sus características hidrológicas. Esta región se subdividió en cuencas hidrológicas, y dentro de estas, se enfocó en la región Lerma Chapala. Esta área de estudio incluye 17 municipios y 3 plantas de tratamiento de aguas residuales.



METODOLOGÍA

La investigación se dividió en 8 etapas: 1) Revisión de literatura, 2) planteamiento del caso de estudio, 3) planteamiento de superestructura, 4) identificación de modelo de optimización matemática, 5) planteamiento del modelo matemático, 6) modelado en software GAMS, 7) análisis de resultados, 8) Conclusiones. Etapa 1. Se recolecto información acerca de cuencas hidrológicas, acervo de agua, sectores de consumo de agua, caudal de entrada y caudal de salida, así como la disponibilidad de plantas tratadoras de aguas residuales (PTAR) en la región, el tipo de tratamiento y su capacidad instalada. Etapa 2.  Se delimitó la selección a la región hidrológica RH12 Lerma Santiago debido a sus características hidrológicas. Esta región se subdividió en cuencas hidrológicas, y dentro de estas, se enfocó en la región Lerma Chapala. Esta área de estudio incluye 17 municipios y 3 plantas de tratamiento de aguas residuales (PTAR). Etapa 3. El caso de estudio se presentó de manera gráfica, permite ver de manera visual el seguimiento de materia y la recirculación de esta en cada uno de los procesos., considerando: a) puntos de extracción de agua (cuencas, acuíferos y pozos), b) sectores de abastecimiento de agua, así como c) las PTAR existentes y propuestas, así como d) la propuesta de plantas de generación de biogás. Etapa 4. Se identificaron los diferentes modelos de optimización, como lo son lineal, no lineal, mixta, entera mixta, lineal entera mixta y multiobjetivo. Para fines de esta investigación se seleccionó el modelo multiobjetivo debido a las variables consideradas y los objetivos a desarrollar. Etapa 5.  Se adaptó un enfoque similar al utilizado por González-Bravo et al. (2016), el cual emplea un modelo de optimización multiobjetivo para redes de distribución de agua. Se propuso un modelo matemático que sigue el flujo de materia desde los puntos de extracción en acuíferos hasta las plantas de tratamiento de aguas residuales (PTAR) y nuevas PTAR, y finalmente a las plantas de biogás. Se tomaron en cuenta restricciones de extracción de agua, factores de conversión de materia en cada etapa, recirculación agrícola, costos de capital y operación, así como ecuaciones para la función objetivo. Etapa 6. Para la parte del modelado se implementa la formulación del problema (Giral Ramírez et al., 2021). Esta se realiza en 5 o más pasos, los cuales se caracterizan por 5 algoritmos; 1) Definición de conjuntos del modelo matemático, 2) Definición de la matriz de incidencia, datos de las líneas y parámetros, 3) se define las variables del problema, 4) Definición de Ecuaciones, 5) Definición del método de optimización. Etapa 7. Análisis de resultados. Se correr el programa de GAMS, donde se visualizan los datos duros y obteniendo la información de interés. Etapa 8. Resultados.  Se agregan los resultados en la sección correspondiente del documento.


CONCLUSIONES

Se creó un modelo de programación matemática para monitorear la distribución de agua en cuencas hidrológicas y pozos como fuentes de suministro. Se rastreó el flujo de materia en tres sectores clave: agrícola, industrial y doméstico. El agua se dirige a Plantas de Tratamiento de Aguas Residuales (PTAR) en función de su flujo en estos sectores. Se identificó la necesidad de construir nuevas instalaciones de tratamiento de aguas residuales para satisfacer la demanda de estos sectores. Se propuso recircular agua tratada al sector agrícola y utilizar los residuos orgánicos para generar biogás. Se plantea convertir las plantas de biogás en electricidad y transformar ciertos lodos en fertilizantes. El enfoque busca equilibrar los costos y beneficios, así como reducir la contaminación ambiental El tiempo ha sido insuficiente para la obtención de resultados concluyentes en esta etapa del trabajo. El proceso de modelado en el software GAMS involucra un amplio conjunto de variables interconectadas, sin embargo, se esperan resultados prometedores como lo son el costo de la tubería en nuevas plantas y su costo de bombeo, así como el costo de tubería de las PTAR y nuevas PTAR a las plantas de obtención de biogás, así como la venta de biogás y otros insumos.
Baños Mendoza Francisco Adrian, Instituto Tecnológico de Pachuca
Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana

EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA ADMINISTRATIVA DE LA EMPRESA FUSSIÓN S.A.S. EN PERÍODO 2023-2


EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA ADMINISTRATIVA DE LA EMPRESA FUSSIÓN S.A.S. EN PERÍODO 2023-2

Baños Mendoza Francisco Adrian, Instituto Tecnológico de Pachuca. Blancarte Gamiño Fabian Joel, Instituto Tecnológico Superior de Guanajuato. Domínguez López Yareli Dolores, Instituto Tecnológico de Pachuca. Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

La comodidad visual es crucial, ya que una iluminación deficiente puede dificultar la identificación de objetos o riesgos asociados a las tareas realizadas en una jornada laboral, lo que aumenta el riesgo de accidentes. Sin embargo, las organizaciones deben realizar evaluaciones periódicas de las condiciones de trabajo, especialmente en cuanto a condiciones ambientales como el ruido, los niveles de iluminación y la temperatura, ya que pueden afectar la salud de los trabajadores a largo plazo. Es importante destacar que el sentido de la vista es fundamental para recibir información del entorno, por lo que la iluminación juega un papel crucial en cualquier tarea realizada durante la jornada laboral. Aunque el ojo humano puede adaptarse a diferentes condiciones de iluminación, incluso cuando no son las óptimas, esto puede generar fatiga visual y disminuir el rendimiento, aumentando la probabilidad de cometer errores e involucrarse en accidentes.



METODOLOGÍA

DISEÑO METODOLÓGICO TIPO DE ESTUDIO El presente trabajo, es desarrollado en el marco de un estudio de tipo cuantitativo; teniendo en cuenta que se evaluará una estrategia de investigación centrada en cuantificar la recopilación y el análisis de datos del área administrativa en la empresa FUSSION S.A.S. de la ciudad de Barranquilla, describiendo la características de las condiciones del lugar tales como: el material, color, textura, y estado de paredes, techo, piso, superficie de trabajo, ventanas, equipos; además se llevarán a cabo las mediciones de iluminación y el análisis de sus respectivos resultados numéricos. MÉTODO DE ESTUDIO Este trabajo se direcciona con un enfoque inductivo, teniendo en cuenta características que permitirán identificar variables y aspectos específicos, de esa forma se darán a conocer las condiciones higiénicas de iluminación en el área administrativa de la empresa FUSSION S.A.S. en el periodo 2023-2 con el fin de mejorar la productividad permitiendo conocer si el área de trabajo a evaluar cumple con los niveles permisibles establecido por la normativa legal vigente para la prevención de accidentes y enfermedades en los trabajadores expuestos.   TÉCNICAS E INSTRUMENTOS DE RECOLECCIÓN DE LA INFORMACIÓN. Cuestionario y encuesta: realizada a los trabajadores del área a evaluar, con el fin de conocer y analizar la percepción que tienen sobre las condiciones de iluminación en su puesto de trabajo y la presencia de molestias visuales relacionadas con la misma. Esta encuesta se estructura por dos bloques los cuales se se describen de la siguiente manera; la primera parte narra la descripción con la intención que se realiza la encuesta y la segunda parte se  inicia una serie de seis preguntas que responderán con sinceridad a los trabajadores seleccionando entre las opciones múltiples y una pregunta abierta, cada una de las respuestas se analizada y graficada con respecto a los resultados finales, concluyendo las condiciones de iluminación en el puesto de trabajo. (Anexo E).  Método de la constante del salón: método utilizado para calcular puntos a medir en el área administrativa de la empresa plástica FUSSION S.A.S. el cual proporcionó las fórmulas idóneas para realizar el estudio de medición.


CONCLUSIONES

Resultados DETERMINACIÓN DE LAS VARIABLES Y ASPECTOS QUE INCIDEN EN LAS CONDICIONES DE ILUMINACIÓN DEL ÁREA ADMINISTRATIVA DE LA EMPRESA PLÁSTICA FUSSION S.A.S. Para determinar las condiciones de iluminación del área administrativa se utilizó el método de la constante del salón (K) en la que se identifican variables como altura (H), largo (L) y ancho (A) del área a evaluar.  Se tomó la constante (K) para el establecimiento e identificación de los puntos a medir del área administrativa de la empresa plástica FUSSION S.A.S. En la fórmula utilizada se obtuvo el siguiente resultado (K = 1.195); el cual fue usado para definir el número de puntos a tomar para realizar la medición; el valor resultante fue 9 puntos, como se muestra en la siguiente tabla (Tabla 1). Evaluación diagnóstica de condiciones de iluminación en el área de trabajo. Para determinar las condiciones de iluminación del área administrativa se utilizó el formato de evaluación diagnóstica de condiciones de iluminación en el área de trabajo (ver anexo E), el cual permite identificar aspectos como Características del Área, describiendo las condiciones de la superficie Material, Color, Textura, y Estado de: Paredes, Techo, Piso, Superficie De Trabajo, Ventanas Y Equipos Conclusión En conclusión, la iluminación adecuada en un área administrativa es fundamental para crear un entorno de trabajo cómodo, productivo y visualmente atractivo. La iluminación no solo mejora la visibilidad y reduce la fatiga visual, sino que también contribuye al ambiente general y la estética de la oficina. La luz LED, con diferentes temperaturas de color según el espacio, puede mejorar la concentración y la relajación en áreas específicas. En resumen, invertir en la mejora de la iluminación en el área administrativa de INDUSTRIAS PLÁSTICAS FUSSION S.A.S. no solo cumplirá con la legislación vigente, sino que también promoverá un espacio de trabajo más saludable y productivo para los empleados, lo que a su vez contribuirá al éxito y crecimiento de la empresa.
Barajas Castillo Daneida Lorilee, Instituto Tecnológico de Matamoros
Asesor: Mtro. Maynor Enrique Barrientos Amador, Universidad Estatal a Distancia

RESUMEN INVESTIGACIóN SOBRE INTERNACIONALIZACIóN DE LA EDUCACIóN SUPERIOR: MOVILIDAD EN LA UNED


RESUMEN INVESTIGACIóN SOBRE INTERNACIONALIZACIóN DE LA EDUCACIóN SUPERIOR: MOVILIDAD EN LA UNED

Barajas Castillo Daneida Lorilee, Instituto Tecnológico de Matamoros. Asesor: Mtro. Maynor Enrique Barrientos Amador, Universidad Estatal a Distancia



PLANTEAMIENTO DEL PROBLEMA

Durante las primeras semanas se tomaron sesiones introductorias sobre el tema de investigación, se identificaron los conceptos importantes y se tuvieron algunas correcciones acerca del tema en cuestión. En las próximas semanas se investigaron a profundidad los diferentes conceptos relacionados con la psicología y sociología y el cómo estas afectan ya sea de manera positiva o negativa a los estudiantes que tienen alguna movilidad al extranjero. Se realizo una tabla en Excel para medir la importancia de estos conceptos y el cómo podrían ser utilizados en el contexto adecuado para cada uno y el cómo se avanzaría durante la encuesta que se realizaría más adelante. Con los conceptos ya relacionados con sus respectivos subtemas e ítems se presentó y se corrigió con el profesor a cargo para una mejor comprensión y mayor eficacia. Se investigo a los posibles encuestados para tener una escala dependiendo de sus respuestas y si es que esta en su disposición responder. Los datos recolectados fueron nombre completo, cedula, correo electrónico, número telefónico, centro universitario, carrera, unidad académica proponente, actividad, región, país y si cuentan con algún posgrado. En otro documento Excel se plantearon las posibles preguntas de la encuesta, con permisos de privacidad y entre otros protocolos como el sistema Tipi, en total más de 20 preguntas fueron planteadas, entre ellas algunas de respuesta abierta para las preguntas que conllevan datos personales para su verificación a los datos de la anterior tabla Excel. Las preguntas planteadas llevan consigo una breve introducción al tema para así asegurarnos de que nuestras hipótesis sean correctas en caso de ser así. Al momento de investigar los temas en cuestión para la implementación de las preguntas, hubo un constante sobresaliente en los estudiantes independientemente de su lugar de nacimiento, todos en su totalidad representan un cambio de actitud, en sus puntos de vista y en su personalidad a la hora en que las decisiones se toman en diferentes entornos y personas.



METODOLOGÍA

Esta investigación tiene como objetivo descubrir en su totalidad los cambios que generan los entornos desarrollados en el ámbito estudiantil. Es por eso de la importancia de la investigación de los conceptos, para así dar un contexto mucho más racional a los participantes y puedan darle un significado mucho más profundo a la realización de esta investigación al igual que a darle la verdadera importancia a su contribución a nivel estadístico. Al investigar su pasado académico se le dio importancia a la maestría, esto para apoyar a la hipótesis de seguir con los estudios ligándolo a la idea de un entorno más desarrollado en el ámbito estudiantil y profesional. Así le damos una conexión significativa interpretando de diferentes maneras los entornos y las situaciones que se enfrentan al mudarse o convivir por un cierto periodo de tiempo con otro país, en estos casos hacemos referencia a la cultura, las personas, las adversidades y las necesidades. Necesitamos marcar un antes y un después de haber entrado a este entorno completamente diferente independientemente de la barrera del lenguaje. Las preguntas necesarias para una posibilidad positiva están ligadas al cómo se sintieron después de la experiencia, que cambio tuvo un mayor impacto en ellos y si ese cambio les pareció de cierta manera un intercambio positivo y sobre todo justo para ellos. En cambio, en una posibilidad negativa las preguntas giran en torno a las perdidas o desventajas que tuvieron que enfrentar por estos cambios, si les gustaría volver a viajar o si jamás volverían a salir de su país de origen. Cada generación es diferente, al concentrarse en las posibilidades que antes y ahora se tienen podemos ver una diferencia significativa. Ahora que los estudiantes tienen más posibilidades de viajar al extranjero y expandir su visión como adultos responsables de un futuro prometedor para todo un país. ¿Por qué los estudiantes toman estas decisiones de viajar al extranjero? ¿Qué los motiva?, ¿Qué cambia en ellos?, ¿Cambia algo? Se tiene que descubrir el cómo seguir apoyando a estos posibles talentos y darles la suficiente importancia para que sigan creciendo como profesionales.


CONCLUSIONES

Al obtener las respuestas esperadas en el cuestionario que se realizara para la investigación, podremos verificar un sin número de hipótesis que nos ayudaran próximamente para futuros viajes estudiantiles, en donde no solo incrementara de manera positiva la visión de los estudiantes si no que las futuras generaciones tomaran muchos más ejemplos de vida para un entorno más pleno y en todo caso un país más desarrollado en los ámbitos que se necesiten. Se espera que la aportación de este granito de arena ayude a toda persona interesada en este ámbito. 0
Barajas Corral Ricardo Elías, Universidad Tecnologica de León
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

ESTUDIO TEóRICO Y EXPERIMENTAL DE LA REMOCIóN DE MALATIóN DEL AGUA POR MEDIO DEL PROCESO HíBRIDO DE ELECTROCOAGULACIóN Y FENTON-LIKE


ESTUDIO TEóRICO Y EXPERIMENTAL DE LA REMOCIóN DE MALATIóN DEL AGUA POR MEDIO DEL PROCESO HíBRIDO DE ELECTROCOAGULACIóN Y FENTON-LIKE

Barajas Corral Ricardo Elías, Universidad Tecnologica de León. Castillo Burgos Liviet Daylin, Universidad de Sonora. Galvan Oviedo Cristal, Instituto Tecnológico de Matamoros. Guillén Smith Fabiola Eugenia, Universidad de Sonora. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El Malatión es un insecticida perteneciente a la familia química de los organofosforados, y a pesar de ser muy eficiente en su objetivo, presenta el gran inconveniente de no ser biodegradable, por lo que el agua contaminada con esta sustancia se vuelve altamente tóxica y no apta para el consumo humano o animal. A pesar de que existen diferentes métodos para tratar el agua contaminada, estos suelen ser costosos, tardados o requieren de terceras sustancias que también pueden ser nocivas. Es por esto que se ha abierto camino a investigaciones sobre nuevos tratamientos, entre ellos, el método de electrocoagulación.   La electrocoagulación es un proceso de tratamiento de aguas residuales que utiliza corriente eléctrica para remover sólidos suspendidos, contaminantes y materia orgánica presentes en el agua. En este proceso, la corriente eléctrica provoca la liberación de iones metálicos desde los electrodos, típicamente de aluminio o hierro, dentro del agua residual. Estos iones metálicos reaccionan con las partículas y los contaminantes presentes en el agua, formando flóculos que se adhieren a las partículas suspendidas, grasas y materia orgánica.​ El proceso de oxidación Fenton-like es una variante del proceso de oxidación Fenton, el cual es un método avanzado de tratamiento de aguas residuales que se utiliza para eliminar contaminantes orgánicos y compuestos tóxicos persistentes. El proceso Fenton original se basa en la reacción entre peróxido de hidrógeno (H2O2) y iones de hierro (Fe2+), generando radicales hidroxilos (•OH) altamente oxidantes; sin embargo, en esta investigación se utilizará cobre en vez de hierro. Estos radicales atacan y descomponen los contaminantes orgánicos presentes en el agua en moléculas más pequeñas y menos tóxicas.​ En esta investigación se busca reducir la presencia de Malatión comercial en el agua mediante procesos electroquímicos (electrocoagulación y Fenton-Like).



METODOLOGÍA

El proceso de electrocoagulación se llevó a cabo mediante un reactor tipo filtro prensa, compuesto principalmente de electrodos de aluminio, con una superficie de flujo de 64 cm2 y capacidad de 2 L. El proceso de preparación de las muestras a estudiar se llevó a cabo de la siguiente manera: Mezclar el Malatión comercial de alta concentración (1000 g/L) por lo menos dos veces para que quede totalmente homogéneo. Verter una base de agua destilada en los matraces de 1 L antes de incorporar el Malatión. Tomar con la micropipeta la concentración deseada de Malatión, verter a los matraces antes mencionados y agitar. Agregar 0.3 g de NaCl y 1.2 g de Na2SO4 a la solución. Finalmente, aforar y agitar hasta que las sales se disuelvan. Es importante mencionar que todos los materiales e instrumentos a utilizar deben de estar previamente lavados y desinfectados; además, no se debe de omitir el primer paso debido a que afecta considerablemente en los resultados. Antes de iniciar cada proceso de electrocoagulación se debe dar previo mantenimiento al reactor. El proceso de electrocoagulación se realiza entre 60 y 100 min, tomando muestras cada 20 min, después de concluir con este proceso, se deben dejar reposar las muestras por 24 horas aproximadamente, como resultado de esta espera, los flóculos se sedimentan y se puede observar a simple vista como la concentración de Malatión baja. Para cuantificar la pérdida de concentración del Malatión en la muestra, se mide la Demanda Química de Oxigeno (DQO) del agua tratada por medio de absorbancia. La preparación de los viales de DQO se realizó siguiendo el método estándar de dicromato de potasio. Las concentraciones de Malatión, así como las densidades de corriente para la electrocoagulación a estudiar fueron: 100 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2   200 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  250 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  500 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  1200 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  Una vez que las muestras pasaron por el proceso de electrocoagulación se someten a un segundo proceso llamado Fenton-Like. Para este último, se utilizaron dos distintas densidades de corriente (5 y 10 mA /cm2).  El proceso de Fenton-Like se realiza entre 60 y 80 min, tomando muestras cada 20 min. Es importante destacar que se debe iniciar el proceso solo cuando la muestra tenga un pH de 5. Como en el proceso de electrocoagulación, las muestras obtenidas de Fenton-Like, también deben reposar aproximadamente 24 horas para después leer su DQO mediante absorbancia. Una vez llevada a cabo la parte experimental del proyecto se realizó una capacitación en COMSOL Multiphysics, esta es una herramienta que se utiliza para el modelado y análisis virtual de fenómenos físicos. Mediante este software se logró observar el comportamiento de la velocidad y la presión del fluido al pasar a través del reactor y a su vez como es que sucedía la transferencia de iones Al3+ hacia la solución de Malatión con respecto al tiempo de electrolisis.


CONCLUSIONES

Durante la estancia de verano, se logró reforzar conocimientos básicos sobre ingeniería química, así como, la adquisición de nuevos conocimientos teóricos y prácticos. Aunque el agua después de los procesos de electrocoagulación y Fenton- Like, aún conserva materia orgánica, derivada de las reacciones generadas en los mismos, el porcentaje de remoción del Malatión en el agua alcanzó valores de hasta el 60%. Los resultados se pudieron apreciar de una manera más fiel, por medio del modelado y simulación del fluido, así como las respectivas reacciones, en COMSOL Multiphysics. Y con la generación de gráficos, se llevó cabo un análisis numérico y estadístico para conocer los niveles de control y tolerancias de la remoción en sus respectivas concentraciones.
Barajas Flores Fernando, Instituto Tecnológico de La Piedad
Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana

ANáLISIS DE REGISTROS SíSMICOS EN EL ESTADO DE MICHOACáN Y JALISCO CON éNFASIS EN EL EFECTO EN EDIFICIOS.


ANáLISIS DE REGISTROS SíSMICOS EN EL ESTADO DE MICHOACáN Y JALISCO CON éNFASIS EN EL EFECTO EN EDIFICIOS.

Barajas Flores Fernando, Instituto Tecnológico de La Piedad. Mendez Garcia Oliver Jean, Instituto Tecnológico de La Piedad. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

En las últimas décadas, los estados mexicanos de Michoacán y Jalisco han experimentado una notable actividad sísmica debido a su ubicación en una zona tectónicamente activa. Estos sismos han suscitado inquietudes acerca de la seguridad de las estructuras en estas áreas, especialmente en zonas urbanas densamente pobladas. A medida que la infraestructura y los edificios continúan expandiéndose para dar respuesta al crecimiento demográfico, es crucial comprender y evaluar el impacto de esta actividad sísmica en la integridad de dichas estructuras. A pesar de la existencia de métodos y estándares de diseño sísmico para la construcción de edificios, es esencial investigar y analizar los efectos específicos de los sismos locales en las estructuras ya existentes. Además, aprovechando los avances tecnológicos y las técnicas de monitoreo actuales, surge la oportunidad de mejorar la comprensión sobre cómo distintos tipos de suelos y la geología local pueden amplificar o mitigar los efectos de los sismos en los edificios. El propósito principal de este estudio es analizar los registros sísmicos históricos y recientes en Michoacán y Jalisco, poniendo énfasis en cómo la actividad sísmica influye en la respuesta estructural de los edificios. Se buscarán datos de registros sísmicos reales que contribuyan a identificar las características de las sacudidas del terreno en áreas diversas, teniendo en cuenta las variaciones del tipo de terreno donde se obtuvieron los registros sísmicos. Para llevar a cabo este estudio, se recopilarán y analizarán datos de registros sísmicos que fueron obtenidos en estaciones sísmicas a través de los años recientes. Además de recopilar los datos se realiza una selección de los registros sísmicos más relevantes para la zona de estudio. Se analizan los datos básicos de los registros sísmicos y además se procesan los registros sísmicos para obtener más parámetros de utilidad en la ingeniería sísmica. Los resultados de este análisis proporcionarán información valiosa para contribuir a divulgar cómo se ha movido el terreno en la zona de estudio durante sismos, y por lo tanto, divulgar el tipo de movimientos del terreno que han afectado a los edificios en el pasado y que por lo tanto podrían volver a presentarse ese tipo de movimientos del terreno y afectar a los edificios actuales. En otras palabras, los resultados serán ejemplos de las acciones sísmicas que deberían tomarse en cuenta para el diseño sísmico de edificios en la zona de estudio.



METODOLOGÍA

El objetivo de esta metodología es analizar el impacto de la actividad sísmica en los edificios de Michoacán y Jalisco utilizando registros sísmicos reales. Se seleccionaron registros sísmicos históricos y recientes de los estados de Michoacán y Jalisco, disponibles a través de fuentes confiables como instituciones geológicas y de sismología y universidades. Estos registros contienen datos de terremotos y movimientos telúricos que han ocurrido en la región en los últimos años. Recopilación de Datos Sísmicos: Recolectar registros sísmicos históricos y recientes de estaciones sísmicas cercanas a las áreas de interés en Michoacán y Jalisco. Utilizar fuentes confiables como instituciones de monitoreo sísmico y bases de datos nacionales e internacionales. Selección de Áreas Urbanas Clave: Identificar áreas urbanas densamente pobladas en Michoacán y Jalisco que representen diferentes características geológicas y de construcción.


CONCLUSIONES

Durante la estancia de verano, hemos logrado adquirir un profundo conocimiento teórico sobre la actividad sísmica en los estados de Michoacán y Jalisco. A través del análisis detallado de registros sísmicos con énfasis en el efecto de estos registros sísmicos en los edificios. Nuestro estudio revela una diversidad sísmica sorprendente en Michoacán y Jalisco, donde la ubicación geológicamente activa de la región se traduce en una amplia gama de movimientos sísmicos. Los registros históricos y recientes han documentado terremotos y sacudidas telúricas que han impactado diversas áreas, subrayando la necesidad de comprender y adaptarse a esta variabilidad. Hemos identificado la influencia crucial de las características geológicas locales en la respuesta de los edificios ante los sismos. La geología subyacente y las propiedades del suelo desempeñan un papel determinante en la forma en que se amplifican o mitigan los efectos de las sacudidas. Esta comprensión enfatiza la importancia de considerar estas características al diseñar y construir edificaciones. La importancia de la planificación y la educación en la mitigación de riesgos sísmicos ha sido un aspecto central de nuestras conclusiones. Destacamos la necesidad de que los gobiernos y las comunidades prioricen la preparación ante desastres naturales, fortalezcan la planificación de emergencia y promuevan la conciencia pública sobre las medidas de seguridad. En última instancia, esta investigación contribuye significativamente al campo de la construcción en zonas sísmicas.
Barajas Patlan Luis Fernando de Jesús, Universidad Tecnologica de León
Asesor: Mtra. Didia Carrillo Hernández, Universidad Tecnologica de León

DESARROLLO DE UNA INTERFAZ PARA ORDENES DE MANTENIMIENTO VIRTUALES MEDIANTE EL USO DE PYTHON


DESARROLLO DE UNA INTERFAZ PARA ORDENES DE MANTENIMIENTO VIRTUALES MEDIANTE EL USO DE PYTHON

Barajas Patlan Luis Fernando de Jesús, Universidad Tecnologica de León. Asesor: Mtra. Didia Carrillo Hernández, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

Las ordenes de mantenimiento en formato físico y que se utilizan cuando se presentan fallas en los equipos, intervienen directamente en un proceso productivo, y  pueden entorpecer el flujo de trabajo y las actividades de esta, la implementación de una interfaz de usuario para registro de solicitudes de mantenimiento es la herramienta ideal para lograr una optimizacion en los procesos. El propósito de este informe es dar a conocer herramienta administrativa digital, que de manera paulatina durante un periodo de tiempo específico y gracias a la programación de esta herramienta, se realizaran ordenes de mantenimiento digitales de manera más eficiente. 



METODOLOGÍA

1- Previo al inicio de la realización del diseño de la interfaz de usuario, es importante hacer un diagrama de flujo que indique el camino a seguir en el procedimiento, Después de varias reuniones con el equipo creativo con el que se llevó a cabo la interfaz y pese al inconveniente antes mencionado, con una lluvia de ideas se pudo desarrollar el diagrama de flujo correcto que tomaba en cuenta todos los posibles de escenarios con su condicional correspondiente. 2- El diseño gráfico de la pantalla principal se propuso que se realizara por medio de Qtdesigner. El fondo de la pantalla principal, así como los iconos llevan en su colorimetría los patrones de color que son propios de la Universidad Tecnológica de León a excepción de botón de salir, que se diferencia por un color amarillento para no ser confundido con lo demás iconos. - En la sección derecha se colocaron los botones de mantenimiento, órdenes y proveedores. -En la parte inferior de la pantalla se pueden apreciar 5 botones que fueron debidamente organizados para no perder la armonía del diseño. -En la ventana emergente llamada periodo se encuentra el lapso de tiempo con el que realiza el seguimiento del mantenimiento preventivo, donde fueron diseñados con la misma paleta de colores que la pantalla principal. -La ventana emergente del apartado de mantenimiento se diseñó de esta manera, se optó por no agregarle los colores de la pantalla principal para evitar la carga visual al usuario final. 3- La programación de la interfaz de usuario consistió, en un par de subobjetivos así que antes de realizarse la programación como tal fue necesario el diseño en papel. Con la ayuda de Qtdesign, se pudo desarrollar una hoja digital lo más parecida a la hoja de solicitud física. Después de plasmar la idea de cómo debía verse y funcionar con la ayuda del diagrama de flujo ahora si comenzó el desarrollo de la programación de la pantalla.  4- Realización de la programación de la pantalla principal y los apartados de mantenimiento y personal, Para la programación de la pantalla principal se usaron las variables from e import para importar lo que se necesitó para la programación, como se puede observar se mandó llamar la librería que habilita el uso de los archivos .ui, esto ayuda a que no se necesite programar extensas líneas de código y poder usar los archivos directamente. La programación desarrollada implicó ciertos retos que demandaban el uso de diferentes librerías, y por ende diferentes programas para llegar a cumplir el objetivo trazado.  - Se puede acortar el tamaño de las líneas de código para programar con la extensión uic.loadUi, y así solo se necesita tener en la misma carpeta la pantalla realizada en Qtdesigner, cabe resaltar que todos los nombres con los que se guardó el archivo .ui de cada pantalla, corresponde a las primeras letras de lo que contiene dicho archivo para facilitar el manejo de los datos al programador, por ejemplo Emma.ui es la pantalla de emergente de mantenimiento, Pappl.ui es página principal, empe.ui corresponde a emergente de personal y así sucesivamente. 5- Para la elaboración de ventanas emergentes se le debe agregar un botón de regresar, para poder navegar entre ellas. Los únicos botones dentro del diseño en qtdesign que son necesarios diferenciar, son el botón de guardar y el de regreso lo demás puede quedar por defecto. - Para hacer los saltos de página es necesario mandar llamar el archivo .ui como se mencionó anteriormente. -Le damos como ventana de defecto al archivo Pappl.ui, que es la página principal, después de nombra la ventana emergente con el número de ventana que sigue. 6- En la versión final del programa, primero se nombraron y juntaron todas las pantallas en una misma carpeta, después se declararon al principio del programa, en orden de aparición y regreso de pantalla, por último, se escribieron las líneas de código que activaban las ordenes de aparecer y regresar para así terminar con la programación de la interfaz de usuario. 


CONCLUSIONES

El resultado en general fue satisfactorio ya que se logro el objetivo de realizar la interfaz, siendo funcional e interactiva, sin embargo el apartado de conectividad faltó, agregando la posibilidad de interconectarse via wifi potencializara las posibilidades de este proyecto, asi como mejorar el aspecto estetico en general A lo largo de la estancia los aprendizajes prácticos, así como teóricos fueron de gran ayuda para mi crecimiento profesional y personal, fue muy satisfactorio ver que cuando pulsas un boton este te redirige a una ventana emergente
Barajas Rodriguez Mauricio Marcelino, Universidad Tecnologica de León
Asesor: Mtra. Didia Carrillo Hernández, Universidad Tecnologica de León

DESARROLLO DE SOFTWARE DE MANTENIMIENTO PARA EL áREA DE MONTADO MEDIANTE PYTHON


DESARROLLO DE SOFTWARE DE MANTENIMIENTO PARA EL áREA DE MONTADO MEDIANTE PYTHON

Barajas Rodriguez Mauricio Marcelino, Universidad Tecnologica de León. Asesor: Mtra. Didia Carrillo Hernández, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

En un mundo impulsado por el capitalismo , en donde la producción de elementos a gran escala es fundamental para el sostenimiento de la economía dentro de la empresas se hace evidente el uso de herramientas tecnológicas que apoyan y aumentan la productividad de la planta. Por lo anterior , muchas empresas de manufactura en su alrededor optaron por la automatización de líneas de producción. Aun que si bien , la automatización ayudo a resolver ciertos problemas y necesidades dentro de la empresas, surgen nuevos elementos importantes que impactan directamente la fabricación y tiene que ver específicamente con las maquinas. Siguiendo con lo anterior , es necesario hacer la mención de mantenimiento preventivo y correctivo como elemento fundamental; no solo para tener en correcto funcionamiento de la maquinaria, si no para evitar problemas a corto, mediano y largo plazo que amenazan la productividad y que esto se traduce principalmente en pérdidas económicas. La mayor problematica que se presenta,  es el tiempo en cual se realizan los mantenimientos preventivos y correctivos. Lo cual genera una perdida de tiempo al momento de hacer el llenado de las mismas y el uso excesivo de papel al momento de que sean impresas las ordenes y el extenso archivo muerto que se genera.



METODOLOGÍA

  Una vez concluido el tiempo de registros, se dio la tarea de empezar a trabajar en la programacion y sub-pantallas emergentes que contendra la aplicacion. Se tomo como base una una orden de mantenimiento para generar los datos requeridos para que sea atendida la falla, para que los usuarios no se sorprendan con informacion nueva, ya que seran los mismos datos para su facil funcionamiento. Y a su vez eliminar el papel que se genera al momento de realizar una base de datos, y cambiarla a forma digital. Para poder lograr el funcionamiento de la orden digital ,  se tuvo que poner aprueba en una de las bandas de la empresa , para realizar algunos reportes los cuales muestren en comparativa los dos metodos la orden de mantenimiento en fisica y de manera digital, lo cual el personal se acostumbro rapido a utilizar la pantalla digital para poder crear sus solicitudes de mantenimiento , ya que no se altero la manera de trabajar con las ordenes de mantenimiento simplemente se innovara el sistema de como crearlas sin la necesidad de utilizar papel para su registro.   


CONCLUSIONES

En conclusión, en base a mis conocimientos aprendidos durante la estancia de verano fue de la mejor manera y los resultados esperados fueron muy positivos, por otra parte, la creación de un software de mantenimiento.   El realizar el programa desde cero de una aplicación de forma personal ayudo a que pudiera conocer los componentes más afondo la estructura de un programa. Me ayudo a comprender, conocer y aceptar muchas más ideas enriqueciendo mis actividades asertivas para el manejo del software tanto en diseño estructura y programación lo cual el software de mantenimiento se encargará de ofrecer servicio completo de prevención, mantenimiento y revisión de equipos e instalaciones. El resultado de poder crear un software para el area de mantenimiento funciono de la mejor manera superando las espectativas esperadas, ya que a los trabajadores no les tomo mucho tiempo el poder acostumbrarse a realizar las ordenes de mantenimiento de manera digital, por que se sigui trabajando de la misma manera como lo hacian mejorando el servicio de mantenimiento y de la mano eliminando un cien porciento el papel en hojas de servicio.
Barbosa Huichapa Angel de Jesús, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

ANÁLISIS Y REDISEÑO DE MASA SEPARADORA VEHICULAR EN ALEACIÓN DE ACERO 1045


ANÁLISIS Y REDISEÑO DE MASA SEPARADORA VEHICULAR EN ALEACIÓN DE ACERO 1045

Barbosa Huichapa Angel de Jesús, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Los autos tipo rally son aquellos automóviles que han sufrido modificaciones para la actividad para la cual están pensados, los rallys son actividades deportivas automovilísticas conformados por varios equipos de personas con aptitudes competitivas buscando en la actividad el recorrido completo de la pista de carreras en el tiempo menor posible. Debido al complejo territorio al que se somete el vehículo, los elementos mecánicos del auto deben ser modificados para garantizar un rendimiento óptimo en la pista, regularmente estos cambios son la instalación y uso de un turbocompresor, tracción a las cuatro ruedas, la carrocería, transmisión, suspensión, frenos y neumáticos. En estos últimos, surge el problema entre los elementos rin-neumático, inconvenientemente, por las modificaciones, el sistema de suspensión se ve alterado en su tamaño, haciéndolo más grande que el original, lo cual genera que el neumático rose con el resorte del cuerpo de amortiguación, al estar rosando constantemente el neumático tiende a reventarse por la fricción, por lo que se buscó una solución, dando así la creación de una masa separadora vehicular, ya que es la mejor solución debido a que el amortiguador no se puede recorrer hacia dentro, sin embargo los neumáticos si pueden alejarse hacia afuera, esta masa separadora aumenta la distancia entre el neumático y el amortiguador. Se han diseñado ya masas separadoras, no obstante, no hay muchas alternativas funcionales en el mercado, relación costo-beneficio



METODOLOGÍA

Se utilizó como base la masa separadora vehicular de la tesis de Castañeda Ramírez, L. E. (2014). Análisis de fatiga de una masa separadora vehicular. Como primer paso se obtuvo el modelo CAD de la masa separadora vehicular con las siguientes características: Placa circular de 150mm de diámetro exterior y 25.4 mm de espesor, con 8 barrenos espaciados 45° con respecto del anterior; Siendo 4 de estos (separados 90°) de tipo “a” y los restantes tipo “b”. Los del tipo “a” son 4 barrenos de 12.7mm de diámetro, contra taladrado de 27mm a 12.5mm de profundidad. Estos serán fijos a la posición original del auto. Los del tipo “b” son 4 barrenos de 12.7mm de diámetro, con caja de 20mm a 10mm de profundidad. Estos nos brindaran la nueva fijación del conjunto rin-neumático. En la parte posterior hay una cavidad de 60mm de diámetro con 20mm de profundidad, que será la que guie la pieza al momento de ser colocada. Por el frente tiene una guía de 55mm de diámetro exterior, con 50mm de diámetro interior, con 15mm de espesor, usando como material el acero 1045. Posteriormente con la ayuda del software ANSYS Workbench y el método de elemento finito, se procedió a replicar los resultados de la tesis anteriormente mencionada, para poder corroborar que los resultados son verdaderos y que cumplan con las especificaciones requeridas para que sea una pieza segura. Para realizar esto se tuvieron que establecer las siguientes condiciones de frontera para poder simular las condiciones reales a la cual se podría someter esta masa separadora. Las condiciones de desplazamiento: serán aplicadas en el centrador debido a que los esfuerzos serán más críticos en esta zona. Las condiciones de carga: se aplicará una carga tipo momento con un valor de 1000 N∙m, una vez colocadas las cargas y restricciones se procede a realizar el análisis. Una vez establecido esto, se continua con el mallado de la pieza, se utilizó los métodos de body sizing con un tamaño de elemento de 3mm y el método de hexaedros dominantes, todo esto con una relevancia del 100. Además, se estuvo variando el tamaño de elemento, con valores de 3mm, 2mm, 1.5mm y 1mm. Conforme se le da un valor mas pequeño al tamaño de elemento, va aumentando su exactitud del cálculo, sin embargo, entre más pequeño el elemento también la solución es mas tardada y puede llegar a saturar nuestro musculo computacional. Una vez realizado esto y corroborar que los resultados son similares en la deformación total, el esfuerzo equivalente y el factor de seguridad. Se procedió a realizar un nuevo rediseño de la geometría de la masa separadora. Se realizaron tres nuevos rediseños con el apoyo del software SolidWorks para la masa separadora con el objetivo de reducir su peso sin comprometer su fiabilidad, una vez establecidos estos nuevos rediseños, se utilizó la misma metodología para realizar el análisis y ver que son capaces de soportar las condiciones a las cuales serán sometidos.


CONCLUSIONES

Durante la estancia de verano el conocimiento adquirido fue basto y de gran ayuda, conocimientos como las distintas técnicas de modelado CAD en donde el intento de diseño fue mejorando con la práctica, siendo así una mejora en los tiempos de diseño. También cabe mencionar el mejoramiento y comprensión del software tipo CAE, como es que funciona, cuales son las características de un buen análisis, porque es que en esta investigación usamos la deformación total, el esfuerzo equivalente y el factor de seguridad. Así como también interpretar estos resultados en la investigación, los cuales fueron exitosos debido a que se cumplió con el objetivo de reducir el peso de la masa y que sea segura, esto debido al material que se utilizó, ya que al ser un acero de grado ingeniería, con alta resistencia a la deformación, se pudo reducir significativamente el peso de la pieza.
Barragan Flores Sergio Ignacio, Universidad de Guadalajara
Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara

DISPOSITIVO CON SISTEMA BASADO EN ACELERóMETRO Y SENSOR DE FRECUENCIA CARDIACA PARA MONITOREAR CAíDAS, ASí COMO LA SALUD EN TIEMPO REAL


DISPOSITIVO CON SISTEMA BASADO EN ACELERóMETRO Y SENSOR DE FRECUENCIA CARDIACA PARA MONITOREAR CAíDAS, ASí COMO LA SALUD EN TIEMPO REAL

Barragan Flores Sergio Ignacio, Universidad de Guadalajara. Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

  Las caídas en adultos mayores son demasiado comunes ya que estos son mas propensos debido a que con el paso del tiempo pueden ir presentando problemas tales como: debilidad muscular, alteraciones en su caminar y equilibrio, enfermedades del corazón (como presión baja y alta), disminución de la visión entre otros factores. Una caída de un adulto mayor por más mínima que sea esta puede generar lesiones como inflamación, dolor en la zona del golpe, de leve a moderado y a una caída de mayor grado pudiera generar lesiones graves como fracturas e incluso la pérdida del conocimiento. Se calcula que anualmente fallecen en todo el mundo unas 684 000 personas debido a caídas es por eso que esta es la segunda causa mundial de muerte por traumatismos involuntarios. De esta enorme cifra cabe destacar que los mayores de 60 años son quienes sufren más caídas mortales por lo cual es de suma importancia poner un poco de nuestro esfuerzo para ayudar a nuestros adultos.



METODOLOGÍA

  Para iniciar con el proyecto fue necesario aterrizar las ideas y posteriormente comenzar con la investigación en este caso se realizó una investigación de cuál era el microcontrolador mas accesible y adecuado para la situación y por sus características de conectividad y lo compacto que es se llegó a la conclusión de utilizar la ESP32 ya que esta cuenta con varios pines que se utilizaran como entradas y salidas, además de contar con un módulo de conexión WIFI y bluetooth el cual nos sirve para hacer el enlace de manera rápida y eficiente. Se investigo de manera minuciosa los tipos de acelerómetros y se encontraron varios tipos los piezorresistivos y piezoeléctricos los cuales son de uso industrial debido a su precio elevado y su gran precisión para medir vibraciones asi mismo ayuda a medir las velocidades de los aparatos, también se encuentras los acelerómetros MEMS que su uso es más apara dispositivos portátiles y son de uso más común debido a la gran variedad que hay de estos, el fácil uso y a su vez su bajo costo. Se realizo un diagrama eléctrico en el cual se identificaron los pines y se realizó la conexión de la ESP32 ya que se necesitaba saber el I2C ya que el sensor acelerómetro y el sensor de presión se conectan a esas entradas Una vez se tenia identificado el sensor que se utilizaría y el microcontrolador se procedió a realizar una programación que nos ayudara a recibir la señal del acelerómetro y comenzar a identificar los ejes x, y ,z  de nuestro acelerómetro para definir como usarlo ya que teniendo esa señal el uso que se le quiera dar va a depender de las necesidades del usuario, una vez que definimos la señal que ya tenemos la comenzamos a observar y ver los cambios que suceden con los movimientos realizados en los cuales nos podemos dar cuenta que presentan mucho ruido en la señal y esto nos puede generar inestabilidad en nuestro sistema, a lo que se realizó un filtraje a partir de donde se veía la señal constante.


CONCLUSIONES

  En este verano de investigación desarrolle muchas habilidades a la hora de programar ya que fue la parte que mas me presento dificultades y al momento de resolverlas me quedo claro el porque pasaba el error. También el recibir datos de un sensor, filtrar estos datos y procesarlos me pareció un proceso muy bueno ya que así es cómo funcionan la mayoría de los dispositivos electrónicos de hoy en día. A pesar de que el trabajo aún no concluye ya que se pretende sacar un dispositivo funcional y exponer todo el proceso que este conlleva en una tesis, sin duda este verano de investigación fue de gran apoyo para enfocarme en este proyecto y darle un buen rumbo.
Barragán Velázquez Bianca Jazmín, Universidad Tecnológica de Nayarit
Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington

ANáLISIS DEL COMPORTAMIENTO DE LA RESISTENCIA A LA COMPRESIóN Y A LA FLEXIóN DEL CONCRETO HIDRáULICO CON ADICIóN DE ESCAMAS DE PESCADO Y REEMPLAZO DE METACAOLíN.


ANáLISIS DEL COMPORTAMIENTO DE LA RESISTENCIA A LA COMPRESIóN Y A LA FLEXIóN DEL CONCRETO HIDRáULICO CON ADICIóN DE ESCAMAS DE PESCADO Y REEMPLAZO DE METACAOLíN.

Barragán Velázquez Bianca Jazmín, Universidad Tecnológica de Nayarit. Gómez Reyes Grecia Valeria, Universidad de Colima. Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el ser humano, en busqueda del desarrollo urbano, en el desenfrenado objetivo por convertirse en una sociedad de primer mundo, de tener una vida civilizada, ha dejado de lado la integridad del planeta tierra. Por ello, es imperativo enfocar nuestra energía y ciencia a la investigación, a la busqueda y hallazgo de soluciones a todos estos problemas que nosotros mismos hemos creado. Una de las areas de oportunidad esta en los despojos de las fábricas pesqueras, son las escamas de pescado, que son estructuras laminares que cuentan con cierto grado de flexibilidad y dureza que le dan al pez la oportunidad de moverse con eficiencia, y a la vez, les brinda la protección necesaria con su rasgo de dureza. Las escamas están compuestas principalmente de colageno y de fosfato de calcio. Componentes altamente fructiferos y convenientes para el concreto, en teoria. Es por eso, que desea determinar cuan valiosos pueden resultar dichos compuestos en la mezcla del concreto hidraulico. Siguiendo por la linea del cuidado, proteccion y conservacion de los recursos tanto renovables y como no renovables de nuestro planeta tierra, esta investigacion tambien va enfocada al uso de materiales suplementarios, que mejoren las cualidades del concreto, reduciendo las cantidades de cemento en la mezcla, ya que es precisamente en la elaboracion de este elemento, que se genera mayor contaminación a la atmosfera del globo terraqueo. Dado que, para producir el Clinker, los componentes del cemento son sometidos a temperaturas arriba de los 1500° C, generando así, emisiones de dioxido de carbono; este es un gas inodoro, incoloro, ligeramente acido y no inflamable (Substances, 2007) es el causante del efecto invernadero, que absorben energia infrarroja del sol y emiten radiacion. El material indicado como cementante complementario es el metacaolin. Con el uso del metacaolin, como material suplementario, podemos adicionarlo al cemento para asi reducir las cantidades de este, en los diseños del concreto y complementar la mezcla con la puzolana artificial, derivada de la piedra de caolín y lograr así aumentar las cualidades del concreto reduciendo porosidad del concreto endurecido, acrecentando la densidad, disminuyendo la cantidad de agua utilizada en el proceso de curado de los elementos, ampliando la dureza y resistencia ante muchos de los sulfatos, entre muchas otras.



METODOLOGÍA

Lavado del Agregado. Con la finalidad de retirar impurezas y particulas de limo de nuestros agregados, se realizo un proceso de lavado con agua potable.  Secado. Ambos agregados se dejaron secar de 4 a 5 dias sobre costales. Una vez que los agregados estaban secos, se recolectaron por separado en un contenedor limpio y seco. Cuarteo. Este proceso consistió en homogeneizar la muestra y separarla en cuatro partes para después tomar 2 muestras de 5 kilogramos de grava y 3 muestras de arena de 500 gramos cada una para hacer la granulometria.                                                           Granulometria. Se procedió a realizar el tamizado de los materiales con los calculos respectivos.  Masas Unitarias. Es definida como unidad de masa por volumen, esto hara relacion de como se comportara el material en estado suelto y en estado apisonado, estos valores necesarios en el diseño de mezclas, en el que el suelto representara el material en el momento que se solicita y/o se descargue en la obra o en la concretera, el apisonado mostrará el comportamiento del material al momento de realizar la mezcla del concreto (SIGUID, 2017). Diseño de mezcla.  La resistencia de diseño requerida fue de 21 MPa y se estableció la relacion agua-cemento de 0.68 de acuerdo a la misma. De acuerdo a la granulometria, el tamaño máximo nominal (TMN) para el agregado grueso fue el tamiz de ¾ y el modulo de finura (MF) fue de 3.00. De estos valores se obtiene el volumen de árido grueso por unidad de volumen de hormigon, el cual es 0.60. Se tomo el contenido de aire igual al 2% ya que es de tipo no aireado. El grado de asentamiento fue máximo de 75 mm y minimo de 25 mm. Se obtuvo el agua aproximada en la mezcla que fue de 205 kilogramos. Se consideró una proporcion 1:2:3 para todas las mezclas. En base a esto se optó por adicionar el 0.2% de escamas de pescado y un reemplazo del 8% de metacaolín. Fabricacion de especimenes. La elaboracion de los especimenes de concreto se llevo a cabo en tres dias. Durante la elaboracion de las muestras se desarrolló la prueba del revenimiento (Slump). El resultado de dicha prueba fue de 2. Resultados. Ensayos de resistencia a la compresion: Muestras patron: 16.382375.43 MPa. Muestras con 2% de escamas de pescado:  13.241919.82 MPa. Muestras con 8% de metacaolin: 20.212930.783 MPa. Ensayos de resistencia a flexion: MR Viga Patron: 3.812 MPa. MR Viga con escamas: 3.302 MPa. MR Viga con Metacaolin: 3.659 MPa.  (Todos los especimenes tienen una edad de 7 dias).


CONCLUSIONES

En cuanto a la correlacion de la resistencia a la compresion y la flexion del concreto con y sin adiciones, se esperaba que los valores del MR respecto al valor de la resistencia a la compresion. Y con base a estos parametros deseados se determinó lo siguiente: *Los especimenes cilindricos con adiciones del 2% de escamas de pescado, obtuvieron una resistencia a la compresión del 7% menor en comparacion de la resistencia obtenida en las probetas patron. Sin embargo, la resistencia a flexion resultó más que favorable, pues logró porcentajes aceptables de correlacion de compresion y flexion del 18%, concluyendo asi, que la escama de pescado mejora la propiedad de elasticidad del concreto. *En comparacion a las muestras patron, las de las adiciones con 8% metacaolín, superaron a las primeras en un 18% en la resistencia a la compresion. En cuanto al módulo de rotura y la flexion, estas dos diferentes mezclas, obtuvieron valores semejantes, permitiendo concluir, que el metacaolin es sin duda un excelente cementate suplementario del cemento Portland, pues le brinda mayor resistencia a la compresion, iguala la resistencia a la flexión; ademas de que, a manera general, hace al concreto mas durable. Otra de las ventajas, es que minimiza los poros de la mezcla permitiendo así, que le concreto tenga mayor densidad y sea menos permeable y sobre todo lo más importante es que, su uso complementario permite usar menor cantidad de cemento y por ende contribuir a la reducción de emisiones dioxido de carbono.
Barreda Bonilla Teresita de Jesús, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro

SISTEMA WEB RESPONSIVO, EVALUACIóN Y PROPUESTAS DE ESTRATEGIAS DE ACUERDO A LOS ESTILOS DE APRENDIZAJE, PARA LOS ESTUDIANTES DE NIVEL SUPERIOR


SISTEMA WEB RESPONSIVO, EVALUACIóN Y PROPUESTAS DE ESTRATEGIAS DE ACUERDO A LOS ESTILOS DE APRENDIZAJE, PARA LOS ESTUDIANTES DE NIVEL SUPERIOR

Barreda Bonilla Teresita de Jesús, Instituto Tecnológico Superior de Tacámbaro. Mora Leal Brandon, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Los test de detección de aprendizaje son herramientas muy útiles implementadas, como bien su nombre lo señala, para lograr reconocer cual es la mejor manera de que los alumnos adquieran conocimiento de manera mucho más efectiva dependiendo de las respuestas a dicho test aplicado; no obstante, existen ciertas complicaciones que pueden afectar de forma negativa los resultados obtenidos. Tal es el caso de, en el Instituto Tecnológico Superior de Tacámbaro se instaura la tarea de realizar un test psicométrico por parte de cada tutor a sus tutorados, de tal manera que, pueda detectarse los estilos de aprendizaje que prevalecen dentro del grupo; sin embargo, los resultados obtenidos sólo son conocidos por el docente que practicó el test, es decir, los demás docentes que se encargan de impartir las distintas clases al grupo no cuentan con la noción de que existe más de un estilo de aprendizaje y suelen generalizarlo, generando con ello que el aprovechamiento académico sea desequilibrado. Esta problemática, aunada a muchas otras que se suscitan durante la aplicación de test nos motiva a que, durante el verano de investigación, realicemos un sistema web responsivo que facilite la detección de estilos de aprendizaje de los alumnos.  



METODOLOGÍA

Se llevo a cabo una investigación acerca de cuáles son los modelos de estilos de aprendizaje más utilizados y eficaces, donde se pudo encontrar que:  Modelo CHAEA es uno de los más importantes test, cuenta con ochenta preguntas (veinte correspondientes a cada uno de los cuatro estilos que maneja: activo, reflexivo, teórico y pragmático) sin límite de tiempo para responder, basado en el modelo de Kolb.  Modelo de Kolb basado en su teoría acerca del aprendizaje experimental, con un ciclo de cuatro etapas (experiencia concreta, observación reflexiva, conceptualización abstracta y experimentación activa).  Modelo Felder y Silverman lleva a cabo su clasificación mediante escalas bipolares con relación directa a las preferencias del estudiante, así como, con elementos motivacionales.  Modelo VARK llamado así por el acrónimo de las cuatro letras iniciales correspondientes a las preferencias modales sensoriales (visual, aural, lector-escritor y kinestésico)  Modelo de Howard Gardner también llamado modelo de las inteligencias múltiples es una propuesta del campo de la psicología cognitiva que rechaza el concepto tradicional de la inteligencia y los métodos para medirla.  


CONCLUSIONES

Durante este verano de investigación logramos adquirir las bases teóricas acerca de los modelos para la detección de estilos de aprendizaje, conocimiento sobre las necesidades de los docentes para generar mayor índice de formación en los alumnos que integran el aula, dando como resultado una idea más clara y concisa para la realización del sistema, sin embargo, y debido a la extensión que requiere el proyecto, no se ha concretado el sistema como tal, por lo cual no pueden presentarse los resultados obtenidos. Esperamos que, la simulación previamente presentada pase a ser un sistema funcional y practico, otorgando estrategias y apoyo para mejorar el aprovechamiento académico de las/los estudiantes.  
Barrera Chávez Miguel Ángel, Instituto Tecnológico de Pachuca
Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana

IMPLEMENTACIÓN DE UN PROYECTO SOSTENIBLE PARA LA ADOPCIÓN DE ENERGÍAS LIMPIAS EN UNIDADES DE LA SALUD UNIVERSITARIAS


IMPLEMENTACIÓN DE UN PROYECTO SOSTENIBLE PARA LA ADOPCIÓN DE ENERGÍAS LIMPIAS EN UNIDADES DE LA SALUD UNIVERSITARIAS

Barrera Chávez Miguel Ángel, Instituto Tecnológico de Pachuca. Asesor: Dr. Hugo Gaspar Hernández Palma, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

IMPLEMENTACIÓN DE UN PROYECTO SOSTENIBLE PARA LA ADOPCIÓN DE ENERGÍAS LIMPIAS EN UNIDADES DE LA SALUD UNIVERSITARIAS                     Estudiante investigador: Miguel Angel Barrera Chavez                Tutores: Dr. Hugo Gaspar Hernández Palma y Mg. Carlos Vargas Mercado.   Problemática:       La problemática que se encuentro en este proyecto fue la siguiente;       El aumento de población genera una demanda excesiva de energía, lo cual hace que sea más difícil y más costoso poder generar energías sin dañar al planeta. Hay muy poco conocimiento sobre los beneficios que trae implementar proyectos sostenibles para la adopción de energías limpias, el uso irresponsable y la falta de conciencia del ser humano han causado que el planeta sufra un cambio climático cada vez más drástico,La contaminación del agua, el aire y la tierra afectan directamente a todos los seres vivos y a los ecosistemas y si no hacemos algo para mitigar el cambio climático, generar energias limpias, reducir la contaminación y la emisión de gases de efecto invernadero, el planeta sufrirá daños irreversibles que afectaran a todos los que habitamos en el.                 Pregunta problema: ¿Cómo implementar un proyecto sostenible para la adopción de energías limpias en unidades de la salud universitarias?   Objetivos   Objetivo general Describir un proyecto sostenible para la adopción de energías limpias en unidades de salud universitarias.     Objetivos específicos Determinar un proyecto sostenible para la adopción de energías limpias en unidades de salud universitarias. Identificar qué tipo de energía limpia se puede adoptar en unidades de salud universitarias. Estudiar las unidades de salud universitarias a intervenir con el proyecto sostenible en adopción     Justificación: Mitigar el cambio climático Promover las energías limpias Preservar los recursos Naturales Generar un futuro sostenible y consiente para las generaciones futuras.



METODOLOGÍA

                                  Metodología        El tipo de investigación que se realizo fue cuantitativo con un paradigma positivista, ya que este tipo de investigación permite hacer estudios sobre los fenómenos sociales, se centra principalmente en los fenómenos observables y susceptibles a la cuantificación. Este paradigma sustentara la investigación y determinar los parámetros de la variable.        El tipo diseño de esta investigación fue no experimental aplicado de manera transversal con un alcance descriptivo, ya que no se manipularon los datos obtenidos de la variable, se recolectaron datos de un solo momento en un tiempo único que se registraron, se analizaron, y se interpretaron en el momento actual.      La población que se estudio estuvo conformada por todo el personal de salud y del bienestar de la Corporación Universitaria Latinoamericana, la técnica para recolectar datos fue una encuesta de 7 preguntas que permitió obtener respuestas de manera rápida y eficaz en términos descriptivos del tema en específico.


CONCLUSIONES

                          Resultados Conclusiones:      Gracias a las preguntas aplicadas a esta población, se obtuvieron los siguientes  conclusiones:      Se concluyo que, para implementar un proyecto sostenible hacia la adopción de energías limpias en unidades de salud de universidades, debe de darse a conocer una mayor información sobre que son las energías limpias y los beneficios que estas aportan tanto ambiental, económico y social. Los factores que deben de considerarse para la implementación de energías limpias son principalmente el estudio de la legislación, la política, la identificación de tecnologías eficientes y proveedores confiables. Para evaluar las unidades de salud se deben de identificar las áreas con mayor demanda de energía y evaluar la infraestructura. Se identifico que la energía que se puede adoptar a las unidades de salud de Universidades es la solar en un 100% según el personal de salud y del bienestar. Finalmente se cree que impactara mayormente en la economía y en la reducción de la contaminación.  
Barrera Ifarraguerri Erandi, Instituto Tecnológico de Morelia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.


ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.

Barrera Ifarraguerri Erandi, Instituto Tecnológico de Morelia. Benítez Moreno Abraham, Instituto Tecnológico de Morelia. Celaya Cortés Marina, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Sánchez Bustos Itzel Jatziri, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto hidráulico es ampliamente utilizado en la pavimentación y construcción debido a sus roles principales de soportar grandes esfuerzos de compresión y flexión, así como absorber cargas sin deformarse en temperaturas bajas. Sin embargo, el agrietamiento es un problema puntual que afecta sus propiedades. El agrietamiento se debe a tensiones a las que está sometido el concreto y se agrava cuando se expande o contrae, o cuando se aplica carga pesada o cambios en soportes. Para abordar el problema de residuos de plástico, se busca usar fibras de polipropileno reciclado como aditamento en el concreto para aumentar su vida útil de 5-10 años hasta 50 años o más. En términos de seguridad en la construcción, es esencial que las construcciones cumplan con estándares para garantizar el bienestar de las personas. El concreto con fibras ofrece una mejora en sus propiedades mecánicas, y el control de grietas dependerá del tipo y dosis de fibra utilizada. Se busca constantemente mejorar las propiedades mecánicas del concreto mediante la adición de fibras poliméricas y aditivos fluidificantes, lo que ofrece beneficios significativos en comparación con el concreto hidráulico sin fibras. El objetivo de este trabajo es evaluar la variación en el concreto al agregar estas fibras y aditivos fluidificantes.



METODOLOGÍA

Para llevar a cabo esta investigación se realizó un diseño de concreto para calcular la mezcla necesaria para obtener 32 cilindros de 10x20 cm  y 12 vigas de 15x15x60 cm. De los cuales, 18 cilindros y 6 vigas fueron adicionadas con fibras de PP. Se hizo uso del método  de los coeficientes del ACI por su alta fiabilidad en cuanto a resultados. La mezcla fue hecha con agregados de los bancos de materiales de “Joyitas” y “La Roka” ubicadas en Morelia, Michoacán, con cemento portland CPC 30R RS. Los cálculos realizados para el diseño de la mezcla por ACI para vigas y cilindros fueron: - cemento sin adición: 44.29 kg - cemento adicionado: 39.03 kg - arena sin adición: 77.74 kg - arena adicionada: 87.15 kg - grava sin adición: 127.58 kg - grava adicionada: 127.57 kg - agua sin adición: 41.82 kg - agua adicionada: 40.11 kg - fibra adicionada: 0.26 kg - fibra sin adicionar: 0.08 kg La preparación de las mezclas se realizó de forma mecánica con ayuda de una máquina mezcladora de concreto. En cuanto a la mezcla que no tenía aditivos, simplemente fue vertida en los moldes  con un proceso de varillado y golpeteo, caso contrario para los cilindros y vigas adicionadas, la mezcla fue adicionada con fibra de polipropileno en forma tubular alargada en las siguientes cantidades: 0.07 kg para los cilindros y 0.19 kg para las vigas y aditivo fluidificante respectivamente, tomando en cuenta la relación agua/cemento que en este caso fue de 0.62, para su proceso de vertida en moldes fueron sometidos a golpeteo. De los 32 cilindros,16 de ellos fueron testeados y de las 12 vigas solamente 4  para llevar a cabo la investigación; Las muestras fueron sometidas al proceso de curado de 6 a 7 días y 20 a 21 días. Las pruebas de flexión y compresión fueron realizadas por medio de una máquina de ensayos universal a los 7 días para los CSA y VSA (cilindros sin adición, viga sin adición), 6 días para los CA y VA (cilindros adicionados, vigas adicionadas), posteriormente se tomó una segunda toma de prueba de compresión a los 21 días para los CSA y VSA , 20 días para los CA y VA.


CONCLUSIONES

El análisis de mezclas mediante el método ACI arrojó que la mezcla con adiciones modificó las siguientes cantidades de materiales con respecto a la mezcla sin adiciones: -Cemento disminuyó un 12%. -Arena aumentó un 12%. -Grava no experimentó un cambio considerable. -Agua disminuyó un 4%. Las pruebas de resistencia a flexión y compresión arrojaron las siguientes modificaciones con respecto a la mezcla modificada con fibras y aditivos: Resistencia a flexión: -Se observó un aumento del 47% para los 6-7 días de curado. -No se tienen los datos para las muestras a 20-21 días de curado, ya que quedaron pendientes; sin embargo, se espera un comportamiento similar o mejor que a los 6-7 días de curado. Resistencia a compresión: -Se presentó una reducción del 14% para los 6-7 días de curado. -Se registró una reducción del 11% para los 20-21 días de curado. En cuanto a los valores máximos de resistencia, se obtuvo lo siguiente: Resistencia a flexión: -2257 MPa en la edad de curado de 6 a 7 días, presentada en la mezcla modificada. Resistencia a compresión: -11211 MPa en la edad de curado de 6 a 7 días y 13194 MPa en la edad de curado de 20 a 21 días, ambos máximos se observaron en las muestras sin modificar. A pesar de que la teoría sugería que las mezclas con adiciones (fibras PP y aditivo fluidificante) tendrían un mejor comportamiento en la resistencia a la flexión y compresión, los resultados obtenidos mostraron una disminución en la resistencia a la compresión. Esto podría deberse principalmente al proceso de colado, ya que no se realizó un vaciado correcto para la mezcla con adiciones, lo que generó huecos en los cilindros de las pruebas de resistencia a compresión, pero no en las vigas de las pruebas de la resistencia a flexión.
Barrera Reyes Angel, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero

GEO SKETCHER TURTLE: ROBOT DIDáCTICO PARA DIBUJAR TRAZOS GEOMéTRICOS


GEO SKETCHER TURTLE: ROBOT DIDáCTICO PARA DIBUJAR TRAZOS GEOMéTRICOS

Barrera Reyes Angel, Instituto Tecnológico de Chilpancingo. Mares Hernández Orlando, Instituto Tecnológico de Chilpancingo. Morales Renteria Areli, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

El aprendizaje de la programación en niños enfrenta diversos problemas en la actualidad como la falta de recursos adecuados, principalmente computadoras y personal capacitado. Además, los enfoques teóricos de enseñanza en lugar de enfoques prácticos, dificulta el proceso de aprendizaje. Otro problema es que la curva de aprendizaje inicial y la falta de continuidad en los planes de estudio también representan desafíos significativos. A pesar de estos obstáculos, se reconoce el valor de la programación como una habilidad relevante y se están realizando esfuerzos para mejorar la enseñanza en este campo. Como propuestas de solución a esta dificultad, se diseñan y desarrollan robots o mecanismos robóticos didácticos para hacer el aprendizaje más dinámico, lúdico y atractivo para los estudiantes. En este sentido, en la Facultad de Matemáticas de la UAGro se desarrolla un prototipo denominado Geo Sketcher Turtle, el cual consiste en un robot zoomórfico basado en una tortuga para la enseñanza-aprendizaje de temas básicos de geometría, tales como reconocimientos de polígonos, lados, ángulos, entre otros. Este robot está orientado a niños de preescolar y proporciona una interfaz sencilla y amigable mediante botones de control para su manipulación y uso.



METODOLOGÍA

En la fase de diseño, se creó la arquitectura del sistema de la tortuga robótica. Esto incluye el rediseño de la estructura física, la selección de los componentes electrónicos necesarios, el diseño de circuitos, el diseño la programación y de la presentación. Basándonos en el prototipo inicial, con la ayuda de la plataforma Tinkercad se diseñó al circuito para integrar una placa Arduino NANO EVERY con un microcontrolador L293D, que a su vez se conectó a los botones de control y los motores DC usando resistencias y jumpers. Utilizamos Arduino IDE con lenguaje C para desarrollar el programa del robot y se utilizó la Placa Arduino UNO para hacer pruebas de código por su facilidad de manejo, definimos a los pines del 2 al 5 como pines de entrada y del 8 al 11 como pines de salida, así mismo, se establecieron los puertos 13 y 12 para los motores. Los pines mencionados se conectaron a los pines correspondientes del microcontrolador L293D, el cual sirve para el control y dirección de motores DC, en este caso utilizamos modulación por ancho de pulso (PWM). Los botones de control serían el de avanzar, retroceder, girar a la izquierda y a la derecha. Por último, se incluye un botón para limpiar la memoria de forma que se puedan recibir nuevas instrucciones, de no presionarse, el robot repetiría la última secuencia grabada. Para el caparazón se utilizó una jícara <Material natural usado comúnmente como bandeja para uso doméstico>. La idea de utilizar este material fue usar materiales ecológicos y amigables con el medio ambiente, de esta manera pudimos ahorrar material y energía al no tener que imprimir esta pieza.  La base y cabeza de la tortuga fueron diseñadas para encajar con el tamaño del caparazón y para que el robot tuviera un espacio para las llantas y un plumón, los botones constaron de cuatro flechas para cada movimiento, el botón de encendido/ejecutar instrucciones y el de eliminar secuencia, el tamaño de la muesca se basó en el tamaño de los Pulsadores Switch 12x12x7. Para el control del servomotor se ideó un mecanismo que consistía en una palanca para empujar el plumón hacia arriba o hacia abajo dependiendo del movimiento del motor utilizando un soporte que se acopló a la base de la tortuga. La base, la cabeza, el soporte del servomotor y los botones, se modelaron con Blender y posteriormente se imprimieron utilizando el programa Cura para la impresora 3D Anet A8 plus, dichas piezas fueron pulidas, pintadas y ensambladas para adaptarse al diseño de la presentación de la tortuga. El circuito se pasó a la placa Arduino Nano Every y fue soldado con estaño para adaptar el tamaño del circuito al espacio que nos proporcionó la jícara y por último se atornillaron el resto de componentes.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos básicos para desarrollar un robot didáctico para niños, aplicando tecnología educativa basado en el aprendizaje STEM. Aprendimos más acerca de las funciones que tiene la placa  Arduino junto con el lenguaje C, la programación del microcontrolador L293D para el control de motores de corriente directa, la administración de datos y el cómputo físico para el desarrollo de sistemas más complejos dado que fomenta el aprendizaje práctico y estimula el pensamiento crítico, la creatividad y la resolución de problemas en los estudiantes, mientras los prepara para enfrentar los desafíos de un mundo cada vez más tecnológico, así mismo, aprendimos sobre modelado e impresoras 3D para obtener los componentes o figuras de nuestra necesidad.
Barrera Ruiz Scarlet Azuay, Instituto Tecnológico de Colima
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

PREPARACIóN DE CATALIZADORES SóLIDOS A PARTIR DE BIOMASA Y SU APLICACIóN EN LA TRANSESTERIFICACIóN DE LíPIDOS


PREPARACIóN DE CATALIZADORES SóLIDOS A PARTIR DE BIOMASA Y SU APLICACIóN EN LA TRANSESTERIFICACIóN DE LíPIDOS

Barrera Ruiz Scarlet Azuay, Instituto Tecnológico de Colima. Manjarrez Valenzuela Mónica Natalia, Instituto Tecnológico de Colima. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Los combustibles fósiles, como el petróleo, el carbón y el gas natural, han sido durante un largo tiempo la principal fuente de energía utilizada en el mundo para satisfacer la demanda energética. Sin embargo, su extracción y consumo desmedido han contribuido a la contaminación y el deterioro ambiental. Por ello, ha sido necesario buscar alternativas sostenibles que no comprometan el medio ambiente. El biodiesel tiene el potencial de sustituir o disminuir la dependencia a los combustibles fósiles y combatir la crisis energética mundial debido a sus múltiples beneficios, entre ellos su buen desempeño en motores de combustión y la generación de bajas emisiones de gases contaminantes a la atmósfera (gases de efecto invernadero), además es amigable con el medio ambiente, no tóxico, biodegradable y sustentable. Este biocombustible puede ser obtenido mediante diferentes procesos como la pirolisis, la dilución, la micro-emulsión y la transesterificación. Específicamente, la transesterificación es uno de los métodos más empleados para producir biodiesel y se basa en la reacción entre los triglicéridos y un alcohol, preferentemente de cadena corta, en presencia de un catalizador. Los catalizadores juegan un papel fundamental en la transesterificación de lípidos provocando un aumento en la velocidad de reacción y el rendimiento de biodiesel. Los catalizadores heterogéneos son una alternativa prometedora a los catalizadores homogéneos, debido a sus ventajas como reutilización, facilidad de separación, mejor estabilidad, durabilidad y menor impacto ambiental. En los últimos años, la preparación de catalizadores sólidos verdes a base de cenizas derivados de biomasas residuales ha sido considerada una opción viable y prometedora para la producción de biodiesel (FAME por las siglas en inglés de Fatty acid methyl esters). Estos catalizadores sólidos a base de cenizas son obtenidos principalmente vía calcinación y no requieren modificación para ser utilizados directamente en la transesterificación de lípidos, mostrando excelente actividad catalítica debido a su naturaleza básica. Bajo este contexto, en este proyecto se prepararon catalizadores sólidos a base de cenizas vía calcinación de diversas biomasas lignocelulósicas (cáscaras de naranja, cáscara de plátano pencas de nopal) y se evaluó su desempeño en la transesterificación del aceite de cártamo.



METODOLOGÍA

Se utilizaron la cáscara de plátano, cáscara de naranja y nopal como biomasas para la preparación de catalizadores sólidos y su aplicación para la producción de biodiesel. Primeramente, se realizó el acondicionamiento de las biomasas, donde se pusieron a secar al sol durante varios días para eliminar humedad. La biomasa se molió para disminuir su tamaño y se tamizó empleando un número de malla de 8-35. La calcinación se desarrolló en horno mufla a 800 °C durante 30 min empleando 20 g de biomasa y una rampa de calentamiento de 5 °C/min. Las cenizas (catalizadores sólidos) resultantes fueron lavadas con 150 mL de agua desionizada para eliminar impurezas y se secaron en un horno a 100 °C durante la noche. Se realizaron cinéticas de reacción empleando una carga de catalizador del 10%, relación molar metanol/aceite: 19/1 a diferentes temperaturas (40-60 °C) y tiempos de reacción (0.25-4 h). Una vez terminada la reacción, la fase líquida y sólida fueron separadas mediante centrifugación. La fase líquida se colocó en un horno a 100 °C para evaporar el metanol que no reaccionó. Finalmente, se realizó una caracterización fisicoquímica de la biomasas y catalizadores obtenidos mediante diferentes técnicas de caracterización (XRD y FTIR).


CONCLUSIONES

Los catalizadores sólidos a base de cenizas preparados en el presente estudio mostraron una elevada actividad catalítica y adecuado desempeño en la transesterificación del aceite de cártamo. Los resultados de las cinéticas de reacción indicaron que la máxima conversión de FAME alcanzada fue a la mayor temperatura y tiempo evaluados (60 °C, 4 h), demostrando la naturaleza endotérmica de la reacción. El uso de catalizadores a base de cenizas ha sido considerado una opción viable, sostenible y rentable desde el punto de vista económico y ambiental para el proceso de producción de biodiesel.
Barriga Villagómez Regina, Instituto Tecnológico de Morelia
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

ANáLISIS MULTIVARIABLE DE LAS COMPETENCIAS ACADéMICAS DEL PROGRAMA DE INGENIERíA EN ALIMENTOS


ANáLISIS MULTIVARIABLE DE LAS COMPETENCIAS ACADéMICAS DEL PROGRAMA DE INGENIERíA EN ALIMENTOS

Barriga Villagómez Regina, Instituto Tecnológico de Morelia. Téllez Vázquez Ana Carolina, Instituto Tecnológico de Morelia. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

Actualmente en el país de Colombia existe una alta inseguridad alimentaria, de acuerdo con estudios de la asociación de Bancos de alimentos un 54.2% de los hogares del país viven de inseguridad alimentaria. Este evento surge por diversos motivos entre ellos la falta de tecnología, el almacenamiento y procesamiento industrial y una vida útil limitada de los alimentos. (Capítulo de Ingeniería de Alimentos de la Asociación Colombiana de Facultades de Ingeniería, 2019). Este suceso genera que la población corra un mayor riesgo de desnutrición, contraer enfermedades y un mal desarrollo cognitivo y físico. Por otro lado, también se incrementan la morbilidad y mortalidad ocasionando un pobre desarrollo nacional y bienestar del planeta.(Jaramillo, 2020)  Por tal motivo, para mejorar la conservación, composición nutricional, calidad, accesibilidad y disponibilidad de los alimentos en el país es necesario desarrollar profesionistas en la rama de la ingeniería en alimentos competentes. Está profesión tiene un fuerte compromiso con la población en cuanto a los alimentos. Ellos deben ser capaces de innovar los procesos y tecnologías dentro del sector con la finalidad de prolongar la vida útil de los alimentos, de igual manera deben desarrollar procesos de transformación de alimentos que sean más eficaces y qué permitan producir alimentos a bajos costos y que estos sean accesibles para la población.(Capítulo de Ingeniería de Alimentos de la Asociación Colombiana de Facultades de Ingeniería, 2019) Se percibe que existe una relación entre la inseguridad alimentaria y la formación adecuada de ingenieros en alimentos. Por ejemplo, el país de China destaca en cuanto al número de programas educativos de ingeniería de alimentos en el mundo. Es el único país que no sufre de esta crisis mundial dado que cuentan un alto nivel de reservas de alimentos cercano al 70%. (Vargas Cuellar, 2022) De acuerdo a los planes estratégicos de China, ellos priorizan la inversión de tecnologías modernas, procesos de mecanización, sistemas de riesgos y aumento de inocuidad de los alimentos.(Samkange, 2022) Siendo estas las competencias que se relacionan directamente con la formación adecuada del programa educativo antes mencionado. En cambio, en Colombia la participación de la sociedad en cuanto a la resolución de problemáticas es escaza y se ve una alta necesidad de la implementación de políticas que permitan el abastecimiento de alimentos a escala territorial y regional que generen condiciones que permitan avanzar hacia la solución del hambre y un incremento en la seguridad alimentaria. Por otro lado, la tecnología e innovación del país ha adoptado modelos verticales de intervención, lo cual ha generado que los conocimientos locales no se toman en cuenta o se les da poca importancia. (Organización de las Naciones Unidas para la Alimentación y la Agricultura, 2019) Se percibe una alta necesidad de medir la eficiencia de los programas educativos de ingeniería en alimentos en el país de Colombia, sin embargo, no hay herramientas suficientes para analizar a fondo las competencias académicas o los procesos educativos del este programa de formación.



METODOLOGÍA

La presente investigación propone una metodología que se fundamenta en dos partes, ambas partes contemplan técnicas de aprendizaje automático no supervisado: un análisis de clúster y un análisis de componentes principales. En la primera parte, a partir de una base de datos se realiza un agrupamiento de carácter jerárquico y no jerárquico mediante el algoritmo de K-means. La segunda parte comprende un análisis de componentes principales (PCA) en esta etapa se pretende reducir la complejidad de los datos analizados tomando en cuenta un menor número de variables en comparación con los datos originales. La información fue obtenida a través de una base de datos que se constituye por un total de 2,582 observaciones, cada una de estas observaciones representa a un estudiante y a sus promedios resultantes de la aplicación de pruebas estatales Saber Pro y Saber 11 aplicadas por el instituto colombiano para la evaluación de la Educación (ICFES) del país de Colombia.(Delahoz-Dominguez et al., 2020) La prueba Saber 11 representa una examinación estandarizada que mide la calidad de la educación impartida, esta prueba se aplica al concluir la preparatoria y consta de cinco competencias con la intención de evaluar las aptitudes de los estuantes. La prueba Saber Pro evalúa la calidad de la educación superior. En este caso, la prueba evalúa diversas competencias. Mediante esta prueba se examina el desarrollo de conocimientos y habilidades de los estudiantes en el ámbito profesional de su programa académico.


CONCLUSIONES

El análisis clúster por departamentos ha permitido identificar grupos con características similares en relación a las pruebas Saber 11 y Saber Pro. Esto brinda la oportunidad de identificar competencias que necesitan mejoras específicas en cada conjunto de departamentos y aquellas en las que tienen un mejor desempeño. Estos resultados son fundamentales para diseñar estrategias de mejora en el sistema educativo a nivel departamental y tomar decisiones informadas en el ámbito educativo a nivel nacional y regional. En cuanto al análisis clúster por universidades, se han identificado dos clústeres que agrupan a las universidades según sus promedios en las pruebas académicas. La información proporcionada es relevante para comprender el rendimiento y desempeño de las universidades evaluadas, lo que facilita la toma de decisiones para mejorar la calidad académica en el país. Por otro lado, el análisis de componentes principales ha permitido ubicar a las universidades en cuatro cuadrantes distintos según sus promedios en las pruebas académicas. Los cuadrantes uno y tres muestran promedios más bajos, mientras que los cuadrantes dos y cuatro presentan una relación mayor en sus resultados. Esta información es valiosa para identificar patrones y tendencias en el rendimiento de las universidades y, así, implementar estrategias para mejorar en áreas específicas.  
Barrón Barraza Karicia Livier, Universidad Politécnica de Sinaloa
Asesor: Dra. Perla Rosa Fitch Vargas, Universidad Autónoma de Sinaloa

ANÁLISIS DEL DESARROLLO GONÁDICO DE LAS SARDINAS


ANÁLISIS DEL DESARROLLO GONÁDICO DE LAS SARDINAS

Barrón Barraza Karicia Livier, Universidad Politécnica de Sinaloa. Asesor: Dra. Perla Rosa Fitch Vargas, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto de investigación se centra en el estudio del desarrollo gonádico de las sardinas, analizando sus distintas fases de maduración, desde la etapa inmadura hasta el reposo, a través de la observación de características morfocromáticas específicas. Las gónadas de la sardina, como órganos reproductores, son fundamentales para comprender su ciclo reproductivo y su impacto en la población de esta especie. El interés por investigar este tema surge en el contexto de la formación académica en el área de biomédica. El trabajo con tejido de peces, en particular de sardinas, representa una oportunidad para experimentar con algoritmos de visión artificial. Sin embargo, para lograr una aplicación exitosa de los algoritmos de visión artificial en el campo biomédico, es fundamental contar con un conocimiento profundo y riguroso del desarrollo gonádico de las sardinas asociadas a cada fase. Por lo tanto, la problemática que se presenta es la siguiente: ¿Cuáles son las características morfocromáticas que permiten identificar y diferenciar las distintas etapas del desarrollo gonádico de las sardinas, y cómo podrían utilizarse algoritmos de visión artificial para facilitar su análisis? Es por ello que durante el verano de investigación se estuvieron desarrollando algoritmos en python que ayudaran al análisis de las distintas etapas de la gónada de la sardina tanto como de machos y hembras.



METODOLOGÍA

Se inició el proyecto con una investigación de artículos y documentos científicos relacionados con la temática. Este proceso tuvo como objetivo adquirir un conocimiento profundo sobre el tema en cuestión. Posteriormente, se procedió a la instalación de los programas y librerías necesarios en la plataforma seleccionada para el desarrollo del proyecto. En este caso, se utilizó el lenguaje de programación Python. Lo primero que se realizó fue llevar a cabo diversos métodos de umbralización en la imagen de la gónada. Tras un análisis se optó por la utilización de la técnica de binarización de Otsu. Esta técnica estadística permitió calcular de manera automática el valor óptimo del umbral. La etapa siguiente consistió en la segmentación precisa de la gónada. Para este propósito, se implementó el método de segmentación SAM. Esta técnica demostró ser altamente efectiva al realizar una segmentación rápida y precisa, sin requerir una capacitación adicional. Al lograr la segmentación de la imagen, se procedió a evaluar y comparar diversos filtros de bordes para determinar el más adecuado para el proyecto. Los filtros considerados fueron: Sobel, Canny, Laplaciano y Diferencia de Gaussiana. Luego de analizar los diferentes filtros, se optó por el filtro Sobel debido a su capacidad para detectar bordes horizontales y verticales por separado. Una vez seleccionado el filtro Sobel, se repitió el proceso completo en cada una de las gónadas. Esto incluyó la aplicación sucesiva de la umbralización de Otsu, la segmentación mediante el método SAM y la aplicación del filtro Sobel. Ya que se aplicó el proceso a cada gónada, se procedió a generar histogramas a partir de los resultados del filtro aplicado. Estos histogramas proporcionaron datos esenciales para la siguiente etapa del análisis. Utilizando los datos obtenidos de los histogramas, se crearon gráficos comparativos que representan las tres etapas de desarrollo de la gónada en hembras (desarrollo inicial, madurez y reposo) y en machos (desarrollo inicial, eyaculación con desarrollo y reposo).  En una fase adicional del análisis gráfico, se examinaron tres gónadas en la misma etapa de desarrollo. El objetivo era identificar patrones distintivos que permitieran diferenciar entre las diferentes etapas de desarrollo de la gónada. Mediante esta metodología , se logró establecer un proceso sólido y coherente para identificar y diferenciar las diversas etapas de desarrollo de las gónadas mediante técnicas de umbralización, segmentación y análisis de filtros.


CONCLUSIONES

Durante la estancia del verano Delfín se logró un profundo avance en la comprensión y aplicación de técnicas de visión artificial en el análisis del desarrollo gonádico de las sardinas. Este proyecto logró avances significativos en la identificación de etapas de desarrollo gonádico, por lo que es importante destacar que aún existen oportunidades para la mejora y el perfeccionamiento del método. Se espera que en futuras investigaciones se amplíe la muestra y se implementen enfoques adicionales para fortalecer aún más la precisión y la aplicabilidad de la metodología.
Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Batalla García Roberto Emmanuel, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Rodolfo Murrieta Dueñas, Instituto Tecnológico Superior de Irapuato

MODELADO 3D DE UN PROTOTIPO DE UN BIORREACTOR EN SOLIDWORKS.


MODELADO 3D DE UN PROTOTIPO DE UN BIORREACTOR EN SOLIDWORKS.

Batalla García Roberto Emmanuel, Instituto Tecnológico Superior de Irapuato. Guadarrama Prado Karla Alexandra, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Rodolfo Murrieta Dueñas, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La industria de la alimentación es uno de los sectores productivos con mayor demanda energética en México, situándose en segunda posición en cuanto a consumo energético (solo por detrás de la siderurgia) y consumiendo el 14% del total de la energía empleada por la industria.  Actualmente, varias empresas alimenticias cuentan con la presencia de al menos un biorreactor para sus procesos industriales, sin embargo, estas empresas no cuentan con un sistema actualizado el cual nos permita optimizar el mezclado que se produce dentro de ellos, por lo que estos equipos producen un gasto de energía considerablemente alto, además de que varios de estos ellos se encuentran al día de hoy obsoletos, sin embargo, se siguen utilizando debido a las condiciones de operación que son permitidas dentro de estas empresas.  Durante los últimos años, los biorreactores han utilizados en un número creciente de aplicaciones, desde la producción de medicamentos bio-adaptivos o fertilizantes y pesticidas ecológicos, hasta en la industria alimenticia, que es en la que se basa la presente investigación. El aumento de la producción de productos biológicos y reactores de un solo uso ha llevado a la necesidad de una precisión y flexibilidad aún mayores en la instrumentación que emplean. Estudios recientes han mostrado que más del 70% de las industrias alimenticias cuentan con biorreactores que utilizan agitadores para realizar sus mezclados. Debido a la agitación que se produce dentro de estos, se ha presentado un incremento en el gasto energético de dichas industrias. 



METODOLOGÍA

Se realizo una investigación acerca del correcto funcionamiento de un biorreactor de tipo tanque agitado, esto para conocer acerca de las variables que puedan ser manipuladas para poder establecer las condiciones iniciales y las condiciones limite al momento de trabajar. Una vez conocido el correcto uso que tiene un biorreactor, se consideraran tres etapas para realizar de una forma más optima el trabajo, las cuales consisten en: a) Dimensionamiento del biorreactor y del agitador en un sistema de cómputo numérico que ofrece un entorno de desarrollo integrado, b) Análisis en softwares de simulación, y c) Dibujo y modelado en softwares de diseño en 3D. Para el dimensionamiento del biorreactor y del agitador, se realizó una interfaz en el que se calculan las medidas de estos según la capacidad deseada, para ello, se utilizara Matlab, el cual, trabaja en un entorno de programación para el desarrollo de algoritmos, análisis de datos, visualización y cálculo numérico. Para ello, se desarrollará introduciendo las ecuaciones de diseño para un reactor de tipo tanque agitado además de ecuaciones para el dimensionamiento del agitador, de esta manera obtendremos las medidas correspondientes para nuestros equipos. Una vez teniendo el dimensionamiento de nuestro tanque, se realizará una simulación dentro del software VisiMix, el cual es una herramienta que nos proporciona una respuesta precisa sobre la mezcla que se llevara a cabo dentro del reactor, introduciendo las variables obtenidas con la interfaz de Matlab. Dentro de VisiMix se observará si el biorreactor cumple con las especificaciones necesarias para un correcto mezclado dentro de este. Habiendo simulado correctamente en VisiMix y obteniendo un resultado favorable sobre la mezcla dentro del biorreactor, se modelarán los diseños propuestos en 3D con ayuda de SolidWorks 2022, el cual es un software de diseño importante para la industria en la actualidad. Se opto por realizar el tanque y el agitador por separados. Se realizarán 3 diseños diferentes, utilizando el mismo tanque y agitador, pero cambiando la altura de este con respecto al fondo, el cual serán 10 cm, 15 cm y 20 cm.


CONCLUSIONES

En este trabajo se propuso la idea de un tanque que pudiera ser optimizado de una manera más eficiente, logrando reducir el consumo energético al momento de lograr una mejora en el mezclado, para ello, es indispensable conocer el control que el equipo debe de tener. Realizando diversas simulaciones, se observo que el diseño que ofrece dicha optimización es con el agitador a una altura de 15 cm del fondo, comparándolo con los otros dos diseños, en donde el mezclado no se realizo de la mejor manera, ofreciendo una mejor optimización al momento de realizar el trabajo.
Baturoni Nuñez Olivia Nayelli, Universidad Vizcaya de las Américas
Asesor: M.C. Jorge Luis Alfaro Rosas, Universidad César Vallejo

INDUSTRIA 4.0 Y SU IMPACTO EN LATINO AMERICA


INDUSTRIA 4.0 Y SU IMPACTO EN LATINO AMERICA

Baturoni Nuñez Olivia Nayelli, Universidad Vizcaya de las Américas. Asesor: M.C. Jorge Luis Alfaro Rosas, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

PREGUNTA ¿Como ha impactado la integración de la industria 4.0 en los procesos de la industria de manufactura latinoamericana?   OBJETIVO Determinar el impacto de la integración de la industria 4.0 en los procesos de la industria manufacturera latinoamericana, mediante revisión de literatura científica en el periodo 2018-2022.   CAPÍTULO I. INTRODUCCIÓN Industria 4.0, describe la digitalización de los sistemas y de los procesos industriales, y su interconexión mediante el Internet de las Cosas y el Internet de los Servicios, para conseguir una mayor flexibilidad e individualización de los procesos productivos. Está compuesta de tecnologías avanzadas, por   lo   que   las soluciones son   flexibles, inteligentes y totalmente autónomas. Las   "tecnologías   convergentes, por   su   parte, son aquellas que tiene la posibilidad de crear sinergias con otras   tecnologías   pudiendo   esta   integración   generar nuevas tecnologías transformando los modelos existentes y las tecnologías habilitadoras hacen referencia a la capacidad que estas propicien o permita la evolución o transformación. (Rozo-García, F., (2020). Revisión de las tecnologías presentes en la industria 4.0. Revista UIS Ingenierías)  



METODOLOGÍA

CAPÍTULO II. METODOLOGIA 2.1 DEFINIR EL PROBLEMA Analizar las propuestas de las acciones de mejora en los procesos. Establecer en un enunciado la definición del problema. En el caso de que el problema se presente en otras áreas, determina su alcance, mismo que se considera al efectuar el plan de acción de mejora. Y el seguimiento a todas las áreas en donde se presente el problema o tema de mejora. 2.2 GENERAR Y EVALUAR EL PROBLEMA Buscar soluciones viables a la problemática detectada. Revisar la lista de todas las posibles soluciones y eliminar aquellas que no estén sustentados, obteniendo la solución con mayor viabilidad para su implementación. En el caso de la mejora, se evalúa la potencial implementación. 2.3 ESTABLECER EL PLAN DE ACCION DE MEJORA. Asignar responsables de las acciones, así como las fechas compromiso para su atención. Elaborar el plan de acción de mejora, determinando las actividades específicas a desarrollar, el tiempo de implementación y los recursos necesarios de acuerdo al formato. Dar seguimiento al cumplimiento de las actividades del plan de acción de mejora e informa el avance. El representante presenta el avance del plan de acción de mejora.


CONCLUSIONES

RESUMEN El propósito de esta investigación, tiene como fin el poder incentivar a las actuales y nuevas industrias a participar con la integración de esta 4ta. revolución industrial, sumando estrategias inteligentes para mejorar sus estándares de calidad y producción. Con la integración del sistema, se mejora notablemente los estándares de calidad de la producción, al tener una organización más automatizada se tiene la certeza de que los pesos y medidas de los productos son precisos, evitando así demoras e interrupciones de producción. Los procesos automatizados requieren de menos recurso humano, lo que significa que el porcentaje de error es menor, además, se evita que el personal se exponga a procesos con materiales que puedan deteriorar su salud prolongadamente, la producción es más eficiente y hay menos gastos generales, la integración de la industria 4.0 llego para aumentar la competitividad de las empresas, satisfacer las necesidades de sus mercados y de sus clientes objetivo. La industria 4.0 en las empresas, puede gestionarse para que la organización que la implemente pueda crecer de forma independiente adaptándose a           las demandas de mercado actual y seguir innovando para que la vida de la organización sea más duradera, actualmente estamos en la era de la información, donde todo lo automatizado es lo que se quedara para seguir avanzando
Bautista Meneses Natalia, Instituto Tecnológico de Pachuca
Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

METODOLOGíA PARA EL EMPLEO DE CENIZA VOLCáNICA EN SUSTRATO PARA LA GERMINACIóN DE SEMILLAS DE CILANTRO


METODOLOGíA PARA EL EMPLEO DE CENIZA VOLCáNICA EN SUSTRATO PARA LA GERMINACIóN DE SEMILLAS DE CILANTRO

Bautista Meneses Natalia, Instituto Tecnológico de Pachuca. Delgado Torres Juan Carlos, Universidad Autónoma de Baja California. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con los reportes del Cenapred, en mayo del 2022 se tuvieron 802 exhalaciones, 80 minutos de tremor y 0 explosiones, mientras que 2023 los números incrementaron a 4 013, a 21 364 y a 127, respectivamente. Dichas explosiones emitieron columnas de gases y ceniza, la que posteriormente llegó a distintos municipios cercanos al volcán. En diversos medios de comunicación se informó que en  San Pedro Cholula se recogieron 900 toneladas de ceniza (Sol de Puebla, 2023). Así mismo, hubo menciones sobre la disposición final de este residuo, que sería en bancos de tiro, parques y jardines.  Se ha dicho antes que la presencia de ceniza volcánica en el suelo es benéfica. Minasny et al (2021) señalan que este compuesto proporciona nutrientes al suelo, pues contiene metales como Fe, Cu, Mg, Mn, P, Ca, Na, Si, Al y Zn. Sin embargo, es importante hacer un uso moderado de la ceniza volcánica, puesto que, al entrar en contacto con el agua, los metales pueden lixiviar y afectar cuerpos acuáticos. También es fundamental considerar que la ceniza cambia la conductividad eléctrica y el pH del suelo, el cual se recomienda se encuentre en un rango de 6.5 a 7 (Santamaría-Juárez et al., 2022). Por lo tanto, se propone el empleo de la ceniza emitida por el volcán Popocatépetl, del mes de mayo del 2023, en la preparación de sustratos que serán empleados para germinar semillas de cilantro, ya que los datos del Sistema de Información Agroalimentaria y Pesquera (SIAP) indican que el año anterior se produjeron 46 mil 747 toneladas de cilantro en Puebla, siendo proveniente de Cholula el 41%; esto con el fin de determinar cuál es la cantidad apropiada de ceniza que permita un buen desarrollo de la semilla y propicie la introducción de la mejor opción de sustrato a la industria.



METODOLOGÍA

Se investigaron los componentes comunes y beneficiosos en sustratos para plantas y se eligió la tierra, arena y aserrín. Con ellos y ceniza volcánica, se crearon 6 sustratos con diferentes concentraciones de éstos elementos y un control Sustrato 1 (S1): Tierra 60%, Arena 5%, Aserrín 5%, Ceniza 30% Sustrato 2 (S2): Tierra 60%, Arena 5%, Aserrín 10%, Ceniza 25% Sustrato 3 (S3): Tierra 60%, Arena 8%, Aserrín 12%, Ceniza 20% Sustrato 4 (S4): Tierra 60%, Arena 10%, Aserrín 15%, Ceniza 15% Sustrato 5 (S5): Tierra 60%, Arena 15%, Aserrín 15%, Ceniza 10% Sustrato 6 (S6): Tierra 60%, Arena 15%, Aserrín 20%, Ceniza 5% Control: Tierra 60% ,Arena 20%, Aserrín 20%, Ceniza 0% Se realizaron las siguientes pruebas de caracterización de suelos siguiendo el manual de laboratorio proporcionado por la universidad receptora: Densidad Aparente Densidad Real Medición de pH Conductividad eléctrica (CE) Textura de suelo Para el monitoreo de la germinación de las semillas de cilantro se mantuvieron en observación durante 20 días en lo cuales, cada día se regaban, se exponían al sol durante 1 hora. Se realizaron registros de temperatura de sustrato, número de semillas germinadas, elongación de la planta y número de hojas. Con esto se obtiene el porcentaje de supervivencia y se puede inferir cuál de los sustratos tiene el mejor porcentaje de éxito al germinar semillas.


CONCLUSIONES

En las pruebas de densidad aparente, S1 resultó ser el más denso con 1.0472 g/ml, mientras que el control fue el de menor densidad, 0.6286 g/ml, conteniendo la misma cantidad de aserrín y más arena que el S6. Por otra parte, S3 y S5 también muestran densidades por encima del promedio. La ceniza recolectada tuvo un pH de 6.79.  De acuerdo a esta propiedad se tienen dos tipos de suelo, el S1 presentó un pH de 7.78, mientras que el control y el resto de los sustratos presentan un pH entre 7.02 y 7.23. En cuanto a CE, S1 tiene 470. 67 µS/cm, el valor más alto obtenido en los 6 sustratos, y le secunda el control con 434.33  µS/cm. De este modo, se les considera suelos óptimos para varias plantas, mientras que el resto se toman como aceptables. En la prueba de textura resulto que todos los sustratos tenían en su composición un 95% o más de arena y en el triángulo de texturas todos se clasificaron en textura arenosa (A) se clasifica como textura gruesa. Con ésto se entiende que los sustratos tendrán una alta permeabilidad, mientras que la superficie específica para efectuar procesos químicos y físicos, la compacidad, la capacidad de cambio y la retención de agua son bajas; y el laboreo en suelos de textura gruesa son de dificultad  intermedia. Con el seguimiento que se hizo del desarrollo del cilantro se pudo observar que los sustratos S3 y S4 son los que tienen un mayor porcentaje de supervivencia (psv), del 70% y 60%, respectivamente; mientras que el sustrato control y el S1 tienen el psv más bajo, de tan solo el 20% . Los sustratos S3 y S5 tienen un psv del 40% y el S6 del 30%. En cuanto a la altura del tallo principal, se  alcanzó una altura promedio de 1.3 cm en S3 y de 1.44 cm en S4. Los resultados obtenidos de S3, con un 20% de ceniza en su composición, indican que fue el mejor de los sustratos preparados para la germinación de las semillas de cilantro. A dicho sustrato se le realizaron mediciones de CE y de pH en el día 20, obteniendo 91 µS/cm y 8.42, respectivamente.  REFERENCIAS Centro Nacional de Prevención de Desastres. (2022). Reporte del monitoreo del Cenapred al volcán Popocatépetl (mayo). Gobierno de México.  González-Naranjo, V., Leal, M., Lilo, J., De Bustamante, I. & Palacios-Díaz, P. (2012). Guía de caracterización edáfica para actividades de regeneración de aguas residuales en usos ambientales. Consolider Tragua. España. Sistema de Información Agropecuaria y Pesquera. (2023). Datos abiertos. Estadística de Producción Agrícola de 2022. Gobierno de México. [http://infosiap.siap.gob.mx/gobmx/datosAbiertos.php] Minasny, B., Fiantis, D., Hairiah, K., & Van Noordwijk, M. (2021). Applying volcanic ash to croplands - The untapped natural solution. Soil security, 3, 100006. https://doi.org/10.1016/j.soisec.2021.100006 Marcial, N. (2023). En San Pedro Cholula recogieron 900 toneladas de ceniza, ¿qué harán con ella? El Sol de Puebla.
Becerra Gamboa José Luis, Instituto Tecnológico de Tepic
Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia

ANáLISIS INTRODUCTORIO DE LA CADENA DE SUMINISTRO DEL HIDRóGENO VERDE: APROXIMACIóN PROSPECTIVA Y SISTéMICA.


ANáLISIS INTRODUCTORIO DE LA CADENA DE SUMINISTRO DEL HIDRóGENO VERDE: APROXIMACIóN PROSPECTIVA Y SISTéMICA.

Becerra Gamboa José Luis, Instituto Tecnológico de Tepic. Saldana Melanie Michelle, Instituto Tecnológico de Tepic. Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La transición hacia fuentes de energía renovables es crucial para frenar el cambio climático y lograr un desarrollo sostenible. El hidrógeno verde, producido a partir de fuentes renovables, es una alternativa prometedora para descarbonizar sectores que son difíciles de electrificar, como la industria y el transporte. Sin embargo, la implementación del hidrógeno verde a gran escala enfrenta desafíos importantes. Uno de los principales obstáculos es el desarrollo de una cadena de suministro eficiente para el hidrógeno verde. Actualmente, los costos de producción del hidrógeno verde son elevados, limitando su competitividad frente a combustibles fósiles como el gas natural. Además, se requiere de infraestructura para el transporte, almacenamiento y distribución a los sitios de demanda. Esta cadena de suministro debe diseñarse cuidadosamente para minimizar pérdidas de energía y costos. Para que el hidrógeno verde pueda contribuir significativamente a un futuro energético viable, es necesario abordar los desafíos de su cadena de suministro y crear condiciones propicias para su integración competitiva a los mercados. La investigación científica debe apoyar el diseño de soluciones óptimas en estos frentes con una visión prospectiva para el adyacente mercado energético. Con la ayuda de la dinámica de sistemas se pueden emplear escenarios donde se visualicen las diferentes problemáticas y el impacto multidimensional para la toma de decisiones de la implementación de dicha cadena de suministro del hidrógeno verde.



METODOLOGÍA

La implementación de la cadena de suministro del hidrógeno en el mercado energético es un desafío complejo que requiere un enfoque sistémico. La dinámica de sistemas es una metodología que puede ser útil para abordar este tipo de problemas, ya que permite modelar y analizar el comportamiento de sistemas complejos a lo largo del tiempo. Durante esta estadía, el problema de investigación fue abordado con un enfoque en la dinámica de sistemas. En primera instancia, se estudiaron las bases significativas de este método, como los diagramas causales, los cuales se implementan en programas como Vensim PLE. Se desarrollaron diagramas de niveles y flujos para comenzar a crear simulaciones de sistemas complejos y analizar los cambios que ocurren en ellos a partir de alteraciones en distintos parámetros obtenidos del estudio de los diagramas. Esta metodología permitió un análisis detallado y profundo del comportamiento de los sistemas bajo diferentes condiciones, proporcionando valiosos conocimientos para la investigación y el desarrollo de soluciones.


CONCLUSIONES

Reemplazar las fuentes de energía convencionales con hidrógeno renovable mejora la calidad del aire y protege el medio ambiente. Además, la adopción de tecnologías de hidrógeno promueve el autoabastecimiento energético y reduce la dependencia de fuentes externas, favoreciendo la transición hacia una matriz energética basada en fuentes limpias y renovables. El desarrollo de la economía del hidrógeno es un motor importante para movilizar inversiones que respalden el desarrollo económico. Además, el desarrollo de una cadena de valor del hidrógeno también puede promover la generación y el uso local de energía limpia. La introducción de tecnologías de producción de hidrógeno y su uso en diversas aplicaciones, como el transporte y la generación de energía, lleva a una mayor autosuficiencia energética en las comunidades locales. Esto implica impactos técnicos y ambientales ya que el uso del hidrógeno como producto final contribuye a la descarbonización de sectores importantes. El impacto multidimensional de la propuesta de utilizar hidrógeno como vector energético y su análisis en dinámica de sistemas es evidente en las diversas dimensiones técnicas, económicas, ambientales y sociales. La creación de una economía del hidrógeno representa no solo una solución para mitigar el cambio climático, sino también una oportunidad para impulsar el desarrollo de un sector emergente y en constante expansión.
Becerra Martinez Liliana, Universidad Veracruzana
Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional

BIOSENSOR DE ADN BASADO EN BIOIMPEDANCIA POR INDUCCIóN MAGNéTICA


BIOSENSOR DE ADN BASADO EN BIOIMPEDANCIA POR INDUCCIóN MAGNéTICA

Becerra Martinez Liliana, Universidad Veracruzana. Gómez González Nancy Nallely, Universidad de Guadalajara. Montoya Solorzano Catalina, Universidad Autónoma de Manizales. Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La necesidad de una técnica sencilla y económica para la cuantificación del ADN y la detección de genes, principalmente para los países en desarrollo, es de gran importancia. Existen varios métodos para detectar ADN amplificado a través de PCR, que incluyen electroforesis, fluorescencia y espectroscopia de impedancia electroquímica (EIS) los cuales están basados en marcadores o funcionalización. Actualmente, han surgido métodos de detección de ADN por EIS, que determinan la presencia de ADN por las propiedades electroquímicas siendo un método por funcionalización basado en un sistema de PCR portátil y electrodos para la medición [1]. También, se ha desarrollado la cuantificación de ácidos nucleicos mediante la citometría de impedancia multifrecuencia y aprendizaje automático utilizando una red neuronal basada en un modelo de regresión híbrido para predecir cantidades de ADN acopladas a perlas paramagnéticas que actúan como marcador [2].  En este trabajo, se diseñó el prototipo de un biosensor libre de marcado y funcionalización para la detección de presencia de ADN mediante bioimpedancia por inducción magnética a multifrecuencia. En el prototipo se analizaron 5 muestras de ADN de esperma de salmón a  distintas concentraciones y una muestra de agua milli-Q. Paralelamente, se comprobó la concentración de las muestras mediante el espectrofotómetro NanoDrop 2000 (Thermo Fisher Scientific - Waltham, MA USA) . Tras un análisis estadístico que relaciona la resistencia vs reactancia se observan regiones específicas para cada concentración lo cual indica la sensibilidad del prototipo y su viabilidad para determinar la concentración de ADN. Se requiere de más estudios para respaldar las observaciones.



METODOLOGÍA

Se diseñó un sistema de inducción de campos magnéticos a través de bobinas coaxialmente alineadas con el analito centrado entre las mismas, para el desarrollo del sistema se utilizan 5 etapas las cuales son: control, generador de funciones, inductor-sensor, detector de ganancia y fase, convertidor analógico digital. Los distintos componentes de cada etapa se integraron en una carcasa y se alimentaron con una fuente de grado médico elpac power systems. La programación del microcontrolador e interfaz gráfica se llevo a acabo por el lenguaje de programacion python, el cual se dividio en dos funciones principales: barrido de frecuencias y convertidor. El sistema induce un campo magnético en la muestra dependiendo de sus propiedades eléctricas, dicho campo magnético es  perturbado respecto al campo inicial evidenciándose en la magnitud y fase. Estos parámetros se correlacionan con las características del analito siendo de interés para determinar su relación con la presencia de ADN. La evaluación del prototipo  se realizó a través  de determinar su sensibilidad a diferentes concentraciones de ADN.  Se utilizaron 5 muestras de 50 µL de  ADN  de esperma de salmón a diferentes concentraciones y una muestra de agua milli-Q como referencia del vehículo. Cada concentración de ADN se cuantificó por triplicado mediante espectrofotometría UV-Vis a través del NanoDrop 2000 (Thermo Fisher Scientific - Waltham, MA USA). Estas mismas muestras se evaluaron en el Biosensor de ADN inductor-sensor determinando  los distintos parámetros de magnitud y fase a diferentes frecuencias, la medición se realizó nueve veces por muestra. Como resultados de la medición con el biosensor de ADN  se obtuvieron datos de magnitud y fase, mediante procesamiento fuera de linea se analizo y se grafiacaron mediate un diagrama de dispersión.


CONCLUSIONES

El prototipo biosensor de ADN presenta sensibilidad ante las distintas concentraciones de ADN en frecuencias de campo magneticas especificas. Se requiere mejorar el prototipo incluyendo filtros para reducir el ruido y el número de  repeticiones de las mediciones. Se evidencia la viabilidad del prototipo biosensor de ADN  para determinar la presencia de ADN mediante impedancia por inducción magnética.
Becerra Pérez Brandon, Instituto Tecnológico de Matamoros
Asesor: Mtro. Manuel Antonio Arenas Méndez, Instituto Tecnológico Superior de Pánuco

INTERFAZ DE CONTROL DE BRAZO ROBOTICO.


INTERFAZ DE CONTROL DE BRAZO ROBOTICO.

Becerra Pérez Brandon, Instituto Tecnológico de Matamoros. Asesor: Mtro. Manuel Antonio Arenas Méndez, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

La industria ha tenido grandes avances con la llegada de la robotica y la automatización de procesos, cada dia es más común ver que las maquinas desempeñen labores que anteriormente se tenian que hacer de forma manual. Sin embargo, en educacion superior, los estudiantes de ingenieria necesitan ser capaces de manejar estas maquinas, puesto que el practicar con modelos basicos de este tipo ayuda para su desarrollo profesional. Durante el desarrollo del proyecto se desarrollo una interfaz gráfica para el control de un brazo robotico. Lo que se busca es un entorno amigable para que el usuario sea capaz de operar a la maquina o el robot, y ordenarle ciertas instrucciones para su ejecución.



METODOLOGÍA

En primera instancia, se analizó el brazo robotico a ser controlado por nuestra interfaz de control. En resumen se trata de un brazo con cinco grados de libertad, de ahí sabemos que instrucciones enviar para la lectura del puerto serie integrado en el brazo. Para la elaboracion de nuestra interfaz, se utilizó una pantalla de 3.5 pulgadas con un puerto integrado para leer tarjetas Micro SD, además de una perilla la cual sirve para desplazarnos por toda la pantalla de forma más comoda y con un boton que funciona selctor de rutinas, todo programado con un Arduino Mega ADK. Lo siguiente fue programar el sistema para que abra, lea y despliegue en la pantala, archivos previamente creados y guardados en una micro SD, los cuales tienen una serie de instrucciones en forma de cadenas de caracteres, las cuales son informacion de las rutinas de movimiento para nuestro brazo robotico, estas cadenas en particular controlan tres parametros: El numero de Servo a manipular. El angulo de movimiento a desplazarse. El tiempo en que tarda la ejecución de rutina. Una vez que se da lectura a la rutina seleccionada, se almacena la informacion en un arreglo de caracteres y se manda por Puerto Serie del Arduino al brazo robotico para su lectura, el cual interpreta la informacion recibida y realiza la rutina de movimiento de forma fisica.


CONCLUSIONES

Durante la estancia de verano se logro un avance considerable en el proceso de el desarrollo de nuestra interfaz, se adquirio mucho aprendizaje respecto a la programacion orientada a objetos y el pensamiento lógico, además de la estructura de componentes no vistos y utilizados por el estudiante, debido a esto se aprendieron mas medios distintos para lograr un mismo proposito. Sin embargo aun falta programar el sistema para que haga correccion de errores al momento de enviar la informacion por el puerto serie, ya que se pierden datos por el camino.
Becerra Romero Alejandra Betsabe, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla

OPERACIóN, ANáLISIS Y CONTROL DE UN PROTOTIPO EXPERIMENTAL PARA PROCESOS DE ELECTROLISIS PARA LA OBTENCIóN DE GAS COMBUSTIBLE HIDRóGENO Y SU IMPLEMENTACIóN COMO VECTOR ENERGéTICO


OPERACIóN, ANáLISIS Y CONTROL DE UN PROTOTIPO EXPERIMENTAL PARA PROCESOS DE ELECTROLISIS PARA LA OBTENCIóN DE GAS COMBUSTIBLE HIDRóGENO Y SU IMPLEMENTACIóN COMO VECTOR ENERGéTICO

Becerra Romero Alejandra Betsabe, Benemérita Universidad Autónoma de Puebla. Bolaños Jimenez Yazmin Magaly, Benemérita Universidad Autónoma de Puebla. Calderón Galicia Flor Lizbeth, Benemérita Universidad Autónoma de Puebla. González Sánchez David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente la crisis ambiental que vivimos a nivel global ocasionada en gran parte por los gases de efecto invernadero que son producto de la quema de hidrocarburos para la obtención de energía eléctrica, requiere una innovación en la forma en la cual obtenemos nuestra energía, y esta nueva forma tiene que ser de una manera renovable y amigable para el ambiente.   En México según la encuesta realizada por el INEGI en el 2018 Encuesta Nacional sobre Consumo de Energéticos en Viviendas Particulares (ENCEVI) indica que el 99% de las viviendas en México cuenta con electricidad, de las cuales, solo el 0.25% usa paneles solares para la obtención de su energía eléctrica. Es preocupante la poca relevancia y uso de las energías renovables en México. He aquí la importancia de empezar a invertir en la implementación e investigación de nuevas fuentes de energía.   Para poder llevar a cabo la electrolisis, se tendrá que preparar un prototipo, en donde el armado y montado se llevará a cabo por los estudiantes miembros de este programa de investigación, esto con el fin de fortalecer la forma práctica y no solo la teórica.



METODOLOGÍA

Armado de prototipo Para el montaje del prototipo fue necesario investigar qué tipo de tubería nos convenia más para usar, la primera propuesta fue usar tubo de polipropileno (ppr), este material se cotizo y se hizo un diagrama de flujo de proceso, pero esta propuesta fue descartada, ya que, el diámetro interior de este tubo era muy grande, y eso nos podría haber dado problemas al momento de correr las pruebas. Por lo tanto, se optó por mangueras de plástico y conexiones tipo fitting, las cuales las tienen un recubrimiento antibacteriano, por esto mismo las podemos encontrar en diversas conexiones para agua potable. Una vez teniendo los materiales necesarios se paso a hacer el montaje del prototipo. Para sostener todo el sistema, se propuso usar bases de madera, las cuales funcionaron satisfactoriamente. Como en todo proyecto, surgieron complicaciones, pero se superaron gracias al trabajo en equipo, por ejemplo, una de las conexiones fitting nos llegó de una medida diferente a la solicitada, por lo tanto, tuvimos que idear una adaptación para una conexión del prototipo. Una vez solucionados los inconvenientes, se paso a la fase del armado para hacer pruebas hidráulicas, con el fin, de corregir cualquier fuga de líquido, las cuales, si se presentaron, pero se sellaron fácilmente con teflón. Preparamos las conexiones a utilizar antes del armado. Teniendo todo listo, se pasó al armado Este prototipo fue diseñado para ser un sistema multifuncional, y por lo mismo, puede funcionar con diversos tipos de bomba para impulsar la sustancia a estudiar y diferentes tipos de tanque y capacidades. Otra ventaja de este sistema es que se pueden añadir nuevas partes dependiendo del objetivo. Montado de puertas automáticas Como parte de la estancia y para mejorar el espacio en donde se colocó el prototipo, se diseñaron e instalaron puertas automáticas. Se realizó a escala un modelo del mecanismo de las puertas. En la aplicación circuit.io se diseñó un modelo del circuito usando arduino uno. Se programo un código para accionar los servomotores al contacto de una llave en el sensor RFID Se armaron y pegaron las piezas, brazos y circuitos al espacio. Finalmente se realizaron pruebas.


CONCLUSIONES

Durante la estancia fue importante tener un conocimiento previo relacionado a el tema, esto, para entender y tener un panorama general de lo que se buscaba hacer en este tiempo. A su vez, lo realizado en este programa fue interesante, ya que pusimos nuestras habilidades a prueba y adquirimos nuevas, de igual forma, fue una oportunidad para entender que no todos tenemos las mismas habilidades y que eso sigue siendo funcional en un equipo de trabajo porque todos pudimos hacer cosas distintas y complementar nuestro trabajo. El poder realizar el prototipo nos hizo reflexionar sobre la importancia que tienen las energías renovables y que, así como otros países invierten en ellas, México también lo debería de hacer. En esta ocasión pudimos poner nuestro granito de arena para que los alumnos de la Facultad de Ingeniería Química de la BUAP puedan seguir con la investigación y trabajo del prototipo antes mencionado. El seguimiento de resultados los estaremos obteniendo durante clases, gracias a que ya tenemos un prototipo funcional. Durante la estancia obtuvimos una experiencia práctica única, nos encargamos de cotizar cada uno de los materiales usados en diversos lados, tuvimos que investigar acerca de las ventajas y desventajas de cada material, así como su funcionamiento y cómo armarlo de manera correcta Finalmente, cabe destacar que con la culminación de este programa en su edición 2023, nos sentimos sumamente felices y agradecidos con las personas que nos apoyaron, con la estancia hemos adquirido nuevas habilidades, esperando poderlas aplicar en nuestra vida escolar y en nuestra vida personal, pudiendo reafirmar que la ingeniería no solo es aplicable en la industria y en los laboratorios de práctica.
Becerril Garcia Alexis Eduardo, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Jacqueline Neira Parra, Corporación Universitaria Minuto de Dios

ESTRATEGIAS DE ECONOMíA CIRCULAR EN LA GESTIóN DE RESIDUOS PRODUCTO DE SERVICIOS DE ALIMENTACIóN EN LA ATENCIóN DE POBLACIóN VULNERABLE


ESTRATEGIAS DE ECONOMíA CIRCULAR EN LA GESTIóN DE RESIDUOS PRODUCTO DE SERVICIOS DE ALIMENTACIóN EN LA ATENCIóN DE POBLACIóN VULNERABLE

Becerril Garcia Alexis Eduardo, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Jacqueline Neira Parra, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los residuos generados por el consumismo han provocado problemas asociados con su manejo inadecuado que lo han convertido en un desafío global, un manejo responsable de los residuos no solo es importante para reducir su impacto negativo en el medio ambiente, sino que también tiene un impacto significativo en la sociedad con lo cual contribuye a un bienestar de las comunidades locales.   El modelo de economías lineales basadas en la extracción, producción, uso y eliminación de materiales han demostrado ser insostenibles en la gestión de desechos a pesar de ser el modelo dominante, su enfoque lineal crea un flujo constante de desechos que agota los recursos provocando una aceleración de las crisis ambiéntales. (​Melo Delgado et al., 2022)​  Una correcta gestión de los residuos está relacionada con el enfoque de la Agenda 2023 con los Objetivos de Desarrollo Sostenible (ODS) en particular el Objetivo 12 para promover el consumo y la producción responsables que destaca la necesidad de reducir la generación de desechos pudiendo promover prácticas sostenibles (C. de Miguel et al., 2021). La gestión inadecuada de residuos ha generado problemas ambientales como sociales a nivel mundial el modelo de economía lineal, basado en extracción, producción, así como de su eliminación de materiales, ha demostrado ser insostenible con lo que ha provocado una acumulación constante de desechos que agota los recursos naturales (Melo Delgado et al., 2022).



METODOLOGÍA

La metodología utilizada en este estudio consiste en una revisión sistemática basada en la metodología PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses).Con esta investigación se busca determinar las estrategias de economía circular que faciliten la gestión de residuos producto de servicios de alimentación en la atención de población vulnerable de las organizaciones sociales de la ciudad de Santiago de Cali, para ello primero se realiza una búsqueda exhaustiva en diferentes bases de datos científicas, considerando parámetros de inclusión y de exclusión. Adicionalmente, el análisis de la información se realiza utilizando un instrumento cienciométrico además se planea una visita al Banco de Alimentos de Cali para conocer su estructura como las prácticas de economía circular implementadas en la gestión de residuos. Los artículos seleccionados como los datos de campo se organizan utilizando la herramienta de gestión de referencias bibliográficas Mendeley, lo que facilita una revisión sistemática de la literatura y también poder guardar las referencias bibliográficas, para analizar los datos se analizan mediante  una malla de lectura con categorías pertinentes, como tipo de documento, base de datos , año, autores, doi ,titulo ,revista, autores, palabra claves, criterios, observaciones y ubicación según corresponda


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la Determinación de las estrategias de economía circular en la gestión de residuos producto de servicios de alimentación en la atención de población vulnerable ​ En base a la información como los datos recopilados mediante la revisión sistemática de literatura y la visita al Banco de Alimentos de Cali, se pudo obtener una visión más clara de las prácticas de economía circular como de la gestión de residuos en los servicios de alimentación y organizaciones sociales aliadas al Banco de Alimentos. Se identificaron diversas estrategias de economía circular implementadas en el manejo de residuos sólidos, incluyendo la reutilización de materiales, el reciclaje de desechos como la reducción de desperdicios estas prácticas se han mostrado prometedoras en la minimización de impactos ambientales y en la optimización de recursos. Los resultados destacan los beneficios de adoptar prácticas de economía circular, tanto para el medio ambiente como para la eficiencia de las organizaciones sociales y servicios de alimentación, sin embargo, también se identificaron desafíos en la implementación de estas prácticas, como la necesidad de superar barreras sociales, políticas, económicas como educativas
Becerril Murillo Patricia, Universidad Autónoma de Baja California
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS


DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS

Becerril Murillo Patricia, Universidad Autónoma de Baja California. Broca Bermudez Jorge, Universidad de Ciencias y Artes de Chiapas. Hernández Reynoso Eduardo, Universidad Michoacana de San Nicolás de Hidalgo. Ramirez Fino Maria Fernanda, Instituto Politécnico Nacional. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El acceso al agua limpia y segura es un desafío que requiere soluciones sostenibles y adaptadas a necesidades específicas. Por lo tanto, la investigación se centró en identificar y evaluar tecnologías efectivas y viables que permitan el abastecimiento y saneamiento de agua con el objetivo de mejorar las condiciones de vida y el acceso a recursos hídricos adecuados para la población vulnerable.



METODOLOGÍA

La investigación se llevó a cabo mediante un enfoque multidisciplinario que combinó la teoría con la práctica. Se realizaron diferentes actividades, por ejemplo, la visita y recorrido a diferentes modelos físicos de presas a escala en el laboratorio de hidráulica del Instituto Mexicano de Tecnología del Agua, donde se explicó su diseño y funcionamiento para mejorar la gestión de recursos hídricos. Por otro lado, se empleó el modelo matemático bidimensional IBER para simular flujos de ríos y cauces naturales, predecir avenidas e inundaciones, aspecto crucial para una adecuada planificación hídrica. Se recibió capacitación en el uso de QGIS, un Sistema de Información Geográfica de código abierto, que facilitó el análisis de datos geoespaciales y la generación de mapas temático. Asimismo, se analizó el estado del arte de tecnologías aplicadas en diferentes estados de la República Mexicana como son los sistemas de captación de agua de lluvia, humedales construidos y sanitarios secos, las cuales requieren una visión integral, mejores prácticas y mejorar su diseño e implementación. Se realizaron cálculos y análisis detallados para implementarlos de acuerdo a las necesidades específicas. Se visitó una planta de tratamiento de aguas residuales del IMTA para observar los procesos involucrados en el tratamiento del agua. Se identificaron los componentes clave, desde el ingreso del agua residual (caja repartidora) hasta la disposición de la misma (tanque de contacto con cloro), comprendiendo su relevancia en la obtención de agua residual tratada que cumpla con los estándares que marca la normatividad vigente. En cuanto a la revisión bibliográfica, se estudiaron dos libros: "Aguas residuales: tratamiento por humedales artificiales" y "Small-Scale Constructed Wetland Treatment System", los cuales ofrecen conocimientos detallados sobre los principios científicos, tecnológicos y de diseño de los humedales artificiales o construidos, así como la evaluación de la viabilidad de estos sistemas a pequeña escala.


CONCLUSIONES

Mi estancia en el Instituto Mexicano de Tecnología del Agua en Jiutepec, Morelos, me brindó una experiencia enriquecedora mediante una combinación de enfoques teóricos y prácticos, permitiéndome adquirir conocimientos y habilidades fundamentales para contribuir al desarrollo e implementación de soluciones adecuadas para el abastecimiento y saneamiento del agua en comunidades rurales, indígenas y periurbanas marginadas.
Becerril Pantoja Paola Sarahi, Instituto Tecnológico de Morelia
Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia

ANáLISIS Y CLASIFICACIóN DE SEñALES ELECTROMIOGRáFICAS SUPERFICIALES RELACIONADAS CON EL MOVIMIENTO DE FLEXIóN-EXTENSIóN DEL BRAZO EN LA ARTICULACIóN DEL CODO


ANáLISIS Y CLASIFICACIóN DE SEñALES ELECTROMIOGRáFICAS SUPERFICIALES RELACIONADAS CON EL MOVIMIENTO DE FLEXIóN-EXTENSIóN DEL BRAZO EN LA ARTICULACIóN DEL CODO

Becerril Pantoja Paola Sarahi, Instituto Tecnológico de Morelia. Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La discapacidad motriz es un problema que afecta en distintos ámbitos a la persona que lo padece. Una forma de obtener independencia de este tipo de discapacidad es mediante una órtesis, las cuales sirven como un sistema de actuación exterior que asiste al movimiento patológico. Los sistemas de actuación que ofrecen mejores resultados se retroalimentan con Señales Electromiográficas. Aunque ya se han hecho trabajos para clasificar las señales responsables de contraer los músculos, la mayoría de ellos no describe en términos estadísticos la efectividad de los clasificadores, para saber qué tan confiables son al utilizarse en personas sanas y cuyos resultados pudieran relacionarse posteriormente con datos de personas cuya condición muscular se encuentre disminuida.



METODOLOGÍA

Para la obtención y analisis de las señales electromiográficas se utilizaba una interfaz programada en el sistema operativo Windows con lenguaje Python, para tener más independencia del sistema de adquisición de señales electromiográficas se cambió el sistema operativo a Debían por medio de una tarjeta Raspberry Pi, la cual fue conectada a un monitor, un teclado y un mouse, este sistema operativo cuenta con el programa Thonny Python en el que se ejecuta la interfaz. Al realizar el cambio de este sistema operativo se cambiaron algunas partes del código, comenzando por la instalación de las librerías utilizadas, la función para iniciar el muestreo mostraba un error para realizar su función, por lo que se modificaron la dirección en la que se guardaba la imagen de la señal electromiográfica obtenida, y la constante de muestreo que permite obtener los ciclos completos de una señal, además se eliminó el filtrado digital de las señales electromiografías debido a que una librería no se pudo instalar correctamente. En la función de la gráfica en tiempo real se añadió un combo box para seleccionar cuál de las tres señales se quiere observar: la del bíceps, tríceps o el electrogoniómetro las cuales se observan a partir de unos electrodos que se colocan en la parte del brazo donde se encuentra cada músculo, por otra parte, el electrogoniómetro se obtiene de un potenciómetro, el cual proporciona el ángulo en el que se encuentra el brazo. En la función para cargar un archivo para su posterior análisis se modificó la sintaxis para que fuera compatible con el nuevo sistema operativo, con este botón es posible observar las señales más detalladas y modificar las escalas además de obtener la transformada de Fourier de las señales. En el botón de análisis continuo se borraron líneas de código que generaban error en la obtención de datos y se añadieron etiquetas, botones y entradas para realizar un análisis continuo al colocar el brazo a 180°,90° y 45° y obtener el porcentaje de precisión. El análisis continuo conlleva aplicar análisis estadísticos y transformada de Fourier de manera continua. La función de transformada de Fourier se modificó para que se pueda utilizar tanto en la función de análisis continuo como la de análisis de archivos, mediante una condición en la que, si no se selecciona un rango de milisegundos para seleccionar una parte de los datos en el análisis de archivos, se puede realizar un análisis continuo. En el analisis de archivos es posible seleccionar una parte de una señal electromiográfica previamente obtenida, y realizar la transformada rápida de Fourier para conocer la frecuencia de la señal, ademas de obtener los valores máximos, los cuales se utilizan para comparar señales electromiográficas con ruido; en la parte final de esta función se obtienen archivos csv con todos los datos e imágenes ilustrativas sobre las transformadas de Fourier de la señal del bíceps y el tríceps. Además, se adquirieron muestras de diferentes señales electromiográficas, utilizando electrodos, resortes, una hombrera, el electrogoniómetro, los circuitos de amplificación una tarjeta esp32. Estas muestras se tomaron a distintas personas y en distintos dias, pero en personas sanas. Para realizar estas mediciones es necesario tener el brazo completamente descubierto para poder colocar los electrodos a los músculos, primero se conectan 2 electrodos al bíceps, 2 electrodos al tríceps y un electrodo en tierra. Inicialmente se utilizaba una tierra en el codo, pero debido a complicaciones para sujetarlo se movió al hombro; al colocar y fijar los electrodos se conectan a los circuitos amplificadores y filtros y para probar que estos funcionan se conectan a la salida de los circuitos el osciloscopio o la tarjeta esp32 la cual está conectada a la Raspberry Pi; utilizando la interfaz se pueden observar las señales en la gráfica en tiempo real. Después se coloca la hombrera para sostener el electrogoniómetro al hombro, y para evitar fricción se coloca un resorte sobre los electrodos de manera que estos no se muevan, finalmente se fija el electrogoniómetro en el brazo y se conecta a la tarjeta esp32 para ahora adquirir una muestra y poder observar el ángulo, y las señales electromiografías de ambos músculos.


CONCLUSIONES

Durante la estancia de verano fue posible obtener conocimientos sobre programacion en lenguaje Python sobre distintas librerías, cómo realizar operaciones como transformadas Rápidas de Fourier, análisis estadísticos de valores, creación de imágenes png a partir de arreglos, generar archivos csv; funcionamiento de la tarjeta Raspberry Pi además de poner en práctica algunos conceptos de electrónica como son el tener cuidado con la conexión de los circuitos y las tarjetas, el realizar mediciones de continuidad y utilizar los dispositivos de medición de manera correcta. Como resultado se obtuvieron diversas señales electromiográficas, que serán analizadas en un futuro para la continuación del proyecto.  
Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.


RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.

Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan. López Hernández Erick Paul, Universidad Vizcaya de las Américas. Rodriguez Linares Maria Lizbeydi, Universidad Autónoma de Guerrero. Torres Arano Aileen Alitzel, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Según el COSPES 3874 la disponibilidad de suelos para efectuar la disposición final no está acorde con la creciente generación de residuos. El 83% de los residuos sólidos domiciliarios que se generan van a los rellenos sanitarios y solo el 17% es recuperado por recicladores para su reincorporación al ciclo productivo (DNP y BM, 2015, como se citó en (Manuel Santos Calderón et al., 2016) ). Si se continúa con la misma dinámica de generación de residuos, sin adecuadas medidas para mejorar su aprovechamiento o tratamiento, y con patrones de producción y consumo insostenibles, en el año 2030 tendremos emergencias sanitarias en la mayoría de las ciudades del país y una alta generación de emisiones de GEI.  Dada la escasez de información Nacional del aprovechamiento de materias primas a partir de residuos de construcción y demolición. Esta investigación pretende abordar los objetivos específicos del Plan Integral de gestión de Residuos Sólidos PGIRS 2015-2027 Manizales, en su apartado de la gestión de Residuos de Construcción y Demolición , en lo que refiere a  realizar la caracterización de los RCD, a fin de conocer sus cualidades químicas y físicas que permitan adoptar estrategias para disminuir la disposición final en escombreras, al igual que  el objetivo de maximizar y  fomentar el procesos de recuperación y reutilización  de los RCD fortaleciendo aspectos de orden técnico, administrativo, ambiental, económico, cultural y social. Principalmente, el enfoque se da en la ciudad de Manizales por las metas establecidas en su plan de desarrollo de 2020-2023 como una ciudad sostenible y resiliente, que actualmente lleva un 70,9 % de cumplimiento en avances, según datos del mes de julio. Para ello la investigación plantea ¿Es viable la recuperación de residuos de construcción y demolición para la fabricación de productos arquitectónicos?  con la cual se busca contribuir a los siguientes objetivos de desarrollo sostenible y a las metas del plan de desarrollo sostenible Manizales 2020-2023:



METODOLOGÍA

1.- CARACTERIZACIÓN 1.1 Prueba geométrica  ASTM C136: Método de prueba estándar para análisis granulométrico de agregados finos y gruesos.(ASTM, 2019a) Pruebas físicas  ASTM C127:  Método de prueba estándar para la densidad relativa y la absorción del agregado grueso.(ASTM, 2015) ASTM C131:  Método de prueba estándar para determinar la resistencia a la degradación de agregados gruesos de tamaño pequeño por abrasión e impacto en la Máquina de los Ángeles. (ASTM, 2020a) ASTM D4791: Método de prueba estándar para partículas planas, partículas alargadas o partículas planas y alargadas en agregados gruesos.(ASTM, 2019c) Microscopía Electrónica de barrido y Fluorescencia de rayos X por energía dispersiva: Método para determinar la composición química superficial del RCD y su apariencia superficial a nivel microscópico para comprender las anteriores pruebas físicas como densidad especifica y absorción de agua. ASTM C39/C39M-20: Método de prueba estándar para determinar la resistencia a la comprensión de cilindros de concreto. (ASTM, 2020b). 2.- FABRICACIÓN 2.1 Diseño de producto Para el diseño de estos productos se parte de un estudio de la normatividad técnica colombiana, dadas por el Instituto Colombiana de Normas Técnicas y Certificación (ICONTEC) esto con el fin de que el diseño cumpla con los lineamientos geométricos y de resistencia establecidos para lograr su comercialización.   . Adoquin Fachaleta 2.2 Prototipado 3D de los moldes de Adoquín y fachaleta El prototipado es una técnica utilizada en la fabricación de productos o moldes, debido a las prestaciones económicas y de modelo real o a escala que se obtiene, permitiendo una acercamiento visual y comercial del producto. 2.3 Diseño de mezcla de concreto con RCD El diseño de mezcla de concreto para los productos de adoquín, fachaleta y los cilindros de testeo para el ensayo de compresión, los Ingenieros Civiles trabajaron bajo el Método ACI 211.1. 2.4 Desencofrado El desencofrado es una etapa que se realiza con el concreto húmedo con el objetivo de empezar el proceso de curado, dado que en el proceso de curado se garantiza que el concreto conserve la humedad y se eviten fisuraciones en el producto. 2.5 Ensayo de resistencia a la compresión El ensayo de resistencia a la comprensión permite evaluar la resistencia mecánica de un material cuando es sometido a una carga axial de aplastamiento, para este caso permite evaluar como se comportará el concreto y específicamente los adoquines en sus aplicaciones de pavimentación, bancas, etc.


CONCLUSIONES

Los resultados obtenidos en esta investigación, de acuerdo a las pruebas realizadas al material proveído arrojaron que el tamaño de partícula a incorporar a la mezcla es de 3/8, debido a que en la prueba de análisis granulométrico se encontró que es una de las partículas con mayor cantidad. Diseñando una mezcla considerado para elementos de una resistencia de 40 MPa se realizaron productos de ensayo para la evaluación, los resultados obtenidos de las pruebas de compresión describen una capacidad de 25 MPa, siendo un 62.5% de lo considerado en el diseño. Esto se debe a las cualidades de desgaste, absorción y humedad de los materiales. El RCD cumple como agregado para la elaboración de elementos de construcción no estructurales como lo son los adoquines y fachaletas, siempre y cuando se evalúe la calidad química y mecánica, además de realizar un diseño factible de mezcla de concreto para la optimización del desempeño, considerando los factores de absorción, desgaste y por ende relación agua y cemento como los principales puntos críticos del material. El aprovechamiento de los residuos de demolición y construcción se han vuelto un factor importante para el crecimiento de las ciudades sostenibles, en éste caso para la ciudad de Manizales, es una respuesta ante el programa de desarrollo en beneficio del medio ambiente y hacia la convergencia de una ciudad inteligente.
Bejarano Toloza Diana Gabriela, Universidad Autónoma de Sinaloa
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

DISEñO Y CONSTRUCCIóN DE UN TúNEL DE VIENTO SUBSóNICO, CIRCUITO ABIERTO, DE PRESIóN, PARA MEDIR PARáMETROS AERODINáMICOS CON UN PERFIL ALAR AUGUST 160.


DISEñO Y CONSTRUCCIóN DE UN TúNEL DE VIENTO SUBSóNICO, CIRCUITO ABIERTO, DE PRESIóN, PARA MEDIR PARáMETROS AERODINáMICOS CON UN PERFIL ALAR AUGUST 160.

Bejarano Toloza Diana Gabriela, Universidad Autónoma de Sinaloa. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La aerodinámica es el estudio del cómo se mueve el aire/gases al interactuar con los cuerpos, si bien, esto lo define las características físicas que tiene el objeto y como es el ambiente. El hacer pruebas en los túneles de viento nos ayuda para predecir,  entender  y conocer cómo se comporta el flujo que genera el aire y pasa a través de cuerpos sólidos. Ahora bien, en aeronaves es de suma importancia verificar si están bien construidas y verificar hasta qué punto se va a comportar favorablemente, así pues, si la velocidad del viento es muy alta, puede ocasionar parámetros aerodinámicos mayores como la turbulencia desmedida, entre otros, provocando que  la aeronave se puede desviar o volcar. Este trabajo se enfoca en diseñar y construir un perfil aerodinámico august 160 y un túnel de viento subsónico, circuito abierto, de presión, para ver cómo afecta la inclinación del perfil al interactuar con el viento con   un ángulo de ataque  de 0°, 5°, 10°, 15°,  20°, 25°, 30°, 35°, 40°, 45°.



METODOLOGÍA

Se comenzó identificando el perfil aerodinámico en la data base airfoil Illinois de la Universidad e Illinois con  el que se quería trabajar, el cual fue august 160 utilizado en aeronaves tales como Cessna 182 y se continuó importando las mismas coordenadas que te brinda la página a solidworks para poder extrapolarlas y crear el diseño de un alabe con este perfil aerodinámico. Posteriormente, se hizo un alabe de madera de 30 cm de envergadura, 15 cm de cuerda y 4 cm de curvatura, esto con  ayuda de un cincel y lijas. Para una mejor visualización futura se pintó de negro y se le hicieron 2 agujeros en cada extremo de la envergadura para sostener un trozo de madera que se unió a un  palito del mismo material para así sostenerla al túnel de viento que  se realizó.  Para la construcción del túnel de viento, primero se identificaron aspectos del mismo y así tener en claro lo que se realizaría. Es importante tener en claro que este es una herramienta para investigar los efectos del movimiento del aire que surgen alrededor de objetos sólidos, en este caso un perfil aerodinámico, y se escogió un túnel de viento abierto. Este tipo de túnel, toma el aire de afuera y después de pasar por la cámara de ensayos lo regresa a la atmosfera, a comparación del túnel de viento cerrado, este es de menor costo y se tiene una mejor visualización del comportamiento del aire. Para la cámara de ensayos, se realizó una caja con plástico transparente con aristas de madera y se colocaron dos cubos de madera en la parte central de dos aristas para poder colocar el alabe, se dejaron dos caras descubiertas, para la circulación del aire; en la de entrada se colocaron inciensos para poder ver el aire blanco y el ventilador que funciono como nuestra corriente de aire se puso a unos metros de distancia.  


CONCLUSIONES

Se hicieron 10 pruebas cambiando su ángulo de inclinación yendo de 5 en 5 grados, desde el ángulo 0 hasta el 45 para saber en cual se formaría una mayor turbulencia, se puede concluir que el flujo adopta la forma del objeto y conforme se aumenta el ángulo de inclinación va incrementando la turbulencia en la zona de la estela. Se logró con éxito el objetivo de la investigación, el cual era diseñar y construir un alabe y un túnel de viento y poder visualizar el movimiento del aire, sin embargo, se tuvieron algunos problemas al momento de poder ver la turbulencia que creaba el aire por la gran velocidad que tenía el ventilador, para lo cual se buscaron distintos tipos de corrientes de aire y una iluminación más baja, una vez logrado esto, solo se tuvo problemas al momento de tomar evidencia fotográfica ya que la estela no era muy identificable. Durante la estancia de verano delfín se lograron adquirir conocimientos teóricos- prácticos sobre las alabes y los túneles de viento, como los tipos, partes, para que sirven  y las múltiples  pruebas que se pueden realizar con estos y la utilidad que les podemos dar a cada prueba realizada. Fue una experiencia muy agradable con conocimientos completamente nuevos que agradezco para ponerlos en práctica en la construcción de mi futuro.  
Beltran Aispuro Jessica Leonela, Universidad Autónoma de Occidente
Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

CARACTERIZACION DE LOSETA DE TIERRA COMPRIMIDA


CARACTERIZACION DE LOSETA DE TIERRA COMPRIMIDA

Beltran Aispuro Jessica Leonela, Universidad Autónoma de Occidente. Heredia Castro Elfego, Universidad Autónoma de Guerrero. Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

Con la finalidad de obterner metodos de confort termico mas amigables con el medio ambiente, se busca la creacion de losetas a base de elementos naturales, extraidos del mismo sitio, siendo capaz de volver al entorno, cumpliendo asi un ciclo de vida renovable. Dichos elementos son tales como: Suelos finos, suelos gruesos, conglomerantes, agua  y fibras. Buscando distintas maneras y procedimientos que nos ayude a lograr dichos objetivos.



METODOLOGÍA

La metodologia a seguir durante el verano, es el metodo Lumex, consta de 6 etapas: 1. Identificacion: Comprender los elementos que se van a utilizar, viendo su factibilidad. 2. Extracción: Se da inicio a la obteción de dichos materiales para su uso en el procedimiento. 3. Producción: Inicio al proceso del tratado de material para que sea adecuado, tal como preparacion, tamizado, etc. 4. Tecnificación: Ya obtenidos los materiales y listos para su desarrollo, se da inicio a las distintas variaciones de porcentajes en la composición. 5. Sistematización: Se comprende el uso del elemento como material constructivo y su compatibilidad con el entorno. 6. Operación: Una vez obtenido, se empieza el proceso de desarrollo como producto renovable.    


CONCLUSIONES

Una vez concluidas las 6 etapas, los resultados fueron favorables, obteniendo asi una loseta capaz de retardar el calor en zonas que lo requieran, ademas con la implementacion de nuevos materiales que mejoran su resistencia al agua. Los resultados, en conclusión, son gratificantes, demostrando asi que con materiales amigables con el entorno natural, se obtienen grandes aportes a la construcción y desarrollo sustentable.
Beltrán Clark Paola Edilia, Instituto Tecnológico Superior de Cajeme
Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa

DESARROLLO DE UNA APLICACIóN WEB PARA EL RECONOCIMIENTO DE MéTRICAS DE LA SALUD


DESARROLLO DE UNA APLICACIóN WEB PARA EL RECONOCIMIENTO DE MéTRICAS DE LA SALUD

Beltrán Clark Paola Edilia, Instituto Tecnológico Superior de Cajeme. Hernandez Navarro Lourdes Vanessa, Instituto Politécnico Nacional. Reyes Guerrero Joel, Instituto Tecnológico Superior de Cajeme. Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El trasfondo de este proyecto se centra en la creciente prevalencia de enfermedades crónicas en la población mexicana, como la diabetes, hipertensión y obesidad, junto con la falta de un adecuado monitoreo de la salud. Los métodos tradicionales de seguimiento de parámetros vitales, como los niveles de glucosa, lecturas de presión sanguínea, mediciones de peso y registros alimenticios, requieren inserción manual de datos, lo que puede ser poco conveniente para los usuarios. Esta situación brinda una oportunidad significativa para desarrollar una solución más eficiente y precisa. El alto nivel de enfermedades crónicas en la población mexicana revela que la ineficiencia y limitaciones de los métodos tradicionales de almacenamiento y monitoreo de parámetros vitales representan un obstáculo importante para mejorar la calidad de vida en nuestro país. La entrada manual de datos requiere demasiado tiempo, es propensa a errores y puede generar imprecisiones y registros incompletos, dificultando una vigilancia adecuada de la salud. Además, las personas con limitaciones físicas enfrentan desafíos para comunicar de manera efectiva su estado de salud a los profesionales médicos. Por lo tanto, es imperativo desarrollar una solución que automatice la captura de datos, mejore la precisión y eficiencia, ofrezca información personalizada y mejore la accesibilidad para una mejor gestión de la salud. Es aquí donde surge la necesidad de crear una aplicación web, adaptable a las necesidades individuales de los pacientes, facilitando así el control y seguimiento de su estado de salud.



METODOLOGÍA

El desarrollo de nuestra aplicación web comenzó con una exploración en profundidad de las necesidades y expectativas de los usuarios. Para obtener información sobre los requisitos del público objetivo, empleamos una combinación de métodos, incluidas interacciones directas con usuarios potenciales, consultas con profesionales de la salud y una revisión exhaustiva de la investigación existente sobre aplicaciones de gestión de métricas de salud. Además de recopilar comentarios directos de los usuarios, realizamos un análisis exhaustivo de las aplicaciones de gestión de métricas de salud existentes disponibles en el mercado. Este análisis reveló las fortalezas y debilidades de las soluciones de la competencia, lo que nos permitió identificar áreas de oportunidad únicas y diferenciar nuestra aplicación. En el desarrollo de nuestra aplicación web, adoptamos un enfoque de desarrollo de software ágil, específicamente Scrum, para garantizar la flexibilidad, la colaboración y la iteración rápida a lo largo del ciclo de vida del proyecto. Las metodologías ágiles son adecuadas para proyectos con requisitos en evolución, ciclos de retroalimentación estrictos y un enfoque en la entrega de valor incremental a los usuarios. El desarrollo de nuestra aplicación web involucró una colección de tecnologías cuidadosamente seleccionadas para garantizar solidez, seguridad y escalabilidad. Seleccionamos cada componente en función de su idoneidad para los requisitos de la aplicación y la experiencia de nuestro equipo de desarrollo. Dentro de las tecnologías utilizadas podemos encontrar: React.js: esta librería se utilizó para la creación de la interfaz de la plataforma. Bootstrap: una librería que nos permitió añadir la responsividad y el atractivo visual de las diferentes páginas. Node.js: el entorno seleccionado para el manejo de datos e información entre la interfaz y el servidor. Express: este framework nos permitió establecer rutas de acceso a la información de los usuarios. MySQL: un sistema de gestión de base de datos relacionales. Google Vision API: una API diseñada por Google que se encarga del reconocimiento de imágenes. Chart.js: una biblioteca que se encarga de la representación gráfica de datos. Al combinar estas tecnologías y bibliotecas, desarrollamos con éxito una aplicación web eficaz y fácil de usar con una función de reconocimiento de imágenes de vanguardia. Esto nos permitió crear una aplicación que no solo satisfizo las necesidades de los usuarios, sino que también brindó una experiencia fluida e intuitiva en varios dispositivos y plataformas.


CONCLUSIONES

El desarrollo de nuestra aplicación web para la gestión de métricas de salud marca un hito importante en el empoderamiento de las personas para que se hagan cargo de su bienestar con ayuda de la tecnología. Al ofrecer una plataforma integral para realizar un seguimiento de las métricas de salud, establecer objetivos y obtener información valiosa, la aplicación tiene el potencial de impactar positivamente en la vida de los usuarios de múltiples maneras. La aplicación web representa más que un logro tecnológico; encarna nuestro compromiso de promover la gestión proactiva de la salud y fomentar un impacto positivo en la vida de las personas. A medida que continuamos refinando y expandiendo la aplicación, seguimos dedicados a mantener los estándares de privacidad de datos, uso ético de la tecnología y enfoque en el usuario. Con una visión de un mundo más saludable y más informado, esperamos con ansias el viaje de la aplicación y el potencial que tiene para marcar una diferencia duradera en la vida de las personas.
Beltrán Cruz Diego Alfredo, Universidad Autónoma de Sinaloa
Asesor: Mtra. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango

DISEñO DE UNA APLICACIóN WEB PARA LA GENERACIóN Y ENVíO DE FICHAS DIRECTAMENTE AUN ROUTER DE MIKROTIK (RB951UI-2HND)


DISEñO DE UNA APLICACIóN WEB PARA LA GENERACIóN Y ENVíO DE FICHAS DIRECTAMENTE AUN ROUTER DE MIKROTIK (RB951UI-2HND)

Beltrán Cruz Diego Alfredo, Universidad Autónoma de Sinaloa. Asesor: Mtra. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En México, en la actualidad existen aun una gran cantidad de asentamientos o comunidades indígenas en todo su amplio territorio y más en particular en las partes del centro y sur del país donde no hay un numero exacto de comunidades que se acentúan en las zonas serranas. Hoy en día el acceder a internet es fácil y sencillo puesto que en la actualidad hay proveedores de servicios de internet inalámbrico que proveen de internet a zonas rurales, sin embargo, una de las problemáticas que presentan estos proveedores de servicio es la forma en la que generan las credenciales de acceso a la red debido a que el proceso a un no se encuentra en su totalidad automatizado y si bien utilizan TIC’S para la generación de sus fichas estas se limitan a hojas de cálculo, softwares que carecen de envió directo al servidor MikroTik (RB951Ui-2HnD). En este proyecto tuvo como objetivo diseñar una aplicación web que permita generar y enviar credenciales de acceso directamente a un MikroTik (RB951Ui-2HnD) para la distribución de servicio de internet inalámbrico. En la sección siguiente se describirá la metodología empleada para el diseño de la aplicación web y se presentaran las conclusiones del diseño.



METODOLOGÍA

Con base a la especificaciones y requerimientos funcionales y no funcionales del sistema se logró desarrollar una API utilizando PHP (versión 8.2.0), JavaScript (versión 1.5), HTML (HTML5), MySQL (versión 7.4), Bootstrap (versión 5.3.0), JQuery (versión 3.6.0) para la generación e inserción de credenciales para un Router de la marca MikroTik (RB951Ui-2HnD). Las actividades desarrolladas fueron las siguientes: Configuración el hotspot (MikroTik RB951Ui-2HnD)         Configuración del Microtik para poder generar las fichas Generar las fichas Desarrollar la aplicación web para cargar las fichas. En la primera semana se hizo una revisión del estado del arte de softwares similares cómo el Generador de Fichas Hotspot que un software de escritorio hecho a la medida que genera las fichas, sin embargo, no realiza el proceso de cargar las fichas generadas en el Router de MikroTik, también se realizó la recopilación y análisis de los requerimientos funcionales del sistema. En la segunda semana se configuro el Router (RB951Ui-2HnD) primero se buscó información acerca de los ajustes y configuraciones del Router utilizando cómo interfaz el software de Winbox, se configuro la red para recibir la señal de Ethernet del modem (INFINITUM) y mandar la señal de WIFI (Router MikroTik), una vez logrado se configuraron direcciones de IP, Mascaras de Red, se habilitaron los puertos necesarios, entre otras configuraciones, una vez logrado se realizó la creación de los diferentes perfiles de internet y se crearon los usuarios para poder comprobar que la configuración del Router. En la tercera semana se trabajó con el diseño y la creación de la Base de Datos relacional en el gestor de base de datos phpMyAdmin (versión 5.2.0) con las consultas C.R.U.D en MySQL (PHP Data Objects) parar las tablas clientes, usuarios, perfiles, fichas, roles y sus respectivos permisos En la cuarta semana se diseñaron y programaron las interfaces de usuario en SublimeText (versión 4.1.4.3) y conexiones a la base de datos para Altas, Bajas, Consultas de clientes, usuarios, perfiles, fichas, roles. En la quinta semana se programó el requerimiento para la creación del PDF y Bloc de notas, así como también el requerimiento de insertar las fichas directamente al Router de MikroTik sin tener que abrirlo a través de peticiones a la red del Router de MikroTik (RB951Ui-2HnD). En la sexta semana se realizaron pruebas de funcionalidad.


CONCLUSIONES

Durante la estancia se logró diseñar una aplicación web que permite generar y enviar directamente las credenciales de acceso a una red de internet inalámbrica de un Router MikroTik, con la experiencia del diseño de esta aplicación web aprendí nuevas tecnologías, metodologías y técnicas de trabajo que me permitieron poner en práctica las materias vistas en el aula cómo Seguridad en Redes, Diseño y Desarrollo de Base de Datos y Desarrollo Web. Además, a través de este proyecto se contribuyo con el objetivo del desarrollo sostenible del Conseguir que las ciudades y los asentamientos humanos sean inclusivos, seguros, resilientes y sostenibles.
Beltran Mirafuentes Gabriela Patricia, Universidad Autónoma de Sinaloa
Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara

OPTIMIZACIóN DE ENGRANAJES DE TREN CON ENGRANAJES RECTOS


OPTIMIZACIóN DE ENGRANAJES DE TREN CON ENGRANAJES RECTOS

Beltran Mirafuentes Gabriela Patricia, Universidad Autónoma de Sinaloa. Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La optimización de trenes de engranajes es una tarea intrincada y desafiante debido a las complejas características del modelo matemático que describe su comportamiento. Este trabajo aborda detalladamente las peculiaridades y problemáticas relacionadas con la optimización de trenes de engranajes específicamente con engranajes rectos, ofreciendo una visión integral y enriquecedora en este campo. Para la realización de este trabajo se utilizaron herramientas computacionales como Matlab, implementando el algoritmo genético de búsqueda no dominada elitista de segunda generación (NSGA-II en ingles de Nondominated Sorting Genetic Algorithm), para la obtención de gráficos el cual es un paso fundamental para visualizar y comprender el comportamiento de sistemas complejos y funciones en la optimización de ingeniería. En particular, cuando se trata de abordar problemas con múltiples objetivos, como la maximización del índice de robustez a la fractura y la minimización del volumen del engranaje (directamente relacionado con su costo), la generación de gráficos descriptivos y representativos se vuelve aún más crucial. Si bien MATLAB proporciona un conjunto poderoso de herramientas y funciones para realizar cálculos numéricos y optimizaciones, la capacidad del toolbox original puede resultar insuficiente para enfrentar escenarios más complejos que involucran objetivos múltiples y contrapuestos. Es en estos casos donde se hace necesaria la búsqueda de alternativas que permitan llevar a cabo un análisis profundo y eficiente Un componente esencial de este trabajo es la definición del modelo matemático subyacente. Se presentan las ecuaciones y variables fundamentales que rigen el comportamiento del sistema, permitiendo una comprensión detallada de su funcionamiento.



METODOLOGÍA

El desafío matemático de optimización con múltiples objetivos, es un reto fundamental en la resolución de problemas complejos en diversas disciplinas. La combinación de enfoques matemáticos, computacionales y analíticos es esencial para abordar con éxito estos problemas, permitiendo así tomar decisiones informadas y eficientes en situaciones donde múltiples criterios deben ser satisfechos de manera equilibrada y óptima. En el marco de este estudio dedicado a la optimización multiobjetivo de los engranajes cilíndricos de dientes rectos asimétricos, se exploraron y analizaron tres configuraciones fundamentales: En primer lugar, se abordó el caso de la minimización de las tensiones de flexión en el pie del diente, conjuntamente con la reducción del volumen total de la transmisión. Esta configuración representa una clásica optimización con el objetivo de minimizar dos funciones, lo cual condujo a la obtención de un frente de Pareto tradicional. En este frente, se identificaron las soluciones óptimas que representan el equilibrio óptimo entre ambos criterios y que, en conjunto, conforman un conjunto de alternativas competitivas y no dominadas. En segundo lugar, se enfocó en la minimización de las tensiones de flexión en el pie del diente, al tiempo que se buscaba maximizar el factor de recubrimiento. Dado que esta situación implica la optimización de una función mientras se maximiza otra, el frente de Pareto resultante se presenta de manera distinta a la anterior. En este caso, las soluciones óptimas se encuentran en puntos donde el equilibrio entre los dos objetivos es diferente, lo que resulta en un frente de Pareto con formas y características distintas.   Finalmente, se abordó la situación que involucra la maximización del Índice de Robustez, junto con la minimización del volumen total de la transmisión. Este enfoque representa un escenario específico donde se busca obtener la máxima robustez del engranaje, es decir, su capacidad para resistir condiciones variables y ligeramente adversas. Al mismo tiempo, se persigue reducir el tamaño y peso de la transmisión para lograr una mayor eficiencia y economía. La combinación de estos objetivos resulta en un conjunto particular de soluciones óptimas que destacan por su resistencia y desempeño optimizados en un contexto de restricciones de espacio y recursos.


CONCLUSIONES

En conclusión, el presente trabajo se enfocó en el análisis y optimización multiobjetivo de engranajes cilíndricos de dientes rectos asimétricos en tres contextos fundamentales. Cada configuración representó diferentes combinaciones de objetivos, desde la minimización de dos funciones hasta la optimización de una mientras se maximiza otra. Los frentes de Pareto obtenidos revelaron diversas soluciones óptimas y no dominadas que ofrecen valiosas opciones para diseñadores e ingenieros en función de los criterios específicos a considerar, proporcionando así una base sólida para futuros desarrollos y aplicaciones en la industria y la ingeniería.
Benavides Rosales Jessica Nathalia, Universidad Antonio Nariño
Asesor: Dra. Ana Luisa Ballinas Hernández, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE TRAYECTORIAS DE CAMINADO MEDIANTE DETECCIóN DE PEATONES EN AMBIENTES CONTROLES APLICANDO TéCNICAS DE PROCESAMIENTO DIGITAL DE IMáGENES


ANáLISIS DE TRAYECTORIAS DE CAMINADO MEDIANTE DETECCIóN DE PEATONES EN AMBIENTES CONTROLES APLICANDO TéCNICAS DE PROCESAMIENTO DIGITAL DE IMáGENES

Benavides Rosales Jessica Nathalia, Universidad Antonio Nariño. Asesor: Dra. Ana Luisa Ballinas Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el campo de la visión computacional y la detección de objetos, el seguimiento preciso de peatones es un desafío importante. El seguimiento de peatones es crucial en aplicaciones como sistemas de asistencia al conductor, vigilancia de seguridad y navegación autónoma de vehículos. Sin embargo, las técnicas tradicionales de seguimiento de objetos pueden ser ineficientes o poco confiables, especialmente en escenarios desafiantes donde hay cambios de iluminación, obstrucciones parciales y otras distracciones visuales.



METODOLOGÍA

  Para resolver la problemática propuesta, es importante dividir el proceso en etapas o fases para facilitar la solución a la problemática con el fin de disminuir y corregir los errores que se puedan llegar a presentar.  Como paso preliminar es instalar las herramientas necesarias como python y anaconda donde se ejecutará el código. Una vez instaladas las herramientas necesarias. Comenzamos con las fases metodológicas que son: Recolección de la base de datos, en este caso son videos de peatones en ambientes controlados en vista superior con algún identificador en la cabeza, con estos videos. Realizar el procesamiento de imágenes que incluye la mejora en la calidad del video, posteriormente se realiza la segmentación de imágenes en la región de interés tanto en color y forma del objeto distintivo en la cabeza de los peatones, que en este caso son gorras, gorros, cascos y círculos de papel seda. En total se obtienen 15 videos que tienen los requisitos, pero se trabaja con 3 ya que los demás videos hay aglomeraciones, lo que dificulta el seguimiento de las trayectorias o el caso del fondo, en donde se encuentran objetos del mismo color y tiende  a haber errores; a los videos seleccionados se les aplica técnicas para mejorar la resolución, ajuste del contraste y el sesgo de brillo. Segmentación por contornos, color y forma en el video y se procede a comparar el desempeño de estos algoritmos, con el fin de identificar cuál de los dos tiene menos errores y cuál de los dos puede seguir la trayectoria de los peatones. Cuando ya es posible detectar a los peatones por el objeto distintivo, se obtienen las trayectorias gracias a la detección y al centroide de cada objeto en el video, finalmente con las trayectorias se realiza un análisis de la congestión de los peatones en el video. En términos generales, el grado de congestión se puede clasificar en tres categorías:   Bajo: Cuando hay un nivel mínimo de aglomeración o acumulación, y el flujo de objetos o personas es fluido y sin obstrucciones. Moderado: Se presenta un nivel intermedio de congestión, donde comienzan a formarse grupos o aglomeraciones de objetos o personas, lo que puede ralentizar el flujo, pero aún se permite un movimiento relativamente cómodo. Alto: En este caso, hay una concentración significativa de objetos o personas, lo que resulta en una densidad muy alta y un movimiento lento o casi nulo. La alta congestión puede llevar a situaciones de bloqueo, atascos, o dificultades para avanzar o circular. Y con el algoritmo implementado se puede detectar los 3 estados.    


CONCLUSIONES

* Las técnicas de procesamiento de imágenes, como la segmentación por color y forma, han demostrado ser valiosas en el seguimiento y análisis de peatones en videos. Estas técnicas permiten identificar y rastrear personas en función de sus características visuales distintivas, lo que facilita el monitoreo de su movimiento en entornos controlados. * En conclusión, el desarrollo del proyecto ha demostrado la utilidad y eficacia de las técnicas de procesamiento de imágenes, específicamente la segmentación por color y forma, en el seguimiento de peatones en videos. Estas técnicas permiten identificar y rastrear a individuos en movimiento en entornos controlados, lo que resulta invaluable en aplicaciones de seguridad, gestión de tráfico y análisis de comportamiento humano.   * Se logra dibujar las trayectorias a partir de la segmentación, lo que ha proporcionado una visualización clara y detallada del movimiento de los peatones a lo largo del tiempo. Esto ha permitido analizar patrones de movimiento, identificar áreas de alta densidad y comprender el flujo de personas en diferentes momentos. ​
Benítez Moreno Abraham, Instituto Tecnológico de Morelia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.


ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.

Barrera Ifarraguerri Erandi, Instituto Tecnológico de Morelia. Benítez Moreno Abraham, Instituto Tecnológico de Morelia. Celaya Cortés Marina, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Sánchez Bustos Itzel Jatziri, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto hidráulico es ampliamente utilizado en la pavimentación y construcción debido a sus roles principales de soportar grandes esfuerzos de compresión y flexión, así como absorber cargas sin deformarse en temperaturas bajas. Sin embargo, el agrietamiento es un problema puntual que afecta sus propiedades. El agrietamiento se debe a tensiones a las que está sometido el concreto y se agrava cuando se expande o contrae, o cuando se aplica carga pesada o cambios en soportes. Para abordar el problema de residuos de plástico, se busca usar fibras de polipropileno reciclado como aditamento en el concreto para aumentar su vida útil de 5-10 años hasta 50 años o más. En términos de seguridad en la construcción, es esencial que las construcciones cumplan con estándares para garantizar el bienestar de las personas. El concreto con fibras ofrece una mejora en sus propiedades mecánicas, y el control de grietas dependerá del tipo y dosis de fibra utilizada. Se busca constantemente mejorar las propiedades mecánicas del concreto mediante la adición de fibras poliméricas y aditivos fluidificantes, lo que ofrece beneficios significativos en comparación con el concreto hidráulico sin fibras. El objetivo de este trabajo es evaluar la variación en el concreto al agregar estas fibras y aditivos fluidificantes.



METODOLOGÍA

Para llevar a cabo esta investigación se realizó un diseño de concreto para calcular la mezcla necesaria para obtener 32 cilindros de 10x20 cm  y 12 vigas de 15x15x60 cm. De los cuales, 18 cilindros y 6 vigas fueron adicionadas con fibras de PP. Se hizo uso del método  de los coeficientes del ACI por su alta fiabilidad en cuanto a resultados. La mezcla fue hecha con agregados de los bancos de materiales de “Joyitas” y “La Roka” ubicadas en Morelia, Michoacán, con cemento portland CPC 30R RS. Los cálculos realizados para el diseño de la mezcla por ACI para vigas y cilindros fueron: - cemento sin adición: 44.29 kg - cemento adicionado: 39.03 kg - arena sin adición: 77.74 kg - arena adicionada: 87.15 kg - grava sin adición: 127.58 kg - grava adicionada: 127.57 kg - agua sin adición: 41.82 kg - agua adicionada: 40.11 kg - fibra adicionada: 0.26 kg - fibra sin adicionar: 0.08 kg La preparación de las mezclas se realizó de forma mecánica con ayuda de una máquina mezcladora de concreto. En cuanto a la mezcla que no tenía aditivos, simplemente fue vertida en los moldes  con un proceso de varillado y golpeteo, caso contrario para los cilindros y vigas adicionadas, la mezcla fue adicionada con fibra de polipropileno en forma tubular alargada en las siguientes cantidades: 0.07 kg para los cilindros y 0.19 kg para las vigas y aditivo fluidificante respectivamente, tomando en cuenta la relación agua/cemento que en este caso fue de 0.62, para su proceso de vertida en moldes fueron sometidos a golpeteo. De los 32 cilindros,16 de ellos fueron testeados y de las 12 vigas solamente 4  para llevar a cabo la investigación; Las muestras fueron sometidas al proceso de curado de 6 a 7 días y 20 a 21 días. Las pruebas de flexión y compresión fueron realizadas por medio de una máquina de ensayos universal a los 7 días para los CSA y VSA (cilindros sin adición, viga sin adición), 6 días para los CA y VA (cilindros adicionados, vigas adicionadas), posteriormente se tomó una segunda toma de prueba de compresión a los 21 días para los CSA y VSA , 20 días para los CA y VA.


CONCLUSIONES

El análisis de mezclas mediante el método ACI arrojó que la mezcla con adiciones modificó las siguientes cantidades de materiales con respecto a la mezcla sin adiciones: -Cemento disminuyó un 12%. -Arena aumentó un 12%. -Grava no experimentó un cambio considerable. -Agua disminuyó un 4%. Las pruebas de resistencia a flexión y compresión arrojaron las siguientes modificaciones con respecto a la mezcla modificada con fibras y aditivos: Resistencia a flexión: -Se observó un aumento del 47% para los 6-7 días de curado. -No se tienen los datos para las muestras a 20-21 días de curado, ya que quedaron pendientes; sin embargo, se espera un comportamiento similar o mejor que a los 6-7 días de curado. Resistencia a compresión: -Se presentó una reducción del 14% para los 6-7 días de curado. -Se registró una reducción del 11% para los 20-21 días de curado. En cuanto a los valores máximos de resistencia, se obtuvo lo siguiente: Resistencia a flexión: -2257 MPa en la edad de curado de 6 a 7 días, presentada en la mezcla modificada. Resistencia a compresión: -11211 MPa en la edad de curado de 6 a 7 días y 13194 MPa en la edad de curado de 20 a 21 días, ambos máximos se observaron en las muestras sin modificar. A pesar de que la teoría sugería que las mezclas con adiciones (fibras PP y aditivo fluidificante) tendrían un mejor comportamiento en la resistencia a la flexión y compresión, los resultados obtenidos mostraron una disminución en la resistencia a la compresión. Esto podría deberse principalmente al proceso de colado, ya que no se realizó un vaciado correcto para la mezcla con adiciones, lo que generó huecos en los cilindros de las pruebas de resistencia a compresión, pero no en las vigas de las pruebas de la resistencia a flexión.
Benitez Quiroz Karla Denisse, Instituto Politécnico Nacional
Asesor: Mtra. Olga María Testa Rodríguez, Universidad Hipócrates

DISEÑO Y DESARROLLO DEL SISTEMA DE GESTOR DE COOPERACIÓN ACADÉMICA E INTERNACIONALIZACIÓN DE LA UNIVERSIDAD HIPÓCRATES.


DISEÑO Y DESARROLLO DEL SISTEMA DE GESTOR DE COOPERACIÓN ACADÉMICA E INTERNACIONALIZACIÓN DE LA UNIVERSIDAD HIPÓCRATES.

Benitez Quiroz Karla Denisse, Instituto Politécnico Nacional. Asesor: Mtra. Olga María Testa Rodríguez, Universidad Hipócrates



PLANTEAMIENTO DEL PROBLEMA

En el año 2016, la Universidad Hipócrates brinda a los estudiantes la oportunidad de realizar intercambios académicos, los cuales fueron aumentando con el tiempo. Durante en año de 2019, la pandemia trajo consigo la apertura de nuevas actividades de colaboración, lo cual aumentó el número de participaciones por parte de los estudiantes y docentes de la institución, paralelo a ello, se incrementa también, la información a gestionar. El Sistema Integral de Administración de la Universidad Hipócrates (SIADUH), almacena la información tanto de los intercambios estudiantiles, como la información general de las instituciones, dejando a un lado, la gestión de la información del resto de las actividades de internacionalización. Por ello, se propone un módulo basado en el sistema actual SIADUH de la UH con el objetivo de gestionar la información de las actividades de cooperación académica. Dentro del nuevo módulo se tendrán dos funcionalidades principales: la interfaz para establecer el vínculo entre el usuario y el servidor y las consultas a la información de la base de datos. En conjunto, ambas partes podrán gestionar la información no solo de los alumnos y las universidades, sino también de las actividades de formación realizadas en la UH.



METODOLOGÍA

La investigación es de tipo aplicada, debido a que se partió de las características de un sistema existente, y se buscó mejorar su funcionalidad para gestionar la información de las actividades de internacionalización. Esto a través de la aplicación de conocimientos técnicos y la experiencia previa. Se tiene un enfoque cualitativo, ya que el objetivo de la investigación es crear un módulo para gestionar la información que se genera a partir de las actividades colaborativas. Por lo anterior, se realizó una entrevista a la Coordinadora del área, con el fin de identificar los datos que se manipulan en los intercambios académicos, clase y aula espejo. También, se entrevistó al ingeniero responsable del SIADUH para conocer los lenguajes de programación y características técnicas del sistema. Al manipular el sistema se corroboró que solo tenía la capacidad de alojar los registros de alumnos y de escuelas, dentro de cada registro de alumnos existía la información sobre su movilidad académica, es decir, que no existían pestañas dedicadas a cada una de las demás actividades de cooperación. A estos datos se accedía a través del servidor mediante el lenguaje de programación PHP. Por otro lado, el front-end se desarrolla en HTML, CSS (Bootstrap) y JavaScript mientras que el back-end está programado en PHP. Tomando en cuenta estas características iniciales, se decide trabajar en los mismos lenguajes de programación y con las mismas tecnologías.   Con base en los resultados de la entrevista realizada a la coordinadora de cooperación académica se bocetaron los formularios necesarios para cada una de las actividades. En el formulario de cada actividad, se ingresarán distintos datos, por ejemplo, para la actividad de movilidad académica se requiere información específica dependiendo del tipo de persona que elija el usuario: estudiante, investigador, docente o administrativo. Los cambios en la interfaz se logran mediante eventos en JavaScript. El conjunto de información de cada actividad se almacena en la base de datos, en donde se creó una tabla para cada actividad. En el caso de la movilidad se tiene una tabla llamada movilidad_datos. Su llave primaria es un id único y sus llaves foráneas son la matrícula o id de docente y los id de las universidades de origen y destino. Además de las tablas principales, se crearon tablas independientes que alojaran los datos de los alumnos, docentes y universidades. Estas tablas contienen información esencial para la identificación de los registros, por ejemplo, en docentes se tienen su nombre, apellidos, Curriculum Vitae y foto. Los archivos PDF y JPEG son almacenados en carpetas que se organizan por id de registro dentro del sistema. Teniendo todas las tablas en orden podemos acceder a la información completa de cada registro cuando se necesite a través de sus relaciones con las tablas principales. La interfaz de consulta de información a la base de datos se realiza a través de código PHP. Por otra parte, las conexiones, consultas, inserciones y validaciones de datos de cada una de las actividades de internacionalización están alojadas en scripts dentro del servidor físico de la UH. En conjunto, la base de datos, las interfaces y el servidor trabajan para poder hacer funcional el módulo, el cual, al término de la estancia de investigación fue exitosamente adjuntado al Sistema de Integral de Administración de la Universidad Hipócrates (SIADUH).


CONCLUSIONES

La principal necesidad de la coordinación de cooperación académica era gestionar y almacenar información generada a través de las actividades de cooperación académica. Esto se resolvió con éxito al implementarse la nueva sección de internacionalización en el SIADUH. En la presente investigación se contó con el  personal de la Coordinación de Cooperación Académica y del área de Coordinación y desarrollo de Sotware de la UH, llevando con éxito dicho proyecto, ya que implementación del módulo mejoró la eficiencia en la gestión de información, fortaleciendo la internacionalización académica en la universidad. En conclusión, el proyecto fue exitoso al proporcionar una solución efectiva para la gestión de actividades de formación en la Universidad Hipócrates.
Benítez Rosas Obed Misrraim, Instituto Politécnico Nacional
Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa

LINEAMIENTOS Y CONSIDERACIONES PARA DISEñAR UN SISTEMA DE ILUMINACIóN EN INSTITUCIONES EDUCATIVAS.


LINEAMIENTOS Y CONSIDERACIONES PARA DISEñAR UN SISTEMA DE ILUMINACIóN EN INSTITUCIONES EDUCATIVAS.

Benítez Rosas Obed Misrraim, Instituto Politécnico Nacional. Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de iluminación desempeñan un papel crucial en ámbitos de aprendizaje y formación, ya sea en entornos escolares o laborales, donde se realizan una amplia gama de actividades que requieren condiciones óptimas de iluminación, desde aulas y salones de clase hasta talleres industriales. Contar con un sistema de iluminación adecuado puede tener un impacto significativo en el rendimiento y la productividad. Así también, la sustentabilidad energética se ha convertido en un aspecto relevante en nuestros días, donde se han tomado cartas en el asunto, debido a que, en México el factor de emisión eléctrico del Sistema Eléctrico Nacional para el cálculo de las emisiones indirectas de gases de efecto invernadero por consumo de electricidad correspondiente al año 2022 fue de 0.435 tCO2e / MWh que en comparación general a sus años anteriores se ha visto una mejora continua. La mayor problemática que se presenta en reducir el consumo energético y aumentar la calidad de iluminación es el desconocimiento de lineamientos y procedimientos normativos para generar este cambio, así al mejorar la eficiencia energética en la iluminación, se reduce el consumo de energía y se disminuye la emisión de gases de efecto invernadero, y de forma indirecta aumentar la calidad de aprendizaje de los estudiantes.



METODOLOGÍA

Se realizó la búsqueda general de información sobre sistemas de iluminación y se seleccionó aquella información documentada y validada en artículos científicos más recientes, para ello se clasificó la búsqueda de información en cinco puntos. Educación Eficiencia energética Iluminación Normas Sustentabilidad Se realizó una síntesis sobre la información clasificada en el área de educación e iluminación y posteriormente se plasmaron resultados de diversos estudios realizados en los últimos años, entre ellos se encuentra uno realizado por la Universidad Autónoma de Nuevo León, mostrando un resultado contundente en demostrar que la calidad del servicio educativo se determinaba en cuatro aspectos, a lo cual, el primero de ellos es el ambiente físico educativo y sus componentes, como instalaciones, equipo de cómputo, materiales didácticos, iluminación, etc. Otro de ellos fue en la Universidad Nacional Santiago Antúnez de Mayolo, realizó un informe de investigación donde el objetivo de este fue determinar las características físicas y la percepción de los alumnos de las aulas de aprendizaje. Así se aplicó una prueba de "Diferencial Semántico" y los resultados concluyen que el ambiente físico de las aulas puede ser un recurso satisfactorio y enriquecedor que proporcione bienestar, dado al elevado número de horas que los alumnos se encuentran, y es importante prestar atención a la percepción que los sujetos tienen de ellas, pues influye en el grado de atención y el rendimiento de los alumnos en clases. En el rubro de la iluminación, en el artículo llamado "Impacto de la calidad de las aulas del nivel secundario en el proceso de enseñanza-aprendizaje", se anexa parte de los parámetros que debe cumplir la iluminación dentro de un salón de clases. Dichos parámetros son: La iluminación se debe encontrar entre los 300 y 500 luxes. Las distribuciones de la luz natural deben ser uniformes mediante entradas laterales y no de frente al estudiante. Dependiendo de la orientación, se proveerá al ventanal de sistemas para impedir la entrada del sol dentro del aula. Iluminación específica para la pizarra, de manera que evite brillos y deslumbramientos. Posteriormente se indagaron algunas propuestas de iluminación en aulas de clase donde dicha investigación se basó en un estudio llamado "Eficiencia Energética en Luminarias: Estudio de caso", y se describen una serie de propuestas considerando condiciones óptimas de iluminación para el desarrollo de actividades escolares con base a la Norma Mexicana 025-STPS. Las propuestas de iluminación fueron las siguientes: Magg/Fluorescente/ 2x28W-6500K Cadan Dira Sd Ab-L LED 35W 4000K NPH30/LED/850 30W-5000K Al mismo tiempo, se realizó una investigación sobre los demás temas restantes, normas, eficiencia energética y sustentabilidad. En primer lugar, se realizó una síntesis de los puntos clave de la norma NMX-AA-162-SCFI-2012. Dicha información fue recabada para el desarrollo de un organizador gráfico, indicando la metodología y los documentos clave indispensables para el cumplimiento de esta. Posteriormente a esto, se investigó una metodología para realizar mediciones experimentales para tomar medidas de espacios educativos de la institución. Dicha investigación se basó en la NOM 025, donde se describen procedimientos para realizar mediciones con un luxómetro, determinar la iluminación promedio del lugar y obtener el grado de reflexión de las superficies. Al final, se instaló el software DIALux EVO, se realizó una investigación introductoria y una capacitación al programa con el propósito de conocer las capacidades y herramientas de este, con el fin de simular algunas aulas de la institución en cuanto a iluminación.


CONCLUSIONES

Durante la estancia de verano, se logró adquirir conocimientos teóricos sobre los efectos que tienen los sistemas de iluminación eficientes sobre la educación y el aprendizaje en el ámbito escolar, como a partir de la normativa se llegan a cumplir los estándares establecidos en la intensidad lumínica, para cada uno de este tipo de lugares. Asimismo, se aprendió el procedimiento para realizar el análisis de luminarias en un espacio determinado y obtener datos contundentes sobre la iluminación y consumo energético, y con ayuda de DIALux EVO a simular algunos espacios. Sin embargo, debido a ser un trabajo extenso, no se llegó a concretar la simulación de la iluminación final en las aulas, pero se esperan que se realicen en un próximo trabajo.
Benítez Trejo Nancy Marlenne, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

TRANSVERSALIDAD AMBIENTAL E INSTRUMENTOS DE POLíTICA AMBIENTAL:CONTAMINACIóN DE AGUAS, EN PáNUCO, VER.


TRANSVERSALIDAD AMBIENTAL E INSTRUMENTOS DE POLíTICA AMBIENTAL:CONTAMINACIóN DE AGUAS, EN PáNUCO, VER.

Benítez Trejo Nancy Marlenne, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La Contaminación ambiental es uno de los principales problemas que se está dando a nivel global desde ya hace mucho tiempo, afectando a todo el planeta, a su diversidad y a la salud de las personas. En Pánuco uno de los principales problemas es el río porque durante el periodo de estiaje en por lo menos los últimos 20 kilómetros antes de salir al Golfo de México, debido al lento desfogue que registra el afluente, por el descenso en el volumen de agua que arrastra, lo que ocasiona que la acumulación de contaminantes se incremente, afectando a cientos de pescadores que operan en esta parte de la ribera. La contaminación del agua es tan aguda que ha sido provocada por la presencia de desechos domésticos, o el retorno del agua de sistema de riego, en especial en las áreas urbanas. Se estima que las aguas residuales que llegan al río pueden alcanzar los dos mil litros, mientras que en otras áreas puede ser incluso mayor la cantidad de agua contaminada. Los ingenios azucareros ubicados en el norte de Veracruz son los principales contaminantes para el rio ya que ahí descargan sustancias químicas, debido al mantenimiento de su maquinaria, eso ha provocado pérdidas económicas que ascienden a 150 millones de pesos, afectando a 7 mil pescadores de 40 cooperativas y a pescadores libres.



METODOLOGÍA

El Municipio de Pánuco es uno de los 212 municipios que integran el estado mexicano de Veracruz de Ignacio de la Llave, ubicado en el extremo norte del estado, localizada en la región de la Huasteca Alta, su cabecera es la ciudad de Pánuco y forma parte de la Zona Metropolitana de Tampico. Fue fundada por Hernán Cortés el 26 de diciembre de 1522, como Villa de Santiesteban del Puerto, el segundo ayuntamiento sobre el continente americano. Pánuco se encuentra localizado en el extremo norte del estado de Veracruz, Entre los paralelos 21° 41’ y 22° 29’ de latitud norte; los meridianos 97° 54’ y 98° 41’ de longitud oeste; altitud entre 10 y 100 m.en los límites con los estados de San Luis Potosí y Tamaulipas; tiene una extensión territorial de 3,277.81 kilómetros cuadrados que representan el 4.34% del total del estado, cuenta con una población 97,290 habitantes, de los cuales 48,357 son hombres y 48,933 mujeres. Limita al este con el municipio de Pueblo Viejo y con el municipio de Tampico Alto, al sureste con el municipio de Ozuluama, al sur con el municipio de Tempoal  y al suroeste con el municipio de El Higo; al oeste limita con el municipio de Ébano y el suroeste con el municipio de San Vicente Tancuayalab y al norte limita con el municipio de Altamira, el municipio de González y el municipio de El Mante, en el estado de Tamaulipas. El Municipio de Pánuco cuenta con 327, 781 hectáreas en total.Por lo tanto, el sector primario es preponderante ganadería, 75,166 has. Para la agricultura, en la actividad económica en nuestro Municipio siendo 23, 937 has de riego y 51, 229 de ya que aporta alrededor de 70% en generación de temporal 23,800 has. Pará pesca de 9, 248 has. Mediante el plan de desarrollo Municipal 2022-2025 una de sus principales actividades a realizar es ampliar la cooperación internacional y el apoyo prestado a los países en desarrollo para la creación de capacidad en actividades y programas relativos al agua y el saneamiento, como los de captación de agua, desalinización, uso eficiente de los recursos hídricos, tratamiento de aguas residuales, reciclado y tecnologías de reutilización. También Apoyar y fortalecer la participación de las comunidades locales en la mejora de la gestión del agua y el saneamiento. Hoy en día han desarrollado varias acciones que son muy importantes para el cuidado del medio ambiente; realizaron la reconstrucción de la planta de tratamiento de aguas residuales que se ubica en el conector poniente de la cuidad y esta localiza en el ejido El Mango. También otras de las actividades muy importantes para los Panúquense fue la plantación de arbolitos que se encuentran en los patios de los planteles educativos de la cabecera Municipal, que fueron un total de 500 arbolitos, la cual depende de la campaña de reforestación para mitigar el cambio climatológico.  Otra de las acciones importantes que realizaron fue la trasformación de áreas de jardines de la plaza Desiderio pavón, localizada en el centro de la cabecera municipal, una obra que llamo mucho la atención de los cuidados, ya que no esperaban que fuera un resultado favorable.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos que han sido de gran experiencia y a la vez que me han servido para tomar conciencia de que cada día debemos de cuidar los recursos naturales que están a nuestra disposición ya que si se sigue el maltrato y la falta de conciencia podemos perder grandes cosas. Prevenir la contaminación en ríos es algo que debería haberse empezado a hacer desde hace muchos años. Las personas mayores suelen contar a sus hijos y nietos cómo cuando eran jóvenes se bañaban en tal y cual río. Pero hoy en día podríamos enfermarnos con sólo pensar en sumergirnos en ciertas aguas que en el siglo pasado eran fuente de placer. Es importantísimo educar a las personas   para que deje de arrojar residuos en cualquier parte, ya que muchos van a parar a los cursos de agua. También es buena la utilización de plantas que son de grandes beneficios para los ríos. Evitar destrozar la flora adyacente, ya que ésta protege a los ríos de diferentes contaminantes.
Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Berecochea Estrada Linda Anaid, Instituto Tecnológico de Morelia
Asesor: Dr. Luis Ariosto Serna Cardona, CIAF Educación Superior

SISTEMA DE PREDICCIóN ORIENTADO A LAS PRUEBAS SABER 11° MEDIANTE VARIABLES SOCIODEMOGRáFICAS Y ECONóMICAS UTILIZANDO TéCNICAS DE APRENDIZAJE AUTOMáTICO.


SISTEMA DE PREDICCIóN ORIENTADO A LAS PRUEBAS SABER 11° MEDIANTE VARIABLES SOCIODEMOGRáFICAS Y ECONóMICAS UTILIZANDO TéCNICAS DE APRENDIZAJE AUTOMáTICO.

Berecochea Estrada Linda Anaid, Instituto Tecnológico de Morelia. Moreno Gómez José Antonio, Instituto Tecnológico de Morelia. Rodríguez Carvajal Eva Jaqueline, Universidad de Guadalajara. Santacruz Espinoza Guillermo, Instituto Tecnológico de Morelia. Asesor: Dr. Luis Ariosto Serna Cardona, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

Para los colombianos, alcanzar altos niveles de educación es vital para lograr el éxito y prosperidad en diferentes aspectos, desde el aumento de ingresos y productividad hasta el compromiso político y la igualdad social. Sin embargo, las enormes brechas de inequidad que existen en el país perjudican a los estudiantes de grupos o regiones con carencias socioeconómicas, impidiendo que el estudiante desarrolle sus actividades académicas con normalidad, aumentando así la deserción. Debido a esto, el país busca evolucionar en este aspecto y lograr estar conformado por ciudadanos competentes, formados académicamente, que puedan satisfacer los requisitos impuestos por la oferta laboral. Actualmente el ingreso a la educación superior en Colombia está determinado en gran medida por el desempeño en las pruebas saber 11, prueba que evalúa las áreas fundamentales del conocimiento como matemáticas, lectura crítica, ciencias naturales, lengua inglesa y ciencias sociales y ciudadanas, además de recoger información de tipo sociodemográfico y económica de los estudiantes de educación media. Estas pruebas no solo sirven como criterio de ingreso para la educación superior, adicional a esto, también aportan al desarrollo de investigaciones de carácter cultural, social y educativo implementadas por el gobierno mediante las convocatorias del ICFES. De acuerdo a lo planteado anteriormente es evidente que existe un problema metodológico en relación a la determinación de las variables no académicas que influyen en los resultados de las pruebas saber 11, y siendo consecuente con el auge actual de las técnicas de aprendizaje automático en el campo educativo, se hace pertinente plantear la siguiente pregunta de investigación ¿Cómo desarrollar un sistema para predecir los resultados de las pruebas saber 11°, mediante los patrones de desempeño obtenidos de las variables de carácter social y económico y usando técnicas de aprendizaje de máquina?



METODOLOGÍA

Las bases de datos que se utilizaron para este proyecto fueron exclusivamente del ICFES. Se utilizaron las bases de calendario 1 y 2 de las pruebas saber 11° a partir del año 2015 hasta el 2022. Se utilizaron todas las muestras en este rango de años, esto con el fin de tener un mejor entrenamiento del modelo de predicción y poder saber cuáles son los factores de desempeño que más afectan el nivel académico de la nación y poder tener un modelo de predicción general para todo el país colombiano. Se organizaron las bases de datos a partir de las encuestas realizadas a los estudiantes colombianos sobre la prueba saber 11°. Una vez alineado, se empezó con el preprocesamiento. Primero, se analizó detenidamente cada una de las características proporcionadas por la base de datos, por consiguiente, se eliminaron las columnas que resultaban irrelevantes o de datos repetitivos a los que ya existían y se pueda tener un procesamiento realmente efectivo. El siguiente reto al que se enfrentaron fue la diversidad en la escritura de un mismo dato. Este error humano surgió debido a que diferentes personas lo redactaron de manera distinta, según su percepción, lo que ocasionó la existencia de múltiples variantes del mismo dato. Esta variabilidad en la escritura generó una mayor cantidad de datos únicos, lo que complicó la precisión del análisis. Para resolverlo, se implementó una estrategia de normalización para las palabras mal redactadas. Luego, con las características resultantes se realizó una lista con todos los valores únicos que proporcionaba cada posible respuesta en las columnas, todo eso para poder convertir los datos categóricos y pasarlos a datos numéricos, que son mucho más fáciles y eficientes de procesar. Otro de los problemas que poseían los datos era la dimensionalidad, el exceso de características, por lo que para eliminarlos, se utilizaron diferentes métodos para así debatir cuál era el más conveniente y acertado.


CONCLUSIONES

Con los avances actuales en la investigación, nos encontramos en la fase final del preprocesamiento de datos, donde el objetivo principal es abordar el desafío de la dimensionalidad mediante el empleo de tres métodos distintos: correlación, PCA y ReliefF. Con el análisis de estos enfoques, buscamos reducir la complejidad del conjunto de datos para facilitar el siguiente paso de la investigación. Al finalizar esta etapa, podremos debatir y determinar cuál de los métodos se muestra más eficiente y adecuado para el desarrollo posterior de la investigación. La selección del método óptimo será de gran importancia para obtener resultados precisos y significativos en el entrenamiento de la inteligencia. En cada uno de estos métodos, nos enfocamos en el análisis de las matrices de correlación resultantes al final de cada proceso, analizando así, la disminución, parcial o total, de los cuadrados de color rojo en dichas matrices. El objetivo es lograr que la diagonal principal sea la única zona con este tono, mientras que el resto de los cuadros muestre preferentemente colores azules o blancos. Este patrón en las gráficas nos indica que la correlación entre los datos ha sido reducida de manera significativa, lo que a su vez implica una disminución en la dimensionalidad de los datos y una mayor eficiencia en la representación de la información relevante para la investigación. Al final, se tuvo un exhaustivo análisis de los tres métodos utilizados en el preprocesamiento y el equipo llegó a la conclusión de que se van a utilizar los dos últimos procesos para el siguiente paso de la investigación, debido a que se consideró que cada uno aportaba información relevante y se quiere comprobar qué método va a ser el más eficiente al momento de pasar por el procesamiento, en este caso, el método seleccionado sería k-means, que lamentablemente es un proceso muy tardado por la cantidad de datos que se presenta, por lo que ya no se dió el tiempo de seguir con este paso. 
Beristain Rueda Gonzalo, Universidad Tecnológica de Huejotzingo
Asesor: Mtra. Maria Gabriela Pérez Ramos, Universidad Tecnológica de Huejotzingo

PROCESO DE INGENIERÍA INVERSA PARA EL MOTOR DIDACTICO MINDBLOWN: IMPRESIÓN 3D


PROCESO DE INGENIERÍA INVERSA PARA EL MOTOR DIDACTICO MINDBLOWN: IMPRESIÓN 3D

Aguilar Marin Daniel, Universidad Tecnológica de Huejotzingo. Beristain Rueda Gonzalo, Universidad Tecnológica de Huejotzingo. Martinez Piña Demetrio Francisco, Universidad Tecnológica de Huejotzingo. Asesor: Mtra. Maria Gabriela Pérez Ramos, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

El trabajo a describe el proceso de ingeniería inversa para el diseño y desarrollo de motor didáctico Mindblown. Cabe destacar que es un proyecto que se presenta en tres etapas: Escaneo, digitalización e impresión. De tal manera que el alcance puede estar limitado a presentar solo una de ellas. Se presentan los objetivos del trabajo de investigación, en el marco teórico un acercamiento a la importancia del proceso de ingeniería inversa, la metodología que se plantea del proceso de impresión del prototipo didáctico Mindblown. Planteamiento del problema La Universidad Tecnológica de Huejotzingo (UTH), se encuentra en una zona industrial, que demanda estudiantes con las competencias de Innovación y mejora de procesos, por lo que en la carrera de Procesos Industriales estudiantes se desarrollan competencias para satisfacer las necesidades de la Industria Automotriz. Entre ellas optimizar los tiempos de desarrollo de productos, por lo que el diseño y desarrollo de prototipos rápidos a través del proceso de ingeniería inversa permite reducir costos de investigación. De tal manera que es necesario que los prototipos cumplan con especificaciones de calidad, de allí la importancia de sistematizar el proceso desde el escaneo, digitalización e impresión en 3D. La pregunta de investigación es:¿Qué factores aseguran el proceso de impresión?   Objetivo general Describir el proceso de impresión en 3D, de partes de motor didáctico MindBlown. Objetivos específicos Proceso para imprimir piezas de motor en 3D: Configuración del archivo de Impresión en 3D Calibrar impresora e imprimir   Alcances El alcance del trabajo describe únicamente el proceso de impresión en 3D  



METODOLOGÍA

Marco teórico La ingeniería inversa es un modo eficaz de crear diseños digitales a partir de una pieza física y puede ser una valiosa herramienta de creación de prototipos, junto con tecnologías como el escaneo 3D y la impresión 3D. Los escáneres miden objetos complejos con mucha rapidez, y pueden acelerar tu proceso de trabajo de diseño de forma considerable cuando hay referencias reales involucradas. Con la capacidad de capturar y modificar formas físicas, puedes diseñas piezas impresas en 3D que encajen perfectamente en productos de todo tipo. Para crear un modelo 3D del objeto, el objeto debe medirse utilizando tecnologías de escaneo 3D (CMM, escáneres láser, digitalizadores de luz estructurada). Una vez realizada la operación de escaneado, es posible reconstruir el modelo 3D utilizando 3D CAD, CAM, CAE u otro software. (Guañuna Zamora Stefano Danilo Guañuna Zamora Stefano Danilo, 2022) De acuerdo con la página de Formlabs describe el proceso de ingeniería inversa en 7 pasos Preparar el objeto para el escaneo Realiza el escaneo 3D del objeto Refina la malla Importa la malla en el software CAD Extrae las superficies importantes Integra los nuevos objetos Imprime en 3D el nuevo diseño (Formlabs, 2023)   Metodología del proceso de impresión de piezas de motor en 3D A continuación, se describe el proceso general para la impresión de las piezas del motor 3D Configuración del archivo de Impresión en 3D Abrir Software Ultimaker Cura Seleccionar archivo que anteriormente digitalizado y rediseñado Simular vista previa a impresión Configurar la pieza a imprimir (relleno, velocidad de impresión, base, temperatura de boquilla y base, porcentaje de relleno Guardar en archivo .gcode Copiar archivo a memoria SD Introducir SD a impresora SeeMeCNC   Calibrar Impresora e imprimir objeto Precalentar impresora con temperatura seleccionada en el software Seleccionar pieza copiada en dispositivo SD Imprimir objeto


CONCLUSIONES

La ingeniería inversa es un método de solución y de aprendizaje, ya que debe estudiar y analizar un objeto para entender cada uno de los componentes que lo conforman, de tal manera que se den soluciones a posibles fallas, se pueda mejorar o empezar de cero. Tal es el caso del motor MINDBLOWN, del cual al inicio se tenía el alcance re realizar completo el modelo, sin embrago a lo largo del proceso se identificaron factores a considerar en cada una de las etapas, por lo que se decidió solo hacer el proceso de: Bloque de 4 cilindros, pistones con bielas, árbol de elevas y Carter Durante el proceso de impresión de las piezas del motor MINDBLOWN se identificaron factores a controlar en cada una de las etapas, en la impresión es necesario calibrar siempre la maquina para que se impriman las piezas de forma correcta, también verificar siempre que el archivo este en formato (.gcode) En la impresión se obtuvieron las piezas con una alta resistencia a esfuerzos, pero las piezas tienen un poco de variación en las dimensioes de las piezas, pero no afectan el funcionamiento Finalmente se realizaron las pruebas de ensamble con las piezas originales, identificando algunos factores a controlar, como lo son las dimensiones y la configuración del archivo para imprimir, el tipo de filamento y pigmentación.
Bermon Cárdenas Johan Sebastian, Universidad de Pamplona
Asesor: Mg. Lewin Andrés López López, Universidad del Valle

SISTEMA INTELIGENTE DE CULTIVOS URBANOS IOT.


SISTEMA INTELIGENTE DE CULTIVOS URBANOS IOT.

Bermon Cárdenas Johan Sebastian, Universidad de Pamplona. Yndriago Olivares Jesus Enrique, Universidad de Pamplona. Asesor: Mg. Lewin Andrés López López, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

El consumo de alimentos en el mundo está mayormente abastecido por minimercados, supermercados y almacenes de cadena (ANDI, s.f., párr. 1). Sin embargo, esta dependencia ha llevado a una creciente escasez de alimentos en ciertas regiones debido a la alta demanda de recursos y los impactos económicos provocados por eventos como la pandemia y conflictos bélicos. Como resultado, se ha generado una inflación global que dificulta el acceso equitativo a los alimentos para toda la población. Además, los métodos de agricultura utilizados en países con baja infraestructura tecnológica requieren una gran cantidad de recursos naturales, como el agua, y presentan una eficiencia baja al cultivar en extensas áreas (ANDI, s.f., párr. 2). Por lo tanto, la agricultura tradicional hace un uso ineficiente de los recursos naturales y energéticos y es una situación preocupante con el pasar de los años, donde se agotan cada vez más tales recursos. Lo anterior plantea nuevos desafíos para la sostenibilidad del sistema alimentario con el uso del conocimiento y las tecnologías recientes, además del análisis y capacidad de procesamiento de los datos. El presente proyecto tiene como objetivo abordar estos problemas mediante la implementación de un plan de agricultura familiar que sea replicable en entornos urbanos. Para ello, se propone el uso de un sistema inteligente basado en Internet de las cosas (IoT), que emplee los sistemas de comunicación actuales y la red de datos para monitorear el estado y salud de cada cultivo (ANDI, s.f., párr. 3). Esta solución permitirá mejorar la eficiencia en el uso de los recursos naturales y energéticos, garantizando modalidades de consumo y producción sostenibles en línea con el Objetivo de Desarrollo Sostenible 11 (ODS 11) de las Naciones Unidas (NNUU, s.f.).



METODOLOGÍA

La metodología seleccionada para desarrollar el prototipo que permita la especificación y elaboración del modelo ecosostenible de agricultura urbana será Design Thinking. A continuación, se presentan los propósitos de cada etapa: Empatizar: En esta etapa, se abordó la situación problemática relacionada con el consumo y producción sostenible en un cultivo bajo techo. Definir: Una vez recopilada la información relevante, se establecieron los datos necesarios para construir un sistema IoT que permita el monitoreo de una planta alimenticia. Idear: Aquí se proyectó la elaboración de un sistema de monitoreo para cultivos en tierra bajo condiciones variables, por medio de tres niveles de experimentación. Prototipar: Se procedió a construir el prototipo físico del sistema de monitoreo, ajustando la electrónica de los componentes y el sistema de comunicación IoT entre sensores y una plataforma Web que recopila los datos. Probar: Se lograron realizar las pruebas de comunicación entre dispositivos periféricos y el nodo central, y es necesario complementar las lecturas de las variables para que se optimicen los tiempos de respuesta del sistema ante monitoreo continuo.


CONCLUSIONES

Según la información recopilada, se resalta la importancia de monitorear las variables de: temperatura, luminosidad, humedad (tanto relativa como del terreno), para garantizar mejores condiciones de crecimiento de una planta. Se propuso un modelo experimental para investigar los efectos de la luminosidad de tipo artificial (LED), por medio de variaciones controladas de ciclos de luz y oscuridad, emulando el comportamiento del sol durante un día. Se lograron utilizar apropiadamente los protocolos de comunicación de tipo Suscriptor y Publisher como mecanismo de implementación de IoT en plataformas Web. Resultados Obtenidos Recopilación de la información de proyectos, artículos, tesis y conferencias acorde al enfoque del proyecto, por medio de las bases de datos de uso libre en la Universidad del Valle. Establecimiento de una Rapsberry como servidor local, que centraliza la información del sistema, implementando el protocolo de comunicación MQTT para un monitoreo de tres niveles de cultivos bajo techo. Elaboración de una interfaz gráfica en lenguaje Java, apoyado de las librerías de Swing para el desarrollo del entorno, los elementos de interacción y la visualización para el usuario. Diseño en un software CAD para la estructura tipo armadura del sistema de riego, refrigeración, luminosidad, disposición de macetas, electrónica y alimentación. Diseño materializado de la estructura para el sistema de monitoreo con IOT de las plantas, donde se implementaron tubos de PVC  y botellas plásticas para conformación del proyecto. Diseño de una aplicación en celular para recibir los datos provenientes del bróker con las variables ambientales en la nube. Resultados por Obtener Comprobar la funcionalidad de la estructura vinculada al sistema de monitoreo en sus tres niveles. Validar la influencia de las variables elegidas, con especial atención en la luminosidad dada por una luz LED. Lograr la integración de los tres niveles con el bróker en la nube a través de una conexión Wi-Fi hacia la aplicación móvil. Demostrar la viabilidad del prototipo desarrollado para el monitoreo de cultivos urbanos bajo condiciones controladas y variables. Obtener información valiosa sobre la correlación de la luminosidad con luz LED y el crecimiento de la planta alimenticia. Referencias: Asociación Nacional de Empresarios de Colombia (ANDI). (s.f.). Las tendencias del consumo de alimentos. Recuperado de https://www.andi.com.co/Home/Noticia/17181-las-tendencias-del-consumo-de-alimentos Naciones Unidas (NNUU). (s.f.).Consumo y producción responsables. Objetivos de Desarrollo Sostenible. Recuperado de https://www.un.org/sustainabledevelopment/es/sustainable-consumption-production/
Bernabe Carroza Fernando Nathaniel, Instituto Tecnológico de Chilpancingo
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

ANáLISIS Y DESARROLLO DE PROCESOS INDUSTRIALES


ANáLISIS Y DESARROLLO DE PROCESOS INDUSTRIALES

Ahuizteco Martínez Andrea Lizeth, Instituto Tecnológico de Chilpancingo. Bernabe Carroza Fernando Nathaniel, Instituto Tecnológico de Chilpancingo. Chávez Cruz Naydelin, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La movilidad, es la capacidad de moverse o caminar con libertad y facilidad, algo fundamental para desarrollar las actividades cotidianas y vivir de forma independiente. No obstante, a medida que se envejece, también en el caso de las personas con discapacidad, se va perdiendo autonomía en varias áreas vitales o de sufrir cambios en la movilidad desde la manera de caminar hasta el equilibrio y la fuerza.  De acuerdo con la Organización Internacional de la Salud (OMS), las ayudas técnicas (también conocidos como dispositivos de asistencia o tecnologías de apoyo) son todos los productos, instrumentos, equipos o sistemas técnicos utilizados por una persona con discapacidad fabricados especialmente o disponibles en el mercado para prevenir, compensar, mitigar o neutralizar una deficiencia, discapacidad o minusvalía.  Un problema que enfrentan las personas con discapacidades es la adquisición de equipos para su movilidad, por tal motivo durante la estancia se diseña y desarrolla un equipo para la movilidad de una persona con discapacidad física, el cual le ayudará en la realización de sus actividades cotidianas permitiéndole desplazarse con mayor facilidad.  



METODOLOGÍA

Semana 1: Etapa 1: Diseño de equipo (19 de junio al 23 de junio) Seleccionar un problema o cliente y visualizar solución. Hacer bosquejo Semana 2: Etapa 1: Diseño de equipo (26 de junio al 30 de junio)​ Hacer especificaciones Hacer planos de dibujos Semana 3: Etapa 2: Planeación y presupuesto de 6 M (03 de julio al 07 de julio) Material Método: Soldadura eléctrica, Eléctrico, Mecánico, Hidráulico Mano de obra, Propia y Ajena Semana 4: Etapa 2: Planeación y presupuesto de 6 M (10 de julio al 14 de julio) Método que usamos: Protocolo de investigación, Tesis, Delfín Medición: Movimiento, Tiempo, Economía, Piezas, Volts Amperaje, Revoluciones Maquinaria Equipo   Semana 5: Etapa 3: Fabricación (17 de julio al 21 de julio) Construcción del modelo Las maquetas Semana 6: Etapa 3: Fabricación (24 de julio al 28 de julio) Construir el producto Semana 7: Etapa 4: Comercialización (31 de julio al 04 de agosto) Entrega y recepción del producto al cliente Elaboración del articulo para presentar en congreso Elaborar la carta de satisfacción del cliente Presentar el articulo para titulación, Diploma a la escuela y Cliente, Reporte final. Se seleccionó una persona de tercera edad del sexo femenino con una discapacidad física, la cual le evitaba poderse trasladar de un lugar a otro, esta persona había perdido una extremidad de su cuerpo por lo tanto se buscó darle solución a parte de sus problemas de movilidad.  Se mantuvo en contacto con esa persona para realizar un análisis más a fondo sobre sus problemas de movilidad con el fin de obtener ideas más claras que nos pudieran ayudar a desarrollar un mejor producto, con este análisis logramos detectar cuales eran sus necesidades a cubrir y cual sería la mejor manera de ayudar a esta persona. Después de haber transcurrido 2 días y haber organizado todas las ideas con el equipo de trabajo, se empezó a bosquejar las ideas con dibujos del proyecto a realizar, las ideas y dibujos se trabajaron de manera virtual por medio de chats y videollamadas, ya teniendo en mente cual era la opción más práctica a realizar se empezó a maquetar nuestro proyecto, por medio de una lluvia de ideas se seleccionó el material a utilizar y se llegó a la conclusión de usar madera y cartón para evitar gastos innecesarios. Terminada la maqueta se le informó al asesor la idea central con el fin de avalarla y obtener alguna crítica constructiva que nos ayudara a mejorar el proyecto.   Teniendo la maqueta lista y la aprobación del maestro, buscamos la manera de gestionar precios en tiendas de conveniencia los cuales servirían para comenzar a construir nuestro proyecto. De igual manera se buscó una persona que nos asesorara con los materiales y los procesos a realizar.  La materialización del proyecto se realizó alrededor de dos semanas del mes de julio,  después de ese tiempo se buscó mejorar e incorporar pequeñas cosas de nuestro proyecto, cosas que tendrían la finalidad de cubrir alguna otra necesidad que se le presente a nuestro cliente, no obstante también pueden servirle para realizar alguna otra actividad cotidiana.  Una vez que concluimos con nuestras actividades se optó por regalar nuestro proyecto a esta persona y le agradecimos por su tiempo compartido y habernos apoyado con nuestro proyecto escolar.  Descripción Llegamos a un acuerdo que la persona de la tercera edad necesitaba de una andadera, y pensamos en darle una nueva modificación, así que a la andadera le agregamos un asiento el cual se puede levantar para que la señora la utilice como andadera, y también se puede bajar para cuando la señora se canse, se pueda sentar, este producto funciona como andadera y como silla, también se le agregó una bolsa para que la señora pueda guardar cosas en ellas, como sus medicamentos, su dinero, entre otras cosas más.


CONCLUSIONES

Durante la estancia logramos presenciar que hay una gran cantidad de personas con alguna discapacidad física y no cuentan con las facilidades de comprar algún aparato que les ayude con sus discapacidades, no obstante también nos percatamos que varias personas buscan la forma de adaptarse a las dificultades que se les presentan en su vida diaria.  Se logró alcanzar los objetivos generales, los cuales eran satisfacer las necesidades de la persona a la que nos propusimos ayudar, concluir el proyecto en tiempo y forma y lograr contactar a la persona para poder entregar la andadera de manera presencial. Dentro de los valores monetarios podemos encontrar los siguientes precios de las cosas que tuvimos que comprar: 7 metros de tubo mofle - $500 Lamina de 55x25 calibre 16 - $50 2 bisagras de tubo - $40 1 armella - $5 2 llantas con freno - $200 2 gomas de tubo de 1 pulgada - $80 Base del asiento - $200  Del total de la andadera - silla, nos gastamos $2,000.00 pesos. Total de dinero obtenido por la andadera: $0, se decidido regalar así que no obtuvimos ingresos.
Bernabe Hernández Anahi, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Cristhian Camilo Amariles López, Universidad Libre

CARACTERIZACIóN FíSICO-MECáNICAS DE CONCRETO DE EPS DILUIDO COMO MATERIAL AGLOMERANTE


CARACTERIZACIóN FíSICO-MECáNICAS DE CONCRETO DE EPS DILUIDO COMO MATERIAL AGLOMERANTE

Bernabe Hernández Anahi, Benemérita Universidad Autónoma de Puebla. Ruiz Vellamin Luis Gustavo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Cristhian Camilo Amariles López, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

El cemento hidráulico es sin duda el material mas empleado en la industria de la construcción, debido a las propiedades y facilidades que presenta al momento de realizar una obra. Sin embargo, produce una contaminación importante al medio ambiente, es por ello que se piensa en alternativas para materiales de construcción. Reemplazar el cemento hidráulico reduce el alto nivel de la huella de carbono, así como gases de efecto invernadero generados por alto consumo de energía en el proceso de fabricación. Desde hace algunos años, el poliestireno expandido ha estado involucrado en las edificaciones, ya que este muestra ahorros de tiempo por su fácil instalación, así como ahorros económicos. La finalidad del proyecto, es crear un nuevo material de construcción que sea amigable con el medio ambiente, es por ello que se reutilizará EPS que haya cumplido con su función principal, el material constará de arena y EPS diluido como material aglomerante. El material creado será sometido a una serie de pruebas, en donde se determinarán sus parámetros físico-mecánicas, de modo que se puedan generar diferentes alternativas de uso para un material de desecho altamente contaminante.



METODOLOGÍA

La investigación consta de 5 fases: Fase 1: Control de calidad de la arena En esta fase se determinó la granulometría, el contenido de materia orgánica, la gravedad especifica y equivalente de arena. Fase 2: Fabricación de muestras Se fabricaron muestras cilíndricas con dimensiones de 5 cm de diámetro y 10 cm de altura, compactándolos a fuerzas que van desde los 15 kN hasta los 50 kN con intervalos de 5 kN de diferencia entre una y otra. Fase 3: Ensayos no destructivos Se determinaron las densidades de las muestras, las masas evaporadas del solvente, absorción de agua y velocidad del pulso ultrasónico. Fase 4: Ensayos destructivos Se realizaron ensayos de resistencia a compresión, en donde a partir de ella se determinará el límite elástico y el módulo de elasticidad. Fase 5: Análisis de resultados Se recopilan los datos obtenidos de las muestras y se determina los resultados de resistencias  de las muestras con relación a las fuerzas de compactación.


CONCLUSIONES

De la presente investigación  se determina que las fuerzas idóneas de compactación en las muestras son mas acertadas entre 25KN a 35KN es por ello que se  recomienda para las investigaciones futuras que se trabaje bajo estos parámetros de fuerza de compactación  para la elaboración de muestra, debido a que si es excedente la fuerza, las muestras al entrar a mayor presión  tienden a generarse daño en las partículas del agregado fino, cambiando su granulometría y afectando la acomodación de partículas. Cabe mencionar que con esta nueva idea de bioconstrucción tratamos de fomentar y concientizar  a las futuras generaciones a innovar sobre nuevas alternativas para ser amigables con el planeta en el ámbito de la construcción haciendo de esta investigación una herramienta de estudio. Los  invitamos a adentrarse a estas nuevas ideas  para revolucionar y no solo limitarse a los sistemas tradicionales para la construcción.
Bernal Esteban Francisco Javier, Universidad Mexiquense del Bicentenario
Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas

RECONOCIMIENTO DE PAPAYAS MEDIANTE VISIóN ARTIFICIAL


RECONOCIMIENTO DE PAPAYAS MEDIANTE VISIóN ARTIFICIAL

Bernal Esteban Francisco Javier, Universidad Mexiquense del Bicentenario. Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La deficiente supervisión en la producción de frutos y verduras en México ha generado en varias ocasiones una cosecha deficiente, ya que la maduración de los productos puede acelerarse, causando posibles daños cuando este efectuándose su recolección, por ejemplo, que el fruto contenga con algún problema estético, la coloración del producto sea diferente al que contiene el fruto en específico (comúnmente), o bien de que pueda pudriéndose en el mismo árbol el fruto antes de ser cosechado; en el caso de la Papaya, es producida dentro de México en 19 estados, en especial en Tamaulipas, uno de los que más producto genera dicha fruta, detrás de los estados de Oaxaca, Colima, Chiapas, Veracruz, y Michoacán.   De acuerdo con la Revista Opportimes, México es uno de los países lideres en la exportación de papaya, pues estima que tan solo en el año de 2015, el país logro exportar alrededor de 86 millones de dólares, considerándose así el líder remitente del fruto a nivel mundial; otro punto favorable para el fruto en México es su participación con una tercera parte de dichas exportaciones y las ventas generan un doble frente al segundo exportador mundial, dicho país es Brasil.   Por ello, debe solucionarse el tipo de problema que pueda contra venir el producto, uno de ellos problemas es la escaza supervisión constante hacia los árboles que producen las papayas, y la verificación, contabilización y clasificación de aquellas papayas que estén en un estado óptimo para su cosecha, pues los productores que generan el producto, en algunas ocasiones no pueden estar supervisando dichos árboles, ya que los terrenos y/o invernaderos en el que se cultivan son extensos y no son suficientes las visitas que les dan los productores y los trabajadores. Por tanto, durante el desarrollo de la Estancia de Verano, se estudian las diferentes técnicas sobre el desarrollo de algún dron agropecuario, o bien, algún robot para el monitoreo de la planta, por medio de la captura de imágenes, y su debido procesamiento de la captura de imágenes o video, para la elaboración algoritmos que ayuden a la captura de dichas imágenes.



METODOLOGÍA

Para dicho proyecto, se realizó una exhaustiva investigación por diversos artículos basados en las técnicas de visión artificial, así como de las características y cualidades que debe de tener una papaya ideal para el referente de su cosecha y pueda salir a Mercado Nacional e Internacional, algunos de ellos fueron parte indispensable, y otros para el refuerzo de la idea y del desarrollo de proyecto.   Durante las investigaciones que se realizaron se detectaron diversos métodos mediante Visión Artificial, por medio del Lenguaje de Programación Python y que por medio de diferentes técnicas y funciones puedan ayudar y facilitar el funcionamiento, eficaz y eficiente.   Algunas de los métodos detectados de las investigaciones para la Visión por Computadora, como las Redes Neuronales y el uso de Herramientas OpenCV, conteniendo diversas técnicas del procesamiento de imágenes. De ambos métodos se eligió la elaboración de un algoritmo en Python usando las Herramientas OpenCV, el cual facilita el rápido funcionamiento de dicho algoritmo y, posteriormente aplicarlo al dron o robot industrial.   Dichas Herramientas OpenCV se basan en las siguientes características que se deben de tomar en cuenta para la detección de las papayas, esencialmente poder clasificar las papayas maduras y la contabilización de ellas, mediante la captura de las imágenes o video, por ejemplo:   La amplitud de la escala; Modificación en los contrastes; Reducción de ruido en la imagen, verbigracia, los factores de iluminación; La detección de bordes de la fruta; En algunos casos la segmentación; El procesamiento; Extracción de características esenciales para la detección del objeto, y Dar resultados.   A partir de esto, al contar con dichas características y fundamentos para el algoritmo, también se tomaron en cuenta algunas características esenciales que tiene como un excelente fruto la papaya es:   Contener una coloración uniforme del amarillo al naranja brillante, y Libre de manchas o tonos cafés.   Por tanto, el resultado a partir de la ejecución del programa como se ha mencionado es la detección, clasificación y observación de aquellas que se consideren apropiadas para la cosecha.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos del aprendizaje en el manejo y producción de algoritmos en Python sobre el procesamiento de imágenes como factor importante para la Visión Artificial, poner en práctica dichos algoritmos a imágenes ya capturadas y clasificar aquellas papayas maduras y que estén en estado optimo. Por otra parte, se logró, entender y ordenar cada uno de los componentes que componen los algoritmos funcionales para la Visión Artificial y cómo será la aplicación dentro de los terrenos de campo en la clasificación de papayas, así como de la importancia que tendrán los efectos hacia los productores.
Bernal Gutiérrez Juan Jesús, Universidad Autónoma de Nayarit
Asesor: Dr. Victoria de los Ángeles Rigual Hernández, Universidad Complutense de Madrid

ANáLISIS COMPOSICIONAL DE LA CáSCARA DE LA SEMILLA DE MANGO ATAULFO (MANGíFERA INDICA) PARA LA DETERMINACIóN DE SU POTENCIAL EN EL áREA DE LAS BIO-REFINERíAS


ANáLISIS COMPOSICIONAL DE LA CáSCARA DE LA SEMILLA DE MANGO ATAULFO (MANGíFERA INDICA) PARA LA DETERMINACIóN DE SU POTENCIAL EN EL áREA DE LAS BIO-REFINERíAS

Bernal Gutiérrez Juan Jesús, Universidad Autónoma de Nayarit. Asesor: Dr. Victoria de los Ángeles Rigual Hernández, Universidad Complutense de Madrid



PLANTEAMIENTO DEL PROBLEMA

Hoy en día es evidente que tanto el uso de los combustibles fósiles y todo producto de consumo de origen no sustentable, llegan a ser factores que logran dañar mucho a diversos ecosistemas y a nuestro planeta en general. Una fuente de energía alternativa con altas expectativas son las biomasas lignocelulósicas, principalmente, derivadas de desechos de materias primas agro-industriales. La semilla del Mango Ataulfo es un bio-producto generalmente votado por las industrias tras realizar la extracción de la mayor parte de la pulpa. Esto sucede a lo largo de toda la república mexicana, y el estado de Nayarit no es la excepción. Al ser México uno de los principales productores de Mango en el mundo, llega a ser de gran interés el explorar las oportunidades que esta fruta puede llegar a ofrecer. Uno de los principales objetivos de los experimentos fue, el maximizar el contenido de hemicelulosas mediante el pretratamiento de auto-hidrólisis, el cual, resulta ser una hidrólisis selectiva de hemicelulosas a partir de materiales lignocelulósicos que se lleva a cabo en condiciones isotérmicas. Para esto, se realizó un diseño experimental con un método estadístico de superficie de respuesta de punto central, el cual consistió de un total de 11 experimentos de los cuales, se varió los parámetros de temperatura y el tiempo, fijando la relación líquido-sólido. Los parámetros examinados fueron: temperatura: 142°C-198°C; tiempo: 20min-90min; L/S=10. Las respuestas analizadas fueron: contenidos de azúcares libres, azúcares totales, recuperación de oligosacáridos, lignina, extractos, contenido de fenólicos y la capacidad antioxidante. Se caracterizaron los sólidos auto-hidrolizados y la materia prima sin tratar bajo el protocolo NREL/TP-510-42623, mientras que las fases líquidas se llevaron a cabo bajo el protocolo NREL/TP-510-42618.



METODOLOGÍA

Lo primero que se realizó fue las auto-hidrólisis, para las cuales se administró 180 ml de agua mili-Q y la cantidad de cáscara de mango necesaria con un tamaño de entre 0.3-2.0mm de diámetro dentro de un reactor 4560 de la marca Parr Instrument Company. Una vez realizada la reacción se procedió a realizar dos lavados con un total de 360ml de agua mili-Q, para después filtrar el sobrenadante y así obtener la fase líquida. Posteriormente la fase sólida se colocó sobre un papel filtro y se dejó secar a condiciones normales durante algunos días.  La fase líquida se trató bajo el protocolo NREL/TP-510-42618, el cual consiste en medir el volumen de filtrado y su respectivo pH, para después en base al valor de pH obtenido añadir cierta cantidad de ácido sulfúrico al 72% v/v a una alícuota de 20ml para, después auto clavar a 121°C durante 1hr. Antes de ello se tomó una pequeña cantidad del líquido, de 15-20ml para analizarse en el HPLC tanto en la columna de protones como de plomo. Una vez finalizada la hidrólisis en la autoclave, se extrajo algo del líquido para llevarse a su respectivo análisis en la columna de plomo de un HPLC. Varios días después se llevó a cabo la caracterización de tanto la materia prima como de los sólidos previamente auto-hidrolizados, esto mediante el protocolo NREL/TP-510-42623. Para ello, primero se pesó 300 +- 0.5 mg de sólido tamizado en un tubo de presión, 180µm<=D<=850µm, al cuál se añadió 3ml de ácido sulfúrico al 72% v/v y se llevó a una placa calentadora durante 1hr donde se mezclaba de manera moderada en intervalos de 5min. Después se lavó y filtró con 84ml de agua mili-Q, posteriormente se introdujo el líquido filtrado a auto clavar por 1hr. Una vez fuera, se sustrajo entre 15-20 ml del líquido, del cual se desviarían dos muestras, una destinada a la columna de protones y otra a la de plomo. Para el caso de las metodologías DPPH y FOLIN CIOCALTEU se llevaron a cabo en conjunto, para las cuales se necesitó de las soluciones de DPPH 1mM y TROLOX 0.296 g/L para el caso del método de DPPH; para el FOLIN se necesitó la solución FOLIN de 1.192%, solución concentrada de ácido gálico 1 g/L y de Na2CO3 al 4%. En tubos de eppendorf se añadieron los calibrados (0.0, 0,1, 0.25, 0.5, 0.75, 0.9, 1.0 ml de sus respectivas soluciones), a su vez que las muestras y el control. Para el DPPH, primero se añadió 285µL de solución DPPH a todos los tubos de la placa multipocillos, posteriormente se añadió 15µL a cada tubo de la sustancia que le corresponda. En el caso del FOLIN, en principio se añadió 252µL de solución FOLIN, después 3µL de lo que correspondiese y, por último, 45µL de solución de Na2CO3. Al final se dejaron en completa oscuridad agitándose durante su tiempo de incubación, 1hr y 40min, respectivamente.


CONCLUSIONES

Se cumplió con ciertos objetivos, tal como la mayor obtención de hemicelulosas mediante el pretratamiento ya mencionado, por lo que sería cuestión de tiempo ver si se logran los demás objetivos, visualizar el espectro de aplicaciones que se puede tener con este material. 
Blancarte Gamiño Fabian Joel, Instituto Tecnológico Superior de Guanajuato
Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana

EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA ADMINISTRATIVA DE LA EMPRESA FUSSIÓN S.A.S. EN PERÍODO 2023-2


EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA ADMINISTRATIVA DE LA EMPRESA FUSSIÓN S.A.S. EN PERÍODO 2023-2

Baños Mendoza Francisco Adrian, Instituto Tecnológico de Pachuca. Blancarte Gamiño Fabian Joel, Instituto Tecnológico Superior de Guanajuato. Domínguez López Yareli Dolores, Instituto Tecnológico de Pachuca. Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

La comodidad visual es crucial, ya que una iluminación deficiente puede dificultar la identificación de objetos o riesgos asociados a las tareas realizadas en una jornada laboral, lo que aumenta el riesgo de accidentes. Sin embargo, las organizaciones deben realizar evaluaciones periódicas de las condiciones de trabajo, especialmente en cuanto a condiciones ambientales como el ruido, los niveles de iluminación y la temperatura, ya que pueden afectar la salud de los trabajadores a largo plazo. Es importante destacar que el sentido de la vista es fundamental para recibir información del entorno, por lo que la iluminación juega un papel crucial en cualquier tarea realizada durante la jornada laboral. Aunque el ojo humano puede adaptarse a diferentes condiciones de iluminación, incluso cuando no son las óptimas, esto puede generar fatiga visual y disminuir el rendimiento, aumentando la probabilidad de cometer errores e involucrarse en accidentes.



METODOLOGÍA

DISEÑO METODOLÓGICO TIPO DE ESTUDIO El presente trabajo, es desarrollado en el marco de un estudio de tipo cuantitativo; teniendo en cuenta que se evaluará una estrategia de investigación centrada en cuantificar la recopilación y el análisis de datos del área administrativa en la empresa FUSSION S.A.S. de la ciudad de Barranquilla, describiendo la características de las condiciones del lugar tales como: el material, color, textura, y estado de paredes, techo, piso, superficie de trabajo, ventanas, equipos; además se llevarán a cabo las mediciones de iluminación y el análisis de sus respectivos resultados numéricos. MÉTODO DE ESTUDIO Este trabajo se direcciona con un enfoque inductivo, teniendo en cuenta características que permitirán identificar variables y aspectos específicos, de esa forma se darán a conocer las condiciones higiénicas de iluminación en el área administrativa de la empresa FUSSION S.A.S. en el periodo 2023-2 con el fin de mejorar la productividad permitiendo conocer si el área de trabajo a evaluar cumple con los niveles permisibles establecido por la normativa legal vigente para la prevención de accidentes y enfermedades en los trabajadores expuestos.   TÉCNICAS E INSTRUMENTOS DE RECOLECCIÓN DE LA INFORMACIÓN. Cuestionario y encuesta: realizada a los trabajadores del área a evaluar, con el fin de conocer y analizar la percepción que tienen sobre las condiciones de iluminación en su puesto de trabajo y la presencia de molestias visuales relacionadas con la misma. Esta encuesta se estructura por dos bloques los cuales se se describen de la siguiente manera; la primera parte narra la descripción con la intención que se realiza la encuesta y la segunda parte se  inicia una serie de seis preguntas que responderán con sinceridad a los trabajadores seleccionando entre las opciones múltiples y una pregunta abierta, cada una de las respuestas se analizada y graficada con respecto a los resultados finales, concluyendo las condiciones de iluminación en el puesto de trabajo. (Anexo E).  Método de la constante del salón: método utilizado para calcular puntos a medir en el área administrativa de la empresa plástica FUSSION S.A.S. el cual proporcionó las fórmulas idóneas para realizar el estudio de medición.


CONCLUSIONES

Resultados DETERMINACIÓN DE LAS VARIABLES Y ASPECTOS QUE INCIDEN EN LAS CONDICIONES DE ILUMINACIÓN DEL ÁREA ADMINISTRATIVA DE LA EMPRESA PLÁSTICA FUSSION S.A.S. Para determinar las condiciones de iluminación del área administrativa se utilizó el método de la constante del salón (K) en la que se identifican variables como altura (H), largo (L) y ancho (A) del área a evaluar.  Se tomó la constante (K) para el establecimiento e identificación de los puntos a medir del área administrativa de la empresa plástica FUSSION S.A.S. En la fórmula utilizada se obtuvo el siguiente resultado (K = 1.195); el cual fue usado para definir el número de puntos a tomar para realizar la medición; el valor resultante fue 9 puntos, como se muestra en la siguiente tabla (Tabla 1). Evaluación diagnóstica de condiciones de iluminación en el área de trabajo. Para determinar las condiciones de iluminación del área administrativa se utilizó el formato de evaluación diagnóstica de condiciones de iluminación en el área de trabajo (ver anexo E), el cual permite identificar aspectos como Características del Área, describiendo las condiciones de la superficie Material, Color, Textura, y Estado de: Paredes, Techo, Piso, Superficie De Trabajo, Ventanas Y Equipos Conclusión En conclusión, la iluminación adecuada en un área administrativa es fundamental para crear un entorno de trabajo cómodo, productivo y visualmente atractivo. La iluminación no solo mejora la visibilidad y reduce la fatiga visual, sino que también contribuye al ambiente general y la estética de la oficina. La luz LED, con diferentes temperaturas de color según el espacio, puede mejorar la concentración y la relajación en áreas específicas. En resumen, invertir en la mejora de la iluminación en el área administrativa de INDUSTRIAS PLÁSTICAS FUSSION S.A.S. no solo cumplirá con la legislación vigente, sino que también promoverá un espacio de trabajo más saludable y productivo para los empleados, lo que a su vez contribuirá al éxito y crecimiento de la empresa.
Bojorquez Romero Alehisa Poleb, Universidad Autónoma de Baja California
Asesor: Dr. Arturo Abúndez Abúndez, Centro Nacional de Investigación y Desarrollo Tecnológico

DISEñO Y CARACTERIZACIóN MECáNICA DE MATERIALES COMPUESTOS


DISEñO Y CARACTERIZACIóN MECáNICA DE MATERIALES COMPUESTOS

Bojorquez Romero Alehisa Poleb, Universidad Autónoma de Baja California. Cruz Cervantes Cid Manuel, Instituto Politécnico Nacional. Roldán Leyva Juan Jesús, Instituto Tecnológico de Hermosillo. Rubio Vazquez Aletza, Universidad Autónoma de Baja California. Asesor: Dr. Arturo Abúndez Abúndez, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la alta demanda de materiales ligeros y de calidad, así como la creciente crisis ambiental ha traído consigo la búsqueda de nuevos materiales, siendo los materiales compuestos híbridos una alternativa viable para dar solución a esta necesidad, estos juegan un papel muy importante debido a que poseen alta resistencia y rigidez, además, de baja densidad. En relación con los compuestos híbridos, se encuentran los reforzados con fibra de carbono (CFRP) y de vidrio (PRF), estos ampliamente utilizados en aviones, palas de aerogeneradores, construcción y autopartes. Debido a sus propiedades individuales que ambas fibras se complementan, en primera instancia la fibra de vidrio ofrece elasticidad y solidez, en contraparte la fibra de carbono es flexible, ligera y además ofrece alta resistencia. Ahora bien, el presente trabajo tiene como objetivos evaluar el efecto de la orientación de las fibras en las propiedades mecánicas a tensión de materiales compuestos híbridos CFRP y PRF, a través del análisis teórico- experimental.



METODOLOGÍA

Fabricación de laminados (2,4,6 capas de carbono). A continuación se describe el procedimiento seguido para la fabricación de los laminados, los cuales corresponden a la siguiente configuración: [±45/02]s [±45/04]s [±45/06]s El método de fabricación de los laminados por hand lay-up consiste en lo siguiente: Preparación del molde: Limpieza y eliminación de residuos en el molde de vidrio. Preparación de fibras: Corte y organización de fibras para el laminado. Mezcla de resina: Proporción 100/30 de resina-catalizador, considerando tiempo de trabajo. Aplicación capas: Resina, Peel ply, fibras en secuencia [±45, 0n]S, impregnación y alisado. Embolsado y compactación: Bolsa de vacío, caul plate, mangueras y sellado. Curado: Tres días a temperatura ambiente para endurecer la resina. Desmoldeo y acabado: Retiro, eliminación de Peel ply y excesos de resina. Fabricación de las probetas. Siguiendo la norma ASTM D3039, se fabricaron probetas de laminados con dimensiones 130x13x0.13 mm, cortadas en una fresadora G0704. Ajustes se realizaron con movimientos longitudinales y transversales. Tras elaborar los moldes, se lijaron las probetas con papel abrasivo y limas planas, usando un vernier digital para controlar medidas y evitar daños. Este proceso garantizó precisiones y evitó deformaciones. Caracterización de probetas. Una vez elaboradas y rectificadas las probetas según la norma ASTM D3039M, se procedió a su caracterización, mediante una máquina de ensayos marca Shimadzu modelo AG-X plus con una capacidad máxima de carga de 100kN. A continuación, se describe el procedimiento de ensayo de una probeta con el fin de ejemplificar el procedimiento llevado a cabo con el resto de estas. Primero, se identificó y etiqueto la probeta, ingresando esta información al software. Luego, se ajustó la máquina y se introdujo la probeta, asegurando el empalme con las líneas centrales. Se monta el extensómetro y se configura el software. Tras la inicialización del ensayo, la máquina tensionaba la probeta mientras el software registraba datos y generaba un diagrama esfuerzo-deformación. Se detenía manualmente cuando se alcanzaba el esfuerzo máximo. Luego se desmontaba el extensómetro y la probeta con precaución. Los datos se guardaban y se repitieron los pasos para cada probeta. Resultados. Se reportaron resultados de tres laminados con diferentes configuraciones de capas de fibra de carbono y vidrio. Para el laminado de 4 capas, se ensayaron 9 probetas, 7 mostraron ruptura dentro de la sección establecida. Similarmente, para el laminado de 6 y 10 capas, se ensayaron 7 y 8 probetas, respectivamente, con 5 de cada uno mostrando ruptura dentro del área designada. Se obtuvo un gráfico de esfuerzo contra deformación promediando el comportamiento de cada lote de probetas ensayadas de los tres laminados, el cual evidencia la influencia del número de capas de carbono en el comportamiento del material. Se obtuvieron datos suficientes para evaluar y se les atribuyeron a las probetas ensayadas que no cumplieron el requisito de norma, problemas en el agarre y/o problemas de funcionamiento de la máquina o montaje del extensómetro, reafirmando la validez de los datos obtenidos en la preparación de placas y ensayos de probetas.  


CONCLUSIONES

  Los resultados obtenidos de las pruebas de tracción demostraron la adecuada cantidad del peel ply y su orientación utilizada, ya que las pruebas fueron válidas y se mantuvieron dentro de los límites establecidos. El diagrama esfuerzo-deformación revelo un comportamiento pseudo dúctil en los laminados con 6 y 4 capas de carbono al centro, donde se observó una meseta de esfuerzos y una falla gradual en cada probeta, siendo las capas de carbono las primeras en dañarse. El objetivo de evaluar el efecto de la orientación de las fibras en las propiedades mecánicas del material compuesto híbrido se cumplió exitosamente mediante un análisis teórico-experimental. Estos materiales compuestos encuentran aplicaciones amplias y diversas en diversas industrias gracias a sus propiedades únicas, como alta resistencia y bajo peso, junto con su durabilidad. La investigación de alternativas sostenibles para producir estos compuestos conlleva un ahorro significativo de energía y recursos. La implementación de compuestos híbridos es relevante debido a su versatilidad, destacado desempeño mecánico, durabilidad y favorable relación resistencia-peso. Esta línea de investigación muestra un potencial significativo para el avance tecnológico en diversas industrias, desde la aeroespacial y automotriz, hasta la energética e infraestructuras. En conclusión, el estudio de materiales compuestos juega un papel esencial en el progreso industrial y tecnológico, abriendo un mundo de posibilidades para aplicaciones innovadoras y sostenibles.  
Bolaños Jimenez Yazmin Magaly, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla

OPERACIóN, ANáLISIS Y CONTROL DE UN PROTOTIPO EXPERIMENTAL PARA PROCESOS DE ELECTROLISIS PARA LA OBTENCIóN DE GAS COMBUSTIBLE HIDRóGENO Y SU IMPLEMENTACIóN COMO VECTOR ENERGéTICO


OPERACIóN, ANáLISIS Y CONTROL DE UN PROTOTIPO EXPERIMENTAL PARA PROCESOS DE ELECTROLISIS PARA LA OBTENCIóN DE GAS COMBUSTIBLE HIDRóGENO Y SU IMPLEMENTACIóN COMO VECTOR ENERGéTICO

Becerra Romero Alejandra Betsabe, Benemérita Universidad Autónoma de Puebla. Bolaños Jimenez Yazmin Magaly, Benemérita Universidad Autónoma de Puebla. Calderón Galicia Flor Lizbeth, Benemérita Universidad Autónoma de Puebla. González Sánchez David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente la crisis ambiental que vivimos a nivel global ocasionada en gran parte por los gases de efecto invernadero que son producto de la quema de hidrocarburos para la obtención de energía eléctrica, requiere una innovación en la forma en la cual obtenemos nuestra energía, y esta nueva forma tiene que ser de una manera renovable y amigable para el ambiente.   En México según la encuesta realizada por el INEGI en el 2018 Encuesta Nacional sobre Consumo de Energéticos en Viviendas Particulares (ENCEVI) indica que el 99% de las viviendas en México cuenta con electricidad, de las cuales, solo el 0.25% usa paneles solares para la obtención de su energía eléctrica. Es preocupante la poca relevancia y uso de las energías renovables en México. He aquí la importancia de empezar a invertir en la implementación e investigación de nuevas fuentes de energía.   Para poder llevar a cabo la electrolisis, se tendrá que preparar un prototipo, en donde el armado y montado se llevará a cabo por los estudiantes miembros de este programa de investigación, esto con el fin de fortalecer la forma práctica y no solo la teórica.



METODOLOGÍA

Armado de prototipo Para el montaje del prototipo fue necesario investigar qué tipo de tubería nos convenia más para usar, la primera propuesta fue usar tubo de polipropileno (ppr), este material se cotizo y se hizo un diagrama de flujo de proceso, pero esta propuesta fue descartada, ya que, el diámetro interior de este tubo era muy grande, y eso nos podría haber dado problemas al momento de correr las pruebas. Por lo tanto, se optó por mangueras de plástico y conexiones tipo fitting, las cuales las tienen un recubrimiento antibacteriano, por esto mismo las podemos encontrar en diversas conexiones para agua potable. Una vez teniendo los materiales necesarios se paso a hacer el montaje del prototipo. Para sostener todo el sistema, se propuso usar bases de madera, las cuales funcionaron satisfactoriamente. Como en todo proyecto, surgieron complicaciones, pero se superaron gracias al trabajo en equipo, por ejemplo, una de las conexiones fitting nos llegó de una medida diferente a la solicitada, por lo tanto, tuvimos que idear una adaptación para una conexión del prototipo. Una vez solucionados los inconvenientes, se paso a la fase del armado para hacer pruebas hidráulicas, con el fin, de corregir cualquier fuga de líquido, las cuales, si se presentaron, pero se sellaron fácilmente con teflón. Preparamos las conexiones a utilizar antes del armado. Teniendo todo listo, se pasó al armado Este prototipo fue diseñado para ser un sistema multifuncional, y por lo mismo, puede funcionar con diversos tipos de bomba para impulsar la sustancia a estudiar y diferentes tipos de tanque y capacidades. Otra ventaja de este sistema es que se pueden añadir nuevas partes dependiendo del objetivo. Montado de puertas automáticas Como parte de la estancia y para mejorar el espacio en donde se colocó el prototipo, se diseñaron e instalaron puertas automáticas. Se realizó a escala un modelo del mecanismo de las puertas. En la aplicación circuit.io se diseñó un modelo del circuito usando arduino uno. Se programo un código para accionar los servomotores al contacto de una llave en el sensor RFID Se armaron y pegaron las piezas, brazos y circuitos al espacio. Finalmente se realizaron pruebas.


CONCLUSIONES

Durante la estancia fue importante tener un conocimiento previo relacionado a el tema, esto, para entender y tener un panorama general de lo que se buscaba hacer en este tiempo. A su vez, lo realizado en este programa fue interesante, ya que pusimos nuestras habilidades a prueba y adquirimos nuevas, de igual forma, fue una oportunidad para entender que no todos tenemos las mismas habilidades y que eso sigue siendo funcional en un equipo de trabajo porque todos pudimos hacer cosas distintas y complementar nuestro trabajo. El poder realizar el prototipo nos hizo reflexionar sobre la importancia que tienen las energías renovables y que, así como otros países invierten en ellas, México también lo debería de hacer. En esta ocasión pudimos poner nuestro granito de arena para que los alumnos de la Facultad de Ingeniería Química de la BUAP puedan seguir con la investigación y trabajo del prototipo antes mencionado. El seguimiento de resultados los estaremos obteniendo durante clases, gracias a que ya tenemos un prototipo funcional. Durante la estancia obtuvimos una experiencia práctica única, nos encargamos de cotizar cada uno de los materiales usados en diversos lados, tuvimos que investigar acerca de las ventajas y desventajas de cada material, así como su funcionamiento y cómo armarlo de manera correcta Finalmente, cabe destacar que con la culminación de este programa en su edición 2023, nos sentimos sumamente felices y agradecidos con las personas que nos apoyaron, con la estancia hemos adquirido nuevas habilidades, esperando poderlas aplicar en nuestra vida escolar y en nuestra vida personal, pudiendo reafirmar que la ingeniería no solo es aplicable en la industria y en los laboratorios de práctica.
Borjas Cordova Enrique, Instituto Tecnológico de Morelia
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

RASTREADOR SOLAR CON 2 GRADOS DE LIBERTAD.


RASTREADOR SOLAR CON 2 GRADOS DE LIBERTAD.

Borjas Cordova Enrique, Instituto Tecnológico de Morelia. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Es cierto que las energías convencionales, como los combustibles fósiles, han sido históricamente más confiables y han sido una tecnología establecida para la generación de energía en muchos países. Sin embargo, el uso de estas energías también conlleva el problema de producir altas cantidades de CO2 y otros gases de efecto invernadero, lo que contribuye al cambio climático y sus impactos negativos en el planeta. Por otro lado, las energías limpias, como la solar, presentan el desafío de tener una menor confiabilidad en comparación con las energías convencionales. Esto se debe a que la eficiencia de los paneles solares está directamente relacionada con la cantidad de horas de sol y la inclinación de los rayos solares recibidos. Sin embargo, se están buscando formas de mejorar esto y ampliar la producción de energía durante el día para hacer que la tecnología fotovoltaica sea más viable y eficiente. El objetivo es hacer que la energía solar sea más atractiva para futuros inversionistas y fomentar su adopción. A medida que se implementan nuevas tecnologías y se optimiza la eficiencia de los paneles solares, la confiabilidad y la viabilidad de la energía solar como una opción sostenible y de bajo impacto ambiental aumenta, lo que la convierte en una opción más atractiva para aquellos interesados en invertir en fuentes de energía limpia y renovable. A largo plazo, la transición hacia fuentes de energía más limpias es esencial para mitigar los efectos del cambio climático y proteger el medio ambiente.



METODOLOGÍA

Determinar la ubicación y orientación óptima: Se debe identificar la ubicación donde se instalará el sistema de seguimiento solar. Esto implica considerar la latitud y longitud del lugar para determinar la inclinación y orientación más adecuadas para maximizar la captura de energía solar durante el día. Selección de sensores y actuadores: Se deben elegir sensores precisos para detectar la posición del sol en tiempo real y actuadores que permitan el movimiento de los paneles solares en dos ejes: uno horizontal y otro vertical. Sistema de control: Se implementará un sistema de control que reciba la información de los sensores y actúe sobre los actuadores para mantener los paneles solares siempre orientados hacia el sol. Mecanismo de seguimiento: Se diseñará el mecanismo que permita el movimiento de los paneles solares de manera suave y precisa para seguir la trayectoria del sol a lo largo del día. Diseño e implementación del soporte en dos ejes: Estructura mecánica: Se construirá una estructura de madera MRF, resistente para soportar los paneles solares y permitir su movimiento en dos ejes. La estructura debe ser capaz de soportar las cargas y condiciones ambientales. Sistema de ejes: Se utilizarán ejes y rodamientos que permitan un movimiento suave y preciso de los paneles solares en ambos ejes. Sistema de seguridad: Se incorporarán mecanismos de seguridad para evitar daños por condiciones climáticas adversas o situaciones inesperadas.


CONCLUSIONES

siiiiiiiiiiiiiiiiiiiiiiiiiiiiiiii
Borquez Melendrez Marco Antonio, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

CONVERTIDOR BACK TO BACK DE 3 FASES A UNA FASE


CONVERTIDOR BACK TO BACK DE 3 FASES A UNA FASE

Borquez Melendrez Marco Antonio, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este estudio es buscar una solución para que cada vivienda pueda contar con su propio aerogenerador y autoabastecerse de energía eléctrica. Sin embargo, a día de hoy no es sencillo instalar aerogeneradores de tres fases en cada casa de forma individual, debido a que en México las casas cuentan con una sola fase en su conexión eléctrica. Por lo tanto, se plantea desarrollar un convertidor capaz de recibir las tres fases del aerogenerador y convertirlas a una sola fase, permitiendo la inyección de energía eléctrica a la casa de manera eficiente y segura.  



METODOLOGÍA

Revisión bibliográfica y estado del arte: Se realizó una investigación exhaustiva para recopilar información sobre la tecnología de aerogeneradores de tres fases, así como sobre los tipos de convertidores back-to-back utilizados para la conversión de energía.   Diseño del convertidor back-to-back: Se diseñará un convertidor back-to-back capaz de recibir las tres fases del aerogenerador y convertirlas en una sola fase para su conexión a la red eléctrica de la vivienda. Se investigarán y seleccionarán las topologías y componentes adecuados para el convertidor, buscando eficiencia y confiabilidad en la conversión de energía.  


CONCLUSIONES

Durante la estancia de verano, se tuvo la oportunidad de profundizar en los conocimientos teóricos relacionados con los aerogeneradores de energía de 3 fases y sus convertidores de señal. Estos dispositivos son fundamentales en la producción de energía eólica, aprovechando la fuerza del viento para generar electricidad de manera más sostenible y respetuosa con el medio ambiente.   Además de la parte teórica, se llevaron a cabo simulaciones para analizar el comportamiento de los aerogeneradores y los convertidores de señal. Estas simulaciones proporcionaron resultados positivos, lo que indica que las bases teóricas están siendo aplicadas de manera adecuada. Sin embargo, cabe destacar que los resultados obtenidos no alcanzaron las expectativas previstas en términos de perfección de la señal.   Dada la complejidad del trabajo y la naturaleza técnica del proyecto, es comprensible que aún esté en una fase de prueba. Los proyectos de ingeniería suelen requerir tiempo y ajustes para optimizar su funcionamiento y alcanzar los objetivos planteados. Es fundamental continuar trabajando en el proyecto, afinando los parámetros y perfeccionando los detalles para lograr el objetivo deseado.   El objetivo final es obtener una señal senoidal perfecta de una fase. Esto implica obtener una señal eléctrica que representa una onda sinusoidal pura, lo cual es crucial en aplicaciones eléctricas y electrónicas para garantizar un suministro de energía estable y eficiente. Al lograr este objetivo, se estaría dando un paso importante hacia el desarrollo de sistemas más eficientes de generación de energía eólica.  
Bravo Niño Crisdayan, Universidad Libre
Asesor: Mtro. Juan Carlos Jeronimo Niniz, Instituto Tecnológico Superior Purépecha

CLúSTER DE LA SALUD EN EL MUNICIPIO DE TULUá - VALLE DEL CAUCA


CLúSTER DE LA SALUD EN EL MUNICIPIO DE TULUá - VALLE DEL CAUCA

Bravo Niño Crisdayan, Universidad Libre. López Villarreal Camila, Universidad Libre. Asesor: Mtro. Juan Carlos Jeronimo Niniz, Instituto Tecnológico Superior Purépecha



PLANTEAMIENTO DEL PROBLEMA

El Valle del Cauca es un departamento altamente competitivo en el área de servicios de salud, es por esto que observamos la importancia de fomentar la sana y correcta competencia en toda la región en el que el Municipio de Tuluá juega un papel muy importante ya que al realizar la creación de redes empresariales puede convertirse en un gran referente de la región y potencializar su mercado.   La necesidad de un enfoque clúster en el sector salud en Tuluá se hace evidente al considerar la desigualdad en el acceso a los servicios de salud en Colombia y en la región del Valle del Cauca, se han identificado factores que impiden la conformación de una red clúster en la región, como la falta de articulación entre los diferentes actores del sector salud, la ausencia de estrategias de asociación y la falta de estructuras organizativas adecuadas. 



METODOLOGÍA

El tipo de investigación propuesto es una combinación de investigación experimental, descriptiva y mixta, que integra enfoques cuantitativos y cualitativos. Para la recolección de datos se utilizarán técnicas como revisión de fuentes documentales, sitios web especializados y fuentes secundarias como tesis de pregrado y estadísticas de la Cámara de Comercio de Cali y Tuluá, así como entrevistas semiestructuradas, encuestas, investigación acción participativa, talleres formativos, observación y visita de campo, y análisis de información documental.​​


CONCLUSIONES

Después de haber realizado el análisis panorámico del sector salud a nivel internacional, nacional, departamental y municipal, se identifica la importancia de la creación de estrategias de desarrollo para aportar a la innovación de las regiones con deficiencia en el desarrollo competitivo, a su vez mejorar los niveles económicos e identidad.  La conformación de iniciativas clúster, nos permite una iniciativa favorable para el desarrollo regional, para esto se realizó el análisis de las diferentes teorías existentes acerca de clúster, en el que se tomaron en cuenta una serie de variables que nos permiten identificar la viabilidad de proponer una estrategia clúster.  De acuerdo a los diferentes actores y docentes que se enfocan en el tema clúster, existen 7 variables importantes para la formación de los clúster estratégicos. Éstas variables son:  - Concentración geográfica  - Especialización y denominación común  - Autores  - Masa crítica  - Dinámica  - Encadenamientos  - Ciclo de vida  - Innovación.    Debido al poco tiempo para realizar el estudio y comprobar cada variable, en esta oportunidad se realizó la trazabilidad para comprobar la proximidad.  Sin embargo debido a el tiempo y dificultad para comprobar cada una de ellas es casi imposible desarrollar todas las variables. La variable proximidad se comprobó mediante las razones propuestas por Fregoso (2012), con resultado positivo. En el municipio de Tuluá - Valle, existe proximidad en las entidades dedicadas al sector salud. Es el primer indicador para estar de acuerdo en proponer una estrategia de clúster.  Realizando la comprobación efectiva de la variable de proximidad, se cumplen los objetivos de este trabajo: Identificar que en el municipio de Tuluá - Valle existe proximidad entre industrias del mueble.  .Con esto podemos concluir que si es factible la conformación de un clúster de la salud en el municipio.  El hecho de que haya una cantidad de empresas en una determinada área geográfica no significa que se pueda implementar una iniciativa clúster, si bien es cierto que esto hace que sean más competitivas, depende de muchos factores cómo: autores, masa crítica, dinámica, ciclo de vida, etc.  En la investigación realizada durante la estancia de investigación, se logra evidenciar que para que haya un éxito total entre las organizaciones se deben tener en cuenta principalmente 7 variables (factores), para que sean examinadas y así determinar si la propuesta es 100% confiable.  En la región que se realizó el estudio logramos evidenciar que existe proximidad entre las empresas, adicionalmente que son empresas innovadoras debido a que en el municipio el área de la salud es foco para las entidades gubernamentales, quienes apoyarían económicamente la creación del clúster propuesto (Clúster de la Salud), sin embargo, hasta que no esté puesta en marcha no podemos asegurar su éxito.  Por tal motivo se recomienda:  En el momento en el que podamos asegurar un tiempo prudente para la investigación, se pueden analizar más variables que permiten aproximar un resultado prospectivo para el éxito del proyecto, adicionalmente es importante que se pueda asegurar las entidades que podrían inyectar recursos económicos y en especie de investigación para que el clúster se sostenga en el tiempo y genere crecimiento económico de la región, siendo referente no sólo a nivel departamental, sino también a nivel nacional. 
Bravo Sánchez Cynthia Fabiola, Universidad de Guadalajara
Asesor: Dra. Laura María Reyes Méndez, Universidad Nacional Abierta y a Distancia

OBTENCIóN DE NANOCELULOSA DE LA MAZORCA DEL MAíZ COMO MATERIAL DE REFUERZO DE PELíCULAS BIODEGRADABLES FUNCIONALIZADAS CON óXIDO DE ZINC.


OBTENCIóN DE NANOCELULOSA DE LA MAZORCA DEL MAíZ COMO MATERIAL DE REFUERZO DE PELíCULAS BIODEGRADABLES FUNCIONALIZADAS CON óXIDO DE ZINC.

Bravo Sánchez Cynthia Fabiola, Universidad de Guadalajara. Asesor: Dra. Laura María Reyes Méndez, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

La conservación industrial de frutas y hortalizas supone un reto a nivel industrial, ya que cada una posee características propias y requiere de una metodología específica para su conservación para poder disponer de ellos fuera de su temporada, distribuirlos a diferentes mercados, reducir las pérdidas debido a su carácter altamente perecedero y enriquecer la dieta del consumidor. Una de las alternativas recientemente implementadas para alargar la vida de anaquel de las frutas es mediante el uso de biopelículas. Las cuales están compuestas por hidrocoloides, proteínas y lípidos donde cada material otorga propiedades específicas a estos recubrimientos. Los beneficios que las biopelículas le otorgan a las frutas cuando son aplicadas para alargar su vida de anaquel son; la reducción de la perdida de agua, la perdida de compuestos fenólicos y el retraso en la oxidación enzimática. Aunado a esto, permiten la adición de antioxidantes, antimicrobianos y materiales de refuerzo según se requiera, como lo es en este caso, el empleo de nanocelulosa y óxido de zinc como antimicrobiano.



METODOLOGÍA

Se prepararon biopeliculas por el método de Solvent Casting y recubrimientos empleando gelatina tipo B (2g/100g) y carboximetilcelulosa (1g/100g) como hidrocoloides, nanocelulosa (2g/100g) extraída del amero del maíz para reforzar la estructura, glicerol (1g/100g) como plastificante y óxido de zinc (ZnSO4) como agente antimicrobiano en tres distintas concentraciones 1mM, 5mM y 10mM. Se evaluó la actividad antimicrobiana de las biopelículas frente a S. aureus, E.coli, B. cereus, S. mutans y P. aeuroginosa; humedad, solubilidad y barrera a la luz ultravioleta. La formulación que presentó la mayor actividad antimicrobiana fue empleada para recubrir fresas almacenadas a temperatura ambiente y de refrigeración.


CONCLUSIONES

Las biopelículas solo presentaron actividad frente a la bacteria B. cereus, siendo mayor para la formulación (ZnSO4 (5mM)). La humedad y solubilidad de las biopelículas presentaron un leve aumento con la adición de ZnSO4, sin embargo las diferencias no representan un impacto a nivel tecnológico. Se observa baja barrera a la luz UV- Vis debido a la traslucidez que éstas presentan. Las fresas recubiertas con ZnSO4 (5mM) y acondicionadas en temperatura de refrigeración, pasados 11 días de almacenamiento presentan textura firme, no se evidencia crecimiento fúngico A los 4 días, las fresas que no tenían recubrimiento ya presentaban crecimiento fúngico. A lo largo de esta estancia se obtuvieron una gran cantidad de conocimientos tanto teóricos como prácticos referentes a la formulación de biopelículas para conservación de frutas. Se observa que los recubrimientos desarrollados son una alternativa potencialmente viable para la conservación de frutas, alargando su vida útil, debido a la actividad antimicrobiana que exhiben. Aún se está desarrollando análisis de la capacidad antiradicalaria de las biopelículas y finalizando el análisis de vida útil en fresas. Se plantea el desarrollo de nuevas biopelículas aumentando la concentración de ZnSO4 para poder aplicar en otros productos suceptibles a mayor crecimiento microbiano.
Briones Rios Ana Caridad, Universidad César Vallejo
Asesor: Mg. Laura Rendon Gaviria, Institución Universitaria Colegio Mayor de Antioquia

ESTRATEGIAS DE DISEñO ARQUITECTóNICO ADAPTABLES A LAS VARIACIONES DE TEMPERATURA POR EFECTO DEL CAMBIO CLIMáTICO EN COLOMBIA PARA EL PERIODO 2050-2100


ESTRATEGIAS DE DISEñO ARQUITECTóNICO ADAPTABLES A LAS VARIACIONES DE TEMPERATURA POR EFECTO DEL CAMBIO CLIMáTICO EN COLOMBIA PARA EL PERIODO 2050-2100

Briones Rios Ana Caridad, Universidad César Vallejo. Asesor: Mg. Laura Rendon Gaviria, Institución Universitaria Colegio Mayor de Antioquia



PLANTEAMIENTO DEL PROBLEMA

Actualmente, muchos aspectos de nuestra vida se ven afectados por el cambio climático, y las viviendas no son la excepción, puesto que muchas veces no se toma en cuenta el realizar un análisis que permita el confort térmico. Por ello, se plantea que en Colombia son necesarias la planificación de estrategias de diseño arquitectónico que permita que las viviendas sean adaptables a las variaciones de temperatura que se puedan dar por el cambio climático.



METODOLOGÍA

La investigación se desarrolla a partir de varias fases que permitirán recoger la información, analizarla y producir el material más adecuado para conseguir el objetivo principal. La estudiante del programa Delfín apoyará la realización de las siguientes actividades de la fase de Selección de datos: 1. Revisión bibliográfica: Incluye la búsqueda documental, textual y gráfica en bases de datos y repositorios sobre los efectos del cambio climático en la región, estrategias arquitectónicas adaptables a los diferentes climas. 2. Selección de tipologías arquitectónicas a analizar: Es conveniente para este estudio la agrupación de las formas arquitectónicas más recurrentes presentes en Colombia para hacer el análisis y la propuesta consecuente con las construcciones típicas. 3. Se analizará en la bibliografía y en la observación de edificaciones seleccionadas, cuáles son los dispositivos arquitectónicos o estrategias de control climático más utilizados en el contexto nacional.


CONCLUSIONES

Durante la estacia se determinaron los procesos de apoyo a realizar y se esperan obtener buenos resultados de la búsqueda y recopilación de información, para así proponer y poner a prueba las estrategias de diseño arquitectónico adecuadas.
Briseño Montes Juan Ernesto, Instituto Tecnológico de Tepic
Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo

INTRODUCCIóN A LA INVESTIGACIóN SOBRE LA UTILIZACIóN DE RDC EN TAPIA PISADA Y SU IMPACTO EN LAS PROPIEDADES MECáNICAS


INTRODUCCIóN A LA INVESTIGACIóN SOBRE LA UTILIZACIóN DE RDC EN TAPIA PISADA Y SU IMPACTO EN LAS PROPIEDADES MECáNICAS

Briseño Montes Juan Ernesto, Instituto Tecnológico de Tepic. Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La tapia pisada es una técnica de construcción tradicional, la cual se ha utilizado durante siglos en distintas partes del mundo. Esta investigación busca la implementación de la tapia pisada con agregados RDC (Residuos de Construcción y Demolición), ya que con esto lograríamos una construcción sostenible y respetuosa al medio ambiente, pues, permitiría aprovechar los desechos de la demolición de concreto y reducir la cantidad de materiales nuevos necesarios para la construcción, de esta forma buscaría reducir los residuos en las calles y vertederos obteniendo un impacto positivo en el medio ambiente.



METODOLOGÍA

Durante esta estancia de verano de investigación, abordaremos un tema de interés, por lo cual realizaremos una búsqueda de datos en plataformas académicas, para identificar las variables de consulta de las propiedades mecánicas que se abordan en los distintos artículos seleccionados, con la finalidad de crear una lista que nos servirá como base para la realización de clúster y distintos análisis que se llevaran a cabo. Una vez obtenidas las gráficas y clúster, observaremos las tendencias que esta investigación pueda tener, para finalmente respaldar nuestra conclusión en base a estas.


CONCLUSIONES

Durante este par de semanas, hemos observado distintas propiedades físicas y mecánicas de los materiales utilizados en la tapia pisada, añadiendo residuos de la construcción y demolición. Se han organizado estos datos en listas para la realización de clúster y gráficas posteriormente. Como resultado de nuestro estudio, podemos concluir que la tapia pisada ha sido ampliamente utilizada en diferentes países alrededor del mundo. Su uso promueve prácticas de adquisición sostenibles, permitiendo una gestión eficiente de los recursos naturales. En donde, hablando de rendimiento estructural, la combinación de tapia pisada y agregados RDC podría ofrecer una mayor resistencia y durabilidad a los muros construidos, y la cohesión proporcionada por los agregados de RDC permitiría una mayor estabilidad y resistencia al desgaste. Esto tiene un impacto significativo en la reducción de residuos de construcción y demolición, lo que contribuye a disminuir el impacto ambiental. A través de estudios y pruebas, podemos implementar nuevas técnicas de construcción que nos permitan aprovechar al máximo los recursos disponibles. Es importante tener en cuenta que la utilización de tapia pisada con agregados RDC requeriría un diseño cuidadoso y la implementación de técnicas de construcción adecuadas, con ello se busca que los muros sean adecuadamente compactados y tengan una correcta relación de sus componentes (agregados) En resumen, la utilización de tapia pisada con agregados de RDC podría ser una interesante propuesta para la construcción sostenible.
Broca Bermudez Jorge, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS


DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS

Becerril Murillo Patricia, Universidad Autónoma de Baja California. Broca Bermudez Jorge, Universidad de Ciencias y Artes de Chiapas. Hernández Reynoso Eduardo, Universidad Michoacana de San Nicolás de Hidalgo. Ramirez Fino Maria Fernanda, Instituto Politécnico Nacional. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El acceso al agua limpia y segura es un desafío que requiere soluciones sostenibles y adaptadas a necesidades específicas. Por lo tanto, la investigación se centró en identificar y evaluar tecnologías efectivas y viables que permitan el abastecimiento y saneamiento de agua con el objetivo de mejorar las condiciones de vida y el acceso a recursos hídricos adecuados para la población vulnerable.



METODOLOGÍA

La investigación se llevó a cabo mediante un enfoque multidisciplinario que combinó la teoría con la práctica. Se realizaron diferentes actividades, por ejemplo, la visita y recorrido a diferentes modelos físicos de presas a escala en el laboratorio de hidráulica del Instituto Mexicano de Tecnología del Agua, donde se explicó su diseño y funcionamiento para mejorar la gestión de recursos hídricos. Por otro lado, se empleó el modelo matemático bidimensional IBER para simular flujos de ríos y cauces naturales, predecir avenidas e inundaciones, aspecto crucial para una adecuada planificación hídrica. Se recibió capacitación en el uso de QGIS, un Sistema de Información Geográfica de código abierto, que facilitó el análisis de datos geoespaciales y la generación de mapas temático. Asimismo, se analizó el estado del arte de tecnologías aplicadas en diferentes estados de la República Mexicana como son los sistemas de captación de agua de lluvia, humedales construidos y sanitarios secos, las cuales requieren una visión integral, mejores prácticas y mejorar su diseño e implementación. Se realizaron cálculos y análisis detallados para implementarlos de acuerdo a las necesidades específicas. Se visitó una planta de tratamiento de aguas residuales del IMTA para observar los procesos involucrados en el tratamiento del agua. Se identificaron los componentes clave, desde el ingreso del agua residual (caja repartidora) hasta la disposición de la misma (tanque de contacto con cloro), comprendiendo su relevancia en la obtención de agua residual tratada que cumpla con los estándares que marca la normatividad vigente. En cuanto a la revisión bibliográfica, se estudiaron dos libros: "Aguas residuales: tratamiento por humedales artificiales" y "Small-Scale Constructed Wetland Treatment System", los cuales ofrecen conocimientos detallados sobre los principios científicos, tecnológicos y de diseño de los humedales artificiales o construidos, así como la evaluación de la viabilidad de estos sistemas a pequeña escala.


CONCLUSIONES

Mi estancia en el Instituto Mexicano de Tecnología del Agua en Jiutepec, Morelos, me brindó una experiencia enriquecedora mediante una combinación de enfoques teóricos y prácticos, permitiéndome adquirir conocimientos y habilidades fundamentales para contribuir al desarrollo e implementación de soluciones adecuadas para el abastecimiento y saneamiento del agua en comunidades rurales, indígenas y periurbanas marginadas.
Buenrostro Huerta Luis Javier, Instituto Tecnológico de Morelia
Asesor: Dr. Francisco Fernando Curiel Lopez, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN MECÁNICA Y ELECTROQUÍMICA DE ACERO AL CARBONO UNIDO MEDIANTE PROCESO SAW CON INDUCCIÓN ELECTROMAGNÉTICA


CARACTERIZACIÓN MECÁNICA Y ELECTROQUÍMICA DE ACERO AL CARBONO UNIDO MEDIANTE PROCESO SAW CON INDUCCIÓN ELECTROMAGNÉTICA

Buenrostro Huerta Luis Javier, Instituto Tecnológico de Morelia. Asesor: Dr. Francisco Fernando Curiel Lopez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las uniones de aceros al carbono mediante soldadura están presentes en muchas de las industrias, sus aplicaciones se diversifican junto a las diferentes áreas donde el acero se desempeña como un material altamente eficiente, sin embargo, durante el proceso de soldadura se desarrollan cambios en la microestructura del material base, sobre el cordón de soldadura y sus alrededores. Estas zonas se vuelven propensas a presentar diferentes tipos de defectos debido a los cambios en las propiedades del material, por lo que es conveniente hacer una caracterización completa de las afectaciones que tiene el proceso de soldadura en la zona del cordón. Durante el verano de investigación se analizaron los efectos mecánicos y electroquímicos de los campos magnéticos en la zona afectada térmicamente de diferentes tipos de aceros al carbono y se discuten las diferencias que presentan respecto a los componentes que no se les aplicó el campo magnético durante el proceso de unión.



METODOLOGÍA

Se caracterizaron probetas de las uniones realizadas en el acero 9840, de un acero de bajo contenido de carbono de uso comercial y un acero microaleado API 5L X52, con y sin la aplicación de campos magnéticos durante el proceso de unión por arco sumergido (SAW). La junta soldada fue seccionada en secciones de 9 mm de manera conveniente para analizar las diferentes zonas que se forman durante el proceso de unión, esto se realizó en una cortadora de banda convencional y posteriormente, se les colocó un cable que se fijó a los componentes durante el montaje en resina epóxica que facilitó su manejo. Una vez montados todos los componentes las probetas se desbastaron con papel de carburo de silicio de granulometría 120 hasta 800 para después verificar la continuidad de corriente en las probetas con el uso de un multímetro. Una vez que se verificó la continuidad de corriente en todas las probetas, se comenzó con las pruebas corrosivas que simularían el desempeño del material en un ambiente salino (3.5% de NaCl), es importante mencionar que, al trabajar con tres diferentes tipos de acero las condiciones en las que se realizaron las pruebas corrosivas cambian en los siguientes puntos: Densidad del material. Velocidad de barrido. Rangos de voltaje. Tiempo de permanencia en la solución salina. El primer ensayo corrosivo que se realizó fue el de Potencial de Circuito Abierto, donde el tiempo de permanencia varió de 900 a 4500 segundos. Posterior a este y con los resultados del ensayo anterior, se realizó la prueba Potenciodinámica con el fin de obtener los siguientes parámetros: Potencial de corrosión. Velocidad de corrosión. Potencial de picadura. Densidad de corriente de corrosión. Entre otros parámetros, que permiten conocer el comportamiento del material en ambientes específicos y así prever las fallas del material. Para el análisis de propiedades mecánicas, se realizaron pruebas de tensión en los tres diferentes aceros, las probetas fueron maquinadas según la norma ASTM E8, la prueba de tensión se llevó a cabo a una velocidad de 6 mm/min y con una precarga de 5 MPa, las pruebas se llevaron a cabo en un equipo MTS. Los resultados fueron procesados y analizados a través del software gráfico Origin 2018.


CONCLUSIONES

Durante el verano de investigación se obtuvieron resultados prácticos acerca del efecto de los campos magnéticos en el proceso de unión de aceros al carbono, se obtuvieron amplios conocimientos en la interpretación de datos y resultados de ensayos corrosivos, además del uso de diferentes equipos para la caracterización de los materiales. Este proyecto aún se encuentra en la fase de interpretación de resultados, por lo que no es posible mostrar todo lo obtenido, sin embargo, se obtuvieron datos que demuestran que la aplicación de los campos magnéticos pueden ser benéficos para algunos aceros al carbono al estabilizar ciertas fases del material y provocar cambios en sus propiedades tanto físicas como químicas.
Burgara Díaz Aram Yoav, Instituto Tecnológico de Tepic
Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana

MODELO DE GESTIóN DE PROYECTOS DE INNOVACIóN Y EMPRENDIMIENTO - GESTEMP


MODELO DE GESTIóN DE PROYECTOS DE INNOVACIóN Y EMPRENDIMIENTO - GESTEMP

Burgara Díaz Aram Yoav, Instituto Tecnológico de Tepic. Frutis Ramos María Fernanda, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

La Ruta del Emprendimiento Uniagustiniano (REU), está fundamentada en metodologías ágiles para la concreción, creación, desarrollo y testeo de iniciativas, fortalecida por un componente social. Gestión del Emprendimiento (GestEmp) e Innovación, está basado en metodologías ágiles, guiando al beneficiario en la estructuración del diseño y desarrollo de una idea de negocio o resolución de una necesidad específica. Dispone de 3 componentes principales para la gestión de emprendimiento e innovación, ofreciendo una metodología de aprendizaje mixta: Acompañamiento del talento humano multidisciplinario: Asesoramiento y estructuración de modelos de negocio orientando el desarrollo de cada beneficiario, construyendo un producto mínimo viable o incrementado el nivel de madurez de este. Material de consulta: Manual del Emprendedor, dirigido al beneficiario, y una guía metodológica para los asesores. Sistema de información web: Se lleva el registro, control, evidencia y avance del acompañamiento suministrado. Con esto, el beneficiario puede diseñar, evaluar, desarrollar y experimentar de manera autónoma.  Y recibir de manera presencial o virtual orientación por parte de un profesional dependiendo de la necesidad que esté presente, como: estructuración de un modelo de negocio, validación o plan de negocio.



METODOLOGÍA

Se elaboró un resumen ejecutivo donde se presento un informe final de lo que es una evaluación entorno para la creación: Modelo Gestión del Emprendimiento (GestEmp). Todo esto, tomando un enfoque especifico al ambito institucional; nivel nacional e internacional, especificamnete en México.  Se tiene como objetivo que la evaluación se realice tomando en cuenta varios aspectos, tales como competidores, posibles clientes, condiciones económicas y condiciones de mercado, basados en una valoración TRL, CRL y SRL, desarrollando una vigilancia tecnológica que para llevarse a cabo se elaboraron palabras clave, ecuaciones de búsqueda,  e identificación de patentes similares a la crecaión. Posteriormente se dio desarrollo a ideas - recomendaciones que pueden robustecer GestEmp.   


CONCLUSIONES

La crecaión se encuentra en un nivel de Madurez TRL de 4 a 6; porque se está trabajando en la tecnología validada en laboratorio y entorno relevante para ser demostrada en el entorno pertinente.   Basados en que el manejo del software se trata de navegación intuitiva, y atendiendo las necesidades de cumplir los objetivos esperados, mejoras para el sistema en las que se deben trabajar para robustecer y culminar con la etapa final de GestEmp, así mismo elevando su nivel de madurez. Se desarrolla una recomendación que pueda mejorar las 3 partes que conforman el modelo:  1. Implementar un apartado en la plataforma en el que el usuario pueda evaluar su desempeño así como el del tutor que tiene asignado.  De igual manera una caja de comentarios, para que el emprendedor de a conocer cómo puede mejorar su experiencia al navegar. 2. Creación de un algoritmo que arroje una pregunta antes de cerrar sesión, donde se cuestione cómo es que consideró algún apartado aleatorio de la plataforma para recopilar respuestas y poder identificar en lo que se podría trabajar los UX/UI para la siguiente versión de GestEmp y que con esto se pueda mejorar el SRL y TRL. 3. Considerando que es de importancia la opinión de los usuarios en una plataforma virtual se ha destacado por varias razones, un punto clave son los comentarios y opiniones de los usuarios que permiten a los desarrolladores identificar áreas de mejora y optimizar la plataforma para satisfacer las necesidades de los usuarios. Esto conduce a una mejor experiencia del usuario, lo que puede aumentar la retención de usuarios y la satisfacción general. 
Burgos Betancourt Sebastian David, Fundación Universidad de América
Asesor: Dr. Alain Picos Picos, Instituto Politécnico Nacional

TRATAMIENTO DE AGUAS CON NANOMATERIALES Y PROCESOS DE OXIDACIóN AVANZADA


TRATAMIENTO DE AGUAS CON NANOMATERIALES Y PROCESOS DE OXIDACIóN AVANZADA

Burgos Betancourt Sebastian David, Fundación Universidad de América. Asesor: Dr. Alain Picos Picos, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los contaminantes emergentes se pueden considerar como productos químicos conocidos o de nueva creación, estos contaminantes tienen distinto origen y naturaleza química, donde su presencia a pasado desapercibida, causando problemas ambientales y para la salud. Algunas de las principales fuentes de estos contaminantes son los fármacos, pesticidas, productos de cuidado personal, plastificantes, drogas y entre otros.  Los métodos tradicionales del tratamiento de aguas no estan condicionados para eliminar estos contaminantes, es por esto que se ha despertado un especial interés en la busqueda de alternativas que permitan realizar una completa eliminación de los mismos, ya que estos no necesitan de una alta concentración o exposición con el ambiente para generar grandes efectos negativos, sobre el medio ambiente y a su vez sobre la salud humana. Esta es la razón de que se inicie a llevar a cabo el desarrollo de estos nuevas técnicas de tratamiento basadas en nuevas tecnologías como los nanomateriales y el uso de métodos de oxidación avanzada como la fotocatálisis heterogénea, que se hacen clave dentro de la evolución en la ciencia del tratamiento de aguas que es una actividad de vital importancia para la población en general, mostrandose a su vez como alternativas preventivas a problemas que se puedan generar con el pasar del tiempo.



METODOLOGÍA

Se realiza una búsqueda y revisión bibliográfica enfocada en los nuevos métodos de tratamiento de aguas, haciendo uso de nanomateriales y procesos de oxidación avanzada para la remediación de aguas, centrando la investigación en nanomateriales a base de óxido de Zinc (ZnO), oxido de manganeso (MnO2), oxido de estaño (SnO2), grafeno y otros encontrados a lo largo de la investigación. Manteniendo una comunicación constante con el asesor a fin de realizar una correcta interpretación de la información recolectada, tratando de identificar y resaltar aspectos en común entre todas las investigaciones realizadas por diferentes académicos en los últimos 5 años. Siendo las interacciones entre los materiales uno de los puntos clave de la investigación y los diferentes contaminantes emergentes, que como se menciona en el planteamiento del problema son la causa de buscar nuevos métodos de tratamiento de aguas residuales, enfocándose en la capacidad de los nanomateriales para eliminar tales contaminantes y como su uso afecta en su degradación o cambios morfológicos, etc. Se busca obtener un manuscrito de tipo científico en el cual se realice la revisión bibliográfica de la información que se recolecta a lo largo de las siete semanas, complementada con investigación de los diferentes conceptos estudiados. Este manuscrito en su constitución recolectara los aspectos desde una perspectiva más general hasta un nivel más específico.


CONCLUSIONES

Durante la estancia en el verano se pudo evidenciar como estas nuevas tecnologías o metodologías avanzadas de tratamiento abren una nueva puerta en la exploración de modelos de tratamiento adaptados a las necesidades actuales y venideras de acuerdo a las demandas en la economía y en el consumismo creciente día a día, para la cual realizar este tipo de revisiones bibliográficas y trabajar de acuerdo a muchos de los aspectos los cuales se exploran en las mismas resulta de gran utilidad a fin de poder ver diferentes puntos de vista, problemáticas específicas de cada región y permitir de igual manera tener una visión más aterrizada de los que es útil e interesante estudiar, así como dar una idea de que trabajan académicos a lo largo del mundo, que aunque trabajen de manera muy particular están en búsqueda de estrategias para mejorar las problemáticas descritas. Donde también este tipo de documentos llega a ser un puente de interacción o exposición de diferentes conocimientos para las personas del común, donde se pueden involucrar de manera más simple con nuevos conceptos, así como a personas ligadas a este tipo de conocimientos para las cuales puede resultar como información útil en diferentes aspectos.
Burgueño Estrada Marco Antonio, Universidad de Sonora
Asesor: Dr. Miguel Antonio Cruz Carrillo, Universidad Autónoma de Sinaloa

REFORZAMIENTO DE MORTEROS Y PASTAS DE CEMENTO CON NANOGRAFENO Y ADITIVOS POLIMERICOS


REFORZAMIENTO DE MORTEROS Y PASTAS DE CEMENTO CON NANOGRAFENO Y ADITIVOS POLIMERICOS

Burgueño Estrada Marco Antonio, Universidad de Sonora. Asesor: Dr. Miguel Antonio Cruz Carrillo, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este trabajo fue optimizar y encontrar las mejores condiciones para adicionar componentes de reforzamiento tales como el óxido de grafeno (OG), también conocido como nanografeno, así como policarboxilato (PC) y copolímeros (CC) en bajas concentraciones, con la idea de mejorar los materiales de construcción, tales como pastas y morteros, que sean amigables con el ambiente, resistentes y duraderos. Tanto en morteros como en pastas, logramos incrementar la resistencia a la compresión de cubos de 2, al incorporar bajas proporciones de OG, CC y así como un sistema que consistía en una relación: 0.5: 1 : 2 de OG, CC y PC, debido a que en nuestro grupo de trabajo hemos encontrado que dichos componentes funcionan para reforzar la microestructura y con ello la resistencia de los materiales. Este proyecto de investigación realizó aportes al proyecto Obtención de concretos resistentes y sostenibles utilizando aditivos orgánicos. PRO_A8_056, de la Universidad Autónoma de Sinaloa.



METODOLOGÍA

Se prepararon muestras control (solo cemento y mortero) y sistemas donde se agregaron los componentes de reforzamiento por separado OG, CC; y OG y CC en conjunto, asimismo se diseñó un sistema que incluía en una relación: 0.5 : 1 : 2 de OG, CC y PC. Las muestras se elaboraron en base a la norma NMX-C-085-ONNCCE-2015, donde una vez preparadas, se pasaron a moldes de 2 o 50 mm, se vibró y compactó utilizando un pison, a las 24h los cubos se llevaron a curado a 7, 14 y 28 días, realizamos este procedimiento siguiendo las norma ASTM C-109. Luego de obtenerse las muestras se evaluó la resistencia a la compresión tanto de pasta como de mortero a través del tiempo de madurez de los especímenes a 7, 14 y 28 días de curado.


CONCLUSIONES

-  Observamos que el uso de OG y CC en conjunto logran incrementar la resistencia a la compresión de las muestras de manera relevante a los 28 días. -  El OG de grafeno por sí solo funcionó mejor con una baja relación agua cemento y en la proporción más baja del 0.015%. -  Usamos el CC, debido a que en nuestro grupo de trabajo hemos encontrado incremento de la resistencia a la compresión en las de 140% a los 28 días. -  Nuestros mejores resultados los obtuvimos usando el sistema 0.5 : 1 : 2 de OG, CC y PC, los tres componentes trabajaron en conjunto de manera eficiente, aunado a esto, por las características del policarboxilato, tuvimos que bajar la proporción de agua, y logramos incrementar la resistencia a la compresión alrededor del 80% a los 7 días, y 86% a los 14 días.
Bustamante Ramos Valeria Anahí, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa

LOGíSTICA VERDE EN EL GIRO TRANSPORTISTA DE CIUDAD JUáREZ CHIHUAHUA.


LOGíSTICA VERDE EN EL GIRO TRANSPORTISTA DE CIUDAD JUáREZ CHIHUAHUA.

Bustamante Ramos Valeria Anahí, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema Se ha planteado que la problemática de estudio en este tema ha sido centrada en la identificación de las diferentes prácticas en la logística verde que debe ser llevada acabo en las empresas y el tipo de competencias requeridas para que el personal realice sus prácticas correctamente con el conocimiento previo acerca del tema.



METODOLOGÍA

El objetivo ha sido centrado en analizar 25 marcos teóricos de artículos científicos de alto impacto, con alcance internacional, nacional y regional los cuales traten sobre las competencias laborales y sus prácticas con la logística verde. Como segunda parte se diseñó un instrumento tipo cuestionario el cual permita conocer las prácticas de la logística verde del sector transportista de distribución de mercancías y cargas pesadas. Materiales y métodos Se realizó una investigación documental y de campo, la investigación documental se desarrolló analizando artículos científicos en los cuales el tema principal fuese logística verde, en dichos artículos se buscaba las estrategias que han sido implementadas para la sustentabilidad del medio ambiente en combinación con cualquier tipo de industria. Se analizaron bases de datos digitales como scielo, dialnet, google académico. Las palabras de búsqueda: logística verde, las buenas prácticas de logística verde y la importancia que una empresa le da al medio ambiente con relación a la logística. Como siguiente se implementó el cuestionario a pequeña escala en el giro transportista de Ciudad Juárez Chihuahua. Se siguió un muestreo intencional ya que se dependió de la respuesta positiva de los encargados de cada área.


CONCLUSIONES

Resultados y conclusiones Con base a la matriz de datos de revisión documental se logró colocar como primera parte las principales prácticas de la logística verde encontradas que han sido implementadas. Algunas de las estrategias que fueron implementadas por su parte han sido el monitoreo de actividades logísticas en la reducción de huella de carbono, implementar áreas de reciclaje y fomentar las emisiones contaminantes del aire, suelo. Así como la acción de acciones sostenibles, una de ellas es la comunicación entre las áreas de compras y proveedores e inspecciones en los almacenes. Con el objetivo que las empresas creen conciencia en sus empleados y obtengan una actitud de responsabilidad en sus acciones dentro de la empresa. La implantación de un modelo que permita la eficiencia de los procesos, obteniendo Reducción en las rutas de transporte y reducción del Co2. En resultados se logró la implementación real del instrumento donde se logra saber lo que el personal conoce, lo que el personal es capaz de realizar y la manera en que decide realizarlo. Como parte final se logró identificar el conocimiento que un empleado tiene acerca de un tema de importancia, así como el de Logística verde, las practicas que una empresa hace para ser amigable con el medio ambiente y la importancia del cuidado de él. En el mundo real se debe tener conciencia del daño que los seres humanos le ocasionamos al practicar malos hábitos desde nuestro hogar hasta nuestra área de trabajo.
Bustamante Santos Kevin Ricardo, Instituto Tecnológico de Chilpancingo
Asesor: Dra. Mercedes Hernández de la Cruz, Instituto Tecnológico de Chilpancingo

INDICACIÓN DE MOVIMIENTOS CON REALIDAD AUMENTADA.


INDICACIÓN DE MOVIMIENTOS CON REALIDAD AUMENTADA.

Bustamante Santos Kevin Ricardo, Instituto Tecnológico de Chilpancingo. Asesor: Dra. Mercedes Hernández de la Cruz, Instituto Tecnológico de Chilpancingo



PLANTEAMIENTO DEL PROBLEMA

A través de los años, se han desarrollado tecnologías de Realidad Aumentada (AR) que permiten superponer información virtual generada por computadora en el entorno físico percibido por el usuario. Esta combinación de elementos del mundo real y del mundo virtual crea una experiencia inmersiva que ha llevado a la realidad aumentada a convertirse en una tecnología cada vez más común en nuestra vida cotidiana. A través de los años, se han desarrollado diversos softwares que hacen uso de la Realidad Aumentada (AR) en diferentes ámbitos, desde aplicaciones de entretenimiento y videojuegos hasta aplicaciones en la industria, la medicina y la educación. Ejemplos importantes incluyen aplicaciones de entretenimiento como Pokemon Go, que permiten a los usuarios interactuar con personajes virtuales en el mundo real, o filtros que populares redes sociales utilizan. Se planteó, por medio de Realidad Aumentada crear un personaje 3D que indique instrucciones de movmientos al usuario, proporcionando una experiencia interactiva entre el usuario y el modelo 3D.



METODOLOGÍA

Se inició una investigación acerca de la realidad aumentada y sus distintas aplicaciones y métodos de implementación disponibles. Durante esta investigación, se analizaron los elementos que intervienen en el uso de la realidad aumentada, así como su historia, tipos, sus características y tecnologías para su desarrollo. Tras obtener la información necesaria, se seleccionó una tecnología de realidad aumentada para el desarrollo del proyecto. Entre las opciones consideradas se encontraban Unity con plugins como Vuforia, AR Foundation, ARCore y librerías JavaScript, entre otros. Finalmente, se optó por utilizar las librerías JavaScript, específicamente Ar.js y A-Frame.js, debido a la interesante combinación que ofrecían con la programación en JavaScript. Luego, se procedió a preparar el entorno y a instalar un servidor local para la creación del proyecto. El desarrollo del proyecto siguió el siguiente orden: Carga de un modelo 3D mediante un marcador: Se logró mostrar un cubo al detectar una imagen específica. Preparación del personaje virtual: Se descargó un modelo 3D y sus animaciones utilizando Mixamo. Carga del personaje virtual mediante un marcador: Se implementó la carga del personaje 3D sin animaciones al escanear la imagen. Carga del modelo 3D con animaciones: Se consiguió cargar el personaje 3D con una animación específica al escanear la imagen. Carga del modelo 3D con animaciones aleatorias: Mediante JavaScript, se logró que el personaje 3D mostrara animaciones aleatorias cada vez que se detectaba el marcador. Implementar sistema de decisiones: Después de que el personaje 3D realizaba su animación, se esperaba que el usuario seleccionara el movimiento indicado por el modelo, y se le proporcionaba una indicación si seleccionaba correctamente.


CONCLUSIONES

Durante mi estancia en el verano delfín, se logró un acercamiento a tecnologías interesantes como la realidad aumentada, áreas que no había tenido oportunidad de explorar previamente. En este período, pude expandir los conocimientos teóricos que poseía acerca de esta área y ponerlos en práctica. Fue interesante investigar acerca del tema y conocer más sobre las aplicaciones de estas tecnologías. Además, se logró implementar la carga de un personaje 3D con animaciones y se pudo hacer que siguiera una serie de acciones mediante programación en JavaScript. No obstante, a pesar de tener como objetivo inicial la detección de movimientos del usuario una vez terminada la animación del personaje 3D, esta funcionalidad no pudo ser implementada debido a problemas de rendimiento en el dispositivo utilizado para el desarrollo del proyecto. Mi experiencia en el verano delfín resultó enriquecedora, permitiendo un acercamiento valioso al fascinante mundo de la realidad aumentada y expandiendo las habilidades y conocimientos en este campo tecnológico emergente. Aunque no se pudo cumplir completamente con todos los objetivos, el proyecto representó un paso importante en mi desarrollo profesional y abrió nuevas posibilidades para futuras exploraciones en este emocionante ámbito.
Caballero García María Fernanda, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. José Villa Ramirez, Universidad Tecnológica De Bolívar

CONTROL AUTOMáTICO BASADO EN LA INTELIGENCIA ARTIFICIAL


CONTROL AUTOMáTICO BASADO EN LA INTELIGENCIA ARTIFICIAL

Caballero García María Fernanda, Tecnológico de Estudios Superiores de Valle de Bravo. Jaramillo Benitez Sahian Jaqueline, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. José Villa Ramirez, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

 En el entorno empresarial competitivo actual, el análisis de datos se ha convertido en un componente esencial para tomar decisiones informadas. Las empresas recolectan grandes volúmenes de datos de diversas fuentes que necesitan ser analizados y comprendidos para extraer información valiosa. Sin embargo, analizar y presentar estos datos de manera coherente y útil es un desafío significativo. Una empresa que vende electrodomésticos cuenta con múltiples fuentes de datos, lo cual se requiere visualizar mejor dicha información con ayuda del software, ya que la empresa carece de una visión consolidada de estos datos, lo que dificulta el análisis y la generación de informes precisos. Las dificultades clave incluyen: ● La consolidación de datos de múltiples fuentes y formatos. ● La necesidad de análisis en tiempo real para tomar decisiones basadas en datos. ● La falta de informes personalizables y paneles interactivos para diferentes departamentos. Por lo tanto, el problema se centra en cómo la empresa puede utilizar Power BI para consolidar estos datos dispares en un solo lugar y producir análisis útiles y paneles de control personalizados para informar la toma de decisiones.



METODOLOGÍA

Se trabajó con un software llamado Power BI, una herramienta de análisis de datos de Microsoft, para superar estos desafíos. Se utiliza para convertir las materias primas de datos en información significativa mediante el uso de paneles interactivos y visualizaciones. En la cual se cargaron 14 bases de datos, se ejecutó proceso ETL, modelados de datos, cálculos y medidas donde se estructuraron columnas calculadas y medidas correctamente estructuradas, donde se llevó a cabo la composición visual del reporte con la creación de 2 páginas como reporte, así como una composición visual en donde de una empresa y de las cuales se pudo obtener: Monto total de ventas, cantidad de unidades vendidas, devoluciones, ganancia total, así como el comportamiento mensual de las ventas, en un periódo de 3 años (2007, 2008, 2009) y el comportamiento de ventas en tiendas físicas y tiendas en línea. Esto con el fin de establecer un posterior análisis de datos y mejorar la toma de decisiones en la organización.


CONCLUSIONES

El uso de Power BI en este proyecto permitió modelar, manipular y analizar con eficiencia los datos empresariales. Con la ayuda de técnicas de extracción, transformación y carga (ETL), se logró condensar y estructurar 14 bases de datos, proporcionando una representación gráfica y fácil de interpretar del rendimiento comercial de la empresa a lo largo de un período de tres años. Este tipo de información es fundamental para la toma de decisiones estratégicas en la empresa, pues permite identificar tendencias, oportunidades y áreas de mejora. Este enfoque permitirá consolidar y analizar sus datos utilizando Power BI, proporcionando así una base sólida para la toma de decisiones basada en datos. 
Cabello Valencia Kevin Jesús, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Andrea Fernanda Burbano Bustos, Corporación Universitaria del Caribe

EL USO DE PROCESAMIENTO DE IMáGENES SATELITALES PARA EL ESTUDIO DE CAMBIOS EN LOS HUMEDALES COSTEROS


EL USO DE PROCESAMIENTO DE IMáGENES SATELITALES PARA EL ESTUDIO DE CAMBIOS EN LOS HUMEDALES COSTEROS

Cabello Valencia Kevin Jesús, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Andrea Fernanda Burbano Bustos, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

Los humedales son uno de los principales ecosistemas a nivel global, dan hogar a un enorme número de especies en relación con su tamaño, y tienen un papel fundamental en el cambio climático y sus efectos.  Estos ecosistemas tienen contacto con el agua de origen continental. Por tanto, tienen incidencia en los flujos de agua subterránea, que con frecuencia son áreas de recarga o descarga de acuíferos. En los últimos años se ha visto un descenso en el área que abarcan estos ecosistemas como grandes contribuyentes del medio ambiente. Algunas de las causas se originan en la cercanía de la población humana a su alrededor, así mismo, se ha observado la incidencia de las industrias que conectan de alguna manera sus desechos con estos espacios.  Además, los cambios climáticos a nivel global, entre otros. El uso de las tecnologías para análisis de datos, hace posible medir este suceso, acompañado del procesamiento de imágenes satelitales e inteligencia artificial, herramientas que facilitan hacer una predicción de los cambios que se generan por incidencia de los diferentes factores en un lapso de tiempo. Se pretende revisar estudios realizados con el fin de obtener y suministrar datos que puedan ser apoyo para la toma de decisiones en favor de un nuevo estudio a realizarse en la región costera al norte de Colombia. Por tanto, el objetivo de este estudio consiste en buscar información desarrollada por otros autores sobre este tema.



METODOLOGÍA

Se realizó una revisión de la producción científica asociada al tema de imágenes satelitales; la búsqueda de los artículos se realizó en  Scopus (Elsevier) que actualmente agrupa 39.647 revistas indexadas, durante el periodo comprendido entre enero de 2017 y julio de 2023,  utilizando palabras clave con diferentes combinaciones de operadores que conforman la ecuación de búsqueda; ( "coastal wetlands" OR "mangroves" ) AND ( "satellite image processing" OR "artificial intelligence" ) AND "internet of things" AND PUBYEAR > 2016 AND PUBYEAR < 2024; ( "coastal wetlands" OR "mangroves" ) AND ( "satellite image processing" OR "artificial intelligence" ) OR "internet of things" AND PUBYEAR > 2016 AND PUBYEAR < 2024; ( "coastal wetlands" OR "mangroves" ) AND ( "satellite image processing" OR "artificial intelligence" OR "internet of things" OR "sensoring" ) AND PUBYEAR > 2016 AND PUBYEAR < 2024 AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ); "satellite image processing"  AND  "artificial intelligence"  OR  "internet of things"  AND  PUBYEAR  >  2016  AND  PUBYEAR  <  2024 Las referencias obtenidas por la búsqueda mencionada anteriormente fueron exportadas de Scopus, incluyendo contenido como: autor, título, año, DOI, fuente y referencias, que luego se integraron en una red. Obteniendo como resultado un total de 258 documentos publicados desde el año 2017 hasta la fecha actual. Posterior a la descarga de información, se procedió a la importación de estos datos hacia las herramientas Vosviewer y Bibliometrix, que nos permitieron realizar gráficas, tablas y mapas bibliométricos con la finalidad de visualizar la información más relevante a simple vista. Una vez expuestos los datos, se procedió a realizar un mapeo científico, agrupando y enlazando autores, países, años de publicación y áreas de investigación, buscando la coautoría y la relevancia de los trabajos que se realizan en distintas partes del mundo. De este mapeo, lo más relevante es el indicador que hace referencia al número de veces que los artículos de la red han citado a uno en particular, y el indicador que hace referencia al número de veces que un artículo en particular cita a otros de la red, también se puede considerar el número de enlaces que se desprenden de éste (Wallis, 2007).


CONCLUSIONES

Como resultado de la investigación, se obtiene que India realizó 58 publicaciones, posicionándose en la delantera, seguido de China con 45 y no menos importante, Estados Unidos con 22 publicaciones, también se visualiza que los dos años de pandemia fueron los más productivos de nuestro rango temporal de investigación. China fue el país que más categorías tuvo en esta subárea de investigación, haciendo publicaciones con 12 países del mundo. El autor que más trabajos desarrolló fue Lukin, V., sumando 6 publicaciones a su histórico en estos seis años. Seguido de Bhandari, A.K., quien sumó 4, fue el autor con más citaciones totales en sus 4 publicaciones. Rescatado el trabajo de la Señora Samabia Tehsin en su publicación titulada Satellite Image Categorization Using Scalable Deep Learning, se concluye que la arquitectura EfficientNet B7, generando una exactitud de 0.996  y una precisión de 0.997, es la más eficiente y adecuada para realizar reconocimiento de imágenes satelitales con el uso de inteligencia artificial.
Cabrera Alonso José Luis, Instituto Tecnológico de Iguala
Asesor: Dra. Norma Rodríguez Bucio, Instituto Tecnológico de Iguala

DISEñO Y DESARROLLO DE EQUIPOS PARA MOVILIDAD DE PERSONAS INCLUSIVAS, O CON PROBLEMAS FíSICOS POR ENFERMEDAD O ACCIDENTES


DISEñO Y DESARROLLO DE EQUIPOS PARA MOVILIDAD DE PERSONAS INCLUSIVAS, O CON PROBLEMAS FíSICOS POR ENFERMEDAD O ACCIDENTES

Cabrera Alonso José Luis, Instituto Tecnológico de Iguala. Asesor: Dra. Norma Rodríguez Bucio, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

En muchas escuelas o en ciudades se puede observar que hay muchas personas las cuales sufren de alguna discapacidad y además algunas de esas personas pueden estar bajos de recursos y no tienen lo necesario para poder comprar ya sea desde una silla de ruedas o una prótesis para que ellos puedan estar cómodos. Es por ello que en este trabajo de investigación nos enfocaremos en el diseño y desarrollo de equipos para movilidad de personas con problemas físicos por enfermedad o accidentes.



METODOLOGÍA

Se realizo una investigación de campo para poder identificar a nuestro cliente al cual se le ofrecerá a nuestro producto y cuando se localizó a nuestro cliente lo que hicimos a continuación fue realizar la recolección de nuestros materiales que íbamos a utilizar dichos materiales lo pudimos en las instalaciones del Tecnológico Nacional de México campus Iguala dichos materiales ya están dados de baja de la institución y lo utilizar para poder crear nuestro ´producto. Una vez que habíamos conseguido nuestros materiales para fabricar nuestro producto, utilizamos técnicas de corte y de soldar para poder darle forma a nuestro producto. Con la técnica de corte lo que hizo fue desarmar o darles la medida deseada a los materiales que habíamos obtenido y utilizamos la técnica de soldar para poder unir las piezas que se obtuvieron luego de que utilizamos la técnica de corte.


CONCLUSIONES

Pensamos ayudar a personas con problemas de movilidad, se ayudo a una persona y esperamos ayudar a mas con este proyecto, cuando se de a conocer, o se fabriquen mas. Para que esto sea una de las opciones que tendrán las personas discapacitadas puedan seleccionar.
Cabrera Hernandez Robinson Ian, Universidad de Guadalajara
Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla

HACKING éTICO: HERRAMIENTAS EN LA IDENTIFICACIóN DE VULNERABILIDADES


HACKING éTICO: HERRAMIENTAS EN LA IDENTIFICACIóN DE VULNERABILIDADES

Cabrera Hernandez Robinson Ian, Universidad de Guadalajara. Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Dadas las diferentes amenazas que podemos tener en el mundo digital, existe un término llamado ciberseguridad, el cual hace referencia a los métodos, tecnologías y procesos con los cuales logramos prevenir, encontrar y recuperarse de los daños que podemos sufrir referentes a la integridad, confidencialidad y la disponibilidad de la información que tenemos de manera digital. Actualmente, existen diferentes ramas de la ciberseguridad las cuales abarcan distintos aspectos, teniendo así diferentes enfoques. Algunas de las ramas que existen hoy en día tenemos el hacking ético, el cómputo forense, las auditorías de seguridad digital, el peritaje judicial entre otras. Enfocándonos un poco más al hacking ético tenemos que este término hace referencia a un grupo de trabajo el cual es experto en seguridad de los sistemas de información que están dedicados a realizar pruebas de penetración en busca de vulnerabilidades o alguna falla en los sistemas instalados. Dado que existe una gran cantidad de vulnerabilidades, que a pesar de ser conocidas pueden llegar a pasar desapercibidas, existen diferentes herramientas que nos pueden ayudar en la detección de vulnerabilidades, y con esta información podremos solucionar estos problemas.  Algo importante a tener en cuenta es que, aunque una herramienta no encuentre alguna vulnerabilidad no significa que no exista, pero el tener una herramienta eficaz en la detección de vulnerabilidades nos puede ayudar a reducir en gran cantidad los problemas de seguridad que pueden surgir. De entre las herramientas de detección de vulnerabilidades más conocidas tenemos: Nessus Vulnerability Scanner Acunetix Nikto John the Ripper Por lo tanto, tenemos que el objetivo que tiene este proyecto es verificar estas herramientas para saber si se pueden complementar entre sí o si estas herramientas de manera conjunta nos pueden ayudar a proteger de una mejor manera nuestro sistema.



METODOLOGÍA

A continuación, se llevarán a cabo las pruebas correspondientes de las herramientas seleccionadas. Comenzando con la herramienta Nessus, con la cual utilizaremos la versión más actual hasta el momento que es la 10.5.4. Para esta práctica se decidió usar su versión llamada Essentials que es su versión gratuita, que, aunque existen versiones de paga, se decidió utilizar dicha versión para comprobar su efectividad. El primer paso para instalar la herramienta en el sistema operativo que se usó, que en este caso fue Alma Linux, fue la instalación de las Development tools. Luego instalamos epel-release. Seguido de esto, instalaremos el paquete de Nessus de su página oficial en la cual tendremos diferentes tipos de descarga pero que en este caso fue mediante curl. La página de la que se descargó fue la siguiente: https://www.tenable.com/downloads/Nessus De entre las configuraciones hechas para que funcionara correctamente la herramienta fue darle permisos al firewall para que funcionara correctamente por el puerto 8834. Siguiendo con la herramienta Nikto, tenemos que al igual que la herramienta anterior también necesitaremos descargar epel-release, posteriormente procederemos a instalar Perl. Luego necesitaremos clonar el repositorio oficial de la herramienta Nikto, por lo que necesitaremos instalar git en caso de no tenerlo. El enlace al repositorio es el siguiente: https://github.com/sullo/nikto Una vez clonado el repositorio quedaría instalado y listo para usarse. En este caso se está utilizando la versión 2.5 Por último, tenemos la herramienta llamada John the Ripper, la cual utilizaremos su versión 1.9.0. Comenzaremos instalando la herramienta de epel-release y posteriormente instalaremos snapd. Una vez hecho esto gestionaremos el servicio de snapd.socket para que esté habilitado. Posteriormente será necesario crear un enlace simbólico de la ruta /var/lib/snapd/snap a /snap. Seguido de esto procederemos a reiniciar el equipo. Cuando el equipo vuelva a iniciarse, inicializaremos el servicio de snapd. Ahora que está todo listo, procederemos a instalar la herramienta de John the Ripper mediante snap. Una vez esté instalado podemos teclear el comando john y comprobar que se haya instalado correctamente. También podemos descargar la herramienta de su página oficial: https://www.openwall.com/john/


CONCLUSIONES

De manera general tenemos la herramienta Nessus fue muy efectiva encontrando vulnerabilidades ya que encontró un buen número de vulnerabilidades al escanear el servidor. En cuanto a la herramienta Nikto también logró encontrar vulnerabilidades web, aunque sin duda Nessus sería más optimo debido a que muestra más información de la vulnerabilidad además de la solución a la misma. Otro factor importante a tener en cuenta es que Nessus escanea el servidor completo y Nikto solo escanea los servidores web. Por último, la herramienta John the Ripper, demostró encontrar contraseñas, pero utilizando las recomendaciones sobre las contraseñas seguras, utilizando mayúsculas, minúsculas, números y caracteres especiales se logro que no se vulnerara esta contraseña. Por lo tanto, podemos concluir que la utilización de Nessus con John the Ripper podría ser una buena opción en la búsqueda de vulnerabilidades, una analizando los servidores y la otra analizando la robustez de las contraseñas de los usuarios.
Cabrera Requenes Joshua Salvador, Universidad Autónoma de Zacatecas
Asesor: Dr. Juan Manuel García González, Universidad Autónoma de Zacatecas

DESHIDRATACIóN VERDURAS SELECTAS PARA ELABORAR CONSOMé VEGANO MEDIANTE UN SECADOR SOLAR DIRECTO DE CASETA


DESHIDRATACIóN VERDURAS SELECTAS PARA ELABORAR CONSOMé VEGANO MEDIANTE UN SECADOR SOLAR DIRECTO DE CASETA

Cabrera Requenes Joshua Salvador, Universidad Autónoma de Zacatecas. Asesor: Dr. Juan Manuel García González, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

El uso de energías convencionales para el secado de alimentos ha contribuido a la contaminación excesiva de la atmósfera, por lo que la búsqueda de nuevas energías limpias y alternas se ha puesto en marcha, dando como resultado el recurso solar como una fuente viable. Los dispositivos para su aprovechamiento cada vez más van en mejora, teniendo mejores eficiencias en la captación de la energía solar y diseños que permitan acelerar el secado, sin embargo, su uso a nivel industrial sigue siendo escaso porque se necesitan tiempos cortos para la obtención de los productos. El diseño de sistemas híbridos permite seguir el secado durante las horas sin sol y acelerar el proceso de deshidratación.   La durabilidad de las verduras puede llegar ser de menos de una semana después de ser recolectada, dependiendo de las condiciones del ambiente en que se encuentre, por lo que el consumidor final llega a desecharla sin haberla consumido contribuyendo a la contaminación del ambiente. La deshidratación de estas verduras para la elaboración de un consomé vegano utilizando la energía solar térmica para evitar estas problemáticas será el tema de estudio de este trabajo.



METODOLOGÍA

1. Selección con grado de maduración similar de las muestras para su lavado, descascarado y desinfección (cortar rodajas con espesor de 2 mm). 2. Colocación de las muestras en charolas de malla polimérica. 3. Caracterización inicial, medición de peso, humedad y color. 4. Operación de Secado    • Los secadores de acrílico transparentes (CN Y CF) se colocan en  funcionamiento 30 min antes para estabilizar la cámara de    secado con orientación hacia el sur.    • Las charolas con las muestras se introducen en los secadores.    • Se seleccionan muestras para evaluar el cambio de coloración, la perdida de humedad y se pesa cada 30 min, hasta alcanzar la humedad de equilibrio.    • En cada medición se determina la temperatura y humedad relativa del aire.    • Se mide la radiación solar, temperatura, velocidad del viento correspondiente al día de prueba. 5. Caracterización final, medición de peso, humedad y color. 6. Molienda de todos las veeduras deshidratadas para ser mezclados y obtener el consomé vegano.


CONCLUSIONES

Mediante ambos tipos de convección (natural y forzada), se logró obtener un consomé de mejor calidad y sin altos contenidos de sodio que causan daños a la salud, de igual forma se contribuye a la conservación de estos alimentos para evitar su desperdicio. 
Cadena Ortiz Roberto Carlos, Universidad de Guadalajara
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

MODIFICACIÓN DEL SISTEMA SPRAY PYROLYSIS (SP)


MODIFICACIÓN DEL SISTEMA SPRAY PYROLYSIS (SP)

Cadena Ortiz Roberto Carlos, Universidad de Guadalajara. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El sistema de Spray Pyrolysis (SP) es una técnica utilizada para crear películas delgadas de varios materiales como los dieléctricos, metales y semiconductores. Esta técnica consiste en el depósito de películas delgadas sobre un sustrato a través de la fragmentación en diminutas partículas de un precursor previamente seleccionado. En México, en los últimos años se ha presentado un notable recorte de presupuesto en el área de la ciencia e investigación, lo que se traduce como una mayor complejidad para acceder a un equipo que permita sintetizar, realizar y/o caracterizar materiales que se utilizan en la elaboración de investigaciones, tesis o proyectos de carácter científico.  La solicitud de recursos para hacerse de un equipo para la investigación suele ser complicada y es poco probable que se obtengan los mismos. El equipo de Spray Pyrolysis ronda los $12,000 USD + IVA y gastos de importación, ya que generalmente estos equipos no son fabricados en México, por lo que resulta bastante costoso para hacerse de un equipo de tal magnitud económica. Por lo anterior que ya se cuenta en el laboratorio con un sistema casero de Spray Pyrolysis que presenta algunas problemáticas importantes.



METODOLOGÍA

Se utilizaron botellas de vidrio de la marca Jumex de 450 ml cortadas de un extremo, parrilla SEV-PRENDO modelo PCA 1000, Nebulizador NE-C803, ZnO diluido en metanol como precursor, obleas de Silicio de alta resistividad, obleas de Silicio tipo N y Corning como sustratos para depósito. Las pruebas iniciales se realizaron con el sistema armado de la siguiente manera: Se conectó el nebulizador NE-C803 a su respectivo compresor de aire, la salida del nebulizador se conectó con una manguera a la rosca de la botella de Jumex de 450 ml y en el extremo cortado de la botella se colocó la parrilla SEV-PRENDO modelo PCA 1000 en la cual se colocaban los sustratos. Las primeras pruebas se realizaron con el sistema de depósito con el extremo cortado hacia abajo arrojándonos problemas de precipitado y una distribución de la nube de vapor no homogénea por el volumen de la botella. Se optó por hacer un depósito hacia arriba, obteniendo complicaciones para colocar la parrilla hacia arriba, por lo que se decidió obtener la película en la muestra sin plancha directa, con un tiempo efectivo de 10 min, con un minuto de encendido y dos minutos inmediatos de reposo, y al terminar un tratamiento térmico a 200° en mufla, esperando como resultado evidente de depósito correcto, una coloración tipo tornasol de los sustratos colocados. Resultados que no se obtuvieron. En base a los resultados obtenidos previamente se optó por desarmar la parrilla, extrayendo únicamente la parrilla de metal, dejando la caja de la misma en la parte de abajo del sistema y conectando estas por cables más extensos, haciendo así más fácil el armado del sistema. Se realizaron nuevamente los experimentos anteriores obteniendo en esta ocasión la coloración esperada. Decidimos implementar un control de flujo de aire del compresor del nebulizador para poder obtener depósitos a diferentes cantidades de flujo. En esta ocasión se realizaron pruebas a diferentes tiempos, buscando observar el tiempo al cual el sustrato cambia de color, haciendo evidente el depósito de la película. A los 10 min efectivos de exposición se observó leves cambios de opacidad de ambas muestras, a los 15 min se observó un ligero cambio de color y a los 25 min se observa claramente una tonalidad azul tipo tornasol en la muestra de Silicio y opacidad en el Corning con ZnO. A comparación con las otras muestras obtenidas se observa una coloración más uniforme de la película en el sustrato. Como último cambio realizado al sistema de Spray Pyrolysis se decidió eliminar la manguera que conecta el nebulizador con la botella y realizar la conexión de manera directa entre estos. Finalmente se decidió realizar pruebas de caracterización de la siguiente manera: • Obleas de Silicio de alta resistividad (Sin dopantes) para FTIR, RAMAN. • Obleas de Silicio tipo N para SEM, AFM, XRD.   • Corning para UV-Vis, fotoluminiscencia y resistividad. Con ayuda de estas técnicas obtendremos información que nos permitirá comparar con muestras previamente ya obtenidas con el sistema que se empleaba con anterioridad. Difracción de rayos X (DRX) y microscopía electrónica de barrido (SEM) nos permitirá obtener las características estructurales y el tamaño de partícula.  El AFM nos arrojará la morfología.  La espectroscopía de UV-Vis nos arrojará propiedades ópticas, así como el ancho de banda prohibida. El FTIR nos permitirá identificar rápidamente los compuestos obtenidos en la película mediante la identificación de la huella espectral. La espectroscopía RAMAN nos permitirá obtener información sobre los modos de vibración de las moléculas en la muestra, composición química y estructura molecular, así como identificar diferentes fases de un material o detectar la presencia de regiones cristalinas y amorfas. Una vez obtenidas las pruebas de caracterización y se analicen los resultados, así como los parámetros en los que las películas fueron obtenidas, se podrán obtener conclusiones sobre la implementación de este nuevo sistema de depósito.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos del sistema de depósito Spray Pyrolysis y ponerlos a prueba con modificación de un sistema de Spray Pyrolysis, de acuerdo a lo investigado. Además, se reafirmaron los conocimientos previamente adquiridos respecto a la interpretación de las diferentes técnicas de caracterización y los análisis que conlleva cada una de ella. Sin embargo, se dejaron muestras aún a analizar debido a que el tiempo no fue suficiente para realizar todo el proyecto que me ocupó en la estancia. Falta obtener resultado de la mayoría de las técnicas mencionadas y hacer comparación con el sistema que ya se utilizaba.
Calderon Alvarez Odhette Sharai, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Angélica María Álzate Ibáñez, Fundación Universidad de América

PROTOTIPADO DE UNA MáQUINA DE RECARGA DE SALDO USANDO EL MICROCONTROLADOR ESP32


PROTOTIPADO DE UNA MáQUINA DE RECARGA DE SALDO USANDO EL MICROCONTROLADOR ESP32

Calderon Alvarez Odhette Sharai, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Angélica María Álzate Ibáñez, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

La telefonoía móvil ha tenido un impacto significativo en la sociedad moderna, transformando radicalmente la forma en que nos comunicamos y  realizamos transacciones (Luo et al., 2022). Este avance tecnológico ha llevado a un aumento considerable en la dependencia de los dispositivos móviles para mantenernos conectados en nuestra vida diaria, siendo uno de los servicios más esenciales y demandados es la recarga de saldo para celulares. En el contexto específico de tiendas minoristas de Apatzingán, México, la recarga de saldo presenta desafíos significativos tanto para los usuarios como para los comerciantes. Los usuarios enfrentan el reto de encontrar un servicio de recarga conveniente, rápido y seguro. Por su parte, los comerciantes que ofrecen este servicio, la gestión y administración de las recargas de saldo pueden presentar desafíos logísticos y operativos. En este contexto, el presente trabajo propone el prototipado de una máquina de recarga de saldo de móviles celulares en tiendas minoristas usando el microcontrolador ESP32, explorando la integración de diferentes tecnologías para abordar los desafíos mencionados y mejorar la eficiencia del servicio. El ESP32 es un microcontrolador con un creciente reconocimiento por sus diversas aplicaciones en el Internet de las cosas (IoT) y el respaldo de múltiples bibliotecas de software y lenguajes de programación (Plauska et al., 2023).



METODOLOGÍA

El estudio parte de la revisión sistemática de literatura en Scopus. Esta revisión proporciona una base teórica y metodológica para el desarrollo de la investigación, además, permite identificar las características y especificaciones técnicas a considerar en el prototipado. La definición de los requisitos incluye aspectos como, la capacidad de recarga, el tipo de moneda aceptado, las características de seguridad, funcionalidad y usabilidad de acuerdo al perfil de usuario. Para el diseño y la construcción del prototipado del monedero de recarga a saldo, se hace uso de los siguientes componentes: 1) Monedero electrónico multicoin, 2) Microcontrolador ESP32, 3) Tableta electrónica, además de las especificaciones de los requerimientos de conectividad del Wi-Fi para gestionar transacciones y actualizaciones, y de conectividad con la API SOAP para realizar las transacciones de acuerdo al perfil de usuario. La programación del código abierto para la sincronización del sistema de identificación de monedas y el microcontrolador (ESP-32) se realizó en IDE Arduino. El ESP32 cuenta con un procesador dual-core de alto rendimiento y una velocidad de hasta 240 MHz. Esta potencia de procesamiento permite ejecutar tareas complejas y realizar operaciones rápidas y eficientes, lo cual es esencial para el manejo de transacciones y operaciones en tiempo real, como la recarga de saldo a celulares. Además, viene equipado con capacidades de conectividad Wi-Fi y Bluetooth integradas, característica que facilita la comunicación con otros dispositivos y sistemas, tales como los sistemas de pago y las bases de datos de operadores de telefonía móvil.  La configuración del protocolo de comunicación del monedero electrónico se realizó estableciendo un estado lógico alto (1) para detectar de manera sencilla los pulsos recibidos individualmente mientras está en modo de escucha. Esto se logró mediante el ajuste de interruptores específicos. El tiempo entre cada pulso se configuró en 50 ms usando los interruptores 1 y 2. Además, se emplearon los interruptores 3 y 4 para mejorar la precisión del monedero en la identificación de las monedas de 1, 2, 5 y 10 pesos mexicanos. Los interruptores 5 y 6 se utilizaron para ajustar la lectura de los pulsos en el estado lógico alto (NC). Una vez configurado el monedero, se realiza un muestreo de monedas para asegurar el correcto reconocimiento de cada denominación, y se procede con la configuración del IDE de Arduino para utilizar el microcontrolador ESP32.  La lectura de los pulsos del monedero en el IDE de Arduino se declara al pin físico del ESP32, junto a los pines GND y 3v3 para alimentar el monedero. Se emplea la función #define para declarar el pin de entrada, permitiendo asignar un nombre a un valor constante antes de compilar el programa. Para la lectura individual de los pulsos, se utiliza un ciclo while con la función digitalReal. Los datos se guardan en el almacenamiento no volátil (NVS) del ESP32, evitando la necesidad de una tarjeta SD y garantizando un mejor servicio a los clientes durante la recarga de saldo para celulares.  


CONCLUSIONES

El prototipo basado en el microcontrolador ESP32 presenta ventajas significativas para la gestión eficiente de recargas de saldo en tiendas minoristas. Su flexibilidad y popularidad en proyectos IoT respaldan la idoneidad en esta aplicación. Los resultados obtenidos sugieren que la máquina de recarga de saldo a celulares podría ser una solución valiosa para optimizar las operaciones de recarga en tiendas minoristas, brindándoles una alternativa rentable y sostenible.  Se sugiere realizar pruebas adicionales y ajustes para mejorar aún más el rendimiento y funcionalidad antes de su implementación en un entorno comercial. Asimismo, se sugiere que investigaciones futuras evalúen el desempeño del microcontrolador ESP32 frente a otros microcontroladores comerciales disponibles en el mercado. Esta comparativa permitiría entre otros aspectos evaluar el rendimiento y capacidad de procesamiento, el consumo de energía en diferentes condiciones de operación y en reposo, y la eficacia y eficiencia de la conectividad y de los protocolos de comunicación.
Calderón Galicia Flor Lizbeth, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla

OPERACIóN, ANáLISIS Y CONTROL DE UN PROTOTIPO EXPERIMENTAL PARA PROCESOS DE ELECTROLISIS PARA LA OBTENCIóN DE GAS COMBUSTIBLE HIDRóGENO Y SU IMPLEMENTACIóN COMO VECTOR ENERGéTICO


OPERACIóN, ANáLISIS Y CONTROL DE UN PROTOTIPO EXPERIMENTAL PARA PROCESOS DE ELECTROLISIS PARA LA OBTENCIóN DE GAS COMBUSTIBLE HIDRóGENO Y SU IMPLEMENTACIóN COMO VECTOR ENERGéTICO

Becerra Romero Alejandra Betsabe, Benemérita Universidad Autónoma de Puebla. Bolaños Jimenez Yazmin Magaly, Benemérita Universidad Autónoma de Puebla. Calderón Galicia Flor Lizbeth, Benemérita Universidad Autónoma de Puebla. González Sánchez David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente la crisis ambiental que vivimos a nivel global ocasionada en gran parte por los gases de efecto invernadero que son producto de la quema de hidrocarburos para la obtención de energía eléctrica, requiere una innovación en la forma en la cual obtenemos nuestra energía, y esta nueva forma tiene que ser de una manera renovable y amigable para el ambiente.   En México según la encuesta realizada por el INEGI en el 2018 Encuesta Nacional sobre Consumo de Energéticos en Viviendas Particulares (ENCEVI) indica que el 99% de las viviendas en México cuenta con electricidad, de las cuales, solo el 0.25% usa paneles solares para la obtención de su energía eléctrica. Es preocupante la poca relevancia y uso de las energías renovables en México. He aquí la importancia de empezar a invertir en la implementación e investigación de nuevas fuentes de energía.   Para poder llevar a cabo la electrolisis, se tendrá que preparar un prototipo, en donde el armado y montado se llevará a cabo por los estudiantes miembros de este programa de investigación, esto con el fin de fortalecer la forma práctica y no solo la teórica.



METODOLOGÍA

Armado de prototipo Para el montaje del prototipo fue necesario investigar qué tipo de tubería nos convenia más para usar, la primera propuesta fue usar tubo de polipropileno (ppr), este material se cotizo y se hizo un diagrama de flujo de proceso, pero esta propuesta fue descartada, ya que, el diámetro interior de este tubo era muy grande, y eso nos podría haber dado problemas al momento de correr las pruebas. Por lo tanto, se optó por mangueras de plástico y conexiones tipo fitting, las cuales las tienen un recubrimiento antibacteriano, por esto mismo las podemos encontrar en diversas conexiones para agua potable. Una vez teniendo los materiales necesarios se paso a hacer el montaje del prototipo. Para sostener todo el sistema, se propuso usar bases de madera, las cuales funcionaron satisfactoriamente. Como en todo proyecto, surgieron complicaciones, pero se superaron gracias al trabajo en equipo, por ejemplo, una de las conexiones fitting nos llegó de una medida diferente a la solicitada, por lo tanto, tuvimos que idear una adaptación para una conexión del prototipo. Una vez solucionados los inconvenientes, se paso a la fase del armado para hacer pruebas hidráulicas, con el fin, de corregir cualquier fuga de líquido, las cuales, si se presentaron, pero se sellaron fácilmente con teflón. Preparamos las conexiones a utilizar antes del armado. Teniendo todo listo, se pasó al armado Este prototipo fue diseñado para ser un sistema multifuncional, y por lo mismo, puede funcionar con diversos tipos de bomba para impulsar la sustancia a estudiar y diferentes tipos de tanque y capacidades. Otra ventaja de este sistema es que se pueden añadir nuevas partes dependiendo del objetivo. Montado de puertas automáticas Como parte de la estancia y para mejorar el espacio en donde se colocó el prototipo, se diseñaron e instalaron puertas automáticas. Se realizó a escala un modelo del mecanismo de las puertas. En la aplicación circuit.io se diseñó un modelo del circuito usando arduino uno. Se programo un código para accionar los servomotores al contacto de una llave en el sensor RFID Se armaron y pegaron las piezas, brazos y circuitos al espacio. Finalmente se realizaron pruebas.


CONCLUSIONES

Durante la estancia fue importante tener un conocimiento previo relacionado a el tema, esto, para entender y tener un panorama general de lo que se buscaba hacer en este tiempo. A su vez, lo realizado en este programa fue interesante, ya que pusimos nuestras habilidades a prueba y adquirimos nuevas, de igual forma, fue una oportunidad para entender que no todos tenemos las mismas habilidades y que eso sigue siendo funcional en un equipo de trabajo porque todos pudimos hacer cosas distintas y complementar nuestro trabajo. El poder realizar el prototipo nos hizo reflexionar sobre la importancia que tienen las energías renovables y que, así como otros países invierten en ellas, México también lo debería de hacer. En esta ocasión pudimos poner nuestro granito de arena para que los alumnos de la Facultad de Ingeniería Química de la BUAP puedan seguir con la investigación y trabajo del prototipo antes mencionado. El seguimiento de resultados los estaremos obteniendo durante clases, gracias a que ya tenemos un prototipo funcional. Durante la estancia obtuvimos una experiencia práctica única, nos encargamos de cotizar cada uno de los materiales usados en diversos lados, tuvimos que investigar acerca de las ventajas y desventajas de cada material, así como su funcionamiento y cómo armarlo de manera correcta Finalmente, cabe destacar que con la culminación de este programa en su edición 2023, nos sentimos sumamente felices y agradecidos con las personas que nos apoyaron, con la estancia hemos adquirido nuevas habilidades, esperando poderlas aplicar en nuestra vida escolar y en nuestra vida personal, pudiendo reafirmar que la ingeniería no solo es aplicable en la industria y en los laboratorios de práctica.
Calderón Padilla Rafael, Instituto Politécnico Nacional
Asesor: M.C. Roberto Cristian Delgado Arcos, Universidad Tecnológica de Tecamachalco

USO DEL AMPLIFICADOR OPERACIONAL PARA EL MONITOREO DE LA TURBIDEZ EN EL AGUA


USO DEL AMPLIFICADOR OPERACIONAL PARA EL MONITOREO DE LA TURBIDEZ EN EL AGUA

Calderón Padilla Rafael, Instituto Politécnico Nacional. Asesor: M.C. Roberto Cristian Delgado Arcos, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

La medición de la turbidez en líquidos como el agua es de vital importancia en diversas industrias y aplicaciones, desde el tratamiento de aguas potables hasta el control de calidad en procesos industriales. Sin embargo, actualmente se enfrenta un problema significativo: la falta de una solución accesible y precisa para medir la turbidez de manera rápida y confiable. Los métodos tradicionales requieren equipos costosos y especializados, lo que dificulta su implementación en entornos más pequeños o con recursos limitados. Es en este contexto donde surge la necesidad de desarrollar un prototipo de un turbidímetro electrónico básico con comparadores, que ofrezca una alternativa más asequible y efectiva para medir la turbidez en diferentes líquidos.  Algunas de las problemáticas asociadas con la presencia de turbidez en los líquidos son las siguientes: Contaminación: La turbidez puede ser un indicador de contaminación en el líquido. Las partículas suspendidas pueden ser microorganismos, sedimentos, materiales en descomposición o sustancias químicas no disueltas. Si el líquido es agua potable, por ejemplo, la presencia de turbidez podría señalar la presencia de bacterias, virus u otros contaminantes nocivos para la salud. Calidad del agua: En el caso del agua, la turbidez puede afectar la calidad del líquido y hacerlo menos atractivo para el consumo humano o para uso industrial. La presencia de turbidez puede alterar el sabor, el olor y la apariencia del agua. Eficiencia de procesos: En la industria alimentaria, farmacéutica, química y otras áreas, la turbidez en los líquidos puede interferir con la efectividad de ciertos procesos, como la cristalización, la fermentación o la mezcla de productos. El prototipo del turbidímetro electrónico tiene un gran impacto en varias áreas. Primero, facilita el acceso a una herramienta precisa para evaluar la calidad del agua en comunidades con infraestructura limitada, previniendo problemas de turbidez en el agua potable y mejorando la salud pública. Además, en el ámbito industrial, permite a las pymes monitorear sus procesos y garantizar la calidad de sus productos de manera económica.  



METODOLOGÍA

El desarrollo de este primer prototipo se llevó a cabo con conocimientos básicos de electrónica, componentes de fácil acceso como lo pueden ser protoboards, alambre calibre 22, el circuito integrado LM324, el sensor infrarrojo CNY70, el transistor 2N2222, una foto celda de 10K, resistencias de carbón de valores variados como (por ejemplo: 220, 1000, 10000) y una fuente de alimentación de 12 V, (Puede ser cualquier tipo de fuente). El desarrollo de este proyecto se basó en ir construyendo circuitos básicos de forma separada para al final unirlos, esto con el objetivo de poder comprender cómo funcionaría cada parte del proyecto y poder rescatar más aprendizaje de estas actividades. El primer circuito realizado para la realización de este proyecto fue un divisor de voltaje el cual dividía 12V de entrada en 5 partes diferentes, esto se hizo con la finalidad de que a futuro estos voltajes se puedan utilizar como referencia para el amplificador operacional en modo comparador. Posteriormente se integraría un sensor infrarrojo a este divisor de voltaje para poder manejar los voltajes de una forma más realista gracias a una fuente de luz variable, la cual representaría el nivel de turbidez de varios líquidos, a mayor nivel de luz menor sería la turbidez. En este caso se ocupa el circuito integrado LM324N el cual contiene cuatro amplificadores operacionales y del cual podemos aprovecharlos todos para poderlos configurar en modo comparador y de esta forma poder crear un efecto de barra de sonido de forma que el circuito vaya iluminando más leds conforme más luz reciba el sensor aquí podemos observar cómo se implementa el divisor de voltaje que se hizo en un principio para poder tener referencia en los voltajes que se ocupan para el comparador, los leds se Irán encendiendo cada 0.75 voltios recibidos por el sensor, es decir, el primer led se encenderá cuando el sensor entregue 0.75 V el segundo se encenderá cuando el sensor entregue uno 1.5 V el tercero se encenderá cuando el sensor entregue 2.25 V y el tercero se encenderá cuando el sensor entregue 3 V. Por último se implementaría un modo especial al comparador llamado comparador en ventana. El comparador en ventana se implementa este circuito para que el led se encienda sólo en un rango de turbidez apropiado. Se podría reajustar este rango para poder medir así diversos líquidos y saber cómo se encuentran actualmente. En caso de que su nivel de turbidez sea el apropiado se encendería un led verde indicador de que todo está bien. Para futuro, se planea llevar este proyecto a un nivel más avanzado mediante la implementación de una interfaz programable. Esta mejora se llevará a cabo debido a que el procesamiento en un circuito físico puede ser optimizado y hacerse más eficiente gracias a la utilización de un lenguaje de programación específico para el control de objetos físicos. ademas de la implemetnacion de sensores capaces de medir el nivel de sólidos en un litro de líquido, la opacidad en un cuerpo transparente y la proximidad de objetos, entre otros. El propósito detrás de todas estas mejoras es comprender mejor cómo podemos llevar este proyecto a nuevas alturas y expandir su alcance. De esta manera, el proyecto puede tener un impacto significativo en diversos sectores industriales, como la farmacología, la farmacéutica, la ganadería, y muchas otras áreas.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos prácticos acerca del uso de sensores infrarrojos, fototransistores, fotodiodos, amplificadores operacionales, comparadores y divisores de voltaje aplicados en circuitos; todo esto llevado de la mano con el conocimiento teórico que implica los cálculos del uso de todos estos componentes y formas de circuitos. Se obtuvieron conocimientos acerca de la importancia de medir el parámetro de la turbidez en los líquidos, no sólo centrándose en el agua sino en cualquier otro líquido el cual la turbidez influye en su vida útil o en su eficiencia de uso.
Calixto Ramírez Omar, Universidad Tecnológica de Tecamachalco
Asesor: Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar

EVALUACION EXPERIMENTAL DEL APROVECHAMIENTO DE ENERGIA UNDIMOTRIZ EN UN TANQUE DE OLAS CON UN PROTOTIPO BASCULANTE FLOTANTE.


EVALUACION EXPERIMENTAL DEL APROVECHAMIENTO DE ENERGIA UNDIMOTRIZ EN UN TANQUE DE OLAS CON UN PROTOTIPO BASCULANTE FLOTANTE.

Calixto Ramírez Omar, Universidad Tecnológica de Tecamachalco. Vazquez Guevara Jose Angel, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Diseñar y construir un prototipo undimotriz flotante, basculante a escala y medir su aprovechamiento energetico experimentalmente (en el tanque de olas del laboratorio de naval de la UTB) y compararlo con los resultados predichos por el análisis .



METODOLOGÍA

Se hace el diseño CAD del prototipo siguiendo criterios geométricos y los principios de la dinámica, para obtener un prototipo flotante, basculante a escala, que aproveche el movimiento de las olas para generar rotacion mecánica en el eje del moto-generador. Se utiliza la teoria básica de modelos de olas para predecir la energia disponible. Las mediciones son hechas de forma optica con un generador de olas de manivela-oscilador.


CONCLUSIONES

Se desarrollo un modelo de prototipo que cumpla con las expectativas de aprovechamiento de ahorro de energía mediante la implementación de energía undimotriz, el cual tiene como requisitos que tenga un diseño eficiente, practico y que pueda ser una propuesta de mejora para el ahorro energetico.
Calvillo Mendiola Mario Alberto, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla

IDENTIFICACIÓN DE PATOLOGÍAS, COMPONENTES ADICIONALES Y FACTORES AMBIENTALES EN ESTRUCTURAS DE CONCRETO


IDENTIFICACIÓN DE PATOLOGÍAS, COMPONENTES ADICIONALES Y FACTORES AMBIENTALES EN ESTRUCTURAS DE CONCRETO

Calvillo Mendiola Mario Alberto, Benemérita Universidad Autónoma de Puebla. Flores Cortés Fátima, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El concreto es un material de construcción ampliamente utilizado debido a su durabilidad y resistencia. Sin embargo, con el tiempo, las estructuras de concreto pueden desarrollar varios defectos y daños conocidos como patologías del concreto. La importancia de identificar y abordar las patologías del concreto no se puede exagerar. La falta de hacerlo puede tener consecuencias graves, como el colapso o daño a la propiedad. Por lo tanto, es crucial que los ingenieros y constructores tengan un entendimiento completo de estos problemas y cómo prevenirlos.



METODOLOGÍA

Durante la investigación se tomará el enfoque de las patologías en estructuras de concreto, teniendo en cuenta sus tipos, componentes añadidos, climas, ambientes y zonas que afectan su duración y provocan estos problemas. Las patologías constituyen un desafío constante en la ingeniería civil, ya que afectan tanto la integridad estructural como la durabilidad del material. Estos problemas pueden manifestarse en diferentes formas, como fisuras, desprendimientos, corrosión del acero de refuerzo y delaminación, y su origen puede ser diverso, incluyendo factores relacionados con la calidad de los materiales, diseño, construcción y las condiciones ambientales. El proceso para organizar una patología en una estructura de concreto se inicia con una inspección visual detallada y la recopilación exhaustiva de datos sobre el historial de construcción. Posteriormente, se emplean diversos métodos de diagnóstico y evaluación, como pruebas no destructivas (como ultrasonidos y radar de penetración), análisis de muestras de material y tecnologías avanzadas de imagen, junto con el monitoreo de la corrosión, para identificar la naturaleza y extensión de los problemas presentes. Entre las causas más frecuentes de las patologías se encuentran la mala calidad de los materiales empleados, los defectos de diseño o ejecución y la exposición a ambientes adversos. En este último aspecto, el clima y el entorno en el que se encuentra la estructura juegan un papel crucial en el desarrollo de las patologías. Ambientes corrosivos, como zonas costeras y marinas, pueden acelerar la corrosión del acero de refuerzo, mientras que climas con altas temperaturas pueden contribuir al agrietamiento y la degradación del concreto. Para hacer frente a estos desafíos, se han buscado mejoras en los materiales y técnicas constructivas, y una de las soluciones destacadas ha sido la incorporación de fibras de refuerzo en el concreto, hechas de materiales como acero, vidrio o polímeros que mejoran significativamente las propiedades mecánicas y de durabilidad del concreto. Al añadir fibras al concreto, se logra un aumento en su resistencia a la tracción y una reducción en la formación de fisuras, además de mejorar su capacidad de resistencia al impacto. Para finalizar se hablará sobre la prevención y mitigación de patologías en estructuras de concreto, los cuáles son aspectos fundamentales para garantizar su vida útil y seguridad. Para ello, es imprescindible un enfoque integral que abarque desde el diseño y la selección de materiales de alta calidad hasta la construcción cuidadosa y el mantenimiento regular. Asimismo, las inspecciones periódicas son esenciales para detectar cualquier problema a tiempo y aplicar las técnicas de reparación adecuadas antes de que se agraven los daños.


CONCLUSIONES

Las patologías del concreto son problemas o daños que pueden afectar la resistencia, la durabilidad, la apariencia y el comportamiento del concreto y pueden ser causadas por una variedad de factores. Para abordar estas patologías, es importante contar con métodos adecuados de diagnóstico y evaluación para identificar y caracterizar los problemas, los cuáles en conjunto proporcionan una visión más completa de la naturaleza y la extensión de las patologías. La prevención y mitigación de patologías es fundamental para garantizar la durabilidad y el rendimiento de las estructuras de concreto, destacando la importancia de seguir buenas prácticas de construcción y diseño, el utilizar materiales de calidad, realizar un mantenimiento regular y aplicar medidas preventivas adecuadas para evitar la aparición de patologías y garantizar la vida útil y seguridad de las estructuras de concreto.
Camacho Lopez Oscar David, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

ANáLISIS DE LOS EFECTOS DE LA INTEGRACIóN DEL COMERCIO ELECTRóNICO AL SECTOR AGRíCOLA.


ANáLISIS DE LOS EFECTOS DE LA INTEGRACIóN DEL COMERCIO ELECTRóNICO AL SECTOR AGRíCOLA.

Camacho Lopez Oscar David, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

El comercio de productos agrícolas por canales de venta tradicionales trae consigo desafíos a la hora de acceder a nuevos mercados, algunos otros dependen únicamente de la participación de intermediarios, los cuales fluctúan y reducen la ganancia de los productores, genera altos costos de comercialización, así como merma de productos, sumado a lo anterior se tienen poca visibilidad en el mercado.



METODOLOGÍA

La investigación realizada es de tipo mixta, donde se recopilo información mediante la revisión sistemática de literatura bibliográfica reciente y actualizada existente sobre, el comercio electrónico, la cadena de suministro, la participación de intermediarios, casos de estudio sobre la integración del comercio en línea en diferentes sectores y sus resultados obtenidos después de la adopción del mismo, con el objeto de comprender y analizar el contexto de la problemática, además se incluye escritura basada en experiencia personal.


CONCLUSIONES

Analizar el impacto que tendría la integración y adoptación del comercio electrónico en las pymes de los productores agrícolas, es el objetivo principal que se planteo al iniciar con la investigación, sin embargo, también se formula una propuesta de modelo de integración del comercio electrónico al sistema de producción de aguacate en el poblado de Jumiltepec, Estado de Morelos. Para la construcción del modelo de integración del comercio electrónico se plantea lo siguiente: Analizar el entorno en el que se desarrollan los productores de aguacate: Estudio del comercio actual con el que trabajan Estudio del segmento de clientes: consumidores minoristas y mayoristas Estudio de los canales de venta y de distribución actuales Estudio de recursos tecnológicos y de conectividad con los que cuentan Propuesta de modelo de integración del comercio electrónico al sistema de producción de aguacate en el poblado de Jumiltepec, Estado de Morelos. Desarrollar propuesta de valor Segmentar clientes Desarrollar un canal de venta en plataformas en línea Definir métodos de pago Definir canales de distribución Desarrollar estrategias de marketing Desarrollar estrategias posventa. A continuación, se muestran los beneficios y limitaciones de la integración del comercio electrónico al sector agrícola: Beneficios: Mayor visibilidad Acceso a nuevos mercados Eliminación de intermediarios Incremento de la rentabilidad Elevar la eficiencia de la logística y cadena de suministro Integración de productores minoritas Reducción de la huella ambiental. Limitaciones: El acceso limitado a tecnología y conectividad No comprender el uso de las plataformas en línea Cambiar a la perspectiva de los productores hacia la tecnología Métodos de pago Competencia en línea. De manera general, la integración y adopción del comercio electrónico al sector agrícola, trae consigo beneficios para los productores, comercializadores, consumidores e incluso para el medio ambiente, a pesar de la existencia de factores limitantes existen medios tecnológicos que al integrarse puede mitigar tales limitaciones; El poder desarrollar una investigación para analizar los efectos sobre la integración de nuevas tecnologías a un sector que tiene un desconocimiento parcial o incluso totalmente es realmente complejo, el poderlo integrar sería un reto, analizar casos de existo donde se han implementado de manera eficiente brinda conocimiento sobre cuales podrían ser algunas de las formas en la que se puede ir acercando a este sistema comercial tan globalizado, cabe destacar que el sector agrícola es diverso por lo tanto el contexto es meramente individual, lo que nos lleva a que los resultados de poder iniciar con un comercio electrónico no tendrá los mismos resultados para todos los agricultores y pymes agrícolas.
Camargo Juarez Zayra Aline, Instituto Tecnológico de Pachuca
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

ANáLISIS DE LA APLICACIóN DE METODOLOGíA SMED PARA REDUCIR TIEMPOS EN PROCESO DE PINTURA


ANáLISIS DE LA APLICACIóN DE METODOLOGíA SMED PARA REDUCIR TIEMPOS EN PROCESO DE PINTURA

Camargo Juarez Zayra Aline, Instituto Tecnológico de Pachuca. Vázquez Gómez María Fernanda, Instituto Tecnológico de Pachuca. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Actualmente las empresas se deben volver más eficientes debido a la alta competencia, por ello, el modelo Lean Manufacturing busca herramientas y metodologías que las hagan más competitivas. La empresa Templado S.A. ha presentado un problema en cuanto a su proceso de cambio de formato de pintura en la cabina de pintura, arrojando 50 min en el tiempo de esta actividad, con 36 actividades internas y 3 externas y por medio de esta investigación se buscó darle solución, basados en un cambio eficiente y rápido de herramientas o modelo de fabricación a través de la metodología SMED, con el objetivo de que esta actividad sólo tome 30 min.



METODOLOGÍA

Este proceso se basó en un road map de seis pasos, los cuales, los primeros tres se encargan de recopilar, organizar y analizar información del proceso para posteriormente definir un nuevo método que elimine actividades innecesarias y transforme actividades internas en externas.  Los siguientes tres pasos son réplicas del nuevo método, los resultados que estas emiten servirán para verificar si las correcciones empleadas son óptimas. 


CONCLUSIONES

La primera réplica con una reducción del 52.7% de actividades internas, un incremento de 14 actividades externas y eliminación de 3 actividades, arrojó una disminución en el tiempo del 18.75%. La segunda réplica con una reducción a 9 actividades internas y eliminación de 13 actividades, nos dio un total de 45 min. Como se puede deducir con base en los resultados, el modelo de la réplica uno fue el más próximo en alcanzar la meta de este proyecto.
Camera Ozuna Javier, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE ESFUERZOS MECáNICOS – ELéCTRICOS DEL CABLE OPGW POR MEDIO DEL SOFTWARE SOLIDWORKS Y COMSOL.


ANáLISIS DE ESFUERZOS MECáNICOS – ELéCTRICOS DEL CABLE OPGW POR MEDIO DEL SOFTWARE SOLIDWORKS Y COMSOL.

Camera Ozuna Javier, Instituto Tecnológico de Tuxtla Gutiérrez. Córdova Morales Javier Isain, Instituto Tecnológico de Tuxtla Gutiérrez. Perez de la Cruz Albert Uriel, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el cable óptico a tierra, mas conocido por sus siglas en ingles como cable OPGW este tiene la función de blindar el SEP y de transmitir datos mediante su fibra óptica. Para garantizar el rendimiento optimo y la confiabilidad del cable OPGW, es fundamental llevar a cabo pruebas mecánicas y eléctricas rigurosas durante su diseño y desarrollo. En este contesto existe una gran variedad de software sofisticados como son SolidWorks y Comsol que permiten simplificar y optimizar el proceso de pruebas, asegurando la calidad y seguridad del cable en cuestión.



METODOLOGÍA

Las pruebas mecánicas se enfocan en evaluar la resistencia y durabilidad del cable frente a diversas condiciones y cargas mecánicas. Esto incluye pruebas de tracción, compresión, flexión y resistencia a la vibración entre otras. SolidWorks es un software de diseño que ofrece herramientas de simulación y modelado 3D que permite recrear estas condiciones y analizar el comportamiento del cable bajo diferentes escenarios. Lo que son las pruebas eléctricas se centran en evaluar la capacidad de transmisión de datos a través de la fibra óptica y la integridad del conductor a tierra. Comsol es un software que también desempeña un papel crucial en este aspecto, ya que puede simular el comportamiento de la señal óptica y eléctrica en el cable OPGW, además Comsol puede evaluar la resistencia a corrientes de cortocircuito y la capacidad de conducción térmica, eléctrica y magnética.


CONCLUSIONES

En simulaciones mecánicas empleadas en SolidWorks se obtuvieron 2 pruebas, una de ellas es la de análisis estático mediante sujeciones y cargas a la deflexión. Provocando la holgura y deformación del cable OPGW. Y la segunda fue la de tensión y cargas de tracción que simulan el efecto jaula de pájaro o llamado en ingles bridcaging. Ya que en pruebas eléctricas mediante el software Comsol se obtuvieron de igual manera 2 simulaciones, una de ellas es la conducción de densidad de flujo magnético que es provocada por una alta elevación de corriente, y por la misma elevación de corriente también se obtiene el efecto joule o conducción térmica. En conclusión, se obtuvo una gran cantidad de información sobre el comportamiento del cable OPGW y una gran cantidad de conocimiento sobre la manipulación de estos softwares  que permiten simplificar y optimizar las pruebas que por ende son presenciadas en campo.
Campa Díaz Regina, Universidad de Guadalajara
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

TRANSISTORES DE PELíCULA DELGADA


TRANSISTORES DE PELíCULA DELGADA

Campa Díaz Regina, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los transistores de película delgada (TFT) son dispositivos semiconductores utilizados en electrónica, compuestos por materiales semiconductores depositados en un sustrato. En contraste con los transistores convencionales, fabricados a menudo en silicio con procesos más complejos, los TFT son más simples y se enfocan en controlar píxeles en pantallas y aplicaciones flexibles de baja potencia. Han encontrado aplicaciones en pantallas LCD, paneles solares, sensores y otros dispositivos electrónicos. El funcionamiento de los TFT se basa en el efecto campo, en el que un campo eléctrico afecta el comportamiento de un semiconductor. El efecto metal-óxido-semiconductor (MOSFET) regula la corriente entre dos regiones semiconductores. Estos transistores se utilizan en aplicaciones electrónicas y su operación se basa en modular un campo eléctrico para controlar el flujo de portadores de carga (electrones o huecos) entre diferentes áreas del material semiconductor. Sin embargo, enfrentan desafíos como las capacidades parásitas, ligadas a las estructuras de compuerta, drenaje y fuente. Estas capacidades afectan la velocidad de conmutación y generan interferencias en aplicaciones de alta frecuencia. Además, los MOSFETs de TFT pueden generar ruido e interferencias debido a su alta sensibilidad y ganancia. Por lo tanto, es crucial diseñar circuitos y sistemas que minimicen estas interferencias y reduzcan las capacidades parásitas. En una investigación buscando alta movilidad electrónica y estabilidad en los circuitos, el semiconductor IGZO fue elegido por sus propiedades únicas. No obstante, el IGZO es susceptible a la degradación por humedad, oxígeno y calor. Los TFT IGZO también pueden tener capacitancias indeseadas. Los TFT con IGZO presentan restricciones en su uso en circuitos de soporte, especialmente en aplicaciones digitales. Por ello, en una investigación se exploraron técnicas de lógica para diseñar compuertas lógicas con estos transistores. Se compararon mediciones para entender el comportamiento de transistores y compuertas.



METODOLOGÍA

El proceso de investigación comenzó con la revisión de diseños previos para obtener valores típicos. Luego, se realizaron simulaciones para evaluar el comportamiento de los circuitos con tecnología de transistores de silicio. Se asistió a clases introductorias sobre el software LEDIT para diseñar circuitos y se crearon diseños basados en recomendaciones del investigador. Después de investigar, se participó en un laboratorio de fabricación que proporcionó una visión detallada del funcionamiento de equipos en el centro de nano. Se siguió el procedimiento estándar, aprendiendo a usar equipos y determinar parámetros. Los transistores se fabricaron mediante fotolitografía, creando capas sobre un sustrato. Las capas de material semiconductor se definieron mediante luz y máscaras, seguidas de revelado y ataque húmedo. Las capas se limpiaron con acetona y se midió su espesor. Este proceso se repitió para construir el transistor MOSFET. Después de una semana en el cuarto limpio, se realizaron mediciones eléctricas en estaciones de caracterización. Se recopiló información utilizando un osciloscopio y se evaluaron circuitos en diferentes situaciones. Luego se procesaron los datos usando el software Origin. Se tomaron imágenes de circuitos con un microscopio para respaldar con evidencia fotográfica su operatividad y generar informes.


CONCLUSIONES

Durante el programa de verano, se asistió a charlas, exploraciones y sesiones teóricas sobre transistores. Se adquirieron conocimientos teóricos y prácticos sobre TFT y fabricación de circuitos, se exploraron lógicas y tamaños de transistores, y se evaluó su rendimiento. La experiencia proporcionó una introducción a la investigación y familiarización con áreas futuras de trabajo. Se obtuvieron resultados prometedores en mediciones de eficiencia de los diseños de transistores.
Campos Blas Jhovana, Instituto Tecnológico de Morelia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

MóDULO DE ELASTICIDAD ESTáTICO EN CONCRETO HIDRáULICO DE ALTA RESISTENCIA, UNA COMPARACIóN CON Y SIN FIBRAS DE REFUERZO


MóDULO DE ELASTICIDAD ESTáTICO EN CONCRETO HIDRáULICO DE ALTA RESISTENCIA, UNA COMPARACIóN CON Y SIN FIBRAS DE REFUERZO

Campos Blas Jhovana, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Se sabe que la innovación es cada vez más importante y necesaria, días con día hay que estarce actualizando para poder incorporar esas nuevas mejoras a los materiales. Simplemente el hecho de requerir materiales para la construcción de alta calidad lo hace necesario. El área de la construcción de edificaciones requiere cada vez la mejora de sus propiedades mecánicas ya que las grandes ciudades van por la construcción de edificios cada vez más altos o de más tamaños, aunque por supuesto esto conlleva un arreglo, modificación y adición de nuevos elementos que le proporcionen una mejora en cuanto a lo mecánico. Una de las alternativas es la elaboración del concreto con adición de fibras poliméricas que superan las propiedades mecánicas que el concreto convencional no nos ofrece. Superando las características que se tenían en un concreto convencional, con una alta resistencia mecánica, ya que brinda la mejora del producto final enfocado en la elasticidad estática. Esta investigación se enfoca en el estudio de un concreto de alta resistencia y elasticidad estático, modificado adicionando fibras poliméricas, con la finalidad de determinar la influencia de está en las propiedades mecánicas del concreto.



METODOLOGÍA

Se elaboraron 2 tipos de mezclas: el control (Mezcla 1), elaborado con cemento, agregados, agua y aditivo; y la segunda (Mezcla 1 + FPP), con los mismos componentes de la mezcla 1 y adicionada con fibras poliméricas (PP). Para las mezclas los valores agregados fueron lo siguiente: El peso del cemento de 44.280 kg, arena de 77.735kg, grava de 127.58kg y agua de 41822ml/41.822 kg. En una mezcla se agregó las fibras de polipropileno que tendrá un peso de 0.09kg. Las mezclas fueron diseñadas con un f´c de 25MPa y la relación agua/cemento de 0.53, mediante el método del ACI (American Concrete Institute). Se colaron especímenes cilíndricos (10x20cm), los cuales fueron curados hasta la edad de prueba conforme a la normativa mexicana. Los especímenes fueron ensayados mediante pruebas destructivas como: compresión, flexión, tensión y elasticidad estática a edades de 7 y 28 días. Todos los ensayos fueron hechos por duplicado y los resultados fueron comparados entre sí.


CONCLUSIONES

Si bien la incorporación de fibras de polipropileno en concretos hidráulico sí cumplió con los estándares para este tipo de concretos, ya que lo que se buscaba era analizar las diferencias de la elasticidad ante un concreto común (en este caso un testigo) y un concreto modificado (con fibras de polipropileno). Si bien la comparación era un punto de partida para el análisis de este concreto. Así mismo pudimos analizar que si existe una mejora de las propiedades de mecánicas de estos aunado a que existe un menor agrietamiento por contracción por lo que podría explorarse la posibilidad de ser utilizado en elementos que trabajen bajo dichas solicitaciones mecánicas. Si bien el concreto modificado con la adición de estos polímeros es un gran avancé para la industria de la construcción, sin embargo, es necesario seguir explorando más a fondo para poder tener mejores resultados que los ya obtenidos en esta investigación.
Campos García Ruben Emiliano, Instituto Politécnico Nacional
Asesor: M.C. Alfredo Namigtle Jimenez, Universidad Tecnológica de Tehuacán

DRONE CON CONTROL DIFUSO


DRONE CON CONTROL DIFUSO

Campos García Ruben Emiliano, Instituto Politécnico Nacional. Asesor: M.C. Alfredo Namigtle Jimenez, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

La incertidumbre paramétrica y la robustez en sistemas de control son problemas para cualquier entorno, en especial cuando se busca que el sistema sea capaz de ser independiente. Para ello, el control difuso logra ser una gran propuesta, pues con ello el sistema será capaz de proponer una solución basándose de un argumento no muy claro, como lo puede ser muy cerca o muy lejos. Este tipo de control es muy común en el pilotaje, considerando la existencia de perturbaciones endógenas y exógenas, por ello se planteó el diseño de controlador difuso aplicado en  un drone con la capacidad de mantener una altura deseada a pesar de las perturbaciones desconocidas presentes.



METODOLOGÍA

Primero se elaboró un algoritmo de un control difuso en un microcontrolador ATMega380 (arduino nano), y se configuró considerando a los siguientes sensores: ·       Sensor ultrasónico. Tiene como objetivo dar los datos de entrada para el control difuso midiendo la distancia del drone al suelo. ·       Sensor de giroscopio. Busca regular el ángulo de inclinación del drone en caso de que exista una perturbación. ·       Módulo Bluetooth. Mantiene una comunicación entre el drone y un dispositivo para poder supervisar el estado del drone, así como poner en marcha el programa o detenerlo. El arduino manda una señal para activar el sensor ultrasónico, este mismo envía una sonda la cual rebota en una superficie y regresa al sensor, gracias a ello podemos medir la distancia por medio de la fórmula de la velocidad, con ello despejamos la distancia y la obtenemos en metros, esa medida se utilizará como el valor de entrada al control difuso. En este paso es donde se le asignará un argumento así como un grado de pertenencia a ciertas funciones de membresía, esta sección se le conoce como fusificación, después se relacionan los argumentos de entrada y salida, para ello se dan uso de reglas o condicionales, esta sección se le conoce como inferencia. Ejemplo: Si caso 1 entonces caso 2 Si caso 2 entonces caso 1 Una vez se realizó este paso se obtendrá un resultado difuso, y por medio de un proceso matemático simple podemos defusificar el resultado de las funciones de pertenencia de salida, para ello se puede utilizar el método del centroide, método de membresía del máximo entre otras. Este resultado será un número, el cual se sumará al valor de la señal PWM de cada uno de los motores. A su vez el giroscopio constantemente obtiene el valor del ángulo de inclinación del drone para poder estabilizarse en cualquier situación. Finalmente el módulo bluetooth imprime los datos del drone como lo es la distancia que marca el sensor ultrasónico y el PWM de cada uno de los motores.  


CONCLUSIONES

A pesar de la existencia de distintas estrategías de control, el control difuso es una gran alternativa debido a que no es necesario obtener un modelo matemático para diseñarlo, basta con que se conozca las dinámica general del sistema y con esto entonces proponer un desempeño deseado. Es importante aclarar que este tipo de configuración está basada en ciertas suposiciones derivadas de la experiencia y formuladas en las reglas difusas establecidas con el IF y THEN. Al mismo tiempo, el diseño difuso, en la etapa de fusificación requiere de algunas funciones de membresía, que para este proyecto, fueron tomadas de las recomendaciones de la literatura, dejando claro que pueden cambiarse y ajustarse en función del desempeño del sistema. En general el uso del microcontrolador ATMega 380 (Arduino nano) ofrece una serie de ventajas para el desarrollo de proyectos. Su amplia compatibilidad con librerías brinda una gran versatilidad a la creación de aplicaciones específicas, como lo es el control difuso. Gracias a sus múltiples pines y su tamaño compacto lo vuelve una opción idónea para proyectos restringidos en espacio, como lo fue el caso, así como sus capacidades, que le permite el control de varios sensores por medio de librerías desarrolladas y probadas por la comunidad para hacer más ameno el trabajo y no hacer todo desde cero. Para finalizar el ATMega 380, gracias a su potencia y capacidad de procesamiento, es apto para implementar algoritmos de control difuso y gestionar eficazmente la lógica borrosa, lo que resulta de suma importancia en aplicaciones donde es necesaria una respuesta adaptable a diversas situaciones.
Campos Sanchez Jaqueline Monserrat, Instituto Tecnológico de Morelia
Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo

OBTENCIóN Y ANáLISIS ESTRUCTURAL DE BIOPLáSTICOS FúNGICOS


OBTENCIóN Y ANáLISIS ESTRUCTURAL DE BIOPLáSTICOS FúNGICOS

Campos Sanchez Jaqueline Monserrat, Instituto Tecnológico de Morelia. Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad nos encontramos en una búsqueda por generar más materiales sostenibles que nos ayuden a generar productos que tengan excelentes propiedades y además sean biodegradables, una opción son los bioplásticos fúngicos, estos son a partir del micelio de hongo, que gracias a sus propias propiedades ya cumplen con características que contribuyen a sustituir los plásticos derivados del petróleo, incluyendo textiles. La industria textil es la segunda industria más contaminante después de la del petróleo y con mayor impacto ambiental, ya que la producción de ropa genera miles de toneladas de emisiones de CO2, requiere altos consumos de agua, energía y reactivos químicos. Por lo anterior se han buscado opciones que aporten con modelos de producción sostenibles y con fibras naturales y ecológicas, como lo pueden ser los textiles fúngicos, estos son elaborados a partir del micelio de hongo.



METODOLOGÍA

Se ha realizado el cultivo de 10 muestra de P.Ostreatus en cajas de Petri, se ha cultivado en agar dextrosa y papa marca BD Bioxon, se rehidrataron 11.7g en 300ml de agua destilada, se dejó reposar durante 15 minutos, posteriormente se calentó agitando hasta llegar al punto de ebullición. Fue necesario esterilizar en una autoclave, el proceso consistió en mantener el matraz a una temperatura de 121°C, bajo presión. Terminado el proceso de esterilización, se dejó que enfriara la solución, el cultivo se realizó condiciones asépticas. Para llevar el proceso de inoculación se vertió en una caja de Petri, agar dextrosa y papa, se agregó un fragmento de 1 cm de micelio de P. Ostreatus, se cerró la caja de Petri y se le colocará film papel, se repitió el proceso, todo cerca del mechero y desinfectando los materiales cada vez que se repitió el proceso. Finalizado el proceso de cultivo, se dejaron durante 20 días los cultivos en una estufa de laboratorio a una temperatura de 28°C, en oscuridad total, se estuvo realizando supervisión cada 48 hrs para poder determinar su crecimiento radial, este se realizó con ayuda del software AutoCAD. Posteriormente se realizó el secado de las muestras, a una temperatura de 60°C a peso constante. Se procedió a realizar la preparación de bioplástico a partir del micelio de P.Ostreatus con plastificante, consistió en hidratar cuatro muestras de micelio de P.Ostreatus en agua destilada durante 30 min., se tuvo una quinta muestra, sin embargo esta no fue hidratada para ser considerada como muestra control, se les retiro el exceso de agua destilada y se colocaron cada uno en diferentes concentraciones de glicerol-agua, las concentraciones son las siguientes: Muestra 1: 30% glicerol - 70% agua destilada, Muestra 2: 50% glicerol - 50% agua destilada, Muestra 3: 70% glicerol - 30% agua destilada, Muestra 4: 100% glicerol - 0%agua destilada, Muestra 5: 0% glicerol - 0% agua destilada. Las muestras se dejaron durante 6 hrs en la solución glicerol-agua, se retiró el exceso y se dejaron reposar 24 hrs. Se realizó el ángulo de contacto de las cinco muestras de bioplástico, en las cuales se buscaba determinar la hidrofobicidad e hidrofilicidad. Se coloco una muestra de 3cm x 1cm de cada muestra, consistió en dejar caer una gota de agua en la muestra, tomar una fotografía, se determinó con ayuda de software AutoCAD, los siguientes resultados de diferentes muestras: Muestra 1: 98°, Muestra 2: 68°, Muestra 3: 32°, Muestra 4: 23°, Muestra 5: 18°. Podemos observar que la muestra 1 que es la muestra control de micelio de P.Ostreatus es un material que cuenta con una superficie hidrofóbica, en la teoría se nos dice que un material es hidrófobo ( 90°<θ<180°), esto quiere decir que su ángulo de contacto es alto, sus propiedades consisten en una adhesividad baja, un grado de mojabilidad bajo y una tensión superficial baja, contrario a esto podemos observar que en las demás muestras, los ángulos que tienen indican que son más hidrófilos, relacionado a la proporción de glicerol adicionado. La caracterización estructural del bioplástico se determinó por medio espectroscopia infrarroja por transformada de Fourier (FTIR), este análisis nos ayuda a conocer los grupos funcionales presentes en forma sólida, liquida o gaseosa con ayuda del software OriginLab se realizó la interpretación y análisis de los espectros infrarrojos que fueron tomados de cada una de las muestras En los espectros de FTIR se observan señales que corresponden a los componentes del micelio fúngico, se observa la señal a 2934- 2935 cm-1 de la vibración de tensión del grupo C-H presente en ácidos grasos y lípidos del micelio. En 1634 cm-1 se identifican enlaces C=O de la amida I, metilos por la onda 1372 y C-O localizado. Las señales en 1200-900 cm-1 son asignadas a la vibración de C-O, C-C, C-O-C de los polisacáridos. El pico en 1040 cm-1 es asignado a vibración de tensión del enlace glucosídico y del anillo de pirano de la celulosa (Sisti et al., 2021). Se destaca la intensidad en la vibración asignada a los grupos OH- que forman parte de los componentes del micelio como los polisacáridos, así como también al plastificante, se evidencia que a mayor cantidad de glicerol la señal indicada se intensifica como se esperaba.


CONCLUSIONES

Una vez realizado el análisis de la obtención de bioplásticos textiles, se determina que los bioplásticos son más hidrofílicos por efecto del plastificante. No se presenta un efecto en la estructura molecular de los plastificantes derivado de la adición del plastificante. Respecto a la estancia de investigación; se adquirieron conocimientos sobre la importancia del desarrollo de nuevos materiales poliméricos (bioplásticos) sustentables de origen natural con alto potencial de uso como textiles. Se adquirió conocimiento sobre métodos de desarrollo fúngico y métodos de caracterización instrumental como espectroscopia FTIR, determinación de la hidrofobicidad (Método de la gota), análisis termogravimétricos, se realizaron análisis y discusión e resultados.
Campos Sanchez Oscar Daniel, Instituto Tecnológico de Morelia
Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

IMPLEMENTACIóN DE CROPUF EN FPGA DE XILINX EN TECNOLOGíA 28 NM


IMPLEMENTACIóN DE CROPUF EN FPGA DE XILINX EN TECNOLOGíA 28 NM

Campos Sanchez Oscar Daniel, Instituto Tecnológico de Morelia. Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La implementación de osciladores de anillos configurables (CROPUF) en FPGA presenta una solución prometedora para abordar desafíos relacionados con la seguridad y protección de dispositivos integrados. Estos osciladores de anillos se basan en PUFs (Physical Unclonable Functions), que son estructuras físicas que aprovechan las variaciones inevitables en los procesos de fabricación, como los procesos litográficos. Los osciladores de anillos se utilizan para extraer respuestas PUF, que son secuencias de bits ruidosas y únicas que permiten identificar de manera segura un dispositivo de silicio, . Uno de los principales desafíos radica en la naturaleza reconfigurable de las FPGAs, lo que limita la capacidad del diseñador para aprovechar las técnicas de diseño a nivel de diseño de circuitos (layoutlevel). Además, la falta de información detallada sobre la estructura a nivel de compuertas (gate-level) del FPGA dificulta la selección y optimización de los componentes más adecuados para la construcción del PUF. Esta limitación lleva a la pérdida de información valiosa sobre las variaciones físicas inherentes, lo que afecta la calidad y confiabilidad del PUF implementado en la FPGA . Otro desafío importante es la necesidad de mantener un equilibrio entre la complejidad y la eficacia del PUF en la plataforma FPGA. Dado que los recursos en las FPGAs son limitados, algunos diseños de PUF pueden no ser adecuados para su implementación en esta plataforma. La simetría cuidadosa del enrutamiento requerida por ciertos diseños de PUF es difícil de lograr en las FPGAs, lo que plantea interrogantes sobre su rendimiento y fiabilidad . Este trabajo se enfoca principalmente en el diseño e implementación en FPGA de un CROPUF. Este dispositivo será capaz de recibir una entrada de 32 bits a través del protocolo de comunicación UART y generar respuestas de 64 bits. Para asegurar un rendimiento y fiabilidad óptimos, se está desarrollando una herramienta que permitirá determinar el periodo de comparación más adecuado entre los osciladores utilizados en el CROPUF. El objetivo final de este proyecto es crear una herramienta versátil, capaz de generar cadenas aleatorias, que servirá como referencia y base para el desarrollo de futuros proyectos. Esta herramienta proporcionará una solución valiosa para la generación de datos aleatorios en distintos contextos y aplicaciones



METODOLOGÍA

1.- Se realizó el enrutado y posicionamiento de forma manual, pues al dejar que Vivado realice estos de forma automática, se crean enrutados asimétricos, lo cual puede producir desfases en los tiempos de transmisión de datos. Se creó un bloque aislado cuya área abarca desde el SLICE X28Y1 hasta el SLICE X35Y199, con el fin de aislar las LUTs y Multiplexores utilizados para el CRO de los registros creados por el sintetizador. El objetivo es evitar posibles perturbaciones. 2.- Sobre la tarjeta Nexys 4 DDR, se obtuvo un modelo del comportamiento del CRO con tres configuraciones (0000000000, 1010101010 y 1111111111) para dos regiones: desde SLICE X28Y1 hasta SLICE X35Y199 y desde SLICE X40Y199 hasta SLICE X47Y199. 3.- Se diseñó una máquina de estados capaz de recibir información de 32 bits mediante comunicación UART, comparar la frecuencia de oscilación entre los 128 osciladores y devolver una palabra de 64 bits, utilizando el CRO previamente generado. 4.-Se diseño un algoritmo en Python que incrementa el desafío de configuración del oscilador y captura las 1024 respuestas, con esta información se calculan los valores de Unicidad, Uniformidad, fiabilidad y imprevisibilidad. 5.-Se hicieron pruebas variando el tiempo que la maquina de estados compara la frecuencia entre osciladores para determinar cuál ofrecía mejores resultados.


CONCLUSIONES

La implementación exitosa del oscilador de anillos configurable en FPGA ha demostrado ser una solución sólida a problemáticas que requieran de la encriptación de información. Aunque aún quedan incógnitas por responder, como el comportamiento de esta a diferentes niveles de temperatura, temas que en este trabajo no se abordan; sin embargo, el desarrollo de esta clase de dispositivos es un paso significativo hacia la creación de sistemas de seguridad más confiables y económicamente accesibles
Canché Gómez Andy Allen, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo

DESARROLLO DE APLICACIóN WEB PARA PROCESO ADMINISTRATIVOS


DESARROLLO DE APLICACIóN WEB PARA PROCESO ADMINISTRATIVOS

Canché Gómez Andy Allen, Consejo Quintanarroense de Ciencia y Tecnología. Larios Bravo Cristian Armando, Universidad de Colima. Olmos Romero Nydia Naomi, Universidad de Colima. Silva Vazquez Ruben Abraham, Universidad de Colima. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El manejo de la información en grandes volúmenes tiene como cargo el saber administrar estas cantidades de una manera eficiente, sencilla y eficaz. Las tecnologías de la información tienen como propósito ayudar al usuario a mantener un orden y manipular esta información de manera sencilla y concisa para él. Nuestro trabajo comienza en desarrollar herramientas para manipular esta información y facilitar el uso de las funcionalidades del sistema al usuario.  



METODOLOGÍA

Para la elaboración de este proyecto se recurrió al uso de diversas tecnologías y herramientas: el framework de PHP Laravel, JavaScript junto con sus frameworks JQuery.js y Node.js, tanto como el Bootstrap. Primeramente, se realizó una inspección del sistema para analizar la funcionalidad del sistema junto con la valoración de las mejoras y requerimientos a implementar, así como para seguir un estándar para vistas y los nombres de los componentes, controladores, modelos, migraciones, entre otros. Resultó indispensable el diseño de una representación visual de la estructura de la base de datos a implementar en el sistema, para posteriormente trasladar dicho diseño de manera lógica en forma de código. Una vez establecida la base de datos (relaciones, tipos de datos a utilizar, etc.) se comenzó a sobre llevar el desarrollo de las interfaces de usuario (frontend) y la lógica detrás de estas (backend). Adicionalmente se establecieron los tipos de usuarios que harán uso del sistema, así como los permisos y restricciones. En el transcurso de la estancia de investigación se pusieron en práctica todos aquellos conocimientos previos del framework Laravel con los que contamos, adicionalmente utilizamos nuevas tecnologías y herramientas que nos fueron de gran ayuda para la realización del proyecto; por ejemplo, la utilización de BitBucket, Git y Github para el control de versiones eficiente nuestro trabajo.


CONCLUSIONES

El aprender diferentes estándares y protocolos de programación fue una parte integral de nuestro aprendizaje durante el desarrollo del sistema, así como tomar en consideración las aportaciones del investigador al aplicar los conocimientos adquiridos. Por otro lado, el sobrellevar los distintos requerimientos solicitados para el sistema fue uno de los mayores retos a los que nos enfrentamos, ya que es un sistema bastante extenso sin embargo las especificaciones siempre fueron claramente indicadas.
Carbajal Murrieta Luis Rubén, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

CONVERTIDOR BACK TO BACK DE TRES FASES A UNA FASE


CONVERTIDOR BACK TO BACK DE TRES FASES A UNA FASE

Carbajal Murrieta Luis Rubén, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este estudio es buscar una solución para que cada vivienda pueda contar con su propio aerogenerador y autoabastecerse de energía eléctrica. Sin embargo, a día de hoy no es sencillo instalar aerogeneradores de tres fases en cada casa de forma individual, debido a que en México las casas cuentan con una sola fase en su conexión eléctrica. Por lo tanto, se plantea desarrollar un convertidor capaz de recibir las tres fases del aerogenerador y convertirlas a una sola fase, permitiendo la inyección de energía eléctrica a la casa de manera eficiente y segura.  



METODOLOGÍA

Revisión bibliográfica y estado del arte: Se realizó una investigación exhaustiva para recopilar información sobre la tecnología de aerogeneradores de tres fases, así como sobre los tipos de convertidores back-to-back utilizados para la conversión de energía. Diseño del convertidor back-to-back: Se diseñará un convertidor back-to-back capaz de recibir las tres fases del aerogenerador y convertirlas en una sola fase para su conexión a la red eléctrica de la vivienda. Se investigarán y seleccionarán las topologías y componentes adecuados para el convertidor, buscando eficiencia y confiabilidad en la conversión de energía.


CONCLUSIONES

Durante la estancia de verano, se tuvo la oportunidad de profundizar en los conocimientos teóricos relacionados con los aerogeneradores de energía de 3 fases y sus convertidores de señal. Estos dispositivos son fundamentales en la producción de energía eólica, aprovechando la fuerza del viento para generar electricidad de manera más sostenible y respetuosa con el medio ambiente. Además de la parte teórica, se llevaron a cabo simulaciones para analizar el comportamiento de los aerogeneradores y los convertidores de señal. Estas simulaciones proporcionaron resultados positivos, lo que indica que las bases teóricas están siendo aplicadas de manera adecuada. Sin embargo, cabe destacar que los resultados obtenidos no alcanzaron las expectativas previstas en términos de perfección de la señal. Dada la complejidad del trabajo y la naturaleza técnica del proyecto, es comprensible que aún esté en una fase de prueba. Los proyectos de ingeniería suelen requerir tiempo y ajustes para optimizar su funcionamiento y alcanzar los objetivos planteados. Es fundamental continuar trabajando en el proyecto, afinando los parámetros y perfeccionando los detalles para lograr el objetivo deseado. El objetivo final es obtener una señal senoidal perfecta de una fase. Esto implica obtener una señal eléctrica que representa una onda sinusoidal pura, lo cual es crucial en aplicaciones eléctricas y electrónicas para garantizar un suministro de energía estable y eficiente. Al lograr este objetivo, se estaría dando un paso importante hacia el desarrollo de sistemas más eficientes de generación de energía eólica.
Carbajal Perez Amada Sarahi, Instituto Tecnológico de Chilpancingo
Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur

DISEñO DE UNA APLICACIóN DE APRENDIZAJE DE INGLéS PARA USUARIOS CIEGOS: HAPPYBLINDGLISH


DISEñO DE UNA APLICACIóN DE APRENDIZAJE DE INGLéS PARA USUARIOS CIEGOS: HAPPYBLINDGLISH

Carbajal Perez Amada Sarahi, Instituto Tecnológico de Chilpancingo. Galván Cázares Hugo Alejandro, Universidad de Guadalajara. Muñoz de Jesus Brisa Fernanda, Instituto Tecnológico de Chilpancingo. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

En México, la discapacidad visual es la segunda enfermedad más reportada según datos del Instituto Nacional de Estadística y Geografía (INEGI), y de acuerdo con la directora del Hospital de la Ceguera APEC, Valeria Sánchez, en México hay un total de 2 millones 237 mil personas que tienen deficiencias visuales (Scotiabank, 2021). Las aplicaciones para aprender inglés en el mundo son muy usadas y en realidad existe un gran número de ellas, las cuales han sido muy efectivas y han ayudado a muchas personas a comprender mejor el idioma inglés, el cual ha sido un recurso y una herramienta que abre constantemente puertas de trabajo, estudio y sociabilidad para la persona que domine esta herramienta. Sin embargo, estas aplicaciones no suelen estar centradas en usuarios con discapacidad visual.   



METODOLOGÍA

Para realizar este trabajo se llevó a cabo un proceso cualitativo debido al tamaño de la muestra. Los pasos que sigue este modelo constan de diez etapas para lograr el objetivo de la investigación (Hernández et al., 2016). La metodología utilizada para el análisis y diseño se llama MEUXuc (Álvarez, 2019) y se centra en usuarios con discapacidad visual, además de contar con las fases necesarias de la ingeniería de software para llevar a cabo el diseño del proyecto. Se tomó la decisión de hacer uso de la MEUXuc debido no solo a la inclusión de los usuarios objetivo sino de su contemplación en cada una de sus etapas y de la explicación de cada uno de sus métodos. Además, para la evaluación del diseño se utilizaron dos métodos los cuales son: Card Sorting y Thinking Aloud. El método Card Sortnig consiste en el ordenamiento de tarjetas con conceptos concretos que se están analizando y evaluando para posteriormente juntarlos y así obtener la arquitectura de la información (Álvarez, 2019). En este caso se adaptó el método para los usuarios con discapacidad visual, es decir, se utilizó el sistema braille. Se pensó en un menú que fuera intuitivo y fácil de aprender para los usuarios ciegos y se realizó un prototipo físico para que estos pudieran interactuar con el. Mientras que Thinking Aloud es un método en el cual la interacción social es fundamental. Se hizo uso de este explicando cada una de las pantallas a los usuarios para que pudieran reconocerlos y poder evaluar si la ubicación de los objetos en pantalla eran accesibles o no. 


CONCLUSIONES

En base al trabajo anterior se complemento la investigación con aplicaciones existentes para aprender inglés para personas con discapacidad visual, requerimientos funcionales y no funcionales, se definió la base de datos y el lenguaje de programación a usar, se realizaron diagramas para comprender el funcionamiento de la aplicación, se trabajó en una nueva propuesta para la interfaz de un sistema para el aprendizaje del idioma inglés para usuarios con discapacidad visual. También se tomó en cuenta el uso de los colores y su contraste para realizar un diseño que pueda ayudar a personas con baja visión a utilizar el sistema. Las pruebas de interfaces fueron realizadas a personas de baja visión por lo que en un futuro se harán al usuario objetivo que es una persona con ceguera, para mejorar la aplicación cada vez más. Se espera que la aplicación en un futuro sea también para personas de baja visión. Aunque el trabajo era extenso pudimos obtener un avance en la codifcación de algunas pantallas de la aplicación final, por lo que se espera que cuando este trabajo sea retomado se continúe con los aspectos de aprendizaje para las personas con discapacidad visual.
Carbajal Pérez David Geovanni, Instituto Tecnológico de Chilpancingo
Asesor: Mtra. claudia Abril Téllez Hernández, Instituto Tecnológico de Chilpancingo

IMPLEMENTACIÓN Y EVALUACIÓN DE UNA ESTRATEGIA DE ALFABETIZACIÓN CON REALIDAD AUMENTADA, DISEÑADA PARA NIÑAS Y NIÑOS DE 5 A 7 AÑOS DE EDAD, EN LA REGIÓN CENTRO DEL ESTADO DE GUERRERO.


IMPLEMENTACIÓN Y EVALUACIÓN DE UNA ESTRATEGIA DE ALFABETIZACIÓN CON REALIDAD AUMENTADA, DISEÑADA PARA NIÑAS Y NIÑOS DE 5 A 7 AÑOS DE EDAD, EN LA REGIÓN CENTRO DEL ESTADO DE GUERRERO.

Carbajal Pérez David Geovanni, Instituto Tecnológico de Chilpancingo. Asesor: Mtra. claudia Abril Téllez Hernández, Instituto Tecnológico de Chilpancingo



PLANTEAMIENTO DEL PROBLEMA

Una de las carencias en los países de habla hispana y particularmente en México, ha sido el fracaso en la enseñanza y por consecuencia el aprendizaje de la lecto-escritura; son evidentes los errores ortográficos al escribir y no hay comprensión lectora en un gran número de estudiantes, esto ha sido por años un verdadero reto para los profesores de educación básica, educación media y educación superior. La importancia de la lectura es que se considera la puerta de entrada al conocimiento y la escritura es un medio privilegiado para expresar  ideas y sentimientos. La relevancia de la alfabetización radica en que es un derecho humano y un recurso para la autonomía personal y el desarrollo social. El Consejo nacional de evaluación de la política de desarrollo social CONEVAL, reportó que en el año 2018 el componente de población de 3 a 15 años, es de  57.1 miles de personas en el indicador de rezago educativo en el estado de Guerrero, lo que lo coloca a nivel nacional en los últimos lugares de aprovechamiento y asistencia escolar. El presente proyecto se ha de centrar en el desarrollo de material didáctico innovador con realidad aumentada, con el objetivo de implementar y evaluar una estrategia de alfabetización durante veinte días, dirigido a niñas y niños no alfabetizados, de la región centro del estado de Guerrero.



METODOLOGÍA

La presente investigación tiene un enfoque mixto, es inductivo, con un modelo de evaluación de Contexto, Insumo, Proceso, Producto (CIPP), con sus respectivas categorías, de pertinencia, adecuación y factibilidad, planificaciín y desarrollo de acciones, preguntas de investigación ¿Qué fundamentos teóricos sustentan la Alfabetización a través de realidad aumentada en niños de 5 a 7 años? ¿Qué habilidades de lecto escritura se desarrollan a través de la realidad aumentada en niños de 5 a 7 años respecto de la lecto escritura? ¿Cómo contribuyen la Realidad Aumentada en el desarrollo de la lecto escritura en niños de 5 a 7 años? ¿Cuál es el impacto de la Realidad Aumentada para el desarrollo en las habilidades de lecto escritura en niños de 5 a 7 años de la región centro del estado de Guerrero?  Innovación del método de alfabetización vacachadafa, a través de modelado por medio de la plataforma Spark AR construir la herramienta (cubos) didácticos y ejercicios de lectura y escritura considerando un estudio de caso.


CONCLUSIONES

Durante la estancia de verano Delfín 2023, se logró adquirir conocimientos teóricos, referentes empíricos así como, antecedentes históricos del proceso de alfabetización mediante realidad aumentada, conociendo la pertinencia de la tecnología en el proceso de enseñanza-aprendizaje. Se logró modelar (crear y diseñar) a través de la plataforma Spark AR, efectos y vivencias de realidad aumentada  y ponerlos en práctica con el objetivo de implementar y evaluar una estrategia de alfabetización mediante tecnología en RA.   Se encuentran en proceso de alfabetización un sujeto de estudio de 5 años, el diagnóstico inicial es que el sujeto tiene habilidades de grafía. Estatus del proceso de  implementación: Grafía de letras Fonema con identificación de imágenes Escritura de sílabas Lectura de sílabas El estudio de caso sobre la aplicación del método VACACHADAFA en Realidad Aumentada en la lecto-escritura de un sujeto de cinco años durante diez días ha arrojado resultados prometedores. Al practicar regularmente la asociación de imágenes con las silabas iniciales de los objetos y animales que se utilizaron en los cubos, se observó como el sujeto encuentra mayor facilidad para leer y relacionar letras con imágenes. Se pudo apreciar durante la jornada de trabajo que esto provocó un mayor interés y gusto por la lectura (que otra forma de hacer trazos), haciéndola más atractiva y entretenida para el objeto de estudio. Durante el proceso se puede afirmar que esta experiencia visual y práctica reforzó en el sujeto, la asociación entre letras e imágenes. A través de esta estrategia de alfabetización innovadora y lúdica, el sujeto ha demostrado un avance significativo al adquirir la habilidad de escribir y leer sílabas en un corto período de tiempo (5 dias x 30 minutos). En la presente investigación se pudo observar la efectividad del método VACACHADAFA en Realidad Aumentada en el sujeto de estudio, la cual radica en su enfoque participativo, el cual ha estimulado el interés en el proceso de aprendizaje. Al combinar actividades visuales en realidad Aumentada, auditivas y kinestésicas, se ha logrado un aprendizaje más completo y significativo para el sujeto de estudio, permitiéndole asimilar de manera más rápida los fonemas y caligrafía en la construcción de sílabas. Aunque aún no ha logrado construir palabras ni oraciones completas, el hecho de que pueda leer y escribir sílabas es un indicador alentador de su progreso, ya que a través de la imagen construye oraciones en forma oral, desarrondo habilidades lingüistícas que permitieron un mejor lenguaje,  lo que facilitará la transición hacia niveles más avanzados de lectura y escritura. El método VACACHADAFA en Realidad Aumentada ha demostrado ser una herramienta valiosa de atención y retención, para potenciar las habilidades de lecto-escritura en el sujetode estudio en específico, lo que sugiere que puede ser una opción efectiva para otros niños en situaciones similares. Este estudio de caso subraya el impacto positivo del método VACACHADAFA en Realidad Aumentada, en el proceso de lecto-escritura de un sujeto de cinco años. Su capacidad para leer y escribir sílabas después de haber trabajado por solo cinco días durante treinta minutos diarias es un logro significativo y alentador. La presente investigación por su periodicidad, aún se encuentra en proceso; (en la fase de lectura y escritura de sílabas)  y por ahora no se pueden mostrar los resultados finales.
Carcamo Posadas Ariadna, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Julio Cesar Martinez Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango

IMPACTO DE LA EDUCACIÓN FINANCIERA EN EL DESEMPEÑO ACADÉMICO Y PROFESIONAL DE LOS ESTUDIANTES DE INGENIERÍA INDUSTRIAL


IMPACTO DE LA EDUCACIÓN FINANCIERA EN EL DESEMPEÑO ACADÉMICO Y PROFESIONAL DE LOS ESTUDIANTES DE INGENIERÍA INDUSTRIAL

Carcamo Posadas Ariadna, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Julio Cesar Martinez Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la educación financiera debe de ser un pilar fundamental en sus vidas, ya que contribuye a la mejora en su calidad de vida, sin embargo, las cifras son alarmantes, de acuerdo con el CONDUSEF (2010) cerca de 62 de cada 100 personas carecen de una educación financiera. Una persona que tiene conocimientos (conceptos financieros, habilidades numéricas, etc.), comportamientos (control financiero, resiliencia financiera y toma informada de decisiones) y actitudes (propensión de actuar en el presente), tiene mayores probabilidades de conseguir un bienestar económico de forma más rápida y acertada.  La educación financiera se define como el proceso por el cual los consumidores o inversionistas financieros mejoran su comprensión de los productos financieros, conceptos y riesgos, con el fin de desarrollar habilidades y confianza, para tomar decisiones informadas sobre a dónde ir para obtener ayuda y ejercer cualquier acción eficaz para mejorar su bienestar económico (OCDE-CVM, 2005). Actualmente, la alfabetización financiera se encuentra en un punto donde muchos de los jóvenes carecen de ella, según la INFE/OCDE la alfabetización financiera es una combinación de la concientización, conocimientos, habilidades y comportamientos necesarios para la toma de decisiones financieras sólidas y eventualmente lograr el bienestar financiero individual. En México existe un rezago educativo financiero considerable, lo anterior debido a factores como el nivel socioeconómico, la edad, el género, la preparación académica y la falta de interés por conocer acerca del tema. Toda mala decisión financiera tiene un impacto, ya sea personal o común, por ejemplo, en la compra de un producto o la adquisición de un servicio y en el incorrecto manejo del efectivo.



METODOLOGÍA

Se realizó una investigación exhaustiva de la literatura científica y académica sobre la importancia de la educación financiera en el contexto de los estudiantes de ingeniería industrial, posterior a ello se diseñó un instrumento de recolección de datos para evaluar el nivel de conocimientos, comportamientos y actitudes financieras de los estudiantes de ingeniería industrial, tomando como referencia el Índice de Alfabetización financiera. El diseño de la encuesta consta de un total de 55 preguntas, divididas en 6 secciones, las cuales fueron: datos de identificación (6 preguntas), conocimientos previos (2 preguntas), características de hogar (2 preguntas), información familiar (5 preguntas), características socioeconómicas (8 preguntas) y actitudes y comportamientos financieros (32 preguntas). La base de dicha encuesta es la presentada en el 2021 por el INEGI y la CNBV, la cual lleva por nombre Encuesta Nacional de Inclusión Financiera (ENIF, 2021). La encuesta engloba los comportamientos, actitudes y conocimientos, ya que son los elementos necesarios para poder establecer el impacto que la educación financiera tiene en el desarrollo académico y profesional de los estudiantes de ingeniería industrial. El diseño de la encuesta es probabilístico y por conglomerados, donde la unidad de selección son estudiantes de nivel superior que se encuentren estudiando la carrera de ingeniería industrial. Aplicar el instrumento de recolección de datos tiene como objetivo principal evaluar el nivel de conocimientos, comportamientos y actitudes financieras de los estudiantes de ingeniería industrial, lo anterior va a permitir analizar la relación entre el índice de alfabetización financiera de los estudiantes y su desempeño académico, evaluando variables como el promedio de calificaciones y su participación en tutoría. También se identificaron lo recursos o herramientas más efectivas para fomentar la educación financiera en el contexto de la ingeniería industrial con la intención de que los estudiantes puedan tomar mejores decisiones financieras que ayuden en su desarrollo académico y profesional.


CONCLUSIONES

Al ser un tema extenso, en este momento no se pueden presentar conclusiones numéricas, por lo que el desarrollo del proyecto: impacto de la educación financiera en el desempeño académico y profesional de los estudiantes de ingeniería industrial, se quedó en la etapa del diseño de la encuesta, sin embargo, se espera que en etapas posteriores se pueda dar seguimiento al proyecto para establecer conclusiones objetivas. Por otro lado, los antecedentes presentados sirven de base para que pueda aplicarse de manera efectiva y eficaz la encuesta debido a que ya se cuenta con los conocimientos teóricos necesarios. Para alcanzar el pleno desarrollo económico es necesario insertar a las nuevas generaciones en el campo de la educación financiera, logrando la plena comprensión de productos, costos, beneficios y servicios que se encuentran en el mercado financiero, lo cual proporcionará claves de comparación y emisión de criterios para minimizar los riesgos como indica la OECD (2012). Debido a su importancia, la educación financiera debe ser impartida a los ciudadanos sin importar su edad, ya que se trata de un proceso continuo a lo largo de toda la vida, donde se recomienda empezar desde una temprana edad (Domínguez, 2013). Sin embargo, mientras el 90% de los estudiantes quieren aprender finanzas, el 80% de los profesores no se siente apto para enseñar esta asignatura (Kiyosaki, 2015). La educación financiera constituye un tema transversal que también debe introducirse desde la escuela primaria hasta ser dominada con propiedad por profesionales de la ingeniería y otras áreas.
Cardeña Varela Luis Fernando, Instituto Tecnológico Superior de Xalapa
Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica

DISEÑO DE UNA SOLUCIÓN PARA LA OPTIMIZACIÓN DE USO DE ENERGÍA EN EL POLITÉCNICO COSTA ATLÁNTICA 


DISEÑO DE UNA SOLUCIÓN PARA LA OPTIMIZACIÓN DE USO DE ENERGÍA EN EL POLITÉCNICO COSTA ATLÁNTICA 

Cardeña Varela Luis Fernando, Instituto Tecnológico Superior de Xalapa. Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El Politécnico Costa Atlántica (PCA) es una institución que brinda servicios de educación superior. En ella se utiliza la energía para el funcionamiento de muchos dispositivos, todos ellos herramientas indispensables para el buen desempeño de las actividades que realiza la comunidad académica en general.  Sin embargo, gran parte de la energía eléctrica es usada por los sistemas de climatización (SC). Estos sobrepasan el consumo energético de todos los dispositivos presentes por mucho y se ha observado que algunos de ellos están encendidos en momentos en los que no hay personas al interior de los salones. Esto sucede porque los SC solo pueden ser controlados de forma manual por operario que se encuentre cerca y detecte el problema.  Esto en primera medida genera un incremento de los costos indirectos, luego, una disminución de la vida útil de los SC e incluso, un incremento de los gases contaminantes emitidos productos de la generación de la energía. Es por ello por lo que surge la siguiente pregunta: ¿Es posible diseñar una estrategia que permita el control eficiente de los SC y así reducir los márgenes de pérdidas? 



METODOLOGÍA

Se realizó un estudio del aprovechamiento de los SC, en los cuales se observó que pasan mucho tiempo encendidos sin ser aprovechados o veces en los que nunca se deberían encender en el periodo de la jornada. Posteriormente, se realizó un análisis del consumo energético de los SC, con los datos recopilados del aprovechamiento, en el cual nos arroja que, en promedio, se gasta un aproximado de $59,000 COP ($14.64 USD) por cada bloque (recordando que el Politécnico cuenta con 6 bloques) en un solo día, esto nos arroja un gasto innecesario, consumo energético, disminución de vida útil de los equipos, así como un incremento de gases contaminantes generados. Se realizó un análisis de alternativas y posibles soluciones y se selección la opción de realizar un sistema analógico, el cual constaría de varias secuencias. En la primera secuencia se decidió implementar un lector RFID el cual servirá para autentificar el usuario y dar paso de la corriente a la siguiente fase (la corriente de salida del RFID es corriente directa). Posteriormente, después del módulo de lectura RFID se implementó un circuito el cual sirve para el enclavamiento del mecanismo a través de relevadores principalmente, el cual ayudará a hacer el intercambio de corriente directa a corriente altera, la cual energizará la siguiente fase. A continuación, se energizará el interruptor, el cual dará control de las luces del salón, así como el dispositivo de accionamiento del aire acondicionado. Por último, al energizar el dispositivo de accionamiento, mediante una programación básica interna, accionará de encendido y apagado el aire acondicionado. Al momento de la experimentación con el prototipo se pusieron a prueba diversos casos de uso, los cuales se pronosticaron de manera teórica, así como se analizó el comportamiento del sistema para posibles nuevos casos surgidos en esta misma fase.


CONCLUSIONES

Debido al gran consumo que tienen los sistemas de climatización es mejor utilizar un control universal.​ Las pruebas realizadas demuestran que es posible automatizar de forma eficiente el encendido y apagado de diferentes dispositivos dentro de la institución. ​ Cuantos más fallos se deseen evitar mayor será la complejidad del sistema. Los beneficios del sistema son: Un bajo costo de implementación. No es invasivo ni requiere modificaciones considerables en el circuito eléctrico existente. Es amigable y de fácil entendimiento para el usuario.
Cárdenas Canales René Patricio, Instituto Politécnico Nacional
Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California

ADQUISICIóN, PROCESAMIENTO Y ANáLISIS COMPARATIVO DE LAS SEñALES ELECTROENCEFALOGRáFICAS EN PERSONAS AUTISTAS Y NEUROTíPICAS ANTE ESTíMULOS SENSORIALES AUDITIVOS.


ADQUISICIóN, PROCESAMIENTO Y ANáLISIS COMPARATIVO DE LAS SEñALES ELECTROENCEFALOGRáFICAS EN PERSONAS AUTISTAS Y NEUROTíPICAS ANTE ESTíMULOS SENSORIALES AUDITIVOS.

Cárdenas Canales René Patricio, Instituto Politécnico Nacional. Noyola Zamora Marianne Denis, Instituto Politécnico Nacional. Rodriguez Acuña Ricardo, Instituto Tecnológico Superior de Cajeme. Villafuerte Martínez Naomi Arelí, Universidad de Colima. Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El trastorno del espectro autista (TEA) es una condición del neurodesarrollo caracterizada por alteraciones en la comunicación e interacción social, así como en el procesamiento sensorial. Esto representa un desafío significativo para la sociedad debido a su alta prevalencia y las dificultades que su población puede experimentar en diversos aspectos de su vida. Dentro del autismo, se experimentan diferencias en la sensopercepción que pueden variar de un individuo a otro. Algunas personas pueden experimentar una audición típica o tener habilidades auditivas excepcionales, mientras que otras pueden enfrentar dificultades en su procesamiento. El análisis comparativo de la respuesta eléctrica cerebral mediante electroencefalografía (EEG) entre personas autistas y neurotípicas (es decir, sin trastornos neurológicos) frente a estímulos sensoriales auditivos se ha convertido en una herramienta de investigación relevante para comprender las bases neurobiológicas de las diferencias en el procesamiento sensorial entre ambos grupos. Por tanto, surge la necesidad de formular la siguiente interrogante: ¿Existe una diferencia significativa en la respuesta eléctrica cerebral en personas autistas y neurotípicas ante estímulos sensoriales auditivos? Este estudio tiene como objetivo principal comparar las respuestas cerebrales mediante EEG en individuos autistas y neurotípicos al exponerse a estímulos sensoriales auditivos.



METODOLOGÍA

El inicio del proyecto involucró una revisión de la literatura existente con el objetivo de obtener información sobre la reactividad eléctrica cerebral de personas autistas frente a potenciales evocados auditivos y sobre las áreas cerebrales implicadas en el procesamiento de la información sonora. Durante el proceso de consulta, se realizaron pruebas con dos sistemas de EEG disponibles para la investigación el Emotiv EPOC+ de 14 canales y el Open BCI de 8 canales para determinar cuál se adaptaba mejor a las necesidades del proyecto, considerando aspectos como la comodidad, la ubicación y tipo de los electrodos, el formato de la información numérica, la posibilidad de agregar marcadores y los insumos disponibles para su mantenimiento y correcta colocación.  Se tomó una clase enfocada en la sensopercepción y las crisis sensoriales en el trastorno del espectro autista se estableció un protocolo de actuación en caso de que un participante presente señales de malestar o desencadene una crisis durante la presentación de los estímulos auditivos. Para su presentación, los estímulos auditivos se dividieron en dos categorías, con una duración de dieciséis segundos cada uno, y separados con silencios de la misma magnitud. Estas consistieron en diez sonidos cotidianos y diez frecuencias dentro del umbral auditivo, las cuales se determinaron al relacionarse con la regularidad con la cual se presentan en la vida diaria. Para su estandarización, se utilizó una aplicación de celular para medir los decibelios percibidos desde la perspectiva del sujeto de estudio. Para la delimitación de la población, se utilizó el Cuestionario de cociente del espectro autista (Baron-Cohen, 2001), el cual es empleado para cuantificar los rasgos autistas. Se seleccionaron dos personas autistas, y dos personas neurotipicas ambos de la misma edad y sexo. Una mujer autista de veintidós años y un varón autista de dieciséis años, y en contraparte, una mujer neurotípica de veintidós años y un varón neurotípico de dieciséis años. Se les realizó una entrevista sobre su historial clínico y posteriormente se les aplicó el Cuestionario de sensibilidad auditiva (Khalfia y col., 2002). Para el escenario se seleccionó uno de los salones de la universidad y se tomaron las medidas necesarias para eliminar la mayor cantidad de sonidos de fondo durante las pruebas y se utilizó una bocina ubicada a un metro de distancia del sujeto. Antes de iniciar las pruebas, se realizó un ejercicio de respiración con el objetivo de que el individuo se encontrará relajado. Posteriormente, se colocó al sujeto en posición sentado con la bocina a la espalda. Frente a él, se situaron dos observadores, los cuales anotaron las reacciones conductuales que el sujeto de prueba pudiera presentar durante la reproducción de sonidos. Para el procesamiento de los datos, se diseñó un programa en Matlab que separó y filtró las respuestas para poder determinar la potencia y frecuencia de onda percibida durante la presentación de los estímulos, cuestión que ayudará a comparar las señales entre cada grupo de individuos.


CONCLUSIONES

Se espera, a través del análisis de la actividad eléctrica cerebral con la utilización de MATLAB, obtener un mayor entendimiento de los mecanismos subyacentes a las peculiaridades sensoriales observadas en personas autistas, lo que podría contribuir a mejorar la evaluación diagnóstica y el diseño de intervenciones terapéuticas para este trastorno del neurodesarrollo. Además, se espera que los resultados obtenidos puedan ayudar en las necesidades sensoriales individuales de las personas autistas. Este estudio de comparación de la respuesta eléctrica cerebral mediante EEG permitió obtener señales de biopotenciales cerebrales que brindan información sobre las bases neurobiológicas de las diferencias en el procesamiento sensorial en el trastorno del espectro autista. Este enfoque puede proporcionar una visión más profunda de cómo el cerebro de las personas con TEA responde de manera distinta a los estímulos auditivos en comparación con el cerebro de individuos neurotípicos y así crear un ambiente menos abrumador para ellas, lo que contribuiría a su bienestar y rendimiento en distintos contextos. Un mayor entendimiento de los mecanismos subyacentes a las peculiaridades sensoriales observadas en personas autistas puede llevar a una mejora en la evaluación diagnóstica y facilitar el diseño de intervenciones terapéuticas más específicas y efectivas, adaptadas a las necesidades sensoriales individuales de cada persona con TEA.
Cardenas Clavijo Katherinne Dayanna, Institución Universitaria Politécnico Grancolombiano
Asesor: Mtra. Rita Rangel Flores, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo

CARACTERIZACIóN DE LA CALIDAD DEL SERVICIO DE TRANSPORTE TERRESTRE VíA CARRETERA DE LOS POLLOS SACRIFICADOS.


CARACTERIZACIóN DE LA CALIDAD DEL SERVICIO DE TRANSPORTE TERRESTRE VíA CARRETERA DE LOS POLLOS SACRIFICADOS.

Cardenas Clavijo Katherinne Dayanna, Institución Universitaria Politécnico Grancolombiano. Asesor: Mtra. Rita Rangel Flores, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con las medidas internacionales y nacionales demuestran que el transporte terrestre de carga es ineficiente, por ende los costos logísticos son mayores en comparación con países de primer mundo y algunos lugares de la región. Esto se puede identificar en mayor medida por falencias en la infraestructura vial, tiempos de operación, demoras en la entrega, generando afectaciones sobre la carga que se evidenciará en la insatisfacción de los clientes. Para las diferentes empresas, la satisfacción de los clientes es lo más importante, donde la ineficiencia en el sistema de transporte terrestre de alimentos básicos de la canasta familiar en Colombia afecta negativamente la satisfacción de los clientes. El transporte ineficiente llega a tener demoras a la hora de las entregas, mayor costo y precios más elevados para su adquisición, generando pobreza extrema lo que no contribuirá a los objetivos de desarrollo sostenible (ODS), pérdida de productos y falta de disponibilidad en los puntos de venta. Es por ello por lo que el uso de indicadores en las empresas de transporte terrestre vía carretera permite identificar cómo se encuentra el estado real de las áreas que afectarían negativamente la compañía; donde estos factores cada vez son más exigentes debido a la competencia, el cambio en la demanda. (Serna et al., 2017) Se desconocen las características de la calidad del servicio de Transporte terrestre vía carretera de los pollos sacrificados.  



METODOLOGÍA

De acuerdo con la contextualización del caso de estudio, se lleva a cabo la búsqueda de documentos académicos que respalden la idea propuesta. Estos documentos se obtienen de bases de datos y motores de búsqueda especializados, utilizando los siguientes términos como palabras clave de búsqueda: "transporte terrestre vía carretera", "calidad del servicio de transporte terrestre, vía carretera", "alimentos canasta básica en colombia", "características de calidad del pollo sacrificado", "logística", "avícolas" e "indicadores de desempeño del servicio de transporte terrestre, vía carretera". Estas palabras clave se seleccionaron para asegurar una búsqueda exhaustiva de 12 documentos claves y precisa información relevante que respalde el estudio sobre la caracterización de la calidad del servicio de transporte terrestre vía carretera de los alimentos básicos en Colombia. El problema de investigación identifica inexactitud en los indicadores de desempeño, esto se puede evidenciar por las medidas que presentan que el transporte terrestre según los índices de desempeño logístico por falencias en la infraestructura vial, tiempos de operación, demoras en la entrega, generando afectaciones sobre la carga que se evidenciará en la insatisfacción de los clientes (World Bank Open Data, s. f.).   De acuerdo con lo anterior, el proyecto de investigación es estudiar los procesos de las operaciones logísticas terrestres en la movilización de pollo sacrificado uno de los alimentos básicos de la canasta familiar y productos avícolas, para observar ¿Cuáles son las falencias que se presentan en el sector logístico y cómo mejorarlas? Con base en el análisis documental y los datos recopilados en el estudio de campo, se realizará un análisis cualitativo de los hallazgos. Se identificarán las principales falencias encontradas en el sector logístico y se propondrán recomendaciones y estrategias para mejorar los procesos de las operaciones logísticas terrestres en la movilización de alimentos básicos.  


CONCLUSIONES

De acuerdo con algunos datos recolectados en los documentos analizados y FENAVI, se identifica que la población colombiana muestra una tendencia en la adquisición de productos alimenticios, donde tienen preferencias por el abastecimiento del producto avicola (pollo sacrificado) que hace parte de los alimentos básico de la canasta familiar. De ello se destaca que según (FENAVI - Federación Nacional de Avicultores de Colombia, 2021) en el 2020 la población colombiana consume 34.02 kilos al año. Donde se evidencio que los costos de adquisición del pollo sacrificado entero varían de acuerdo a la cantidad de adquisición, en el año 2021 en el mes de diciembre el precio por kg fue de $8.950 y sobre la base minorista es aproximadamente el doble con costo de $15.020. Se infiere que la población consumidora de pollo, adquiere este producto cuando cuenta con una mejor calidad y cuidado desde su sacrificio, hasta su adquisición, sin embargo, las poblaciones más vulnerables suelen consumir este producto avícola que tenga un menor precio, aunque no cuente con las condiciones adecuadas que establece el INVIMA específicamente la refrigeración durante el traslado; pese a que no cuente con los indicadores de desempeño y calidad, si contribuye a mejorar los ODS en el ítem 2. Hambre cero.  
Cardenas del Toro Alexandra, Universidad de Guadalajara
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

ELABORACIóN DE DIODOS


ELABORACIóN DE DIODOS

Cardenas del Toro Alexandra, Universidad de Guadalajara. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el mundo actual, la electrónica ha revolucionado la forma en que interactuamos con la tecnología y ha impulsado el desarrollo de numerosos dispositivos que nos facilitan la vida cotidiana. Sin embargo, a medida que las demandas y expectativas tecnológicas siguen creciendo, también surgen desafíos inherentes a la electrónica convencional, que está construida sobre sustratos rígidos y limitada por su falta de flexibilidad y adaptabilidad. En contraste, la electrónica flexible ha surgido como una prometedora alternativa, presentando un enfoque innovador que podría superar muchas de estas problemáticas y abrir un mundo de posibilidades en términos de diseño y aplicaciones. Algunas de las problemáticas que enfrenta la electrónica convencional, es su característica rigidez y fragilidad, limitaciones de diseño y aplicaciones restringidas. Estas limitaciones han dado paso al surgimiento de la electrónica flexible, que presenta ventajas revolucionarias en términos de flexibilidad, ligereza, resistencia y durabilidad, y estas características únicas permiten su integración en dispositivos con formas y superficies variadas. Además, la electrónica flexible ha ampliado las posibilidades en aplicaciones como dispositivos ponibles, electrónica biomédica y soluciones de energía sostenible, posicionándose como un paradigma prometedor para el futuro de la electrónica. Como ya se menciona anteriormente, la electrónica flexible ha emergido como una prometedora tecnología que permite la creación de dispositivos y circuitos electrónicos que pueden doblarse, estirarse y adaptarse a diversas formas sin perder su funcionalidad. Este avance ha abierto una amplia gama de posibilidades para el diseño de dispositivos más livianos, portátiles y con aplicaciones revolucionarias. En ese sentido, durante el verano de investigación se trata de implementar un poco la electrónica flexible, en este caso al utilizar PET como el sustrato base de dichos dispositivos, sin embargo, antes de llegar a este paso, se realizan en sustratos de vidrio para de esta forma comprobar la efectividad de los mismos.



METODOLOGÍA

Para la elaboración de los dispositivos, se siguió el siguiente procedimiento: Se utilizaron vidrios Corning como sustratos, los cuales se cortan en tres partes iguales y se colocan en un vaso precipitado cubiertos de acetona para después colocarlos en un baño ultrasónico a 40°C por 10 minutos. Una vez paso el tiempo, se repite el mismo procedimiento, pero esta vez con 2-propanol y se secan con pistola de aire una vez terminado el tiempo. Ya que tenemos nuestros sustratos listos, se realizo el deposito de un metal por medio de evaporación, en el cual se deben de realizar una serie de pasos hasta llegar al momento de la evaporación del metal deseado, el cual rondaba entre 4 y 5 minutos en todos los casos. Los metales que se evaporaron fueron Titanio, Platino y Plata. Una vez tenemos un metal, se depositó ZnO. Se preparo primero la síntesis de Acetato de zinc con metanol y se dejo reposar por un día antes de su uso. Para realizar el depósito, se utilizó el método spray pyrolysis con un tiempo de deposito efectivo de 3 minutos alternando 10 segundos encendido y 1 minuto apagado para algunas de las muestras y 2.5 minutos de depósito efectivo alternando 5 segundos encendido y 2 minutos apagado para otras muestras. También se utilizo ZnO filmtronics, el cual era depositado por medio del método spin coating, el cual ya tiene una configuración determinada y solo es necesario colocar la muestra en el Chuck y se deposita el ZnOx con un gotero. Se repite este procedimiento 3 veces y se hace un recocido 200°C por 1 hora. Después de esto se realizaron los contactos, para los cuales se utilizo plata que fue depositado por evaporación con el mismo procedimiento antes mencionado. Después se realizaron los contactos por el método de fotolitograbado. Para este método se utilizo el spin coating, pero esta vez se deposito resina fotosensible y después se hizo un curado a 82°C por 20 minutos. Una vez pasado este tiempo, se incide luz ultravioleta por 30 segundos con la mascarilla creada. Después se coloca en solución Developer por dos minutos, se enjuaga con alcohol 2-propanol y se seca la muestra. Se le aplica un recocido a 120°C por 10 minutos, se usó la solución AL-ETCH para el grabado y finalmente se enjuago con agua tridestilada.   Dispositivos MIS En el caso de estos dispositivos, se utilizó vidrio Corning con ITO como sustratos. Se hizo un deposito de ZrO utilizando el spin coating realizando el procedimiento ya antes mencionado, solo una vez. Se hizo un curado por 10 minutos a 100°C y después se deja en el horno a 200°C por 4 horas. Una vez transcurrido este tiempo, se depositó ZnO con el método spray pyrolysis con un tiempo de depósito efectivo de 2.5 minutos alternando 5 segundos encendido y 2 minutos apagado. Finalmente se realizaron los contactos de plata con el mismo procedimiento antes mencionado.   Una vez se tenían los dispositivos terminados, se realizaron mediciones de Corriente-Voltaje con el equipo Keithley-4200 para ver su comportamiento.


CONCLUSIONES

Durante esta estancia de investigación se adquirieron conocimientos tanto teóricos como prácticos, tal es el caso del funcionamiento y las curvas características de los diodos, los mecanismos de conducción, las características mas optimas de ciertos semiconductores utilizados, así como el ser capaces de aprender a utilizar distintos métodos y quipos como lo fueron deposito por spray pyrolysis, spin coating, deposito de metales por evaporación, realizar mediciones con el equipo Keithley-4200, entre otros. En algunos de los casos no se obtuvieron los resultados esperados, ya que se pretendía realizar diodos schottky, pero las mediciones obtenidas demostraban que eran muy óhmicas, sin embargo, se realizaron análisis del mecanismo de conducción para comprender mejor su comportamiento. En lo que respecta a los diodos MIS, los resultados quedaron pendientes.
Cardenas Gallegos Genaro, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Dr. Oscar Acevedo Patiño, Universidad Tecnológica De Bolívar

DISEÑO Y CONSTRUCCION DE ROBOTS PARA SIMULACION DE AGREGACION DE ENJAMBRES.


DISEÑO Y CONSTRUCCION DE ROBOTS PARA SIMULACION DE AGREGACION DE ENJAMBRES.

Cardenas Gallegos Genaro, Instituto Tecnológico Superior de Ciudad Acuña. Torres Villarreal Saulo Omar, Universidad de Guadalajara. Asesor: Dr. Oscar Acevedo Patiño, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Conforme la complejidad de los problemas vistos en la industria aumenta, la necesidad para solucionarlos se hace más presente, por ello se buscan algoritmos matemáticos que aumenten la eficiencia y reduzcan la demanda computacional, de esta necesidad nacen los algoritmos inspirados en procesos naturales. Uno de estos problemas es la agrupación, se trata del primer paso para sincronizar los movimientos dentro de un grupo. El algoritmo de agregación de enjambre de abejas Beeclust consiste en imitar el comportamiento de agrupación de las abejas en busca de focos de calor dentro de la colmena. La sincronización en el movimiento de robots independientes resulta útil en tanto en el entretenimiento (espectáculos de drones, rutinas, formación de patrones, etc.), como en la industria, hablemos por ejemplo del caso de KIVA el robot móvil encargado del acomodo de envíos de la empresa Amazon, se trata de máquinas individuales trabajando en sincronía, lo que permite un movimiento constante sin que se obstruyan entre ellos. Sin embargo, estos tienen un intercambio constante de información lo cual complica su implementación. Este proyecto consiste en el desarrollo de robots que sigan el algoritmo de Beeclust para que se agrupen sin la necesidad que un envió de datos entre ellos, si no que se base en los componentes en su estructura y técnicas que le permitan reconocer entre obstáculos y otros individuos.



METODOLOGÍA

Se utilizó un minicomputador Raspberry Pi Zero W para la programación y control de los componentes electrónicos, cuatro sensores infrarrojos Sharp 0A41SK F 96 para la detección de obstáculos en una distancia menor a 15 cm para evitar colisiones con paredes u otros robots, un transistor 22N2222 para habilitar o deshabilitar el funcionamiento de los sensores, un puente H L298N para el control de motores, dos motores DC de 3-9V con motorreductor a 200rpm, dos ruedas acoplables de 65mm, una rueda conjunta de Nylon de 2 In, un protoboard de 400 puntos, cableado tipo Jumper de diferentes composiciones y una base de PLA impresa en 3D. Al principio del proyecto se realizaron pruebas individuales de los componentes para comprobar el funcionamiento con respecto a los parámetros que permiten las terminales de prueba del Raspberry Pi y ajustarlos a lo requerido en el proyecto, además de adaptarse a los componentes con los que se está trabajando. Posteriormente se priorizo acomodarlo en la base proporcionada por nuestro asesor. Asimismo se comenzó el diseño de una base optima en SolidWorks donde se priorice el orden en los componentes. Teniendo una visión más amplia se comenzó el ensamblaje de los componentes sobre la base de PLA para para una prueba en conjunto donde se aplique el algoritmo de Beeclust de forma física en el robot. El objetivo del algoritmo es la agrupación siguiendo la siguiente secuencia de acciones: Avanzar en línea recta hasta detectar un obstáculo En caso de detectar un obstáculo decidir: Si es una pared: Rotar un ángulo aleatorio y volver a avanzar en línea recta hasta un nuevo obstáculo. Si es otro robot: Tomar una medición en la luz reflejada del suelo y realizar una espera proporcional a la cantidad de iluminación. Repetir las acciones desde el paso uno hasta lograr una agrupación con los individuos suficientes.


CONCLUSIONES

Se obtuvieron programas de prueba para los componentes de forma individual con el fin de facilitar la programación para el algoritmo desarrollado, también se realizó un diseño manipulable de SolidWorks en caso de requerir cambios en la estructura del prototipo y se comenzó a probar los robots obtenidos incluyendo todos los elementos que lo conforman previo a la actualización de la base. El avance permite trabajar con el algoritmo y su simulación usando los robots diseñados y los programas individuales, estos pueden ser utilizados no solo para el algoritmo objetivo si no para comenzar a desarrollar estructuras más complejas que puedan realizar más actividades añadiendo o modificando las características actuales en el modelo pues, la capacidad de procesamiento, el tamaño y versatilidad que ofrece el miniordenador Raspberry Pi Zero W lo vuelve capaz de procesar un mayor número de datos y componentes en un espacio reducido.  Esto abre posibilidad de proyectar a futuro una conexión e intercambio de información entre los robots para mejorar el proceso de agrupación en algoritmos más robustos.
Cardona Bustamante Carolina, Instituto Tecnológico Metropolitano
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

ANáLISIS RELACIONAL ENTRE MUERTES POR ENFERMEDADES DEL SISTEMA NERVIOSO Y FACTORES SOCIOECONóMICOS EN PERSONAS DE LA CIUDAD DE MéXICO


ANáLISIS RELACIONAL ENTRE MUERTES POR ENFERMEDADES DEL SISTEMA NERVIOSO Y FACTORES SOCIOECONóMICOS EN PERSONAS DE LA CIUDAD DE MéXICO

Cardona Bustamante Carolina, Instituto Tecnológico Metropolitano. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La ciencia de datos es un campo interdisciplinario clave para extraer conocimiento valioso de grandes volúmenes de datos. Utiliza principios de estadística, matemáticas e informática para mejorar la toma de decisiones. El aprendizaje automático, una subrama esencial de la inteligencia artificial, utiliza algoritmos para identificar patrones y hacer predicciones en diversos campos. Una técnica poderosa del aprendizaje automático es el modelo de clasificación supervisado, que crea modelos predictivos basados en ejemplos previamente etiquetados. El trabajo actual se enfoca en analizar la relación entre muertes por enfermedades del sistema nervioso en la Ciudad de México y el nivel socioeconómico de las personas afectadas, utilizando conjuntos de datos de salud y estadísticas socioeconómicas. El objetivo es proporcionar información relevante para la toma de decisiones en políticas de salud pública y estrategias de prevención.



METODOLOGÍA

En esta investigación, se llevó a cabo una meticulosa revisión de la literatura científica y se accedió a datos abiertos de salud disponibles en la Dirección General de Información en Salud y el Instituto Nacional de Estadística y Geografía (INEGI).El proceso metodológico se dividió en varias etapas clave: Preprocesamiento de datos: Se realizó una exhaustiva limpieza, normalización e integración de diversas fuentes de datos de salud y del INEGI. Este paso fue esencial para garantizar la calidad y coherencia de los datos utilizados en el análisis posterior.   Modelo predictivo supervisado: Se desarrolló un modelo de clasificación supervisado para estimar la posible relación entre el estrato socioeconómico y demás datos sociodemográficos, y las muertes por enfermedades del sistema nervioso. El mejor modelo encontrado fue el Extreme Gradient Boosting. Este enfoque permitió obtener predicciones basadas en datos históricos y patrones identificados previamente. Diseño del dashboard y visualización de resultados: Se crearon gráficas y un dashboard para integrar los resultados del análisis de manera clara y comprensible. Esto facilitó la interpretación de los hallazgos y contribuyó a una mejor comunicación de los resultados obtenidos. Todo el proceso metodológico, desde la carga y fusión de bases de datos hasta el preprocesamiento y modelado, se llevó a cabo utilizando el lenguaje de programación Python en Google Colaby apoyado con Kaggle, aprovechando sus capacidades para el análisis de datos y la implementación de modelos. Finalmente, se realizaron pruebas, ajustes y refinamientos en las gráficas y resultados para asegurar su precisión y coherencia. Con todo esto en consideración, se preparó una presentación final que resumió los hallazgos y las contribuciones clave del proyecto, brindando una visión completa y comprensible de los resultados obtenidos en relación con la relación entre el estrato socioeconómico y las muertes por enfermedades del sistema nervioso en la Ciudad de México.


CONCLUSIONES

Los resultados del modelado con XGBoost (XGB) demuestran un desempeño satisfactorio en la clasificación de las muestras en ambas clases. La matriz de confusión revela que el modelo logra altos valores de verdaderos positivos y verdaderos negativos en su diagonal, lo que indica una buena capacidad para discriminar correctamente entre las clases. Además, al analizar la gráfica de XGB Classifier classification, se observa que el modelo proporciona información detallada sobre las métricas de evaluación del rendimiento para cada causa de defunción seleccionada, y sugiere que el modelo ha alcanzado una precisión aceptable en al menos la mitad de las causas de defunción evaluadas.Las gráficas resultantes han sido valiosas para evaluar y comprender el comportamiento del modelo, así como para identificar aquellas áreas en las que ha tenido un mejor desempeño en la clasificación. Sin embargo, es importante reconocer que la interpretación de los resultados debe considerarse en conjunto con otras métricas de evaluación y análisis adicionales para obtener una visión completa del rendimiento del modelo. Estos hallazgos son un punto de partida sólido para futuras investigaciones y mejoras en la predicción y comprensión de las causas de defunción en la muestra. A pesar del esfuerzo por aplicar la metodología de aprendizaje automático de clasificación supervisado, la ausencia de conocimiento específico sobre ciertos factores y las limitaciones de tiempo impidieron obtener los resultados esperados. Esta restricción en la interpretación de los datos podría afectar la capacidad de establecer relaciones sólidas y fundamentadas entre las muertes por enfermedades neurológicas y el nivel socioeconómico en la Ciudad de México.  Aunque la investigación no logró alcanzar todas sus metas, el estudio epidemiológico de las enfermedades neurológicas en relación con el estatus socioeconómico es un área de creciente interés y relevancia. Estos resultados preliminares pueden servir como punto de partida para futuras investigaciones que consideren abordar las limitaciones presentes y emplear técnicas más avanzadas de aprendizaje automático para obtener conclusiones más sólidas y detalladas. La investigación puso de relieve la importancia de contar con conjuntos de datos confiables y exhaustivos para realizar análisis epidemiológicos precisos. La colaboración entre instituciones de salud y estadísticas, como la Dirección General de Información en Salud y el Instituto Nacional de Estadística y Geografía (INEGI), es esencial para facilitar futuras investigaciones y mejorar la comprensión de la relación entre el nivel socioeconómico y las enfermedades neurológicas en la Ciudad de México.
Cardona Coronado Laura Valentina, Universidad Católica de Manizales
Asesor: Dr. Mario Esparza Soto, Universidad Autónoma del Estado de México

OBTENCIóN DE LAS CONSTANTES CINéTICAS EN UN REACTOR ANAEROBIO DE FLUJO ASCENDENTE A BAJA TEMPERATURA


OBTENCIóN DE LAS CONSTANTES CINéTICAS EN UN REACTOR ANAEROBIO DE FLUJO ASCENDENTE A BAJA TEMPERATURA

Cardona Coronado Laura Valentina, Universidad Católica de Manizales. Asesor: Dr. Mario Esparza Soto, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

  Actualmente, la humanidad enfrenta un desafío hídrico a nivel global y consta de la dotación del servicio de agua potable, saneamiento público y alcantarillado; a raíz de la expansión de la densidad poblacional, crecimiento de la infraestructura e industrias, entre otros factores. Es por eso que, contar con estos servicios permiten al ser humano una mejor calidad de vida y desarrollo integral para la comunidad. De esta manera, para responder a estas necesidades es importante el desarrollo de tecnologías aplicadas al tratamiento de aguas, con el fin de cumplir con los parámetros necesarios para su vertimiento y/o riego, evitando a toda costa la contaminación del suelo, acuíferos y alimentos. El objetivo de esta investigación es la evaluación del rendimiento de un reactor UASB, el cual se operó entre 10 y 15 °C menos de lo recomendado en la literatura especializada en tratamiento de agua residual. El rendimiento del reactor UASB se evaluó en términos de eficiencia de remoción de la demanda química de oxígeno disuelta (DQOs), carga orgánica volumétrica aplicada (COVapl) y removida, producción diaria de biogás y metano, porcentaje de metano en el biogás, entre otros parámetros.Para su realización,se operó y monitoreó un reactor UASB a flujo y tiempo de retención hidráulico (TRH) constante y a temperatura ambiente de la ciudad de Toluca, Estado de México (20 - 23 °C). El reactor UASB trató agua residual proveniente de la línea de producción de una industria chocolatera. Los resultados del monitoreo del reactor UASB fueron almacenados en una base de datos y los promedios y desviaciones estándar fueron calculados para cada parámetro medido. Cada parámetro medido fue graficado contra el tiempo de operación.  ​



METODOLOGÍA

Operación del reactor UASB:Se utilizò un reactor UASB, escala piloto de 130 L. El reactor está construido con un tubo de PVC de 0.30 cm de diámetro y 1.3 de alto y está aislado con 0.30 m de fibra de vidrio comercial y una caja de madera de triplay de 0.012 m de grosor. La producción de biogás se cuantificó con un medidor volumétrico de gas (BK-G1.6, Elster Instromet, Alemania). El flujo se controló con una bomba de diafragma (Cole Parmer, EUA). El reactor UASB se operó a flujo y TRH constante de aproximadamente de 283 L/d y 11 h, respectivamente. La DQOs y COVapl también se mantuvieron constantes en aproximadamente 1,500 mg-DQOs/L y 5.5 g-DQOs/L/d. Preparación del agua de dilución:El agua que entró al reactor UASB (influente) fue preparada a partir de la dilución de agua residual industrial cruda (ARIC) y de agua potable. Para la preparación del agua se tiene en consideración una concentración deseada de 1,500 mg/L y la concentración del ARIC. Temperatura:La temperatura fue medida con un termómetro de mercurio. La temperatura fue medida en tres diferentes puntos: Agua de dilución, agua del influente y agua del efluente. Para medir la temperatura se toma una muestra del agua en un vaso de precipitado y se introduce el termómetro. Caudal:Se tomó una muestra del agua del efluente del reactor en un vaso de precipitado; con un cronómetro se toma el tiempo de un minuto y se mide el volumen de agua recolectado en ese periodo de tiempo. Porcentaje de metano (CH4):Se utilizò una técnica que involucra un tubo en forma de U, en el cual se deposita un volumen conocido de hidróxido de sodio (NaOH). El muestreo consistió en tomar una muestra de aire del ambiente mediante una jeringa y depositarla dentro del tubo de NaOH. El aire es empujado dentro del tubo generando así un nuevo volumen, el cual es anotado. Posteriormente se toma una muestra de biogás del reactor y se deposita dentro del tubo. El volumen ahora se comportará diferente, llegando a descender, debido a que en la reacción presente entre el biogás y el NaOH genera bicarbonato de sodio, separando al CH4. pH:Se midió el pH del influente y efluente con un medidor de pH de campo (YSI, EUA). DQO:Para el análisis de DQO se obtienen muestras del influente y del efluente. Las muestras son depositadas en viales que contienen una solución de nitrato de plata,dicromato de potasio y ácido sulfhídrico.Posteriormente, los viales son llevados a un digestor a 150°C durante 120 minutos. Transcurrido el tiempo, los viales se dejan enfriar y son ingresados al programa DQO RA del espectrofotómetro para su medición. Solidos solubles totales y solidos solubles volátiles:Tanto las muestras de los sólidos del efluente, columna de adsorción y cama de lodos, son trasladados a una estufa a 105°C durante 60 min; se dejan reposar y después se pesan en una balanza analítica y se registran los datos. Se reintroducen en una mufla a 550°C durante 20 min; transcurrido el tiempo se pasan a la estufa durante 10 minutos y posteriormente se vuelven a pesar en la balanza analítica.


CONCLUSIONES

Resultados obtenidos:La temperatura promedio de operación del reactor UASB varió entre 23.9 y 22.7 ºC en el influente y efluente, manteniéndose dentro del rango psicrofílico. La demanda química de oxígeno soluble en el influente fue de 1,936.9 y 168.8 mg/L, obteniéndose una eficiencia de remoción de 90.4 %, la cual fue alta considerando la baja temperatura de operación y las altas concentraciones de DQOs del influente.La producción diaria de biogás y metano fue de 168 y 143 L/d, mientras que el porcentaje de metano en el biogás producido fue de 90.4 %. Conclusiones:El reactor UASB funcionó con alta eficiencia de remoción de DQOs y alta producción diaria de CH4 a pesar de operar a temperaturas menores a las recomendadas en la literatura; esto supone que la operación de un sistema similar a condiciones no estándar no representa una variación significativa respecto a reactores que operan a temperaturas más elevadas o con sistemas de calentamiento instalados, alentando a la posible instalación de este tipo sistemas sin tener que necesitar de alguna fuente de calor externa.
Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

ESTACIóN DE MONITOREO AMBIENTAL


ESTACIóN DE MONITOREO AMBIENTAL

Carlos Patricio Isaac Emmanuel, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el año 2020 nuestra vida diaria se vio afectada con la llegada de la pandemia, fue necesario mantener un control en los espacios cerrados para evitar contagios, pero aun así no era posible ver en tiempo real si el ambiente en estos espacios era el adecuado. Aunado a lo anterior, en algunas regiones de nuestro país hemos tenido contingencias ambientales que impiden hacer actividades al aire libre, restricciones en el uso de vehículos, etc. Todo esto regulado por indicadores como el IMECA; la desventaja de esto es que estos indicadores son algo complicados de usar e interpretar. Haciendo uso de las tecnologías a nuestro alcance hemos diseñado instrumentos capaces de monitorear el ambiente y a través de diversos sensores obtener información en tiempo real, recabar la información con las diferentes tarjetas y almacenarla de manera remota en una base de datos para posteriormente analizarla.



METODOLOGÍA

Este trabajo consta de dos sistemas de monitoreo de calidad del aire, siendo una para habitaciones cerradas y otra para exteriores a través del uso de sistemas inalámbricos, implementando en ambos sistemas una Raspberry Pi 3B+ y una tarjeta Arduino nano. La primera bajo el sistema Operativo Raspbian con Python 3 y la segunda usando C/C++ para la programación. Para el sistema de interiores utilizamos: Sensor de temperatura y humedad DHT 11. Sensor de CO2 MG-811. Para el sistema de exteriores tenemos una lista más extensa de sensores utilizados siendo estos: Sensor de temperatura y humedad DHT 11. Sensor de CO2 MG-811. Sensor de partículas PMS5003. Sensor de luz UV GY-8511 ML8511. Sensor de luminosidad GY-30. Sensor de presión atmosférica BMP280. Estación con veleta, anemómetro y pluviómetro. Se comenzó haciendo un bosquejo de las conexiones en papel, luego trasladamos ese bosquejo al software Fritzing para tener una simulación de lo que queremos lograr simulando las conexiones en un protoboard. Una vez estando seguros de las conexiones hechas se procedió a diseñar la PCB en el software Proteus. Para el sistema de interiores el diseño fue rápido y sencillo debido a la cantidad de sensores que utilizamos. Diseñamos las pistas para que podamos conectar: Sensor de CO2 a 5V, GND y al puerto analógico A0 del Arduino. Sensor DHT11 a 5V, GND y al puerto GPIO26 de la Raspberry. El sistema de exteriores fue mas complejo de diseñar ya que por la cantidad de sensores utilizados debemos cuidar que las pistas de la PCB no se crucen entre si manteniendo un tamaño pequeño pero eficiente. Las pistas diseñadas nos permiten conectar: Sensor de CO2 a 5V, GND, al puerto analógico A7 y puerto D10 del Arduino. Veleta a 5V y puerto analógico A0 del Arduino. Anemómetro a GND y puerto D2 del Arduino. Pluviómetro a GND y puerto D3 del Arduino. Sensor UV a GND, 5V y puerto analógico A1 del Arduino. Sensor de partículas a 5V, GND y puerto D11 del Arduino. Sensor de luminosidad GY-30 a 5V, GND y a los puertos analógicos A4 y A5. Barómetro BMP280 a 5V, GND, puerto SDA de Raspberry y puerto SCL de la Raspberry. Sensor DHT11 a 3.3V PWR, GND y GPIO 26 Teniendo listos los diseños de las PCB’s procedemos a imprimirlos en papel transfer con una impresora láser. Cortamos placas de baquelita del tamaño de los diseños impresos y con la ayuda de una plancha transferimos los diseños de las pistas a la baquelita, esto toma alrededor de 10 minutos ya que debemos de cuidar que la impresión se transfiera de manera correcta ya que de no ser así la PCB no será funcional. Una vez plasmado el diseño en la baquelita, con un marcador permanente corregimos algún error o imperfección en la impresión y sumergimos la placa en ácido férrico para oxidar el cobre no protegido por la tinta; esto puede tardar entre 40 minutos a 1 hora por lo que se recomienda ser pacientes y estar atentos durante este procedimiento. Pasado este tiempo sacamos la placa del ácido férrico, limpiamos con alcohol isopropílico y perforamos en los espacios correspondientes donde irán soldados algunos componentes. Teniendo listas las perforaciones soldamos borneras y tiras de pines; Hacemos algunos puentes y seguido de esto ensamblamos los sensores correspondientes y la tarjeta Arduino nano a las PCB’s. Teniendo todo ensamblado interconectamos Arduino nano con la Raspberry para la lectura de los sensores. Hacemos pruebas con la programación y observamos los datos leídos en las bases de datos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para el correcto diseño de circuitos. Cada sensor y tarjeta utilizados en estos sistemas han ayudado a que esto sea un proyecto de bajo costo y por ende muy accesible para ser producido en masa, además de ser compacto y de fácil movilidad. Los circuitos fueron diseñados para ser de fácil interpretación lo que significa que los prototipos están listos para una futura modificación y adecuarlos según se requiera, ya sea agregando o quitando sensores. Ambos sistemas funcionan y cumplen su proposito el cual es obtener lecturas de temperatura, humadad, nivel de CO2, velocidad de viento, entre otras mediciones; Logrando así nuestro objetivo fijado.
Carrasco Chavez Hector Armando, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla

SISTEMA DE ACONDICIONADOR DE SEñAL PARA MóDULOS GENERADORES DE ENERGíA (PV, TEG).


SISTEMA DE ACONDICIONADOR DE SEñAL PARA MóDULOS GENERADORES DE ENERGíA (PV, TEG).

Carrasco Chavez Hector Armando, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la cantidad de energía consumida por el ser humano ha crecido de manera exponencial si se compara con hace años atrás, no solo limitado al consumo eléctrico de hogar. Dispositivos inteligentes (teléfonos, tablets, computadoras, etc.), Automóviles autónomos, equipos biomédicos.. En respuesta a esta creciente necesidad, se han destinado importantes inversiones económicas a la construcción de plantas de generación de energía eléctrica robustas. No obstante, se ha observado un notable cambio de paradigma en los últimos tiempos, en el cual los esfuerzos de inversión se han dirigido de manera distintiva hacia el establecimiento de fuentes de energía limpia. Esta reorientación se busca con el propósito general de mejorar el panorama ecológico global mediante la mitigación de la contaminación.  Debido a lo anterior, las tecnologías enfocadas en generar y acondicionar energía para sistemas de bajo consumo no se encuentran en un gran desarrollo. A pesar de ello se encuentran en desarrollo diversas tecnologías de cosecha de energía en pequeña escala, como podrían ser los materiales piezos resistores, termoeléctricos o fotoeléctricos. Para los cuales es necesario desarrollar un sistema de acondicionamiento de señal, para la correcta generación de energía eléctrica en una carga.



METODOLOGÍA

Se propone el diseño de un sistema de acondicionamiento dividido en 3 secciones: Seguidor de punto máximo de potencia (MPPT), control PWM y convertidor DC/DC, los cuales los dos primeros serán implementados en un microcontrolador y el circuito será diseñado con buscar los mínimos recursos posibles. Para la sección del controlador MPPT, se realizó la investigación de los principales algoritmos de este tipo de control. Los algoritmos MPPT consisten en detectar el punto máximo en la curva de potencia de un generador de energía como los podrían ser las celdas solares o los módulos termoeléctricos. Para la correcta alimentación se busca siempre ofrecer la máxima potencia para que la carga no sufra de una mínima alimentación o de una saturación y un daño en la carga. Existen 4 algoritmos principales de MPPT, Perturbar y observar, Conductancia Incremental, Voltaje en circuito abierto y Corriente en corto circuito, los cuales los dos primeros son algoritmos activos y los segundos son algoritmos pasivos. Para cuestiones del proyecto, después de realizar las simulaciones correspondientes mediante el uso del programa MATLAB, se llegó a la conclusión de utilizar el algoritmo de Conductancia Incremental, ya que este lograba una estabilidad a una mayor velocidad con menor cantidad de interaciones, además de ser mas tolerable a los cambios imprevistos del generador de energía. Para el control PWM fue una selección sencilla, se escogió como microcontrolador una placa Arduino UNO, por la disponibilidad en el laboratorio de dicho microcontrolador. El Arduino UNO ya cuenta con una función de PWM, por lo cual facilito la implementación de este tipo de control. La situación del convertidor DC/DC fue lo más complicado del proyecto. Por las características del proyecto se necesitaba buscar un circuito tipo Buck-Boost, este debido a la necesidad de aumentar y disminuir el valor de corriente según sea necesario para mantener el valor de potencia en su punto máximo, así como también evitar que el puerto de retroalimentación del Arduino sufriera daños por un alto voltaje. Además, para cumplir el objetivo de proyecto (sr económico en recursos), se tomó la decisión de no utilizar un convertidor comercial y en cambio se optaría por diseñar y construir el diseño. Con esto establecido el diseño escogido fue el convertidor Buck-boost no inversor de doble interruptor, ya que consistía en el diseño mas sencillo y con menos consumo de recursos. Al momento de realizar la implementación física, se tuvieron problemas con la aplicación de convertidor, ya que no funcionaba correctamente, esto debido a un mal calculo de los valores de los componentes. Para las pruebas de la implantación la primera sección (Medición y primera interacion del algoritmo MPPT) tuvo un funcionamiento correcto, mostrando comportamientos similares a la simulación. La segunda sección (Generación de la señal PWM y convertidor DC/DC) también logro un comportamiento satisfactorio, logrando comportamientos similares al teórico. Sin embargo, al realizar la prueba de todo el sistema en conjunto este presento fallas significativas en la generación de la señal PWM, se presentó un comportamiento errático en el valor del ciclo de trabajo, provocando que se afectara de forma significativa los valores de lectura de entrada de la lectura inicial. Bajo dicho comportamiento y después de un análisis se llego a las siguientes conclusiones. El sistema del PWM contamina la señal de lectura del microcontrolador, por ende, se necesita una manera de aislar una señal de otra El microcontrolador Arduino UNO es incapaz de realizar las actividades propuestas en el sistema, por ende, se debería buscar un microcontrolador capaz de procesar dichas tareas Teniendo en cuenta lo anterior, se dejo como finalizado la sección teórica del sistema como satisfactoria, pero con problemas en su implementación física.


CONCLUSIONES

A pesar del mal funcionamiento de la aplicación física del proyecto, se logro un gran avance con el planteamiento teórico y simulado del sistema, permitiendo tener un sistema dinámico capaz de adaptarse a cualquier tipo de generador de energía de pequeña escala que compartiera curva característica con una celda Solar. La experiencia del proyecto de investigación fue gratificante, los resultados teóricos generan un buen panorama de mejora en un futuro, dejando establecidos de manera sencilla y practica métodos para el cálculo y modificación del sistema para cualquier tipo de adaptación en cualquier sección del sistema. Se busca con eso dejar precedente en el avance de la aplicación de sistemas acondicionadores de bajo consumo de recursos, permitiendo que los diseños de los circuitos y lógica sean mas sencillos y eficientes.    
Carreon Nieto Wendy Liliana, Instituto Tecnológico de Morelia
Asesor: Dr. Francisco Fernando Curiel Lopez, Universidad Michoacana de San Nicolás de Hidalgo

COMPORTAMIENTO MECáNICO DE UNA SOLDADURA DISíMIL ACERO INOXIDABLE AISI 2205-ACERO INOXIDABLE AISI 316L


COMPORTAMIENTO MECáNICO DE UNA SOLDADURA DISíMIL ACERO INOXIDABLE AISI 2205-ACERO INOXIDABLE AISI 316L

Carreon Nieto Wendy Liliana, Instituto Tecnológico de Morelia. Asesor: Dr. Francisco Fernando Curiel Lopez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal de este trabajo de investigación es analizar el comportamiento mecánico de una unión soldada mediante el proceso GMAW en modo de transferencia por spray, utilizando el material de aporte ER-316LSi, en comparación con el comportamiento de cada uno de los materiales base (316L y 2205). La unión de materiales disímiles se emplea cuando se requieren propiedades específicas de diferentes materiales en una aplicación particular. Aunque este tipo de uniones presenta desafíos técnicos debido a las diferencias en estructura cristalina y propiedades físicas, como coeficientes de expansión térmica y resistencia, la combinación adecuada de materiales puede conducir a productos y estructuras más eficientes con características únicas. Estas uniones son comúnmente utilizadas en la industria aeroespacial, automotriz y naval, donde proporcionan mejoras en diversas propiedades mecánicas y reducen los costos de fabricación. En el caso específico de la unión entre acero inoxidable austenítico 316L y dúplex 2205, el electrodo ER-316LSi se considera una buena opción debido a sus propiedades mecánicas y resistencia a la corrosión. El uso del electrodo ER-316LSi asegura una mayor compatibilidad entre los materiales a unir, facilitando el proceso de soldadura y reduciendo la posibilidad de problemas de incompatibilidad entre los aceros. Además, proporciona una soldadura con buenas propiedades mecánicas, como resistencia, tenacidad y dureza, lo que garantiza la integridad estructural y el rendimiento del componente soldado. También reduce la formación de fases intermetálicas, mejorando la calidad de la soldadura. En resumen, el uso del electrodo ER-316LSi para la unión de acero inoxidable 2205 y acero inoxidable 316L puede proporcionar una soldadura de alta calidad con excelentes propiedades mecánicas y resistencia a la corrosión, lo cual es esencial para aplicaciones críticas y exigentes en diversas industrias. El objetivo de la investigación es analizar el comportamiento mecánico de esta unión soldada en comparación con los materiales base (316L y 2205) para obtener conclusiones sobre su rendimiento en diversas aplicaciones.



METODOLOGÍA

En este trabajo de investigación se realizó la preparación metalográfica de dos piezas de materiales base: acero inoxidable 2205 y acero inoxidable 316L. Se llevó a cabo un desbaste y pulido de las piezas, seguido de un ataque electroquímico con una solución de agua destilada y ácido nítrico. Se observó la microestructura de ambos materiales en el microscopio óptico a diferentes magnificaciones, identificando las fases austenita y ferrita. Luego, se maquinaron placas de ambos materiales y se realizaron biselados para la posterior soldadura. Se soldaron las placas utilizando el proceso GMAW spray con parámetros específicos los cuales fueron: Voltaje: 24 volts, Amperaje: 168, Flujo de gas: 40 ft/seg, Velocidad de avance: 2.66 Alimentación: 139.7 mm/seg, Gas: 98% Ar y 2% O2, Stickout: 10 mm Posteriormente, se cortaron las placas soldadas para obtener probetas que se utilizaron en ensayos de dureza y tensión. También se analizó la microestructura de la junta soldada, observando las diferentes zonas de la soldadura y la ausencia de defectos. Se realizó el ensayo de dureza utilizando la escala Vickers, y se tomaron medidas a lo largo de la probeta para obtener la dureza de cada zona del cordón. Luego, se maquilaron las probetas destinadas al ensayo de tensión, siguiendo la norma ASTM E8 / E8M. Finalmente, se realizaron los ensayos de tensión para obtener las curvas esfuerzo-deformación de las probetas. En resumen, se llevó a cabo un estudio metalográfico y mecánico de la unión soldada entre acero inoxidable 2205 y acero inoxidable 316L, evaluando sus propiedades microestructurales y mecánicas mediante diferentes pruebas y análisis.


CONCLUSIONES

En este estudio se realizó la preparación metalográfica y ensayos de dureza y tensión en una junta soldada entre acero inoxidable 2205 y acero inoxidable 316L. Se observó que la junta no presentaba defectos visibles. Los resultados de dureza mostraron fluctuaciones debido a cambios microestructurales causados por el proceso de soldadura, Acero inoxidable 2205: 258.40 Hv100 Acero inoxidable 316L: 196.03 Hv100 Para la obtención de la dureza en cada una de las zonas del cordón de soldadura se obtuvo un promedio de los datos de las durezas en cada zona, arrojado los siguientes datos: o Dureza en la línea de fusión del acero 2205: 259.3 Hv100 o Dureza en la zona ZAT de acero 2205: 295.72 Hv100 o Dureza del cordón: 283.09 Hv100 o Dureza en la zona ZAT de acero 316L: 245.05 Hv100 o Dureza en la línea de fusión del acero 316L: 258.1 Hv100 De acuerdo con los resultados se observan fluctuaciones en la dureza de las diferentes zonas como consecuencia de los cambios microestructurales que se han presentado como consecuencia del ciclo térmico inherente al proceso de soldadura GMAW; en el caso del acero dúplex 2205 la ZAT presenta una mayor dureza debido a las mayores modificaciones microestructurales, además de que inicialmente en condición de llegada presentaba la más alta dureza. Esto puede ser beneficioso para las operaciones de mecanizado y conformado. En la probeta 3 en el ensayo de tension se tuvieron los siguientes datos: Probeta 3: o Fuerza máxima o de pico: 581 MPa o Fuerza al 2% de la deformación plástica: 328 MPa o Fuerza máxima de la rotura de la probeta: 8950 N o Alargamiento en la fractura: 3.77 mm o Porcentaje de elongación: 18.9% o Área original de la sección transversal: 27.24 mm2 Los datos que se tenían acerca de la resistencia a la tensión de los materiales base son los siguientes: o Fuerza máxima o de pico del acero inoxidable 316L: 591 MPa o Fuerza máxima o de pico del acero inoxidable 2205: 789 MPa o Limite elástico del acero inoxidable 316L: 310 MPa o Limite elástico del acero inoxidable 2205: 613 MPa o Porcentaje de elongación del acero inoxidable 316L: 70% o Porcentaje de elongación del acero inoxidable 2205: 38% Dados los datos anteriores podemos comparar los resultados de la probeta No. 3 con los de los materiales base y de los cuales podemos deducir que la elongación ha disminuido significativamente y que la fuerza máxima es más baja que los aceros por separado lo cual brinda un menor riesgo de fallas que puedan ser catastróficas, así como también un mejoramiento en la ductilidad de los materiales. Gracias a el verano de investigación pude aprender el funcionamiento de algunas maquinas usadas en los ensayos y también la obtención de datos de ensayos mecánicos, así como también de micro y macrografías
Carriazo Julio Geraldin Paola, Universidad Tecnológica De Bolívar
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

AJUSTE DE UN MODELO DE áRBOL DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LAS PRUEBAS SABER T&T


AJUSTE DE UN MODELO DE áRBOL DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LAS PRUEBAS SABER T&T

Carriazo Julio Geraldin Paola, Universidad Tecnológica De Bolívar. Correa Rios Angely Juliana, Universidad Autónoma Latinoamericana. Jaimes Hernández Erik Rubén, Instituto Tecnológico de Toluca. Suárez Sánchez Alex Antonio, Instituto Tecnológico de Toluca. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El proyecto tiene como objetivo ajustar un modelo de árbol de decisión para predecir el rendimiento de los estudiantes en las pruebas Saber T&T en Colombia. Estas pruebas son fundamentales para medir el nivel de conocimientos y habilidades de los alumnos, y el resultado puede tener un impacto significativo en su trayectoria educativa y futuras oportunidades. La predicción precisa del rendimiento estudiantil permitirá identificar áreas de mejora, optimizar recursos educativos y apoyar la toma de decisiones en políticas educativas.



METODOLOGÍA

La metodología CRISP-DM (Cross-Industry Standard Process for Data Mining) es un enfoque estructurado y ampliamente utilizado para la realización de proyectos de minería de datos. Fue desarrollada con el objetivo de guiar a los profesionales a través de las diferentes etapas del proceso de minería de datos de manera sistemática y eficiente. A continuación, se explica brevemente cada una de las fases de CRISP-DM, con apoyo de la definición de Espinosa-Zuñiga (2020) FASE I – Comprensión del problema o del negocio • Identificación del problema: Consiste en entender y delimitar la problemática, así como identificar los requisitos, supuestos, restricciones y beneficios del proyecto. • Determinación de objetivos: Puntualiza las metas a lograr al proponer una solución basada en un modelo de minería de datos. • Evaluación de la situación actual: Especifica el estado actual antes de implementar la solución de minería de datos propuesta, a fin de tener un punto de comparación que permita medir el grado de éxito del proyecto. FASE II – Comprensión de los datos En esta fase, se realiza una exploración exhaustiva de los datos disponibles para el proyecto. Se busca familiarizarse con las fuentes de datos, evaluar su calidad y determinar qué variables pueden ser relevantes para los objetivos del proyecto. De manera más específica: • Recolección de datos: Consiste en obtener los datos a utilizar en el proyecto identificando las fuentes, las técnicas empleadas en su recolección, los problemas encontrados en su obtención y la forma como se resolvieron los mismos. • Descripción de datos: Identifica el tipo, formato, volumetría y significado de cada dato. • Exploración de datos: Radica en aplicar pruebas estadísticas básicas que permitan conocer las propiedades de los datos a fin de entenderlos lo mejor posible. FASE III – Preparación de los datos En esta etapa, se lleva a cabo la limpieza, transformación y selección de los datos relevantes para construir el conjunto de datos adecuado para el análisis. Se trata de un proceso fundamental para garantizar que los datos sean aptos para su uso en la fase de modelado. De forma puntual, así: • Limpieza de datos: Aplicación de diferentes técnicas, por ejemplo, normalización de datos, discretización de campos numéricos, tratamiento de valores ausentes, tratamiento de duplicados e imputación de datos. • Creación de indicadores: Genera indicadores que potencien la capacidad predictiva de los datos a partir de los datos existentes y ayuden a detectar comportamientos interesantes para modelar. • Transformación de datos: Cambia el formato o estructura de ciertos datos sin modificar su significado, a fin de aplicarles alguna técnica particular en la etapa de modelado. FASE IV – Modelado En esta fase, se aplican diferentes técnicas de minería de datos, como árboles de decisión, regresión, clasificación, entre otras, para crear modelos predictivos o descriptivos que resuelvan el problema planteado. Se evalúan y ajustan los modelos para obtener el mejor rendimiento posible, de la siguiente manera: • Selección de técnica de modelado: Elige la técnica apropiada de acuerdo con el problema a resolver, los datos disponibles, las herramientas de minería de datos disponibles, así como el dominio de la técnica elegida. • Selección de datos de prueba: En algunos tipos de modelos se requiere dividir la muestra en datos de entrenamiento y de validación. • Obtención del modelo: Genera el mejor modelo mediante un proceso iterativo de modificación de parámetros de este. FASE V – Evaluación del modelo En esta etapa, se evalúan los modelos creados en la fase anterior para determinar su precisión y efectividad. Se utilizan métricas de evaluación para medir el rendimiento de los modelos y asegurarse de que cumplen con los objetivos del proyecto, se comparan los resultados con resultados previos, o bien, analizando los resultados con apoyo de expertos en el dominio del problema. De acuerdo con los resultados de esta etapa se determina seguir con la última fase de la metodología, regresar a alguna de las etapas anteriores o incluso partir de cero con un nuevo proyecto. FASE VI – Implementación del modelo Esta etapa explota, mediante acciones concretas, el conocimiento adquirido mediante el modelo, los resultados y conclusiones obtenidos a partir de los modelos se presentan a los interesados y se integran en el flujo de trabajo operativo, para que puedan utilizarse en la toma de decisiones y obtener beneficios prácticos. CRISP-DM proporciona una guía clara y estructurada para llevar a cabo proyectos de minería de datos, permitiendo a los profesionales abordar complejos problemas de análisis de datos de manera efectiva y eficiente.


CONCLUSIONES

El proceso de modelado implicó ajustar el algoritmo de árbol de decisión y explorar otras técnicas de aprendizaje automático, evaluando su rendimiento y precisión en diferentes conjuntos de datos. Como resultado, se seleccionó el mejor modelo que demostró ser eficiente y preciso en la predicción del rendimiento estudiantil en las pruebas Saber T&T. En conclusión, este proyecto ha demostrado la utilidad y relevancia de los modelos de árbol de decisión en la predicción del rendimiento académico. Al contar con un modelo preciso y confiable, se pueden identificar tempranamente a aquellos estudiantes que necesiten apoyo adicional, lo que permitirá implementar estrategias educativas personalizadas y efectivas para mejorar el rendimiento estudiantil en Colombia. Los resultados obtenidos tienen el potencial de mejorar la calidad de la educación y contribuir al desarrollo académico y socioeconómico del país, brindando igualdad de oportunidades para todos los estudiantes y fomentando una educación inclusiva y equitativa.
Carrillo Amezcua Luis Francisco, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

AVENTURA EXPRESS: UN PROYECTO DE VIDEOJUEGO EN REALIDAD VIRTUAL PARA MEJORAR EL CONTROL POSTURAL EN ADULTOS MAYORES CON INESTABILIDAD


AVENTURA EXPRESS: UN PROYECTO DE VIDEOJUEGO EN REALIDAD VIRTUAL PARA MEJORAR EL CONTROL POSTURAL EN ADULTOS MAYORES CON INESTABILIDAD

Carrillo Amezcua Luis Francisco, Instituto Tecnológico de Estudios Superiores de Zamora. Linares Gil Wendy Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural se refiere a la capacidad del cuerpo para mantener una posición estable y equilibrada en diversas situaciones y actividades. Implica la coordinación de diferentes sistemas del cuerpo que trabajan de forma cooperativa para controlar la posición del cuerpo en el espacio. Los adultos mayores pueden presentar deterioro en el control postural que puede conducir a la inestabilidad, esto debido a la maduración de los diferentes sistemas que rigen el cuerpo y que permiten al individuo realizar sus actividades de manera cotidiana. En este contexto no solo se refiere a mantener el equilibrio del cuerpo en movimiento, si no también del cuerpo en reposo por lo cual es importante implementar estrategias para mejorar el control postural en los adultos mayores. Uno de los principales factores que contribuye a la inestabilidad en los adultos mayores es la disminución de la masa muscular y la fuerza, lo que afecta la capacidad para mantener una postura adecuada. Además, la pérdida de densidad ósea y la disminución de la flexibilidad también pueden influir en la estabilidad del cuerpo. Otro aspecto relevante es el declive del sistema vestibular, el cual es responsable de mantener el equilibrio y la orientación espacial. A medida que se envejece, las células sensoriales del oído interno pueden degradarse, lo que puede ocasionar mareos y desequilibrios. Anne Shumway-Cook et al., expresa en su estudio sobre este tema y de acuerdo con su investigación se estima que cerca de 50% de las caídas en personas mayores se deben a la alteración en el soporte de base, el 35% a desplazamientos externos del centro de masa muscular y solo el 10% a eventos fisiológicos.



METODOLOGÍA

En el caso de este proyecto, se trabajó con algunos ejercicios propuestos por PROBAUAM que van dirigidos a personas mayores con inestabilidad, el propósito de esto es hacer que los ejercicios sean más dinámicos y que a la vez el usuario se motive a realizar los mismos, por lo cuál se realizó un minijuego de realidad virtual para que cumpla con lo requerido, pero primero, ¿Por qué implementar la Realidad Virtual? Beneficios de la Realidad Virtual en el Ejercicio Dinámico: Estimulación Sensorial: La realidad virtual proporciona una experiencia multisensorial inmersiva, estimulando los sistemas visuales, vestibulares y sensoriales de manera controlada. Esto puede mejorar la percepción del cuerpo en el espacio y promover una mayor conciencia corporal. Entrenamiento Adaptativo: Permiten adaptar el nivel de dificultad y complejidad de los ejercicios según las capacidades individuales del paciente. Seguridad y Control: La RV ofrece un entorno seguro y controlado para realizar ejercicios, lo que es especialmente relevante para personas con inestabilidad que pueden temer caídas durante la rehabilitación Mayor Compromiso y Motivación: La naturaleza interactiva de la RV a menudo aumenta la motivación y el compromiso del paciente con el programa de ejercicios. En este caso, se decidió trabajar con un ejercicio específico proporcionado por PROBAUAM el cual consiste en que el paciente debe permanecer sentado con brazos a los lados y movilizar el tronco en diferentes direcciones (derecha, izquierda y al frente respectivamente). Este tipo de actividad de recuperación es frecuentemente empleada para fortalecer y estimular los músculos centrales del cuerpo y mejorar la conciencia corporal.  Los músculos centrales o axiales, que se encuentran en la zona del tronco y la pelvis, forman una compleja red muscular. Estos incluyen los músculos abdominales, lumbares, así como los músculos de la cadera y la pelvis. Su función es esencial para mantener una postura adecuada, asegurar la estabilidad de la columna vertebral y equilibrar el cuerpo. Cuando una persona se inclina en diferentes direcciones mientras está sentada, los músculos del núcleo se activan para mantener el equilibrio y prevenir caídas. Este tipo de movimiento ayuda a fortalecer y entrenar estos músculos, permitiéndoles responder de manera más eficaz a los desafíos de postura y equilibrio que se presenten en la vida cotidiana. Al ver que existían muchas propuestas de este ejercicio que no cumplían las expectativas, surgió la motivación de crear Aventura Express que es un juego en realidad virtual el cual consiste en un pequeño vagón de tren donde el jugador permanecerá sentado, rodeado de un gran jardín con muchos elementos llamativos que podrá visualizar durante el recorrido. A lo largo del trayecto, el usuario se encontrará con una serie de obstáculos estratégicamente colocados en las vías del tren. Desde árboles, grandes rocas, señales y túneles, deberá estar alerta y preparado para actuar rápidamente. Para esquivar los obstáculos, simplemente el usuario debe inclinarse físicamente en la dirección hacia donde deseas moverte. Si el obstáculo está a la derecha, deberá inclinarse hacia la izquierda; si está a la izquierda, debe inclinarse hacia la derecha. ¡Incluso puedes mover tu torso hacia adelante si el obstáculo se encuentra justo encima del vagón! Para ganar o perder el juego, el jugador debe esquivar la mayor cantidad de obstáculos en 3 vueltas que dará el vagón en movimiento, ganará si en esas vueltas el jugador consigue la mayor cantidad de puntos y perderá si ocurre lo contrario.


CONCLUSIONES

El desarrollo de este proyecto superó nuestras expectativas y resultó ser una experiencia emocionante y divertida para nosotros. A pesar de no haber podido probarlo con personas externas, estamos satisfechos con el resultado obtenido y creemos firmemente que cumple con el propósito original de proporcionar una experiencia de entretenimiento única y desafiante para los jugadores, así como ayudarlos en sus rehabilitaciones de fisioterapia para mejorar su calidad de vida. Confiamos en que hemos creado un producto de calidad que captura la emoción y la diversión que buscábamos transmitir. Se planea llevar a cabo pruebas con usuarios en el futuro para recopilar comentarios y realizar ajustes si es necesario, de modo que podamos ofrecer una experiencia aún más satisfactoria.
Carrillo Partida Alicia Lizbeth, Universidad Autónoma de Nayarit
Asesor: Dra. Kelsey Alejandra Ramírez Gutiérrez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SEGUIMIENTO DE SEñALES DE TRáNSITO UTILIZANDO HASHES PERCEPTUALES


SEGUIMIENTO DE SEñALES DE TRáNSITO UTILIZANDO HASHES PERCEPTUALES

Carrillo Partida Alicia Lizbeth, Universidad Autónoma de Nayarit. Ojeda Xiqui Alejandro, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Kelsey Alejandra Ramírez Gutiérrez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la conexión constante a internet a través de diversos dispositivos ha transformado nuestra forma de interactuar con el entorno. Los automóviles autónomos ofrecen ventajas al contar con sistemas avanzados de reconocimiento de objetos en movimiento, como semáforos y señales de tránsito. Según datos del INEGI, en 2022 hubo aproximadamente 377 mil accidentes en el tránsito terrestre, resaltando la importancia de buscar soluciones para reducirlos. A pesar de los métodos existentes para el reconocimiento de señales, es necesario mejorarlos, considerando la necesidad de realizar estos reconocimientos de manera rápida y efectiva para evitar accidentes. El desafío principal es desarrollar un sistema altamente eficiente y preciso que pueda procesar información en tiempo real, tomando decisiones rápidas y seguras mientras se conduce. La variabilidad en las condiciones de visibilidad, como el clima adverso o señales parcialmente ocultas, también es un factor a considerar, ya que podría afectar diferentes sistemas de reconocimiento y seguimiento. Además, se debe tener en cuenta la capacidad de adaptación del sistema a los cambios en las regulaciones de tráfico y la aparición de nuevas señales, lo que requiere flexibilidad y capacidad de aprendizaje. En resumen, el desarrollo de un sistema de reconocimiento de señales de tránsito efectivo, rápido y adaptable es esencial para mejorar la seguridad vial y reducir accidentes. Para ello, proponemos la implementación de funciones Hash que permitan un reconocimiento automático mediante un análisis de vídeo. Estas funciones tienen la ventaja de ser rápidas y eficientes al comparar imágenes.



METODOLOGÍA

La metodología para el desarrollo del programa de seguimiento de señales de tráfico mediante el uso de hashes perceptuales se describe a continuación: Selección de tecnología de desarrollo: Se elegirá la tecnología de programación más adecuada para la implementación del programa Diseño de las funciones hash perceptuales: Se definirán los algoritmos para implementar las funciones A-Hash, D-Hash y P-Hash. Estos algoritmos se basarán en una secuencia común de preprocesamiento, extracción y cuantización de características Diseño del banco de pruebas: Se establecerá un conjunto de imágenes de señales de tráfico representativas para crear el banco de pruebas. Cada imagen estará asociada a un identificador único y un hash perceptual correspondiente Implementación de los métodos de hash: Se procederá a implementar las funciones Ahash, Dhash y Phash utilizando los algoritmos diseñados previamente. Cada función hash será organizada en una clase para facilitar su uso y reutilización Almacenamiento de señales de tránsito: Se almacenan las señales de tránsito en una base de datos. Cada señal se compone por un identificador, una posición en la escena y el hash perceptual. Esto permitirá que el programa tenga una forma de trabajar con múltiples señales Método de comparación: Se creará un método de comparación que utilizará la imagen base de referencia y comparará las demás imágenes utilizando la distancia de Hamming normalizada propuesta en las funciones Hash definidas en el punto 4. Se irán descartando las imágenes que no tengan una coincidencia. Esto se hará para una mejor eficiencia en el sistema de seguimiento. Manipulación de vídeos: Se carga el video donde se debe notar una señal de tránsito, dicho video será procesado y de él se extraerán las imágenes necesarias para la identificación, este proceso lleva los siguientes pasos: Se obtienen las coordenadas iniciales de la señal a seguir en el video Se almacena la señal de acuerdo con el paso 5 Cada ciertos frames, por cada señal, se calculan los vecinos de cada señal registrada considerando a una señal base Se actualiza la imagen base de la señal conforme las coincidencias en movimiento Seguimiento de señales en video: Para el seguimiento de la señal, con los datos extraídos en el punto anterior se procesan las zonas de interés del vídeo de acuerdo con el punto 4, este proceso sigue los siguientes pasos: Cada región vecina extraída de la escena será comparada con la base de datos En dicha escena se encontrará cada señal que será analizada en movimiento En la comparación de la imagen con la base de datos se encuentra la similitud aprovechando la robustez de la función Teniendo la similitud coincidente se actualiza el registro de la señal para su seguimiento Evaluación del rendimiento: Se realizarán pruebas exhaustivas para evaluar el rendimiento y la precisión del programa de seguimiento de señales de tránsito. Se ajustarán los parámetros y algoritmos según sea necesario para mejorar la eficiencia y la robustez del sistema Con esta metodología, se podrá desarrollar un programa eficiente para el seguimiento de señales de tráfico utilizando hashes perceptuales.


CONCLUSIONES

Durante esta estancia de verano, se lograron cumplir satisfactoriamente los objetivos propuestos en el plan de trabajo. El programa de seguimiento utilizando las funciones Hash permite analizar señales base en vídeos, y ha demostrado ser un avance significativo al lograr el seguimiento de la señal y almacenar su última coincidencia exitosamente aún a pesar de cambios en las condiciones ambientales. De las pruebas realizadas utilizando el banco pruebas con las funciones de hash perceptual AHash, PHash y DHash se obtuvo el seguimiento de las señales de tránsito. La función Hash perceptual que nos dio un mejor resultado en el seguimiento fue la función Phash debido a su robustez. Es relevante destacar que el programa actual representa un hito importante en el camino hacia un trabajo a largo plazo, donde se aspira a implementar inteligencia artificial capaz de reconocer automáticamente el tipo de señal y clasificarla para su incorporación al código desarrollado.
Carrillo Soto Jose Victor, Universidad de la Guajira
Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GENERACIóN DE ENERGíA A TRAVéS DE UN SISTEMA EóILCO PARA CULTIVOS DE CANNABIS


GENERACIóN DE ENERGíA A TRAVéS DE UN SISTEMA EóILCO PARA CULTIVOS DE CANNABIS

Carrillo Soto Jose Victor, Universidad de la Guajira. Sanchez Gomez Litzzy, Instituto Tecnológico de Pachuca. Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

Actualmente existe una preocupación importante por el calentamiento global generado por la actividad humana afectando principalmente a los combustibles fósiles para cubrir con los requerimientos energéticos actuales. Uno de los sistemas energéticos más atractivos es aquellos basados en el uso de energía eólica, en los cuales se trasforma la energía del viento a energía mecánica para posteriormente convertirla en energía eléctrica. La nueva era son las energías renovables, de eso no existe duda alguna, la llegada de esta energía contribuye a una mejor relación entre la producción de energía y los recursos naturales del medio ambiente. El combustible que alimenta esos generadores de energía es totalmente gratuito y factible debido al aprovechamiento de los recursos autóctonos contribuyendo a la mejora de la economía local. Este trabajo consta del diseño de un prototipo de un aerogenerador vertical de tipo Rotor H. En el municipio de Santo Tomas, departamento Atlántico de Colombia, donde se encuentra un invernadero de Cannabis en cual se requiere implementar un sistema que nos permita obtener energía eléctrica para un sistema de riego, de una manera económica, productiva y altamente sostenible. 



METODOLOGÍA

El viento es una fuente de energía limpia, gratuita e inagotable. Ha sido ocupada desde hace siglos para navegar, mover molinos, moler trigo o bombear agua. Ya en las civilizaciones sumerias o egipcias, el viento estaba presente no solo en la vida real, sino en toda clase de historias, leyendas o mitos. Las culturas más antiguas aprovechaban su fuerza para desplazarse mediante el uso de velas en los barcos. En una turbina eólica, las palas o aletas giran con la fuerza ejercida sobre ellas por el viento. Al moverse circularmente, hacen girar un eje que, a su vez, impulsa una caja de engranes, la cual hace que un sistema de rotación que está dentro de un generador se mueve a gran velocidad. El generador convierte esa energía de rotación en electricidad, la cual puede usarse directamente en tiempo real o puede almacenarse en un banco de baterías para aprovecharse más tarde. Con base a la implementación requerida se diseñó un modelo del aerogenerador. Inicialmente, optamos por una caja multiplicadora y debíamos decidir si implementar un modelo vertical u horizontal. Tras un análisis, determinamos que un aerogenerador con turbinas verticales de tipo Rotor H era la mejor opción. El cual está diseñado especialmente para adaptarse en el área de los invernaderos de cannabis. Para comenzar con su diseño y establecer las medias de dicho aerogenerador tanto de su altura como de su área se realizaron ciertos estudios para determinarlos. Para la creación de la caja multiplicadora, nos basamos en un modelo propuesto para otro aerogenerador. Sin embargo, también buscamos una alternativa más económica que pudiera reducir los costos. Así, ideamos un diseño de poleas, que resultaba ser una opción más económica para el proyecto. Se determino que su altura total es de 4m, el tamaño de las palas o aletas es de 1.5 m de alto por 20 cm de ancho y 5 cm de espesor. También se adaptó un alternador imantado, el cual con ayuda de un sistema de poleas recibirá la energía generada por las aspas convirtiéndola en energía eléctrica con el fin de abastecer el alumbrado del invernadero. Se realizaron pruebas físicas. Además, hicimos una modificación al alternador para asegurarnos de que el voltaje y la velocidad del sistema fueran suficientes para cargar una batería. Diseñamos una estructura para llevar a cabo el ensamble y presentar el aerogenerador en su versión completa. Mostramos cómo quedaría la propuesta, teniendo en cuenta todos los elementos previamente trabajados y probados.


CONCLUSIONES

La energía eólica se aprovecha de una fuente de energía totalmente inagotable como es el viento, y por tanto tiene grandes ventajas. Tiene un impacto menor en el ecosistema en el que se instalen los parques eólicos y poseen una gran capacidad productiva. En esta zona el precio de la electricidad es elevado, por todo ello, el uso del viento es una solución para crear electricidad, generar una cantidad razonable de electricidad por un bajo coste, dando un resultado de inviabilidad Durante el desarrollo del proyecto del aerogenerador, se llevaron a cabo etapas bien definidas que permitieron una progresión ordenada y eficiente en el diseño y prueba de sus componentes clave. Desde la investigación inicial para obtener ideas hasta la implementación de una alternativa más económica para la caja multiplicadora, el equipo demostró habilidades en la resolución de problemas y en la adaptación de soluciones innovadoras. La combinación del modelo vertical y el diseño de poleas resultó en un aerogenerador completo y funcional que cumple con los requerimientos de voltaje y velocidad para cargar una batería. La experiencia adquirida en este proyecto abre nuevas oportunidades para futuros desarrollos en el campo de la energía eólica, destacando los beneficios de esta forma de generación energética. La energía eólica es una alternativa prometedora y sostenible que ofrece una serie de ventajas, desde la protección del medio ambiente hasta el impulso económico local.
Carvajal Palomino Luis Antonio, Universidad Veracruzana
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

FACTIBILIDAD DE LAS TéCNICAS DE CONSTRUCCIóN CON TIERRA CONFINADAS EN ESTRUCTURAS METáLICAS.


FACTIBILIDAD DE LAS TéCNICAS DE CONSTRUCCIóN CON TIERRA CONFINADAS EN ESTRUCTURAS METáLICAS.

Carvajal Palomino Luis Antonio, Universidad Veracruzana. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La construcción con tierra es el método constructivo más antiguo empleado por el hombre y validado por la historia de sus edificaciones, las cuales se mantienen en pie después de cientos de años. Sin embargo, la tierra fue sustituida por otros sistemas de mampostería en la búsqueda del progreso, tales como el tabique de barro rojo recocido, concreto prefabricado, block de tepezil, etc., los cuales son fabricados por medio de hornos de altas temperaturas que liberan grandes cantidades de Co2 a la atmósfera. Además, afectan el confort de las personas dentro de los espacios habitables. La tierra es un elemento sustentable, que puede ser reutilizado en construcciones y volviendo a su naturaleza. La tierra tiene muchas ventajas en cuestión de confort térmico, buenas propiedades acústicas, mecánicas, físicas… en comparación con otras técnicas de construcción de mampostería, mencionadas anteriormente. Actualmente, la sustentabilidad es el camino para poder revertir los efectos de contaminación y cambio climático que estamos sufriendo, con apoyo de los Objetivos de Desarrollo Sostenible (ODS), de los cuales me basé para el análisis de mi investigación. La investigación se realizó con el fin de comprobar la factibilidad de las técnicas de construcción con tierra y promover su utilización en mayor medida, para disminuir la contaminación producida al elaborar la mampostería en hornos, aportando a la innovación de nuevos sistemas constructivos, sirviendo como una solución de construcción económica, segura, resiliente, sustentable e innovadora.



METODOLOGÍA

Se recopiló la información de diversas fuentes bibliográficas que sirvieron para avalar la veracidad de la presente investigación. Estas investigaciones son artículos, tesis, de otros autores, que se relacionan al tema de técnicas de construcción con tierra (tapia, btc, adobe, quincha). La metodología parte de la recopilación bibliográfica de las fuentes mencionadas anteriormente, sobre la densidad, la conductividad térmica y las resistencias a la compresión, a la flexión y al corte correspondientes al adobe, los bloques de tierra comprimida (BTC), la tapia y la quincha, según diferentes autores. Se elaboraron comparaciones entre sí y con algunos materiales industrializados, tales como los bloques de hormigón, los ladrillos cerámicos huecos y los ladrillos cocidos macizos. Para el caso del adobe y del BTC, los espesores de los muros en el exterior varían entre 0.35 m y 0.43 m, para la tapia es necesario trabajar con espesores de muros de 0.40 m, en cuanto a la quincha, que tiene mayor capacidad aislante por la caña, su espesor es de 0.28 m para los muros exteriores. En el análisis de resistencia a la compresión, se recopilaron los siguientes datos: del adobe, la resistencia a la compresión varía entre 3 kgf/cm2 y 21 kgf/cm2; son muy bajas sus resistencias a la tracción y al corte: 3,16 kgf/cm2.  El BTC mejora la respuesta, al obtenerse con él valores que van desde 17 kg/cm2 hasta 121,8 kg/cm2, la oscilación responde al contenido de cemento en la mezcla del BTC (tierra, arena, cemento): a medida que aumenta el porcentaje agregado de cemento, aumenta la resistencia a la compresión y a la flexión. La tapia tiene una resistencia variable, de acuerdo con la conformación de la mezcla de arena-arcilla y con el espesor de muro construido, se obtienen valores de entre 46 kgf/cm2 y 196 kgf/ cm2. Los tipos de uniones del marco de confinamiento deberán mantener la integridad de las uniones entre la viga de cerramiento (cierra el sistema en la parte superior) y la columna de acero, así como de la columna a la placa base para apernar en la cimentación, utilizando también la fundación por soldadura. La unión por soldadura facilita el proceso constructivo en campo, pero necesita de mano de obra especializada y no permite la fácil recuperación de los materiales al final del ciclo de vida de la estructura. Por su parte, la unión apernada es de muy fácil montaje y permite la desconstrucción a la hora de demoler la edificación, pero requiere de mucho mantenimiento, especialmente en zonas con altos índices de humedad.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre la redacción de trabajos de investigación, la clasificación en calidad de materiales pétreos, para su utilización en el diseño de mezclas de concreto, asfaltos, etc. También se vieron los métodos de diseño de mezclas como el ACI y Abrams, el cálculo de la carbonatación y su significado en el concreto armado. Además, se aprendió a realizar un estudio urbano, realizando conteos de tráfico vehicular y toma de temperaturas para conocer las afectaciones del efecto de Isla de Calor Urbano. Finalmente, se realizaron actividades en Mecánica de Suelos, donde conocimos las distintas pruebas que se pueden realizar a los suelos y los tipos de tierra usados en construcciones.  En conclusión, entre las técnicas de construcción con tierra, que fueron las de tapia, BTC, adobe y quincha, el material que mejor se podría adecuar al sistema constructivo de mampostería confinada en estructuras metálicas que se explicó en la metodología, fue el de Bloques de Tierra Comprimida (BTC) estabilizado con cemento. Estos bloques de tierra comprimida serían implementados en el sistema constructivo de mampostería confinada, que consta de columnas y vigas de acero, con varillas soldadas en las columnas de acero a cada 2 hiladas de altura del BTC (dependiendo la altura de cada bloque), permitiendo que se unifique como un solo sistema. Con esta investigación se espera promover la realización de construcciones importantes utilizando el sistema constructivo de mampostería de BTC confinada en estructuras metálicas, con el fin de aprovechar las propiedades físicas, mecánicas, térmicas y acústicas que ofrece este material hecho a base de tierra, arena y cemento. Aportando también, a las nuevas edificaciones sustentables que se están realizando actualmente para disminuir los efectos de la contaminación y el cambio climático.
Casique Alvarez Alejandra, Universidad Tecnologica de León
Asesor: Mtro. Héctor Daniel Núñez Cuevas, Universidad Tecnologica de León

DESARROLLO DE HERRAMIENTAS PARA EL ENTRENAMIENTO EN AUTOMATIZACIóN DE PROCESOS


DESARROLLO DE HERRAMIENTAS PARA EL ENTRENAMIENTO EN AUTOMATIZACIóN DE PROCESOS

Casique Alvarez Alejandra, Universidad Tecnologica de León. Dominguez Valencia Abril Yunuen, Universidad Tecnologica de León. Gonzalez Marín Juan Daniel, Universidad Tecnologica de León. Olguin Garcia Andrea, Universidad Tecnologica de León. Asesor: Mtro. Héctor Daniel Núñez Cuevas, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La automatización de procesos industriales es la integración de diferentes tecnologías como: diseño de maquinaria, equipo electrónico, software y hardware computacional, que sean capaces de llevar todo tipo de procesos de producción, selección y control de manera autónoma; es decir, que haga mínima la participación del personal. La necesidad de diseñar equipo para el entrenamiento en el tema de automatización de procesos se origina desde el momento en que se requiere aprender a utilizar los diferentes elementos que pueden conformar un sistema automatizado especialmente para el alumnado de la carrera de ingeniería en sistemas productivos; el alumnado que toma esta materia comprende los conceptos teóricos y prácticos en la utilización del software especializado en los temas de automatización tales como el uso de simuladores como Fluid-SIM, el cual tiene como objetivos crear, simular, y aprender a realizar la conexión de circuitos electroneumáticos, electrohidráulicos, digitales y electrónicos. Sin embargo, al momento de realizar las conexiones en la parte práctica de la asignatura, el uso constante y los errores propios del proceso de aprendizaje, causan el deterioro apresurado de los equipos y debido al control y flujo de recurso económico, se ha complicado la adquisición del material necesario para cubrir los requerimientos de la asignatura. Durante algunos cuatrimestres se ha intentado costear un panel de entrenamiento para que el alumnado pueda aplicar de la mejor manera los conocimientos teóricos obtenidos durante la materia de automatización, lamentablemente, a pesar de tener diferentes cotizaciones de la celda de entrenamiento no ha sido posible obtenerla, pues no se cuenta con los recursos económicos necesarios, ya que estos equipos tienen un costo elevado. Por lo anteriormente mencionado surge la alternativa de diseñar y posteriormente fabricar un panel de entrenamiento o celda de entrenamiento, con el equipo necesario que esté al alcance de las posibilidades económicas de la universidad esperando una reducción de costos de al menos un 30% del costo de una celda comercial.



METODOLOGÍA

Detección de las necesidades de las hojas de asignatura de la materia de Automatización de procesos. Definición de la hipótesis a demostrar con el proyecto mediante una lluvia de ideas del equipo de investigación. Planeación las actividades a realizar mediante un diagrama de Gantt. Determinación los roles de cada integrante del equipo destacando las habilidades de cada uno. Diseño del boceto conceptual del panel de entrenamiento. Práctica con equipo de neumática, electroneumática y PLC. Elaboración del diseño de la estación en SolidWorks. Listado de los insumos requeridos para el proyecto. Cotización con proveedores de la región los materiales necesarios para el montaje de la celda. Elección de los proveedores que mejor se adapten a las necesidades del proyecto.


CONCLUSIONES

Durante la estancia de verano, se logró adquirir conocimientos teóricos para la comprensión de la materia de automatización, así como prácticos para el uso correcto de los equipos como lo son las válvulas, electroválvulas, cilindros de efecto simple y doble efecto, módulos de relevadores y fuentes de voltaje. Aplicando dichos conocimientos en el diseño de la celda de entrenamiento que cumpla con los requerimientos para permitir al alumnado obtener el conocimiento necesario en el área de automatización, sin embargo, dicha celda no será fabricada en este periodo debido al tiempo requerido para ello y los recursos económicos necesarios. Es importante mencionar que la hipótesis planteada en un inicio se cumple pues la inversión total proyectada para la fabricación de la celda o módulo de entrenamiento para la fabricación se presupuesta alrededor de los MX$90,000 Incluyendo el gasto estimado del tablero de control de la celda, mientras que la compra de una celda didáctica de manufactura, de los fabricantes más populares el precio ronda entre los $300,000. - a $500,000. - pesos mexicanos, siendo que la inversión para la fabricación de la celda diseñada en este proyecto representa un 22.5% del precio de la celda comercial, sin embargo, también es importante identificar las ventajas y desventajas que brinda este proyecto ante la adquisición de una celda de automatización comercial. Ventajas de la fabricación de una celda de automatización: Reducción de costos de adquisición. Facilidad de modificaciones y adecuaciones de acuerdo a las necesidades. Comprensión plena del funcionamiento de la celda de manufactura por parte de los diseñadores alumnos. La misma fabricación de la celda crea un conocimiento relacionado a la materia de Automatización de Procesos Libertad de diseño y equipo modular para posteriores actualizaciones o mejoras. Elección de tamaño según necesidades. Posible inclusión de materias relacionadas con el estudio de métodos. Desventajas de la fabricación de una celda de automatización: El tiempo para manufacturarla. El interés del alumnado para aprender sobre esta y poder fabricarla. La obtención de cada uno de los equipos y materiales necesarios. El tiempo de espera para la obtención de cada equipo. Posibles fallos por la fabricación de la celda debido al proceso natural de aprendizaje. Ventajas de la compra de una celda comercial: Una celda comercial es comprada y entregada sin necesidad de fabricación o modificación personal. No hay preocupación y dificultad por el diseño y obtención de los equipos. Vienen con manuales de uso y soporte técnico Tienen garantía por fallas o daños de fábrica. Desventajas de la compra de una celda comercial: El costo de adquisición es muy elevado. El diseño, funciones y finalidad de la celda no pueden ser modificados. Las refacciones solo se pueden obtener con la empresa donde se compra la celda. El mantenimiento debe ser especializado.
Castañeda Álvarez Luis Adrián, Instituto Tecnológico de Tepic
Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato

DETECCIóN DE EMOCIONES Y EXPRESIONES EMPLEANDO DIADEMA EPOC+ E INTELIGENCIA ARTIFICIAL


DETECCIóN DE EMOCIONES Y EXPRESIONES EMPLEANDO DIADEMA EPOC+ E INTELIGENCIA ARTIFICIAL

Castañeda Álvarez Luis Adrián, Instituto Tecnológico de Tepic. Castro Lopez Angel Gustavo, Instituto Tecnológico Superior de Irapuato. Llamas Becerra Joahan Fernando, Instituto Tecnológico de Tepic. Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Es posible determinar el estado emocional de un individuo examinando las características musculares del rostro. Dicha posibilidad ha despertado un creciente interés en distintas áreas acerca del análisis de regiones específicas del rostro. Interés que ha llevado al desarrollo de diversos métodos de detección, de los cuales, los más rudimentarios presentan una intervención directa en el rostro del individuo. Este contacto puede crear una sensación constante de incomodidad y llegar a alterar los resultados al interferir en las emociones en el sujeto de estudio, razón por la cual se ha buscado implementar sistemas que realicen esta tarea de manera no invasiva al usuario.  Siguiendo este principio, el presente trabajo aborda la implementación tres metodologías de detección de expresiones faciales y emociones; la primera metodología hace uso de la diadema EMOTIV EPOC+, la segunda se fundamenta en una red convolucional MTCNN y la tercera toma cimientos en una librería de Python con Machine Learning. Esto con la finalidad de realizar una comparativa estadística de la precisión del sistema en conjunto.



METODOLOGÍA

Método 1 | Diadema Emotiv Epoc + y Emotiv Xavier. Un sistema BCI permite emplear la diadema Emotiv Epoc+ en conjunto con el software Xavier Control Panel para extraer los pulsos eléctricos emitidos por los músculos faciales teniendo la capacidad de comprender y entender cómo las expresiones faciales y emociones son generadas de forma nativa en las regiones del cerebro/rostro. Para lograr una correcta detección de las expresiones faciales es necesario entrenar el sistema BCI. Se establece que las expresiones faciales de estudio neutral, levantamiento de cejas y sonrisa, se asigna una emoción para su identificación. Se completó un total de 9 entrenamientos de los cuales se asociaron 5 entrenamientos para la expresión neutral, 3 para sorpresa (levantamiento de cejas) y 3 para alegre (sonrisa grande mostrando los dientes).  Método 2 | Detección de emociones por MTCNN. Para la segunda metodología, se hizo uso de un modelo de redes neuronales MTCNN (Multi-Task Cascaded Convolutional Networks) implementado en Python, capaz de detectar uno o varios rostros dentro de un video en tiempo real. Su funcionamiento se basa en la conexión en cascada con tres redes convoluciones que leen la imagen original donde la transforman a diferentes escalas para detectar la presencia de un rostro. Cada red trabaja a distinta profundidad de análisis donde se procesa el rostro en la imagen leída según su clasificador.Para dar robustez a la detección se implementó la librería de Python TensorFlow, donde se llama a un framework que contiene estructurada la base de datos compuesta de una gama de fotos predeterminadas. Comparando los datos obtenidos de la red, con los datos almacenados por TensorFlow, se determina la emoción capturada por el individuo. Las emociones que puede detectar este algoritmo son molestia, disgusto, miedo, alegre, neutral, tristeza y sorpresa. Se estudiaron las emociones neutral, alegre y sorpresa, las cuales se clasifican en un porcentaje predominante. A su vez, se detectan las posibles emociones de las expresiones realizadas. Dicho monitoreo se realiza mediante un gráfico de barras generado con el uso de la librería matplotlib, además de la video-captura del rostro con librería OpenCv . Método 3 | Análisis de proporciones faciales mediante Mediapipe. La tercera metodología se apoya fuertemente en la librería de Python, Mediapie. Una plataforma de código abierto con arquitectura de pipelines (procesos informáticos secuenciales) fundamentada en Machine Learning.  El método está dividido en dos códigos, uno dedicado a la extracción de frames y el segundo se enfoca en el procesamiento de los frames para determinar ciertas proporciones de la cara. Para el primer código, se hizo uso de OpenCV y OS. Se lee un video de entrada desde un directorio y lo procesa para extraer 300 frames del mismo. Posteriormente los almacena en una carpeta particular dónde se puede acceder a cada grupo de frames de manera independiente. El segundo código accede a las carpetas para procesar cada imagen individualmente. Usando Mediapipe, se aplica una malla facial llamada Landmark a cada rostro en los frames extraídos que permite el seguimiento de una selección de puntos en la cara, de los cuales se determina una recta y una distancia. Se obtiene la relación entre estas distancias obtenidas y se generan dos proporciones; una dependiente de las cejas y otra dependiente de la boca. Finalmente, el código toma las proporciones y las envía a una carpeta externa como archivo .csv en excel. Con el desarrollo del método es posible observar momentos específicos del video dentro de los frames, además del comportamiento presentado por las proporciones faciales, conectando así, los datos extraídos con la detección de emociones del sujeto.


CONCLUSIONES

A través de la adquisición de conocimientos teóricos respectivos a las expresiones faciales, micro expresiones, emociones, interfaces BCI, etc, se implementó el uso de hardware comercial especializado como la diadema EMOTIV EPOC+, además del diseño de algoritmos fundamentados en IA y Machine Learning, para la detección de expresiones faciales y emociones. También se ahondó en temas referentes a la programación, el uso de la plataforma Python y la identificación de distintas librerías aptas para la realización de nuestro proyecto. Usando distintas metodologías, se realizó un muestreo de conjunto en tiempo real dónde se generó una base de datos para su análisis, la cual facilitó el entendimiento de estos sistemas y ayudó a la detección de emociones.
Castañón Quijano Cesar, Instituto Tecnológico de Puebla
Asesor: Mtro. Miguel ángel Núñez Cárdenas, Instituto Tecnológico Superior de Uruapan

DISEñO DE ESTRUCTURAS METáLICAS EN SOLIDWORKS


DISEñO DE ESTRUCTURAS METáLICAS EN SOLIDWORKS

Castañón Quijano Cesar, Instituto Tecnológico de Puebla. Asesor: Mtro. Miguel ángel Núñez Cárdenas, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El procedimiento de diseño de estructuras a lo largo de los años ha evolucionado de la mano con la tecnología, creando nuevas herramientas que nos permiten plasmar, modificar, simular y elaborar con mayor precisión nuestros proyectos. Teniendo una gran oportunidad de programas que ofrecen un amplio servicio para la planificación de productos, ensambles, piezas y estructuras. SolidWorks es uno de ellos, que es un software de diseño CAD 3D (diseño asistido por computadora) para modelar piezas y ensamblajes en 3D y planos en 2D. El software ofrece una amplia cantidad de instrumentos para cubrir los aspectos implicados en el proceso de desarrollo del producto.



METODOLOGÍA

Como se menciono con anterioridad el programa utilizado durante este proyecto fue SolidWorks, para empezar a tener acercamiento del manejo del programa, se me brindo la oportunidad de tomar cursos que impartían con un temario amplio de teoría, ejercicios y prácticas para poder comprender el uso correcto de cada una de las herramientas que contiene y a la vez recibir diplomas que respaldan mi capacidad. Después elabore siete diferentes estructuras donde cada una era compleja para su desarrollo, cumpliendo con las especificaciones que requerían, desde la selección de material, medidas, apariencias, ensambles y cortes, esto con el objetivo de llevar a la práctica todo lo aprendido durante el verano.  


CONCLUSIONES

Durante este proyecto de investigación he podido ampliar mis conocimientos en el manejo del programa y a la vez teóricos como es la interpretación de planos, ya que esto es fundamental para poder desarrollar diseños y el uso correcto de las herramientas con el que cuenta el programa SolidWorks, teniendo nuevas técnicas y cualidades que me ayuden a la creación de proyectos futuros. Por último, durante este verano delfín pude desarrollar un crecimiento profesional y académico que me ayudaran en la búsqueda tener una certificación en dicho programa y ampliar mis oportunidades de trabajo.
Castellanos Duarte Karla Paola, Instituto Tecnológico de Tlalnepantla
Asesor: Dra. Heidis Patricia Cano Cuadro, Universidad de la Costa

CIENCIA,INGENIERIA Y APLICACION DE NUEVOS MATERIALES


CIENCIA,INGENIERIA Y APLICACION DE NUEVOS MATERIALES

Castellanos Duarte Karla Paola, Instituto Tecnológico de Tlalnepantla. Asesor: Dra. Heidis Patricia Cano Cuadro, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En la industria de la construcción, la búsqueda de materiales sostenibles y respetuosos con el medio ambiente se ha vuelto una prioridad. El impacto ambiental derivado del uso de materiales convencionales, como los paneles de yeso, ha impulsado la necesidad de explorar alternativas más amigables con el entorno y que puedan contribuir a reducir el daño causado por la construcción, en esta investigación  se evaluó el uso de morteros de yeso reforzado con fibras naturales de maguey como una alternativa sostenible en la industria de la construcción.



METODOLOGÍA

Para la caracterización de las fibras se determinó el diámetro, longitud promedio, % de absorción de agua, densidad absoluta y porosidad. También, se observó en microscopio para conocer la microestructura de esta. Se desarrolló  una alternativa sostenible tres diseños de morteros  utilizando fibras naturales de maguey como refuerzo, combinadas con una matriz basada en sulfato de calcio hemihidrato de calcio. Esta combinación de materiales buscó crear compuestos dúctiles y duraderos que sean respetuosos con el entorno. Inicialmente, se realizó una exhaustiva revisión bibliográfica, correspondientes al uso de fibras naturales en la fabricación de morteros de yeso, así como estudios previos sobre el comportamiento mecánico de morteros de yeso reforzados con fibras naturales. Seguidamente se realizó la preparación de morteros, seleccionando y adquiriendo los materiales necesarios para la fabricación de estos reforzados con fibras naturales de maguey. Posteriormente se realizaron ensayos y pruebas de laboratorios a las muestras de morteros de yeso reforzados con fibras naturales de maguey. Estos ensayos incluyeron, pruebas de resistencia a la compresión y combustión. Así mismo se realizó el análisis de resultados de los ensayos mecánicos y se compararon las propiedades mecánicas estos, en relación a lo establecido en la literatura usada para esta investigación.


CONCLUSIONES

Se concluye, en los obtenidos, que realizar morteros de yeso fabricado reforzado con fibras naturales  de maguey es viable para la industria de la construcción ya que sus porcentajes de adición óptimos. Realizando la prueba la prueba de compresión a los nuestros paneles elaborados con un 40% de yeso y 60% de fibra y vimos una resistencia de  0030.75 Mpa a diferencia de los morteros con un porcentaje de yeso del 100% que solo tuvieron resistencia del 0005.08 Mpa. Dado  como resultado que  las fibras de maguey  es una mejor alternativa para aplicaciones industriales por su ligero peso, costo bajo, y por ser una materia prima renovable con propiedades superiores sobretodo, cuando se emplea como refuerzo en en morteros de yeso.         
Castellanos Luevano Oswaldo, Universidad Tecnologica de León
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.


FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.

Aguirre Mena Federico de Jesus, Universidad Tecnologica de León. Castellanos Luevano Oswaldo, Universidad Tecnologica de León. Cruz Ramirez Oscar Mauricio, Universidad Tecnologica de León. Duarte Hernández Daniel, Universidad Tecnologica de León. Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Perez Soto Jose Saul, Universidad Tecnologica de León. Rodríguez Galaviz Brian Axel, Universidad Tecnologica de León. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proyecto reforzará la interacción con diferentes periféricos y dispositivos, como el módulo de biometría de huella digital, el módulo GPS y el sensor de carga de la batería. También se reforzará el diseño y montaje de un circuito adecuado para conectar y gestionar estos componentes.  



METODOLOGÍA

El objetivo de este proyecto es integrar una serie de sensores en un vehículo eléctrico para mejorar la seguridad y funcionalidad del mismo. Los sensores que se utilizarán son: Sensor de biometría de huella digital: Este sensor se aseguró para autenticar al conductor y permitir el acceso al vehículo. La huella digital del conductor se almacenará en una base de datos y se comparará con la huella digital escaneada para conceder o denegar el acceso. Posicionamiento global GPS: Se implementará un módulo GPS para obtener la ubicación precisa del vehículo. Esto permitirá realizar funciones como seguimiento en tiempo real, registro de trayectos y localización en caso de robo o emergencia. Sensor de estado de carga de batería: Para garantizar la eficiencia y seguridad del vehículo eléctrico, se obtendrá un sensor para medir el nivel de carga de la batería. Esto permitirá al conductor tener una estimación precisa del alcance del vehículo antes de necesitar una recarga. El microcontrolador ATMega328P será el cerebro del sistema, encargado de procesar los datos de los sensores y controlar las diferentes funciones del vehículo. Para lograrlo, se programará el microcontrolador en lenguaje C o algún lenguaje de programación compatible.


CONCLUSIONES

Al finalizar el proyecto, se tendrá un vehículo eléctrico más seguro y funcional, con capacidades avanzadas de autenticación, localización y supervisión del estado de la batería. Esto contribuirá a mejorar la experiencia del usuario y fomentará el uso de vehículos eléctricos como una opción de movilidad más sostenible.
Castellón Castillo Eduardo Ignacio, Universidad Nacional de Ingeniería
Asesor: Dra. Macaria Hernández Chávez, Instituto Politécnico Nacional

RECONSTRUCCIóN EN REALIDAD AUMENTADA DE LA VIEJA MANAGUA, NICARAGUA.


RECONSTRUCCIóN EN REALIDAD AUMENTADA DE LA VIEJA MANAGUA, NICARAGUA.

Castellón Castillo Eduardo Ignacio, Universidad Nacional de Ingeniería. Asesor: Dra. Macaria Hernández Chávez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El efecto que la tragedia de 1972 generó en la nación Nicaraguense trasncendió generación tras generación hasta llegar al día de hoy y entre sus consecuencias y con relación de la presente de investigación se encuentra el patrón de los sistemas constructivos actuales.      La capital de Nicaragua, Managua, es de las pocas capitales del mundo en no tener un casco definido donde se agrupen construcciones verticales en un mismo lugar, pues ante el constante movimiento sismico y la herencia traumatica del pasado se apuesta siempre a construcciones horizontales, por lo tanto los edificios de mas de 3 plantas del pais se encuentran bastante dispersos y esto se puede evidenciar en diferentes tomas areas que se han hecho del pais.      Ante tal situación, existe una percepción local de que la capital en comparación al resto de paises hermanos centroamericanos se quedó congelada en el tiempo pues la idea de la metrópoli moderna no se encuentra presente. Los puntos de interes como alcaldias, zonas comerciales y de salud se dispersaron hacia los alrededores y la vieja capital dejó de ser el centro.      Es por ello que la elaboración de una aplicación en realidad aumentada que permita conocer los edificios que conformaron la ciudad es importante, porque de esa manera: Quienes vivieron y conocieron la ciudad pueden recordar como fue nuestra capital. Quienes nacieron posterior al terremoto puedan conocerla y comprender porque la capital no se encuentra así en la actualidad. Extranjeros puedan conocer un capitulo mas de la historia.



METODOLOGÍA

La metodología seleccionada fue en cascada, dado que su ciclo de vida determina de forma estructural los pasos formales para la elaboración del software, desde su definición de requerimientos, al diseño, desarrollo y pruebas.  A.   Fase de Análisis El desarrollo de la aplicación en realidad aumentada para la reconstrucción de la vieja Managua tiene una utilidad práctica multipropósito por las diferentes áreas en las que puede satisfacer necesidades y complementar procedimientos. Dicha aplicación deberá tener una interfaz intuitiva para utilizar la cámara del teléfono inteligente y ser capaz de elegir los modelos de los edificios virtualizados a gusto propio y posicionarlos en un espacio real abierto para su visualización. B.   Fase de Diseño Se diseñó un nombre y un logo para la aplicación llamada ‘NicAR’ que hace referencia al patrimonio Nicaraguense ‘Nic’ que simboliza la vieja Managua al igual que a la plataforma sobre la que funciona ‘AR’ que a través de su icono evoca la detección de elementos 3D con colores provenientes del ave nacional de Nicaragua ‘El Guardabarranco’. C.   Fase de Desarrollo Para el Desarrollo de la aplicación se trabajó de forma simultánea con 3 actividades diferentes: 1)  Escaneo de Maquetas  2)  Modelado 3)  Búsqueda de Modelos 3D  4)  Desarrollo de Aplicación


CONCLUSIONES

En conclusión, la aplicación de realidad aumentada basada en la reconstrucción de la antigua Managua ha recibido una respuesta muy positiva de los usuarios. Aprecian la información proporcionada al ver los edificios, así como las fichas de información que ofrecen detalles sobre cada estructura. La capacidad de mover los edificios en cualquier ubicación y visualizarlos en 360 grados ha sido muy bien recibida y contribuye a una experiencia inmersiva. La fidelidad con la realidad y la forma en que las imágenes se aprecian dentro del entorno del usuario han sido aspectos destacados. También se destaca la posibilidad de juntar en un solo espacio todos los modelos de edificios y la facilidad de ubicar los edificios en diferentes posiciones. La facilidad de uso, la intuitividad y la accesibilidad son características valoradas por los usuarios, lo que les permite disfrutar de la experiencia sin complicaciones. La calidad de los gráficos y la visualización panorámica de los edificios han sido aspectos elogiados. La aplicación ha sido considerada como algo creativo y atractivo, que ayuda a recrear ciudades antiguas y aporta una perspectiva diferente sobre la historia de Nicaragua. La precisión de las réplicas de los edificios y la posibilidad de tomar fotografías con ellos han sido características valoradas. En general, la iniciativa de desarrollar una aplicación con este enfoque ha sido bien recibida, ya que ha logrado captar el interés de diferentes audiencias, incluyendo turistas y nacionales, y fomenta el conocimiento de la historia del país de manera divertida y educativa.
Castilla Herrera Fernando Jose, Universidad Autónoma de Baja California
Asesor: Dr. Arturo Yee Rendón, Universidad Autónoma de Sinaloa

ESTUDIO COMPARATIVO ENTRE MODELOS DE CLASIFICACIÓN UTILIZANDO ALGORITMOS GENÉTICOS Y ANÁLISIS DE COMPONENTES PRINCIPALES


ESTUDIO COMPARATIVO ENTRE MODELOS DE CLASIFICACIÓN UTILIZANDO ALGORITMOS GENÉTICOS Y ANÁLISIS DE COMPONENTES PRINCIPALES

Castilla Herrera Fernando Jose, Universidad Autónoma de Baja California. Asesor: Dr. Arturo Yee Rendón, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Se tiene un dataset que contiene 1000 imagenes de resonancias magenticas. Las cuales tienen o no tumores visibles, estas imagenes se requieren predecir y clasificar. Se propone la utilizaciónde aprendizaje maquina para la ejecución de esta tarea, pero se quiere optmizar el proceso es por eso que se utilizara un algoritmo genetico para la selección de componentes que alimentara al modelo de clasificación pertinente.



METODOLOGÍA

Se utilizará la herramienta de python que brinda un ambiente comodo para la aplicación de diversos clasificadores y proporcionara los elementos necesarios para la creación del algoritmo de selección de caracteristicas. Se intentará trabajar en conjunto el selector de caracteristicas principales (PCA) junto con el algoritmo genetico para obtener un máximo desempeño en el resultado y tiempo de ejecución.


CONCLUSIONES

Hubo una mejora significativa de éxito de clasificación de más del 1.13% lo cual es muy notable por la cantidad de acierto que ya se tenía, pero aún así lo más destacable es la mejora del tiempo con más de 71 segundos. Es por esto que se tomó como posible solución el utilizar algoritmos evolutivos en concreto genéticos para la optimización en el área de búsqueda de características ya que si bien probablemente no es el mejor resultado posible alcanzable si es un resultado poderoso en cuestión de métricas que puede llegar a ser muy confiable y útil.
Castilleja Quintanilla Francisco Javier, Universidad Autónoma de Tamaulipas
Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas

SISTEMA DE INTERPRETACIóN DE LENGUA DE SEñAS MEXICANA PARA PROFESIONALES DE LA SALUD.


SISTEMA DE INTERPRETACIóN DE LENGUA DE SEñAS MEXICANA PARA PROFESIONALES DE LA SALUD.

Castilleja Quintanilla Francisco Javier, Universidad Autónoma de Tamaulipas. Jiménez Gómez Rodolfo Abiram, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Existe una barrera significativa para las personas que se comunican a través de una lengua de señas, la Lengua de Señas Mexicana (LSM) es una forma de comunicación que a menudo no es comprendida por el personal de salud, lo que impide que las personas con discapacidad auditiva reciban una atención médica adecuada en hospitales, clínicas y otros centros de salud. Esta falta de capacitación por parte del personal médico puede llevar a diagnósticos erróneos, tratamientos inadecuados y una atención médica deficiente, lo que afecta negativamente la salud del paciente. Por tanto, se plantea la siguiente pregunta de investigación: ¿Cómo puede el uso de inteligencia artificial (IA) ayudar a superar las barreras de comunicación entre personas con discapacidad auditiva que utilizan la LSM y los médicos, y cuál es la importancia de abordar este problema en términos de inclusión y atención médica de calidad?



METODOLOGÍA

Durante la elaboración de este proyecto se desarrollaron videos e imágenes de las señas para darle al modelo de IA y así pueda dar una predicción. Dichas muestras fueron elaboradas por los participantes de este proyecto, gracias a un curso que hablaba sobre el uso de la LSM en la medicina estamos capacitados para realizar las señas requeridas para hacer las pruebas necesarias del modelo. Antes de comenzar con el desarrollo se realizó una búsqueda exhaustiva sobre modelos de IA que hubieran sido diseñados para un propósito similar, en la búsqueda se pudo encontrar una tesis hecha por Daniel Stevens Vázquez Parada que lograron crear un intérprete simple que identifica algunas palabras. El problema es que solo existía una pequeña cantidad de estudios como tal que se enfocaran en este problema y su solución, por lo cual nos enfocamos en los posibles modelos que pudieran ser útiles para este problema, esto redujo la búsqueda lo cual nos permitió enfocarnos en dichos modelos. Con esto llegamos a la conclusión de que una red neuronal convolucional (CNN) era la mejor opción para este problema, ya que es un tipo de algoritmo que se utiliza mayormente para analizar y aprender atributos visuales de grandes cantidades de datos. Esto permitirá analizar a través de una cámara las señas que las personas con discapacidad auditiva realicen al momento de una consulta médica. Ya teniendo claro el modelo y la forma en que se transmitirán las señas, se realizó una búsqueda de las herramientas adecuadas para la programación del modelo y el uso de la cámara, una vez seleccionados se investigó el uso de esas herramientas para poder aplicarlas. La primera herramienta utilizada es OpenCV el cual es una biblioteca de código abierto que fue utilizada para la lectura de imágenes y videos que se darán al modelo. La segunda herramienta utilizada es MediaPipe es una biblioteca desarrollada por Google que cuenta con varios modelos que nos permitieron el seguimiento de las manos, el rostro y el cuerpo. Para el modelo de IA se utilizó la herramienta TensorFlow el cual es una de las bibliotecas más populares que pertenece a Google, así como Keras que está integrado con TensorFlow, dichas herramientas fueron utilizadas, ya que Keras proporciona la simplicidad para desarrollar el modelo y TensorFlow proporciona la flexibilidad y rendimiento que este requiere. Se realizaron dos CNN, una con Convolutional 2D Layer (Conv2D), estas son capas que se utilizan para el procesamiento de imágenes y la otra con Convolutional 3D Layer (Conv3D), estas capas agregan una variable que es tiempo o cantidad de Frames, el cual permite el procesamiento de videos. La CNN con Conv2D se está elaborando para ser utilizada en una página web, y la CNN con Conv3D se está elaborando para ser utilizada como aplicación de escritorio. Las dos CNN ocupan imágenes y videos, por lo cual se utiliza OpenCV y MediaPipe para elaborar dichas muestras. Una vez obtenidas se preparan los Frames (Dimensión, Color, Seguimiento de MediaPipe y proporcionar su etiqueta) para ser entregados al modelo y así pueda empezar con el entrenamiento. Sin embargo, hay un paso importante entre la preparación y el entrenamiento, el modelo requiere que esos Frames preparados se le entreguen en una matriz, y para esto se utilizó otra herramienta llamada NumPy el cual es una biblioteca de Python que utilizamos para almacenar en una matriz los Frames preparados y que el modelo pueda empezar con el entrenamiento. Una vez que el modelo tenga esos datos empieza con el entrenamiento, aquí tenemos ciertos términos que son utilizados en este proceso, el primer término es la función de pérdida que se utiliza para medir la diferencia entre las predicciones del modelo y las etiquetas reales. El segundo término es el optimizador que es un algoritmo que ajusta los parámetros del modelo con el objetivo de minimizar la función de pérdida. El tercer término es el Batch Size que se refiere al número de muestras que se utiliza en cada paso del entrenamiento. Y por último tenemos las Epochs que son la cantidad de veces que el modelo recorrerá todo el conjunto de datos al entrenar. Estos términos permiten que el modelo pueda ser preciso ajustando bien los parámetros. Una limitación que existe es la poca variedad de muestras debido a que solo tenemos un origen de datos, por lo cual hemos decidido abordar esta limitante con el uso de una clase que proporciona la herramienta de Keras, esta clase permite crear algunas modificaciones (Ángulo de inclinación, Desplazamiento y Zoom aleatorio) a las muestras existente para así crear muestras nuevas con cierta variedad.


CONCLUSIONES

Con nuestro trabajo fuimos capaces de obtener ciertos resultados como la detección exacta de 5 letras (A, B, C, D, E) y dos palabras como 'Gracias' y 'Muchas' en LSM, y los resultados que buscaremos obtener a futuro es lograr que nuestro modelo sea capaz de identificar todas las letras del alfabeto en LSM y lograr interpretar palabras del LSM y convertirlo a voz, siendo así un intérprete efectivo.
Castillo Burgos Liviet Daylin, Universidad de Sonora
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

ESTUDIO TEóRICO Y EXPERIMENTAL DE LA REMOCIóN DE MALATIóN DEL AGUA POR MEDIO DEL PROCESO HíBRIDO DE ELECTROCOAGULACIóN Y FENTON-LIKE


ESTUDIO TEóRICO Y EXPERIMENTAL DE LA REMOCIóN DE MALATIóN DEL AGUA POR MEDIO DEL PROCESO HíBRIDO DE ELECTROCOAGULACIóN Y FENTON-LIKE

Barajas Corral Ricardo Elías, Universidad Tecnologica de León. Castillo Burgos Liviet Daylin, Universidad de Sonora. Galvan Oviedo Cristal, Instituto Tecnológico de Matamoros. Guillén Smith Fabiola Eugenia, Universidad de Sonora. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El Malatión es un insecticida perteneciente a la familia química de los organofosforados, y a pesar de ser muy eficiente en su objetivo, presenta el gran inconveniente de no ser biodegradable, por lo que el agua contaminada con esta sustancia se vuelve altamente tóxica y no apta para el consumo humano o animal. A pesar de que existen diferentes métodos para tratar el agua contaminada, estos suelen ser costosos, tardados o requieren de terceras sustancias que también pueden ser nocivas. Es por esto que se ha abierto camino a investigaciones sobre nuevos tratamientos, entre ellos, el método de electrocoagulación.   La electrocoagulación es un proceso de tratamiento de aguas residuales que utiliza corriente eléctrica para remover sólidos suspendidos, contaminantes y materia orgánica presentes en el agua. En este proceso, la corriente eléctrica provoca la liberación de iones metálicos desde los electrodos, típicamente de aluminio o hierro, dentro del agua residual. Estos iones metálicos reaccionan con las partículas y los contaminantes presentes en el agua, formando flóculos que se adhieren a las partículas suspendidas, grasas y materia orgánica.​ El proceso de oxidación Fenton-like es una variante del proceso de oxidación Fenton, el cual es un método avanzado de tratamiento de aguas residuales que se utiliza para eliminar contaminantes orgánicos y compuestos tóxicos persistentes. El proceso Fenton original se basa en la reacción entre peróxido de hidrógeno (H2O2) y iones de hierro (Fe2+), generando radicales hidroxilos (•OH) altamente oxidantes; sin embargo, en esta investigación se utilizará cobre en vez de hierro. Estos radicales atacan y descomponen los contaminantes orgánicos presentes en el agua en moléculas más pequeñas y menos tóxicas.​ En esta investigación se busca reducir la presencia de Malatión comercial en el agua mediante procesos electroquímicos (electrocoagulación y Fenton-Like).



METODOLOGÍA

El proceso de electrocoagulación se llevó a cabo mediante un reactor tipo filtro prensa, compuesto principalmente de electrodos de aluminio, con una superficie de flujo de 64 cm2 y capacidad de 2 L. El proceso de preparación de las muestras a estudiar se llevó a cabo de la siguiente manera: Mezclar el Malatión comercial de alta concentración (1000 g/L) por lo menos dos veces para que quede totalmente homogéneo. Verter una base de agua destilada en los matraces de 1 L antes de incorporar el Malatión. Tomar con la micropipeta la concentración deseada de Malatión, verter a los matraces antes mencionados y agitar. Agregar 0.3 g de NaCl y 1.2 g de Na2SO4 a la solución. Finalmente, aforar y agitar hasta que las sales se disuelvan. Es importante mencionar que todos los materiales e instrumentos a utilizar deben de estar previamente lavados y desinfectados; además, no se debe de omitir el primer paso debido a que afecta considerablemente en los resultados. Antes de iniciar cada proceso de electrocoagulación se debe dar previo mantenimiento al reactor. El proceso de electrocoagulación se realiza entre 60 y 100 min, tomando muestras cada 20 min, después de concluir con este proceso, se deben dejar reposar las muestras por 24 horas aproximadamente, como resultado de esta espera, los flóculos se sedimentan y se puede observar a simple vista como la concentración de Malatión baja. Para cuantificar la pérdida de concentración del Malatión en la muestra, se mide la Demanda Química de Oxigeno (DQO) del agua tratada por medio de absorbancia. La preparación de los viales de DQO se realizó siguiendo el método estándar de dicromato de potasio. Las concentraciones de Malatión, así como las densidades de corriente para la electrocoagulación a estudiar fueron: 100 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2   200 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  250 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  500 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  1200 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  Una vez que las muestras pasaron por el proceso de electrocoagulación se someten a un segundo proceso llamado Fenton-Like. Para este último, se utilizaron dos distintas densidades de corriente (5 y 10 mA /cm2).  El proceso de Fenton-Like se realiza entre 60 y 80 min, tomando muestras cada 20 min. Es importante destacar que se debe iniciar el proceso solo cuando la muestra tenga un pH de 5. Como en el proceso de electrocoagulación, las muestras obtenidas de Fenton-Like, también deben reposar aproximadamente 24 horas para después leer su DQO mediante absorbancia. Una vez llevada a cabo la parte experimental del proyecto se realizó una capacitación en COMSOL Multiphysics, esta es una herramienta que se utiliza para el modelado y análisis virtual de fenómenos físicos. Mediante este software se logró observar el comportamiento de la velocidad y la presión del fluido al pasar a través del reactor y a su vez como es que sucedía la transferencia de iones Al3+ hacia la solución de Malatión con respecto al tiempo de electrolisis.


CONCLUSIONES

Durante la estancia de verano, se logró reforzar conocimientos básicos sobre ingeniería química, así como, la adquisición de nuevos conocimientos teóricos y prácticos. Aunque el agua después de los procesos de electrocoagulación y Fenton- Like, aún conserva materia orgánica, derivada de las reacciones generadas en los mismos, el porcentaje de remoción del Malatión en el agua alcanzó valores de hasta el 60%. Los resultados se pudieron apreciar de una manera más fiel, por medio del modelado y simulación del fluido, así como las respectivas reacciones, en COMSOL Multiphysics. Y con la generación de gráficos, se llevó cabo un análisis numérico y estadístico para conocer los niveles de control y tolerancias de la remoción en sus respectivas concentraciones.
Castillo Garcia Mario, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo

MODELACIóN NUMéRICA DEL FUNCIONAMIENTO HIDRáULICO DEL CANAL PRESA COINTZIO-PLANTA VISTA BELLA


MODELACIóN NUMéRICA DEL FUNCIONAMIENTO HIDRáULICO DEL CANAL PRESA COINTZIO-PLANTA VISTA BELLA

Castillo Garcia Mario, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Abastecer a las comunidades de agua potable es indispensable para el desarrollo de las mismas ya que necesitamos del vital líquido prácticamente para todas las actividades que llevamos a cabo en el día a día. La ciudad de Morelia actualmente satisface sus necesidades de agua potable de 2 fuentes, principalmente, el manantial La Mintzita y la Presa de Cointzio. Esta ultima se localiza al sur de la ciudad y constituye una fuente de abastecimiento de agua muy importante, dotando de agua a 47 colonias de la ciudad. Para el aprovechamiento del recurso contenido en la presa es necesaria una conducción de casi 13 km a la planta potabilizadora Vista Bella por medio de un canal de sección de 0.90 X 1.25m. Por la antigüedad del mismo se presentan perdidas de caudal y erosión en la estructura por lo que es necesaria una modelación que nos permita visualizar su funcionamiento hidráulico actual y en base a este proponer soluciones a las problemáticas antes mencionadas.



METODOLOGÍA

El primer paso fue el reconocimiento del terreno a lo largo del trazo del canal. Para ello se hicieron varias visitas guiadas por personal encargado de la supervisión del canal. A la par se realizó un plano topográfico de la zona mediante los modelos digitales de elevación obtenidos de la página del INEGI Con ayuda de dichos modelos se elaboró también un perfil del terreno en el que se encuentra el canal Para elaborar el perfil del trazo del canal se realizaron mediciones de la profundidad en distintos puntos de muestreo a los que denominamos pozos de visita, con esta información y con el perfil del terreno fue posible elaborar un perfil con la diferencia de elevaciones Para representar las condiciones hidráulicas actuales del canal en la modelación se hicieron mediciones de tirantes, secciones y velocidades en los pozos de visita con la finalidad de determinar el caudal que se tenia en dichos puntos y así poder estimar las perdidas existentes en cada tramo Una vez recabada toda la información necesaria fue posible calcular la pendiente en la plantilla o fondo del canal para su modelación 


CONCLUSIONES

Durante la estancia en el verano se adquirieron conocimientos de hidráulica en canales y fueron puestos en práctica para la modelación del canal antes mencionado Aunque es una modelación que no considero el arrastre de sedimentos y la topografía exacta del trazo, ya que los modelos digitales tienen un margen de error, con la modelación obtenida se pueden hacer variaciones en rugosidades, velocidades, caudales, pendientes y secciones en caso de una mayor demanda de agua, una reparación en algún tramo, un cambio de sección ,etc. Que muestren al interesado el comportamiento que este va a tener de una forma muy aproximada    
Castillo Gonzalez Juan Carlos, Universidad Antonio Nariño
Asesor: Dra. María Eugenia Estrada Alvarez, Universidad Autónoma de Chiapas

ESTRATEGIAS PARA EL DESARROLLO SOSTENIBLE EN LAS MICROEMPRESAS PRODUCTORAS DE QUESO DE HOJA DE LA PROVINCIA GUTIÉRREZ, COLOMBIA.


ESTRATEGIAS PARA EL DESARROLLO SOSTENIBLE EN LAS MICROEMPRESAS PRODUCTORAS DE QUESO DE HOJA DE LA PROVINCIA GUTIÉRREZ, COLOMBIA.

Castillo Gonzalez Juan Carlos, Universidad Antonio Nariño. Asesor: Dra. María Eugenia Estrada Alvarez, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El desarrollo sostenible se ha convertido en una preocupación mundial debido a los diferentes desafíos ambientales, económicos y sociales que enfrenta el mundo en la actualidad. En Colombia, el 77% de las empresas cuentan con una estrategia de sostenibilidad, lo que representa un aumento de 32 puntos porcentuales frente al 2021 (Portafolio, 2023). En ese mismo marco, se encuentran las microempresas, las cuales desempeñan un papel fundamental en la economía local y en el bienestar de las comunidades donde se encuentran (Castillo, 2009). En particular, las microempresas productoras de queso de hoja en la provincia Gutiérrez, Colombia, un sector importante que contribuye al desarrollo local y a la preservación de la tradición cultural. Sin embargo, estas microempresas enfrentan diversos retos, tanto internos como externos, que les ha impedido implementar el desarrollo sostenible en sus procesos. Entre estos desafíos se encuentran la falta de conocimiento sobre el tema, gestión inadecuada de los recursos, problemáticas con entidades de control alimenticio, la competitividad en el mercado y la necesidad de adaptarse a las demandas cambiantes de los consumidores. Ante esta realidad, resulta crucial investigar y proponer estrategias efectivas para implementar el desarrollo sostenible en las microempresas productoras de queso de hoja en la provincia Gutiérrez. Estas estrategias deben abordar los aspectos políticos, económicos, ambientales y sociales, buscando la mejora continua de las prácticas empresariales y la minimización del impacto ambiental. Por lo anterior, la presente investigación tiene como objetivo desarrollar estrategias efectivas que permitan promover el desarrollo sostenible en las microempresas productoras de queso de hoja de la provincia Gutiérrez de Boyacá, Colombia, con el fin de mejorar sus prácticas de producción, fortalecer las comunidades locales y proteger los recursos naturales. A través de diferentes enfoques, se busca identificar mejores prácticas en áreas como la gestión de recursos, la responsabilidad social empresarial y la promoción del desarrollo sostenible, facilitando así la llegada de estos productos a la canasta familiar de los colombianos.



METODOLOGÍA

A continuación, se relaciona el tipo y enfoque de investigación que se estará utilizando para el desarrollo del proyecto de investigación. Tipo de Investigación El presente proyecto de investigación se basa en un tipo de investigación exploratoria y descriptiva. Exploratoria, ya que inicialmente se realizará la revisión del estado del arte relacionado a la producción de queso en el departamento de Boyacá y los principales desafíos y barreras de la implementación de las practicas sostenibles, esta búsqueda se realizará mediante bases de datos de carácter nacional e internacional y los diferentes proyectos relacionados a las microempresas productoras de queso en el departamento. Descriptiva, dado que se llevará a cabo el diseño de estrategias que permita la divulgación del concepto y la implementación de las prácticas de desarrollo sostenible y políticas ambientales que se deben desarrollar al interior de las microempresas. Enfoque de la Investigación El enfoque de la presente investigación se basará en un enfoque cualitativo, ya que el diseño de las estrategias de implementación de las prácticas de desarrollo sostenible se realizará a partir de los datos seleccionados en la construcción del estado del arte y el análisis de proyecto en relacionados a las microempresas productoras de queso en el departamento.


CONCLUSIONES

Las microempresas productoras de queso de hoja artesanal en la provincia Gutiérrez de Boyacá, Colombia, enfrentan desafíos en términos de inocuidad debido a la falta de infraestructura, control de calidad, manejo inadecuado de residuos y falta de capacitación. El cumplimiento de los requisitos establecidos por el Instituto Nacional de Vigilancia de Medicamentos y Alimentos (INVIMA) es fundamental para garantizar la seguridad y calidad de los productos fabricados en Colombia, por lo que estas microempresas deben mantenerse al día con estos requisitos para evitar sanciones y problemas con entidades de control. La implementación de estrategias sostenibles permitirá a estas microempresas avanzar hacia un desarrollo sostenible, garantizando la viabilidad económica de sus negocios, el bienestar social de la comunidad y la preservación del medio ambiente. La vinculación de estas microempresas con la comunidad fortalece la relación entre los productores y la comunidad, generando un impacto positivo en el desarrollo local, entorno social y ambiental.
Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Castillo Ramírez Héctor Ulises, Instituto Tecnológico de Matamoros
Asesor: Dr. Mario Esparza Soto, Universidad Autónoma del Estado de México

RENDIMIENTO DE UN REACTOR ANAEROBIO DE FLUJO ASCENDENTE OPERADO A TEMPERATURA BAJA Y CARGA ORGáNICA VOLUMéTRICA MEDIA.


RENDIMIENTO DE UN REACTOR ANAEROBIO DE FLUJO ASCENDENTE OPERADO A TEMPERATURA BAJA Y CARGA ORGáNICA VOLUMéTRICA MEDIA.

Castillo Ramírez Héctor Ulises, Instituto Tecnológico de Matamoros. Asesor: Dr. Mario Esparza Soto, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Las plantas de tratamiento de agua residual están destinadas a tratar aguas industriales, domesticas, pluviales, municipales, entre otras, con el fin de descargarlas en cuerpos de agua sin alteraciones al ambiente. En el tratamiento existen distintas fases mecánicas y fisicoquímicas, en la que la caracterización del agua cambia, ya sea removiendo materia o agregando componentes químicos. Un reactor anaerobio de flujo ascendente (UASB, por sus siglas en inglés) es un biorreactor anaerobio que opera de forma continua y su flujo es ascendente, donde diversos microorganismos trabajan para la degradación de la materia orgánica presente. Este tipo de reactores suelen operar a temperaturas entre 35 y 55 °C, esto debido a los microorganismos anaerobios degradadores de materia trabajan más eficazmente. Bajo condiciones ambientales normales, el agua residual no tiene estas temperaturas y debe ser calentada con sistemas de calentamiento externos. Este calentamiento involucra un gasto económico que muchas plantas tratadoras no disponen. Este gasto se incrementa en regiones con temperaturas ambientales bajas o templadas. El objetivo de esta investigación es la evaluación del rendimiento de un reactor UASB, el cual se operó entre 10 y 15 °C menos de lo recomendado en la literatura especializada en tratamiento de agua residual. El rendimiento del reactor UASB se evaluó en términos de eficiencia de remoción de la demanda química de oxígeno disuelta (DQOs), carga orgánica volumétrica aplicada (COVapl) y removida, producción diaria de biogás y metano, porcentaje de metano en el biogás, entre otros parámetros. Para la realización de esta investigación se operó y monitoreó un reactor UASB a flujo y tiempo de retención hidráulico (TRH) constante y a temperatura ambiente de la ciudad de Toluca, Estado de México (20 - 23 °C). El reactor UASB trató agua residual proveniente de la línea de producción de una industria chocolatera. Los resultados del monitoreo del reactor UASB fueron almacenados en una base de datos y los promedios y desviaciones estándar fueron calculados para cada parámetro medido. Cada parámetro medido fue graficado contra el tiempo de operación.



METODOLOGÍA

Operación del reactor UASB Un reactor UASB escala piloto de 130 L fue utilizado en esta investigación. El reactor está construido con un tubo de PVC de 0.30 cm de diámetro y 1.3 de alto y está aislado con 0.30 m de fibra de vidrio comercial y una caja de madera de triplay de 0.012 m de grosor. La producción de biogás se cuantificó con un medidor volumétrico de gas (BK-G1.6, Elster Instromet, Alemania). El flujo se controló con una bomba de diafragma (Cole Parmer, EUA). El reactor UASB se operó a flujo y TRH constante de aproximadamente de 283 L/d y 11 h, respectivamente. La DQOs y COVapl también se mantuvieron constantes en aproximadamente 1,500 mg-DQOs/L y 5.5 g-DQOs/L/d. Preparación del agua de dilución El agua que entró al reactor UASB (influente) fue preparada a partir de la dilución de agua residual industrial cruda (ARIC) y de agua potable.  Para la preparación del agua se tiene en consideración una concentración deseada de 1,500 mg/L y la concentración del ARIC. Temperatura La temperatura fue medida con un termómetro de mercurio. La temperatura fue medida en tres diferentes puntos: Agua de dilución, agua del influente y agua del efluente. Para medir la temperatura se toma una muestra del agua en un vaso de precipitado y se introduce el termómetro. Caudal Se tomó una muestra del agua del efluente del reactor en un vaso de precipitado; con un cronómetro se toma el tiempo de un minuto y se mide el volumen de agua recolectado en ese periodo de tiempo. Porcentaje de metano (CH4) Se utilizo una técnica que involucra un tubo en forma de U, en el cual se deposita un volumen conocido de hidróxido de sodio (NaOH).  El muestreo consistió en tomar una muestra de aire del ambiente mediante una jeringa y depositarla dentro del tubo de NaOH. El aire es empujado dentro del tubo generando así un nuevo volumen, el cual es anotado. Posteriormente se toma una muestra de biogás del reactor y se deposita dentro del tubo. El volumen ahora se comportará diferente, llegando a descender, debido a que en la reacción presente entre el biogás y el NaOH genera bicarbonato de sodio, separando al CH4. pH Se midió el pH en agua del influente y efluente con un medidor de pH de campo (YSI, EUA). DQO Para el análisis de DQO se obtienen muestras del influente y del efluente. Las muestras son depositadas en viales que contienen una solución de nitrato de plata (AgNO3), dicromato de potasio (K2Cr2O7) y ácido sulfhídrico (H2S). Posteriormente, ambos viales son llevados a un digestor a 150°C durante 120 minutos. Transcurrido este tiempo, los viales se dejan enfriar y son ingresados al programa DQO RA del espectrofotómetro para su medición. Solidos solubles totales y solidos solubles volátiles Tanto las muestras de los sólidos del efluente, columna de adsorción y cama de lodos, son trasladados a una estufa a 105°C durante 60 minutos; se dejan reposar y después se pesan en una balanza analítica y se registran los datos. Se reintroducen en una mufla a 550°C durante 20 minutos; transcurrido el tiempo se pasan a la estufa durante 10 minutos y posteriormente se vuelven a pesar en la balanza analítica.


CONCLUSIONES

Mediante el análisis de los resultados se puede observar que el reactor UASB estuvo funcionando con una alta eficiencia de remoción de DQOs y una alta producción diaria de metano a pesar de operar a temperaturas menores a las recomendadas en la literatura; esto supone que la operación de un sistema similar a condiciones no estándar no representa una variación tan significativa respecto a reactores que operan a temperaturas más elevadas o con sistemas de calentamiento instalados, alentando a la posible instalación de este tipo sistemas sin tener que necesitar de alguna fuente de calor externa.
Castillo Xijun Geovana, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Miguel Antonio Cruz Carrillo, Universidad Autónoma de Sinaloa

EVALUACIóN DEL COMPORTAMIENTO DE PASTAS Y MORTEROS DE CEMENTO TIPO I, AL SUSTITUIR CON MATERIALES CEMENTANTES SUPLEMENTARIOS.


EVALUACIóN DEL COMPORTAMIENTO DE PASTAS Y MORTEROS DE CEMENTO TIPO I, AL SUSTITUIR CON MATERIALES CEMENTANTES SUPLEMENTARIOS.

Castillo Xijun Geovana, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Miguel Antonio Cruz Carrillo, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Como una alternativa para el área de materiales de construcción, proponemos materiales resistentes y duraderos, disminuyendo las proporciones de cemento, con materiales cementantes suplementarios reforzados con bajas concentraciones de óxido de grafeno (OG) y copolímero comercial (CC), como una alternativa para disminuir los costos y obtener beneficios. En este proyecto desarrollamos y evaluamos materiales, incorporando y reemplazando la proporción en masa de cemento tipo I, con materiales cementantes suplementarios: metacaolin (MK), y humo de sílice (HS). El objetivo principal fue evaluar el comportamiento mecánico de los materiales. Decidimos usar cemento tipo I, debido a su pureza y reactividad química. Como parte de nuestra metodología, diseñamos proporciones de materiales cementantes MK (5%) y HS (5%), con los cuales en conjunto, sustituimos el 10% de la masa total del cemento, con la idea de utilizar menos cantidad de cemento y además obtener un material de resistencia superior, debido a que tales componentes, logran reforzar química y estructuralmente tanto la pasta de cemento como el mortero. Así mismo evaluamos el efecto de reforzar con copolímero comercial en solución al 0.1% (CC 0.1) y nanografeno (óxido de grafeno) (OG) al 0.015% y 0.025% (en solución), se siguen explorando las concentraciones para lograr resultados más efectivos. Este proyecto de investigación realizó aportes al proyecto Obtención de concretos resistentes y sostenibles utilizando aditivos orgánicos.  



METODOLOGÍA

Tanto para pastas como para morteros, utilizamos 5% de MK, 5% de HS y 90% de cemento tipo 1. Asimismo, en otro sistema adicionamos OG en solución al 0.015% y 0.025%. También usamos el copolimero comercial, en una solución al 0.1 % (CC 0.1%). Por otro lado, se prepararon las muestras blanco (testigo) de sólo cemento. Las muestras se elaboraron en base a la norma NMX-C-085 ONNCCE-2015, donde una vez preparadas, se pasaron a moldes de 2 o 50 mm, se vibró y compactó utilizando un pison, a las 24h los cubos se llevaron a curado (7, 14 y 28 días), realizamos este procedimiento siguiendo las norma ASTM C-109. Luego de obtenerse las muestras se evaluó la resistencia a la compresión tanto de pasta como de mortero a través del tiempo de madurez de los especímenes a 7, 14 y 28 días de curado.


CONCLUSIONES

- En comparación con estudios previos del grupo de trabajo, en la muestra de cemento tipo I (90%), MK (5%) y HS (5%), tanto en pastas como morteros logramos resultados muy relevantes, logrando incrementar la resistencia a la compresión a 7, 14 y 28 días. - Tanto en las pastas como los morteros logramos aumentar a la resistencia a la compresión en relación a las muestras testigo de cemento tipo I y cemento tipo II, cabe mencionar que ambos cementos son inestables, sobre todo el cemento tipo 1 a los 14 y 28 días, con nuestros resultados, además de lo mencionado anteriormente logramos estabilizar la resistencia a la compresión. - Al utilizar OG para reforzar el material, logramos mejores resultados con la concentración 0.015%, con la cual obtuvimos a los 28 días la mejor resistencia, cabe señalar que con la concentración de OG 0.025% logramos una máxima resistencia a 14 días. - En cuanto al uso de la solución al 0.1% de copolímero, en trabajos previos logramos aumentar la resistencia en más del 100%, sin embargo, con estas muestras no fue necesario añadirlo, por otro lado no descartamos que quizá funcione mejor, probando con otras concentraciones. - Como conclusión final, el comportamiento de cemento tipo I (90%), MK (5%) y HS (5%), es efectivo por sí mismo, aunque apreciamos incrementos en la resistencia a la compresión empleando pequeñas concentraciones de OG.
Castrellón García Samuel, Instituto Tecnológico de Pachuca
Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica

CAPACIDADES TECNOLóGICAS E IMPLEMENTACIóN DE HERRAMIENTAS 4.0 EN EL SECTOR INDUSTRIAL DE BARRANQUILLA


CAPACIDADES TECNOLóGICAS E IMPLEMENTACIóN DE HERRAMIENTAS 4.0 EN EL SECTOR INDUSTRIAL DE BARRANQUILLA

Castrellón García Samuel, Instituto Tecnológico de Pachuca. Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

En Barranquilla existen diversos sectores industriales en lo cual queremos observar cómo se relacionan capacidades tecnológicas en la industria 4.0 Las Tecnologías de Industria 4.0 representan el nuevo reto ante la necesidad empresarial de innovación y competitividad. Los diferentes sectores de la economía en general cada día innovan vía la digitalización, la sustitución o incorporación a sus productos de componentes inteligentes, ello implica que integrarse a esta nueva tendencia no es una elección, es imprescindible, de lo contrario su mercado se limita cada día más por encontrarse en etapa de declive a un paso de perecer (Jacquez-Hernández & Torres, 2018).   Los sectores industriales no son ajenos a esta realidad y requieren incorporar estas tecnologías para mejorar la calidad de sus procesos y productos, disminuir tiempo de elaboración/entrega a clientes y redefinición de productos. Sin embargo, definir elementos que orienten una ruta de éxito en la adopción de soluciones tecnológicas 4.0 es determinante para garantizar la sostenibilidad de los modelos productivos empresariales y la competitividad.   El desarrollo de las capacidades tecnológicas es el resultado de inversiones realizadas por las empresas en respuesta a estímulos externos e internos, y en interacción con otros agentes económicos tanto privados como públicos, nacionales e internacionales. Sin embargo, según describen López-Salazar, Molina-Sánchez, & Gómez-Hernández (2018), la acumulación de capacidades tecnológicas es condición necesaria pero no suficiente para generar crecimiento y desarrollo sostenidos por tanto estas capacidades deben complementarse de manera tal que se produzca una nueva combinación de ideas existentes, capacidades, habilidades, recursos, entre otros factores.



METODOLOGÍA

La presente investigación tiene un enfoque cuantitativo, con alcance exploratorio-correlacional y busca establecer la relación entre las capacidades tecnológicas y la adopción de tecnologías de industria 4.0 en el sector de la industria en Barranquilla.   La metodología propuesta se enfoca en el diagnóstico de las capacidades tecnológicas presentes en las empresas de acuerdo a lo propuesto por Garza, López y Rangel (2014) desde 4 dimensiones  (inversión, producción, vinculación, fabricación y adaptación de maquinaria y equipo) y su relación con la incorporación de tecnologías emergentes o disruptivas de industria 4.0 según lo propuesto por (Rozo-García, 2020) (internet de las cosas, sistemas ciberfísicos, ciberseguridad, cloud computing, blockchain, machine learning y big data).   De acuerdo a las dimensiones planteadas, y luego de una depuración, se construirá y validará un instrumento tipo encuesta compuesto por información básica de la empresa y por una lista de verificación de características vinculadas a cada una de las dimensiones consideradas que permitirá en primera instancia mediante estadística descriptiva hacer una aproximación exploratoria de las capacidades de las empresas estudiadas de sector cada sector y luego mediante herramientas estadísticas corroborar la hipótesis de una relación significativa entre capacidades empresariales (tecnológicas) y la transición hacia la incorporación de tecnologías propias de la cuarta revolución industrial.   Un análisis preliminar de los resultados se inició mediante la verificación de normalidad entre las variables analizadas, para lo cual se obtuvieron los valores de Curtosis y Asimetría comprobando que los valores para estos parámetros en las variables estudiadas no evidencian una desviación de la presunción de normalidad, y para confirmar esta aseveración se aplicó la prueba de Kolmogorov-Smirnov la cual corroboró la normalidad de las variables con lo cual se seleccionó el Coeficiente de Correlación de Pearson (r) para medir la relación entre las variables.   De acuerdo con los datos obtenidos se realizó un análisis multivariado factorial y componentes principales donde se colocaron los datos obtenidos de dicha dimensión para así poder obtener la comunalidad que tiene el sector industrial al adaptarse a la industria 4.0.   Por medio del software Minitab se realizó dicho análisis multivariado y componentes principales en el cual nos pudo aportar datos en los cuales se observan que de las 4 dimensiones la más importante es vinculación, pero de esa dimensión queríamos ver qué ítems contribuyen más a la adaptación 4.0 donde se realizó un análisis de componentes principales y se obtuvo que los items mas importantes son la complementación de procesos, capacitación al personal, tener buena relación de clientes nacional y extranjeros, participación en proyectos en centros de capacitación, tener buena relación con proveedores nacionales y extranjeros


CONCLUSIONES

Se observó que hay correlaciones significativas entre las capacidades tecnológicas y la adopción de tecnologías de industria 4.0 Se puede observar que de las 4 dimensiones analizadas la más importante es vinculación la cual se enfoca en la complementación de procesos, capacitación al personal, tener buena relación de clientes nacional y extranjeros, participación en proyectos en centros de capacitación, tener buena relación con proveedores nacionales y extranjeros.
Castro Avila Victor Enrique, Universidad Autónoma de Sinaloa
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

REPORTE PROGRAMA DELFIN: ANáLISIS DE MALWARE EN APLICACIONES WEARABLES PARA DISPOSITIVOS MóVILES


REPORTE PROGRAMA DELFIN: ANáLISIS DE MALWARE EN APLICACIONES WEARABLES PARA DISPOSITIVOS MóVILES

Castro Avila Victor Enrique, Universidad Autónoma de Sinaloa. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Resumen La investigación llevada a cabo requirió el conocer y entender el funcionamiento de las aplicaciones wearables y el cómo estas aplicaciones pueden ser una brecha de ataques maliciosos dado las nuevas tecnologías, al conocer los peligros de las aplicaciones wearables se realizó una instalación del laboratorio con aplicaciones relacionadas a descompilar y analizar de los archivos que dichas aplicaciones contienen. El análisis se realizó mediante evaluaciones estáticas y dinámicas dando como resultado que el instalar aplicaciones con virus podría generar un robo de información del usuario. Investigación de aplicaciones wearables Las aplicaciones wearables son la base de los dispositivos wearables los cuales irrumpieron en el mercado dando una nueva gama de aplicaciones las cuales tienen como propósito facilitar actividades que normalmente se realizan con un dispositivo móvil mejorando la productividad del usuario. Sin embargo, las aplicaciones vienen con el riesgo de que contengan algún tipo de virus integrados en la aplicación, y por ello la información personal del usuario se ve comprometida, dado que es un gran riesgo el software emergente de dichos dispositivos ya que suele tener una brecha de seguridad al instalar estas aplicaciones.



METODOLOGÍA

Laboratorio de Análisis Para el análisis de estas aplicaciones se optó por crear un laboratorio personal mediante el uso de los sistemas operativos Linux, fue usada la distribución de Ubuntu dado la facilidad del manejo de esta última, las siguientes instalaciones son el equipo usado para el análisis de aplicaciones wearables: ApkTool - herramienta usada para extraer información, descompilar, modificar y volver a empacar aplicaciones android. DexJar - el uso de esta herramienta es exclusivo para cuando se necesite analizar el código fuente de un archivo .dex  JD-GUI - un decompilador de Java que permite ver el código fuente de archivos .jar  JavaDecompiler - herramienta útil para el análisis de código malicioso. Androguard - el uso de esta herramienta fue para el análisis y la gestión de aplicaciones Android. Conocimiento de Malware Phishing - se usa cualquier vía de comunicación fingiendo ser una empresa con el fin de obtener algo a cambio de la víctima. Adware - el uso de esto es simple y es engañarte usualmente no recopila información, pero si da paso a páginas o aplicaciones malintencionadas. Botnets - este tipo de virus es muy riesgoso ya que da la entrada a más software malicioso dado que la única forma de infección es mediante descarga o navegación ilícita. Ransomware - tiende a dar un bloqueo del dispositivo y pedir un rescate de los datos mediante dinero. Troyano - tiene la misma función de los botnets, sin embargo este es más difícil de detectar.  


CONCLUSIONES

Uso del Laboratorio Para el uso del laboratorio e identificación de estos malwares se ubicaron aplicaciones conocidas con virus relacionadas con Android. APKPure: Tipo de Infección: Adware Troyano Descripción de la Infección: la aplicación suele mostrar publicidad, el problema de esta es que al estar bloqueado el dispositivo esta aplicación hace que se sobrecaliente ya que pese a no deber realizar acciones seguirá mostrando publicidad. Historia: Este ataque fue mediante una inyección de malware para una actualización de la aplicación dando una brecha de seguridad la cual fue afectada en la mayoría de dispositivos móviles que usaban esta aplicación. Linterna+ : Tipo de Infección: Troyano Phishing Descripción de la Infección: la aplicación es una linterna que prácticamente toma las funciones que ya tiene el celular, la app una vez reiniciado el teléfono se esconde y empieza a robarte datos mediante ver la cámara y acceder al código fuente del teléfono. Historia: Esta aplicación fue creada solamente como una prueba de la capacidad de los virus, y fue usada principalmente como forma de investigación, sin embargo empezaron a crearse nuevas aplicaciones que hasta dia de hoy tiene la misma forma de infección, la mayoría de aplicaciones que tienen el nombre "Smart" al principio es señal de que tiene este método de infección. Camera Translator Pro: Tipo de Infección: Ransomware Descripción de la Infección: la aplicación solía ser extremadamente dañina para el dispositivo haciendo que al reiniciarse este te bloqueara las funciones del teléfono, mediante creando una ventana emergente que bloquea la pantalla táctil del teléfono y sin posibilidades de recuperar los archivos. Historia: Esta aplicación fue creada para infectar los dispositivos móviles con malware que roba los datos del dispositivo.    Conclusión En este verano se trabajó con un laboratorio para analizar el virus de aplicaciones y con ello se logra ver el resultado mientras la forma de analizar las aplicaciones fue mediante un análisis estático viendo los archivos y trasladarlos a .jar para ver el código para detectar lo malicioso de estos últimos. a su vez en el mismo laboratorio se demostró el cómo se crean estas aplicaciones infectadas con malware o el como al navegar se expone a un posible riesgo de adware dando como conclusión los peligros de las aplicaciones y navegaciones ilícitas que se realizan en el internet.
Castro Berrío Verónica, Universidad Simón Bolivar
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

ANáLISIS DEL LIDERAZGO ORGANIZACIONAL EN LAS PYMES DE BALANCáN, TABASCO. (LA INFLUENCIA DEL LIDERAZGO EN EL DESEMPEñO DEL CAPITAL HUMANO DE LAS MIPYMES)


ANáLISIS DEL LIDERAZGO ORGANIZACIONAL EN LAS PYMES DE BALANCáN, TABASCO. (LA INFLUENCIA DEL LIDERAZGO EN EL DESEMPEñO DEL CAPITAL HUMANO DE LAS MIPYMES)

Castro Berrío Verónica, Universidad Simón Bolivar. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

El liderazgo busca demostrar el papel que desarrollan los líderes en la influencia del capital humano y como permite la mejora continua en la organización (MiPymes). Según la asamblea general de las naciones unidas, 2022, expresa que las MiPymes a nivel mundial se han posicionado como el motor de desarrollo en todos los campos económicos, generando entre el 60% y el 70% de los empleos, y su actividad es responsable del 50% del PIB global. Las MiPymes representan el 90% de las empresas, ya que tienen el potencial de transformar las economías, fomentar la creación de empleo y promover un crecimiento económico equitativo si reciben el apoyo necesario. Las MiPymes en el municipio de Balancán, representan la mayor fuente de ingresos para las familias balancenses. Sin embargo, muchas de estas pequeñas y medianas empresas pierden grandes oportunidades empresariales debido a muchos factores, entre ellas la falta de relación y comunicación líder-empleados. por ende, la falta de motivación del personal genera un impacto negativo en el rendimiento productivo laboral y como consecuencia, la pérdida de oportunidades de llevarlas a un nivel más alto, a causa de la falta de liderazgo orientado en las MiPymes del municipio de Balancán Tabasco.



METODOLOGÍA

el estudio de la medición del Liderazgo transformacional y su influencia en el desempeño del personal de las MiPymes industriales en Balancán, Tabasco, se desarrollo en 4 pasos Determinación del tamaño de la muestra poblacional Diseño del instrumento de medición Análisis de resultados obtenidos Desarrollo de estrategias de mejora para las MiPymes de Balancán, Tabasco Se determinó el tamaño de la muestra considerando el tamaño de la población N = 83 de las empresas con giro industrial en Balancán, con una Z = 95% = 1.96 que representa el nivel de confianza, que posee un margen de error e = 0.05, una probabilidad p = 0.5 de éxito y una probabilidad q = 0.5 de fracaso; donde con estos parámetros se obtendrá una muestra de tamaño n de nuestra población general de las empresas industriales a encuestar, por ende utilizando la formula n=(N*Z_α^2*p*q)/(e^2*(N-1)+Z_α^2*p*q) se obtuvo un tamaño de muestra de 66 MiPymes. Después de haber realizado este proceso se diseña el instrumento de medición mas apropiado para la medición de liderazgo, por ende, el instrumento fue organizado de tal forma que quedo con 20 preguntas y 4 enfoques (comunicación, motivación, liderazgo y productividad) en las MiPymes de giro industrial en Balancán tabasco.   Después de haber realizado las encuestas en las 66 MiPymes se recopilo la información y organizo en gráficos y tablas que permitieron una lectura clara acerca de la influencia del liderazgo en estas MiPymes, donde se descubre que en el enfoque comunicación y liderazgo, las empresas mantienen un porcentaje de calificación alto con una mínima deficiencia.  En cambio, en los enfoques de motivación y productividad se presenta un porcentaje de calificación menos favorables ya que el personal presento indiferencia a las respectivas preguntas, por este se busca presentar estrategias para una mejora continua con respecto a estos enfoques. 


CONCLUSIONES

Durante la estancia de este verano delfín se logró adquirir conocimientos teóricos y Prácticos, acerca de las definiciones del liderazgo, origen, su evolución atreves de la historia y participación en las empresas hasta la actualidad, además de conocer la importancia y la influencia que genera un buen liderazgo en la organización, reconocimiento de un verdadero líder respecto a sus cualidades y enfoque, cabe decir que esto es una temática extensa y poco investigada por ende se espera observar información de importancia a medida que vaya pasando el tiempo y el liderazgo tome fuerza de forma correcta y adecuadas en todas la MiPymes de todos los sectores, no solamente del sector industrial.
Castro Herrera Gustavo Angel, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

VIABILIDAD TéCNICA Y FINANCIERA DE UNA EMPRESA DE PRODUCTOS COSMéTICOS


VIABILIDAD TéCNICA Y FINANCIERA DE UNA EMPRESA DE PRODUCTOS COSMéTICOS

Castro Herrera Gustavo Angel, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El crecimiento de una empresa depende principalmente de una buena administración, las decisiones financieras estratégicas, como la gestión de flujo de caja, presupuestos, inversión y financiamiento, son cruciales para la salud financiera y la rentabilidad de una empresa. Para determinar si es rentable la venta de cosméticos de belleza (jabones faciales) es importante analizar distintos porcentajes como el ROA, ROE y el ROI, entre algunos otros factores sumamente importantes. Se desea conocer si el capital inicial es suficiente para satisfacer la demanda y cubrir deudas de la misma empresa.



METODOLOGÍA

Obtener de manera acertada el punto de equilibrio mediante una formula y poder analizar y llevar a cabo una proyección de ventas. Se llevará a cabo la realización del estado de resultados, esto a partir de una proyección de ventas. Se analiza el balance general en donde se reflejará con todo lo que cuenta la empresa, ya sea capital y deudas. Se calcula y analiza el flujo de efectivo. Aquí se utiliza la utilidad liquida que se refleja al final del estado de resultados y en caja en el balance general al inicio del nuevo año laboral. Por consiguiente, se analiza y calcula el margen bruto y margen neto utilizando factores financieros de la empresa para medida de rentabilidad de una empresa. Los distintos indicadores nos sirven para medir la rentabilidad de la empresa, saber si es necesario cambiar algo dentro de nuestra cotización, ya sea reducir o aumentar, los que se analizaran son: el análisis de la prueba acida, análisis del entorno sobre la inversión (ROI), análisis del entorno sobre el patrimonio (ROE) y el análisis del entorno sobre los activos (ROA). Al finalizar el análisis y el flujo financiero de la empresa para conocer si es rentable o no llevar a cabo el proyecto e invertir en él, se lleva a cabo la búsqueda de una empresa que financie el proyecto con el capital necesario para suministrar materiales y materias primas para satisfacer las demandas del mercado consumidor.   


CONCLUSIONES

Durante la estancia de verano se obtuvo un gran conocimiento financiero y técnico, se ha desenvuelto un gran interés por las finanzas. La empresa se muestra rentable en términos generales, y muestra ser apta de sobrevivir ante la competencia y los miles demandas existentes, más, sin embargo, pueden variar datos ya que aún no se encuentra 100% atacando ya al mercado y sus necesidades.  La empresa debe producir y vender al menos 390 piezas cada mes, dato que se obtuvo a partir del punto de equilibrio. La proyección de ventas plasmados a un año nos muestra costos variables de $341,640.00 y como ingresos totales en el año de $514,800.00. Se puede ver que se tienen ventas constantes de 390 piezas. Se analizó en estado de resultados en donde en ventas se colocó la cantidad de dinero que se obtuvo en la proyección de ventas que son los $514,800.00 A la utilidad bruta le restamos los gastos administrativos y de venta que en la tabla se pueden observar, dándonos la utilidad operativa y liquida de un total de $17,560.00; Considerando esto como nuestra ganancia final del ejercicio.   El balance general se lleva a cabo al iniciar el nuevo año con un tiempo máximo del primer mes a realizar. El total de activos con que se cuenta en la empresa al inicio del nuevo año es de $82,389.57. En la columna de los pasivos se pueden visualizar cuentas a pagar, desde el pago a proveedores y el pago de la renta, aquí mismo podemos ver el total de pasivo, que es de $22,000.00. Nuestro capital contable existente es de $60,389.57 que proviene de restar los pasivos a los activos y ya solo como comprobación se suma el pasivo más el capital. El flujo de efectivo consta de $17,560.00 que se obtiene en el estado de resultados mencionado como utilidad liquida del ejercicio. El margen nos da de:   34% sería nuestra utilidad al final de un año. La utilidad del margen neto está en que refleja la capacidad de la organización para convertir los ingresos que recibe en beneficios. Esto nos da un igual a 3.4% de margen neto. La prueba ácida se basa en determinar los resultados de liquidez sobre el efectivo disponible o aquellos bienes que pueden ser convertidos fácilmente en dinero para que la empresa pague sus deudas y/o compromisos. La fórmula nos arroja un porcentaje del 87%. Se considera que el índice es razonable si se encuentra entre 0.80 y 1.00, dicho esto, la empresa puede tardar poco tiempo en cubrir sus deudas existentes. El ROE de la empresa que estamos analizando es el 24.6%, eso quiere decir que los activos están produciendo 24.6 centavos por cada peso invertido en esos activos. Este indicador es de suma importancia ya que le brinda todas las informaciones a la empresa sobre la producción de sus activos. El análisis del ROA es de 21.31%. Este es uno de los métodos más importante de la empresa ya que invierten y necesitan saber cuánto están ganando, en el caso del ROA se obtuvo como resultado un 21%, esto quiere decir, que por cada peso invertido en un activo la empresa está ganando 21 centavos. El ROI es un indicador de rentabilidad asociado a la actividad generadora de beneficios y de costos. En un mes se obtiene de ganancia $49,900.00 en 390 piezas vendidas, con una inversión en materias primas e insumos de $28,870.00, lo que nos da una rentabilidad en producción del 48% mensual, que nos ayuda para poder cubrir gastos de ventas y administrativos, siendo esto, rentable.
Castro Lopez Angel Gustavo, Instituto Tecnológico Superior de Irapuato
Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato

DETECCIóN DE EMOCIONES Y EXPRESIONES EMPLEANDO DIADEMA EPOC+ E INTELIGENCIA ARTIFICIAL


DETECCIóN DE EMOCIONES Y EXPRESIONES EMPLEANDO DIADEMA EPOC+ E INTELIGENCIA ARTIFICIAL

Castañeda Álvarez Luis Adrián, Instituto Tecnológico de Tepic. Castro Lopez Angel Gustavo, Instituto Tecnológico Superior de Irapuato. Llamas Becerra Joahan Fernando, Instituto Tecnológico de Tepic. Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Es posible determinar el estado emocional de un individuo examinando las características musculares del rostro. Dicha posibilidad ha despertado un creciente interés en distintas áreas acerca del análisis de regiones específicas del rostro. Interés que ha llevado al desarrollo de diversos métodos de detección, de los cuales, los más rudimentarios presentan una intervención directa en el rostro del individuo. Este contacto puede crear una sensación constante de incomodidad y llegar a alterar los resultados al interferir en las emociones en el sujeto de estudio, razón por la cual se ha buscado implementar sistemas que realicen esta tarea de manera no invasiva al usuario.  Siguiendo este principio, el presente trabajo aborda la implementación tres metodologías de detección de expresiones faciales y emociones; la primera metodología hace uso de la diadema EMOTIV EPOC+, la segunda se fundamenta en una red convolucional MTCNN y la tercera toma cimientos en una librería de Python con Machine Learning. Esto con la finalidad de realizar una comparativa estadística de la precisión del sistema en conjunto.



METODOLOGÍA

Método 1 | Diadema Emotiv Epoc + y Emotiv Xavier. Un sistema BCI permite emplear la diadema Emotiv Epoc+ en conjunto con el software Xavier Control Panel para extraer los pulsos eléctricos emitidos por los músculos faciales teniendo la capacidad de comprender y entender cómo las expresiones faciales y emociones son generadas de forma nativa en las regiones del cerebro/rostro. Para lograr una correcta detección de las expresiones faciales es necesario entrenar el sistema BCI. Se establece que las expresiones faciales de estudio neutral, levantamiento de cejas y sonrisa, se asigna una emoción para su identificación. Se completó un total de 9 entrenamientos de los cuales se asociaron 5 entrenamientos para la expresión neutral, 3 para sorpresa (levantamiento de cejas) y 3 para alegre (sonrisa grande mostrando los dientes).  Método 2 | Detección de emociones por MTCNN. Para la segunda metodología, se hizo uso de un modelo de redes neuronales MTCNN (Multi-Task Cascaded Convolutional Networks) implementado en Python, capaz de detectar uno o varios rostros dentro de un video en tiempo real. Su funcionamiento se basa en la conexión en cascada con tres redes convoluciones que leen la imagen original donde la transforman a diferentes escalas para detectar la presencia de un rostro. Cada red trabaja a distinta profundidad de análisis donde se procesa el rostro en la imagen leída según su clasificador.Para dar robustez a la detección se implementó la librería de Python TensorFlow, donde se llama a un framework que contiene estructurada la base de datos compuesta de una gama de fotos predeterminadas. Comparando los datos obtenidos de la red, con los datos almacenados por TensorFlow, se determina la emoción capturada por el individuo. Las emociones que puede detectar este algoritmo son molestia, disgusto, miedo, alegre, neutral, tristeza y sorpresa. Se estudiaron las emociones neutral, alegre y sorpresa, las cuales se clasifican en un porcentaje predominante. A su vez, se detectan las posibles emociones de las expresiones realizadas. Dicho monitoreo se realiza mediante un gráfico de barras generado con el uso de la librería matplotlib, además de la video-captura del rostro con librería OpenCv . Método 3 | Análisis de proporciones faciales mediante Mediapipe. La tercera metodología se apoya fuertemente en la librería de Python, Mediapie. Una plataforma de código abierto con arquitectura de pipelines (procesos informáticos secuenciales) fundamentada en Machine Learning.  El método está dividido en dos códigos, uno dedicado a la extracción de frames y el segundo se enfoca en el procesamiento de los frames para determinar ciertas proporciones de la cara. Para el primer código, se hizo uso de OpenCV y OS. Se lee un video de entrada desde un directorio y lo procesa para extraer 300 frames del mismo. Posteriormente los almacena en una carpeta particular dónde se puede acceder a cada grupo de frames de manera independiente. El segundo código accede a las carpetas para procesar cada imagen individualmente. Usando Mediapipe, se aplica una malla facial llamada Landmark a cada rostro en los frames extraídos que permite el seguimiento de una selección de puntos en la cara, de los cuales se determina una recta y una distancia. Se obtiene la relación entre estas distancias obtenidas y se generan dos proporciones; una dependiente de las cejas y otra dependiente de la boca. Finalmente, el código toma las proporciones y las envía a una carpeta externa como archivo .csv en excel. Con el desarrollo del método es posible observar momentos específicos del video dentro de los frames, además del comportamiento presentado por las proporciones faciales, conectando así, los datos extraídos con la detección de emociones del sujeto.


CONCLUSIONES

A través de la adquisición de conocimientos teóricos respectivos a las expresiones faciales, micro expresiones, emociones, interfaces BCI, etc, se implementó el uso de hardware comercial especializado como la diadema EMOTIV EPOC+, además del diseño de algoritmos fundamentados en IA y Machine Learning, para la detección de expresiones faciales y emociones. También se ahondó en temas referentes a la programación, el uso de la plataforma Python y la identificación de distintas librerías aptas para la realización de nuestro proyecto. Usando distintas metodologías, se realizó un muestreo de conjunto en tiempo real dónde se generó una base de datos para su análisis, la cual facilitó el entendimiento de estos sistemas y ayudó a la detección de emociones.
Castro Ramírez María Luisa, Instituto Politécnico Nacional
Asesor: Dr. Aurelio Horacio Heredia Jimenez, Universidad Popular Autónoma del Estado de Puebla

APLICACIóN DE TECNOLOGíA ADITIVA EN LA INGENIERíA BIóNICA.


APLICACIóN DE TECNOLOGíA ADITIVA EN LA INGENIERíA BIóNICA.

Castro Ramírez María Luisa, Instituto Politécnico Nacional. Asesor: Dr. Aurelio Horacio Heredia Jimenez, Universidad Popular Autónoma del Estado de Puebla



PLANTEAMIENTO DEL PROBLEMA

La tecnología aditiva es una herramienta versátil que permite el desarrollo de prototipos mecánicos que generan un avance tecnológico de manera accesible. Para el presente trabajo de investigación se utilizó dicha tecnología para el desarrollo de prototipos enfocados en la instrumentación biónica.



METODOLOGÍA

En el laboratorio de biónica de la universidad popular autónoma de puebla (UPAEP) realicé la práctica de electromiografía con el dispositivo BIOPAC, para observar y escuchar los diferenciales de potencial del antebrazo, esta práctica se realizó utilizando electrodos superficiales reusables  tipos pinzas  de la marca Fukuda y los cuales son compatibles con el BIOAC., la intención de esta práctica fue de relacionarme con equipos de medición de bioseñales y ver el comportamiento de la actividad eléctrica de los músculos del antebrazo. Se utilizó un escáner 3D Artec Spacer spider, que cuenta con su software con el cuál se importa el objeto a un modelo digital, es un uso de la tecnología aditiva, el poder replicar a escala o realizar un diseño basado en el objeto escaneado. La aplicación de la tecnología digital como lo es la aditiva en la educación provoca un aprendizaje didáctico y más efectivo. En el área de medicina de la UPAEP se cuentan con un anatomage, que es una Tablet conocida como mesa de disección virtual. Con el uso de este dispositivo el coordinador Académico de Medicina y Evaluación educativa, el medico Daniel Ángulo Conde impartió clase sobre el sistema circulatorio cardiaco, con el circuito equivalente del sistema circulatorio se refuerza el conocimiento de como el corazón reparte la sangre por el cuerpo, así como se realizó una práctica de disección humana, dicha clase tomada  junto con un grupo de estudiantes de la universidad de Oklahoma, con esta práctica se logró diferenciar la estructural de una vena y una arteria en un cuerpo humano, así como reconocer cada parte del cuerpo vista en él anatomage. Se realizó una analogía del sistema respiratorio con sistemas electroneumático, de esta manera se realiza la similitud del sistema respiratorio normal y una respiración asmática. Para el desarrollo del proyecto se realizó el control con el IDE Arduino donde se desarrolló un programa con condicionales controlado por el módulo KY-033 de Arduino. Se utilizó una electroválvula que se conecta a unos globos de latex que simulan los pulmones, para el cambio del siclo respiratorio se utilizó un sensor infrarrojo que al acercarle un objeto provoca cambio en los tiempos de respiración simulando  un problema de asma como se mencionó anteriormente. La aplicación de la instrumentación biomédica en el área aeroespacial se realizó participando en el monitoreo y exploración de volcanes activos, con el proyecto interdisciplinario HAB, donde se realizó el lanzamiento controlado de un conjunto de sensores en una sonda de monitoreo con telemetría de control de gases y temperatura. La instrumentación biónica se aplica en la obtención de imágenes, análisis de gases en tiempo real, así como la obtención de base de datos en una memoria que son obtenidos por medio de sistemas que contienen sensores para realizar la medición de temperatura, altura, gases del medio ambiente. En cada sistema se utilizo tecnología aditiva para su desarrollo. En la UPAEP existe el sistema académico de pertenencia social, en la que se aplican los conocimientos de las materias para desarrollar sistemas que les sirvan a los seres vivos para sustituir la perdida de alguna sus funciones. Inspirados en el sistema de pertenencia social, se realizó un dispositivo auditivo basado en una audiometría, este sistema contiene los subsistemas de adquisición de señal de audio, preamplificador, filtrado, ajuste de potencial de salida y amplificación, se realizó la prueba del circuito para comprobar su correcto funcionamiento con las frecuencias requeridas por el usuario. El desarrollo del dispositivo auditivo se realizó con soldadura smd y tecnología aditiva para la protección del circuito. Por último, se realizó un socket para prótesis transtibial con un grupo de estudiantes de la universidad Escuela Colombiana de Carreras Industriales (ECCI) con guía del Doctor Aurelio Horacio Jiménez Heredia. Utilizando como modelo una tibia de una compañera, con protección para la modelo se utilizó papel film para envolver el muñón y evitar que se pegue con el yeso, en la parte donde se evitarán los soportes, en este caso en la tibia se colocó una manguera para posteriormente envolverla junto con el muñón con unas vendas de yeso. Después de que secó el molde, se cortó para retirarlo de la modelo. Se reconstruyo el molde del socket con una venda de yeso, posteriormente se preparó agua con yeso y se vertió en el molde. Después de que seco el relleno del molde, se desmoldo y se lijo hasta que quedará sin imperfecciones.


CONCLUSIONES

En esta estancia de verano he logrado adquirir conocimientos teóricos prácticos de la instrumentación biónica aplicada en la salud y bienestar de los seres vivos, así como la visión para aplicarla en otras áreas. Se realizaron diversos proyectos y prácticas, en los cuáles se aplicó la instrumentación biónica, utilizando diversas tecnologías aditivas. Respecto al sistema auditivo se pretende realizar el dispositivo auditivo portátil para que el usuario cubra su necesidad auditiva en su vida diaria, cabe remarcar que dicho aparato cumple con los requerimientos mínimos establecidos por COFEPRIS.
Catalan Bonal Ana Karen, Instituto Tecnológico de Iguala
Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez

ANáLISIS E INTERPRETACIóN DE DATOS DE ELECTROMIOGRAFíA OBTENIDOS CON UN EXOESQUELETO PASIVO PARA MIEMBROS SUPERIORES


ANáLISIS E INTERPRETACIóN DE DATOS DE ELECTROMIOGRAFíA OBTENIDOS CON UN EXOESQUELETO PASIVO PARA MIEMBROS SUPERIORES

Catalan Bonal Ana Karen, Instituto Tecnológico de Iguala. Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La electromiografía es un procedimiento de diagnóstico que se utiliza para evaluar la salud de los músculos y las células nerviosas que los controlan. Se usan para diagnosticar una variedad de problemas musculares y nerviosos. Los exoesqueletos son estructuras que se pueden vestir y que sirven de apoyo y asistencia para los movimientos, o para aumentar las capacidades del cuerpo humano. Se usan para ayudar a realizar tareas que suponen cierto desgaste físico para las personas. El grupo de investigación con el cual se desarrolló la estancia de investigación ya cuenta con varios estudios realizados donde se han obtenido datos, pero requiere de la elaboración del procedimiento para analizar dichos datos. El problema específico es que se tenían datos extraídos de un electromiógrafo con exoesqueleto y sin exoesqueleto, pero no estaban analizados y no se podían interpretar con facilidad.



METODOLOGÍA

Los datos se tenían en el programa block de notas, estos se pasaron a Excel y posteriormente fueron migrados al programa Origin para realizar la normalización respecto del concepto esfuerzo máximo voluntario, que consiste en que los datos sean más entendibles y más fácil de expresar e interpretar , ya que se pasaron a una escala de mínimo de 0.100 a un máximo de 1.  Después, se buscaron los rangos donde se registraron los valores buscados en el experimento realizado, en este caso se buscaron valores máximos que correspondían a una fuerza de agarre y los valores intermedios. Posteriormente se separaron los valores de la fuerza de agarre y los intermedios para generar dos tablas separadas. Finalmente, se obtuvieron los promedios de cada serie de datos.


CONCLUSIONES

Con los datos que se tenían inicialmente y después de someterlos al proceso se logró tener un resultado favorable para interpretar y expresar con facilidad y claridad los resultados finales para poder observar el comportamiento de los valores de la fuerza de agarre, las zonas donde sé no se presenta fuerza de agarre y el comportamiento general de los datos para identificar fatiga muscular. Con estos nuevos conocimientos adquiridos en este verano me van a hacer de gran ayuda en un futuro para poder desarrollarme. Fue una gran experiencia participar en esta investigación y me voy con buenos recuerdos y dándole gracias a mi asesor y a su equipo de trabajo.
Cázares Godínez Diego, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE CONTROL VEHICULAR EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE CONTROL VEHICULAR EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU

Cázares Godínez Diego, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El control vehicular cuenta con una limitada gama de herramientas para el desarrollo del área, ya que no tiene un plan óptimo de seguimiento del mantenimiento vehicular, tiene deficiencia en el control del gasto de combustible y cuentan con mucho tiempo óseo. Esto genera que el departamento se retrase en sus tareas y que este mismo presente un incremento en los gastos de la organización.



METODOLOGÍA

Esta investigación se llevó a cabo bajo la metodología de Lean service (DMAIC), siendo una herramienta con un gran potencial ya que presenta una serie de pasos cronológicos que ayudan a atacar el problema desde la raíz y de igual forma es adaptable a cualquier tipo de problemas independientemente el tipo de empresa que sea.


CONCLUSIONES

Los resultados fueron muy exitosos y serán se mucha ayuda en la administración del control vehicular, los cuales se obtuvieron de la siguiente manera: 1 Análisis de los procesos de control vehicular (diagramas): Abastecimiento de combustible. Rastreo GPS. Mantenimiento vehicular. 4 muestreos de productividad. 1 Plan de seguimiento del mantenimiento vehicular. 1 Manual de criterios en el abastecimiento de combustible. 1 Diagrama Ishikawa del mal estado de las unidades. 1 Muestreo del aceite de motor. Los vehículos tendrán flotadores que nos proporcionarán datos cuantitativos del consumo de combustible y de esta forma se tendrá el control total del combustible, para de esta forma determinar la cantidad exacta que los vehículos requieren.  De esta manera se pudo obtener la productividad total del personal de control vehicular indicando que los niveles son bajos, pero de esta misma forma se ha establecido la manera en la que la productividad aumentará, puesto que se han encomendado nuevas tareas para ellos. En cuestión del mal estado de los vehículos se estableció un plan de seguimiento del mantenimiento vehícular para que así se pueda tener registro de los servicios hechos y de los próximos.
Cázares Tafoya Andrea, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Gerardo Trejo Caballero, Instituto Tecnológico Superior de Irapuato

SEGMENTACIóN AUTOMáTICA DE MENINGIOMA EN IMáGENES DE RESONANCIA MAGNéTICA BASADA EN LóGICA DIFUSA


SEGMENTACIóN AUTOMáTICA DE MENINGIOMA EN IMáGENES DE RESONANCIA MAGNéTICA BASADA EN LóGICA DIFUSA

Cázares Tafoya Andrea, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Gerardo Trejo Caballero, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Un meningioma es un tumor intracraneal común que se desarrolla en las meninges, las membranas que rodean el cerebro y la médula espinal. Aunque son generalmente benignos, pueden crecer y ejercer presión sobre el cerebro, lo que puede provocar síntomas y complicaciones graves.  Para un tratamiento eficaz y oportuno, es fundamental clasificar y delinear con precisión el contorno de los meningiomas en imágenes de resonancia magnética. Sin embargo, la segmentación manual de los meningiomas es un proceso laborioso y propenso a errores, lo que puede llevar a resultados inexactos y retrasos en el diagnóstico y tratamiento. Por lo tanto, es interesante desarrollar un sistema de segmentación automática que pueda detectar y delinear con precisión los meningiomas en imágenes de resonancia magnética del cerebro. Las variaciones en la forma, tamaño y apariencia de los meningiomas, además de la variabilidad en las intensidades de los pixeles dentro de la imagen, representan un desafío que se propone hacer frente mediante el uso una técnica de Inteligencia Artificial, específicamente de la Lógica Difusa. En este contexto, se propone el desarrollo de un sistema de segmentación automática de meningiomas en imágenes de resonancia magnética como una herramienta para asistir al especialista de la salud en el diagnóstico y tratamiento de pacientes con tumores cerebrales. Al automatizar este proceso, se pretende mejorar la eficiencia y precisión del análisis a fin de realizar una detección temprana y un mejor seguimiento de la evolución del tumor.



METODOLOGÍA

Se seleccionó un subconjunto de imágenes médicas de resonancia magnética de tumores cerebrales de la base de datos Brain Tumor Classification de Sartaj Bhuvaji et al., 2020. Específicamente el subconjunto formado por un total de 127 imágenes de resonancia magnética de pacientes con meningiomas confirmados. Las imágenes en espacio de color RGB de la base de datos son transformadas para obtener imágenes en escala de grises, utilizando para ello un método de suma ponderada. Las imágenes son pre-procesadas  con el objetivo de eliminar ruido y mejorar la calidad de la imagen mediante el ajuste del brillo y el contraste utilizando métodos basados en histogramas de frecuencias. A continuación, se implementaron diversos algoritmos de binarización para agrupar o clasificar los pixeles en función de su intensidad como pixeles de información y pixeles de fondo, obteniendo los mejores resultados con el método de Otsu. Este es un método de umbralización local en el que los umbrales que delimitan las diferentes clases son seleccionados de manera que la dispersión entre las diferentes clases sea lo más alta posible y al mismo tiempo la dispersión dentro de los elementos de cada clase sea lo más pequeña posible. Después, los pixeles considerados como pixeles de información son etiquetados mediante un algoritmo identificación de regiones conexas basado en la conectividad de los pixeles o pixeles vecinos (8-vecinos). Estas regiones obtenidas son ordenadas de forma descendente utilizando como criterio de clasificación el valor de su área o momento de orden cero. Aquellas de mayor área son consideradas como las regiones de interés (ROI). A continuación, se calcula el momento de primer orden o centroide de cada una de las ROI. El cual se evalúa mediante un sistema de inferencia difuso tipo Mamdani de 2 entradas y 1 salida, la probabilidad de que una ROI sea clasificada como meningioma en función de la ubicación espacial de su centroide con respecto a sí misma, y de su ubicación espacial con respecto a la imagen. La ROI que obtenga el mayor valor es clasificada como meningioma y es segmentada del resto de las ROI. Posteriormente, se utiliza una técnica de fusión de imágenes basada en una combinación lineal o suma ponderada para generar una imagen sintética a partir de la imagen de resonancia magnética y la imagen segmentada del tumor con el objetivo de mejorar la capacidad de discriminación e interpretación de la imagen. Finalmente, todo el sistema se integra en una interfaz gráfica de usuario (GUI) bajo el entorno integrado de MATLAB® App Designer. El diseño y la disposición de la GUI se realiza de manera que resulte de fácil uso e intuitiva para el usuario. Se realizan un conjunto de pruebas para verificar y ajustar parámetros del sistema, quedando en espera de la realimentación de los especialistas médicos para una sintonización final de parámetros y mejorar con algún ajuste la funcionalidad del sistema.


CONCLUSIONES

El sistema de segmentación automático desarrollado proporciona una detección automática y precisa de los meningiomas en la mayoría de las imágenes de resonancia magnética empleadas, lo que posibilita una mejora en la eficiencia y precisión del diagnóstico y posterior tratamiento de estos tumores cerebrales. Si bien, es cierto que cualitativamente el desempeño del sistema es bueno, es necesario medir el desempeño de forma cuantitativa a través de métricas. También está pendiente validar los resultados con los especialistas del área médica y con el empleo de imágenes de resonancia magnética de otras bases de datos.  
Ceja Govea María Fernanda, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO


DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO

Arias Aguilar Emmanuel, Instituto Tecnológico de Querétaro. Ceja Govea María Fernanda, Instituto Tecnológico de Estudios Superiores de Zamora. Gutiérrez Nava Martin Uriel, Instituto Tecnológico de Chilpancingo. Herrera Tovar Mariela, Instituto Tecnológico de Estudios Superiores de Zamora. Melgoza Tamayo Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Ríos Fuentes Karla Araceli, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los profesores en general tienen la necesidad de medir el aprendizaje de sus estudiantes. Para esto se piensa que una aplicación personalizable y gratuita pueda ayudar. Por supuesto existen muchas herramientas hoy en día, quizá la mas famosa sea Kahoot, sin embargo, en esa aplicación los estudiantes pueden responder sin necesidad de pensar en la respuesta, basta con oprimir cualquier botón. Otra forma de jugar mientras se mide el aprendizaje de los estudiantes es que ellos deban teclear la respuesta. En la aplicación se plantea realizar preguntas específicas por el profesor en el momento, y que así mismo las respondan los estudiantes, con esto se ayudará al aprendizaje constante de los estudiantes y se tendrán ventajas de mayor rendimiento.



METODOLOGÍA

La metodología utilizada consistió en una serie de pasos para creación de la aplicación web desde la planificación de las tecnologías utilizadas. 1. Recopilación de requerimientos con el cliente Se tuvo una reunión con el cliente para conocer el tipo de proyecto en el cual se estaría trabajando durante la estancia, a su vez se plantearon los requerimientos importantes para un buen desarrollo de la aplicación. En este caso, el cliente fue una profesora. 2. Planteamiento y estudios de las tecnologías Se realizó un análisis de diferentes tecnologías, con la finalidad de seleccionar y estudiar las que sean más acordes al tipo de proyecto y requerimientos que fueron planteados por el cliente. 3.Asignación de equipos de trabajo Se realizó el análisis de las actividades a realizar en el desarrollo de la aplicación y se asignaron equipos de trabajo y actividades para cada uno. 4. Creación de tablero de trabajo Se creó un tablero con las actividades asignadas con anterioridad para poder tener definidas las actividades, metas y avances durante el desarrollo. 5. Realización del prototipo de baja fidelidad Con los integrantes de los equipos de trabajo compuestos por dos integrantes en cada uno, se diseñaron las interfaces de cada una las pantallas de la aplicación web 6. Creación del modelo entidad- relación Se diseñó y se discutió el modelo entidad-relación con el propósito de definir los datos requeridos de acuerdo a la necesidad de la aplicación 7. Creación e implementación de la base de datos Se realiza creación de la base de datos con ayuda del diagrama entidad-relación 8. Conexión de base de datos Se realiza la conexión de la base de datos back-end y front-end 9. Implementación de Front-end Con ayuda mediante los prototipos de baja fidelidad la creación de front-end de las pantallas de la aplicación web. 10. Implementación de Back-end Se agregó la funcionalidad de las pantallas y el quiz con el uso de la base de datos. Resultados finales Se realizan las implementaciones correspondientes para la creación de de la aplicación web para su total funcionalidad.  


CONCLUSIONES

Este trabajo de investigación se implementó una aplicación web para impulsar el aprendizaje en estudiantes durante sesiones en línea, se concluyó con una aplicación web remasterizada con un diseño más dinámico y con funciones adicionales a las proporcionadas en el inicio del proyecto. La siguiente parte del proyecto consistirá en hacer análisis del uso de esta aplicación considerando distintos tipos de usuarios y grupos.
Ceja Prado Daniela, Instituto Tecnológico de Jiquilpan
Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes

EVALUACIÓN DE UN ADSORBENTE ORGANOMETÁLICO PARA LA REMOCIÓN DE PRODUCTOS FARMACÉUTICOS EN EL AGUA


EVALUACIÓN DE UN ADSORBENTE ORGANOMETÁLICO PARA LA REMOCIÓN DE PRODUCTOS FARMACÉUTICOS EN EL AGUA

Ceja Prado Daniela, Instituto Tecnológico de Jiquilpan. Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la presencia de medicamentos antiinflamatorios no esteroideos (AINES) en los efluentes acuosos representa una preocupación medioambiental significativa. Esto se debe a que, debido a su consumo sin receta médica, su consumo se ha disparado en gran medida en la población, especialmente en pacientes que padecen de artritis y dolor musculoesquelético. Como resultado, se desechan miles de toneladas de estos productos cada año en el medio acuático provenientes principalmente de la orina y materia fecal, la disposición inadecuada y la liberación de residuos industriales. Esta situación provoca que los AINES lleguen directamente al agua y la contaminen. Por lo tanto, es necesario implementar alternativas para su remoción a fin de reducir problemas ambientales y de salud. Considerando lo anterior, en el presente estudio se evaluó la capacidad de adsorción de naproxeno y diclofenaco de un adsorbente organometálico a base de iterbio (A-Yb).



METODOLOGÍA

Se sintetizó un adsorbente organometálico basado en iterbio denominado A-Yb para llevar a cabo la adsorción de naproxeno y diclofenaco. Con el material obtenido, se realizaron pruebas para evaluar la capacidad de remoción de naproxeno y diclofenaco del agua. Se emplearon soluciones equimolares de los fármacos ajustadas a un pH de 7 y se utilizó una relación de 1 g de adsorbente por litro de solución de fármaco. La concentración de los fármacos se cuantificó mediante HPLC (Cromatografía Líquida de Alta Resolución). Finalmente, se llevó a cabo la caracterización del adsorbente antes y después del proceso de adsorción utilizando técnicas de difracción de rayos X y espectroscopia de infrarrojo por transformada de Fourier.


CONCLUSIONES

El adsorbente mostró una mayor capacidad de adsorción para diclofenaco que para el naproxeno. Se están realizando estudios de equilibrio de adsorción, y los datos obtenidos se van a correlacionar con diferentes modelos de isotermas. Los análisis de difracción de rayos X revelaron una estructura altamente cristalina, mientras que los espectros de infrarrojo exhibieron bandas de absorción características del material sintetizado. Por otro lado, durante mi estancia de verano, tuve la oportunidad de aprender más sobre el proceso de adsorción empleando adsorbentes organometálicos, lo cual es un campo de investigación prometedor. Estos materiales ofrecen la posibilidad de eliminar contaminantes como los fármacos del agua, lo que representa una valiosa oportunidad de contribuir a la purificación del agua y asegurar un consumo seguro que no perjudique el medio ambiente ni la salud humana. Sin duda, su aplicación tiene un gran potencial y abre interesantes perspectivas de investigación.
Ceja Reyes Guillermo, Universidad de Guadalajara
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Albarran Barbosa Jessica Denisse, Universidad Michoacana de San Nicolás de Hidalgo. Ceja Reyes Guillermo, Universidad de Guadalajara. Muñoz Silva César Edmundo, Instituto Tecnológico de Tepic. Naranjo Blanco Francisco Alfonso, Instituto Tecnológico Superior de Los Reyes. Trujillo Jiménez José Alberto, Universidad de Guadalajara. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La población en México ha crecido exponencialmente durante los últimos 70 años. El aumento ha llevado a la necesidad de construir nuevas casas que requieren servicios básicos como agua, drenaje y electricidad. Sin embargo, la obtención de electricidad a través de combustibles fósiles ha generado altas emisiones de Gases Efecto Invernadero y contribuido al calentamiento global. La expansión urbana y el consumo desmedido de recursos naturales han tenido un impacto negativo en el medio ambiente. Para abordar este problema, se presenta el proyecto "Diseño de una Casa Ecológica Autosustentable" (CEA), que busca crear viviendas cómodas y respetuosas con el medio ambiente. Las CEA son una respuesta proactiva al cambio climático y promueven la construcción sostenible para reducir la huella de carbono y contribuir a la estabilidad del clima.



METODOLOGÍA

Durante el desarrollo del proyecto, se llevaron a cabo numerosas investigaciones documentales y sesiones de video sobre diversos temas relacionados, así como sesiones de trabajo colectivo para compartir ideas de lo investigado y tomar decisiones sobre la mejor alternativa. Se trató el uso de energía en edificaciones, se exploraron aspectos fundamentales como la irradiación solar, el viento, la temperatura, el confort térmico, el aprovechamiento del activo solar y la consideración de la visión humana en el diseño. También se estudió el principio del diseño con luz diurna, el tratamiento de aguas grises y la importancia de la ventilación natural en el contexto ecológico. Para enriquecer aún más los conocimientos sobre el tema, se realizó una visita de estudio al Instituto Mexicano de Tecnología del Agua (IMTA), donde se pudo observar en vivo el funcionamiento de dos casas ecológicas diferentes. Además, se conocieron las tecnologías y ecotecnias empleadas en estas viviendas, incluyendo el tratamiento de aguas, lo cual brindó una perspectiva más amplia y valiosa para el diseño de la Casa Ecológica Autosustentable. En el proyecto, se planea equipar la vivienda con tecnología de vanguardia para optimizar la eficiencia energética. Se implementarán estratégicamente paneles fotovoltaicos para captar la energía del sol, que es una fuente de energía renovable, y convertirla en energía eléctrica. Esta electricidad generada será utilizada para alimentar los sistemas de iluminación y los electrodomésticos, promoviendo el uso responsable de la energía. Adicionalmente, se prevé instalar generadores eólicos con eje vertical para aprovechar el viento, complementando la producción energética con otra fuente limpia y renovable.  Con estas acciones, el proyecto de la Casa Ecológica Autosustentable busca no solo promover la adopción de prácticas amigables con el medio ambiente, sino también inspirar y servir como ejemplo para futuras construcciones ecológicas y sostenibles, contribuyendo así a la lucha contra el cambio climático y fomentando un uso más responsable de los recursos naturales. Para garantizar el uso responsable del agua se incorporará un sistema de cosecha de agua de lluvia en techos, que permita captar y almacenar este vital líquido hacia depósitos subterráneos, para ser aprovechado en épocas de escasez, así como un sistema de filtración para obtener agua potable, lo que permitirá disponer de agua pluvial para tareas del hogar, fortaleciendo la auto sustentabilidad del hogar.  A su vez se implementará un sistema tratamiento de aguas grises: estas aguas provenientes de lavamanos, duchas y lavadoras se filtrarán y purificarán con ozono para ser reutilizadas en actividades cotidianas, tales como el riego de jardines y descargas de inodoros, lavado de ropa y el aseo de la casa. Esto no solo reducirá el consumo de agua potable, sino que también contribuirá a disminuir la contaminación ambiental, es importante tener esto en cuenta debido a que Organización Mundial de la Salud (OMS), menciona que una persona requiere de 100 litros de agua al día (5 o 6 cubetas grandes) para satisfacer sus necesidades [5], tanto de consumo como de higiene y lamentablemente en México según datos proporcionados por el Sistema de Aguas de la Ciudad de México (SACMEX), el consumo promedio de agua por persona en la CDMX es de aproximadamente 380 litros por día[6].


CONCLUSIONES

El proyecto ha sido pensado para acoger a una familia de 5 personas, esta vivienda ofrece un ambiente plácido y armonioso mientras mantiene un consumo energético e hídrico por debajo de los estándares establecidos. Su diseño, novedoso y creativo, garantiza no solo el confort térmico sino también una iluminación óptima, brindando una experiencia habitacional única. En vista de nuestro compromiso con el medio ambiente, anhelamos que el Gobierno de la República respalde este proyecto mediante la implementación de Hipotecas Verdes, especialmente destinadas a personas de bajos ingresos. De esta manera, daremos un paso significativo hacia un México autosustentable, donde la armonía entre la naturaleza y el desarrollo humano se vuelva una realidad palpable. Es nuestro propósito fomentar una cultura de conciencia ecológica, donde cada individuo pueda disfrutar de una vivienda que respete y cuide nuestro planeta, forjando así un futuro más prometedor y sostenible para las generaciones venideras, juntos podemos construir un país en armonía con la naturaleza y trascender hacia un futuro próspero y responsable con el medio ambiente.
Celaya Cortés Marina, Instituto Tecnológico de Morelia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.


ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.

Barrera Ifarraguerri Erandi, Instituto Tecnológico de Morelia. Benítez Moreno Abraham, Instituto Tecnológico de Morelia. Celaya Cortés Marina, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Sánchez Bustos Itzel Jatziri, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto hidráulico es ampliamente utilizado en la pavimentación y construcción debido a sus roles principales de soportar grandes esfuerzos de compresión y flexión, así como absorber cargas sin deformarse en temperaturas bajas. Sin embargo, el agrietamiento es un problema puntual que afecta sus propiedades. El agrietamiento se debe a tensiones a las que está sometido el concreto y se agrava cuando se expande o contrae, o cuando se aplica carga pesada o cambios en soportes. Para abordar el problema de residuos de plástico, se busca usar fibras de polipropileno reciclado como aditamento en el concreto para aumentar su vida útil de 5-10 años hasta 50 años o más. En términos de seguridad en la construcción, es esencial que las construcciones cumplan con estándares para garantizar el bienestar de las personas. El concreto con fibras ofrece una mejora en sus propiedades mecánicas, y el control de grietas dependerá del tipo y dosis de fibra utilizada. Se busca constantemente mejorar las propiedades mecánicas del concreto mediante la adición de fibras poliméricas y aditivos fluidificantes, lo que ofrece beneficios significativos en comparación con el concreto hidráulico sin fibras. El objetivo de este trabajo es evaluar la variación en el concreto al agregar estas fibras y aditivos fluidificantes.



METODOLOGÍA

Para llevar a cabo esta investigación se realizó un diseño de concreto para calcular la mezcla necesaria para obtener 32 cilindros de 10x20 cm  y 12 vigas de 15x15x60 cm. De los cuales, 18 cilindros y 6 vigas fueron adicionadas con fibras de PP. Se hizo uso del método  de los coeficientes del ACI por su alta fiabilidad en cuanto a resultados. La mezcla fue hecha con agregados de los bancos de materiales de “Joyitas” y “La Roka” ubicadas en Morelia, Michoacán, con cemento portland CPC 30R RS. Los cálculos realizados para el diseño de la mezcla por ACI para vigas y cilindros fueron: - cemento sin adición: 44.29 kg - cemento adicionado: 39.03 kg - arena sin adición: 77.74 kg - arena adicionada: 87.15 kg - grava sin adición: 127.58 kg - grava adicionada: 127.57 kg - agua sin adición: 41.82 kg - agua adicionada: 40.11 kg - fibra adicionada: 0.26 kg - fibra sin adicionar: 0.08 kg La preparación de las mezclas se realizó de forma mecánica con ayuda de una máquina mezcladora de concreto. En cuanto a la mezcla que no tenía aditivos, simplemente fue vertida en los moldes  con un proceso de varillado y golpeteo, caso contrario para los cilindros y vigas adicionadas, la mezcla fue adicionada con fibra de polipropileno en forma tubular alargada en las siguientes cantidades: 0.07 kg para los cilindros y 0.19 kg para las vigas y aditivo fluidificante respectivamente, tomando en cuenta la relación agua/cemento que en este caso fue de 0.62, para su proceso de vertida en moldes fueron sometidos a golpeteo. De los 32 cilindros,16 de ellos fueron testeados y de las 12 vigas solamente 4  para llevar a cabo la investigación; Las muestras fueron sometidas al proceso de curado de 6 a 7 días y 20 a 21 días. Las pruebas de flexión y compresión fueron realizadas por medio de una máquina de ensayos universal a los 7 días para los CSA y VSA (cilindros sin adición, viga sin adición), 6 días para los CA y VA (cilindros adicionados, vigas adicionadas), posteriormente se tomó una segunda toma de prueba de compresión a los 21 días para los CSA y VSA , 20 días para los CA y VA.


CONCLUSIONES

El análisis de mezclas mediante el método ACI arrojó que la mezcla con adiciones modificó las siguientes cantidades de materiales con respecto a la mezcla sin adiciones: -Cemento disminuyó un 12%. -Arena aumentó un 12%. -Grava no experimentó un cambio considerable. -Agua disminuyó un 4%. Las pruebas de resistencia a flexión y compresión arrojaron las siguientes modificaciones con respecto a la mezcla modificada con fibras y aditivos: Resistencia a flexión: -Se observó un aumento del 47% para los 6-7 días de curado. -No se tienen los datos para las muestras a 20-21 días de curado, ya que quedaron pendientes; sin embargo, se espera un comportamiento similar o mejor que a los 6-7 días de curado. Resistencia a compresión: -Se presentó una reducción del 14% para los 6-7 días de curado. -Se registró una reducción del 11% para los 20-21 días de curado. En cuanto a los valores máximos de resistencia, se obtuvo lo siguiente: Resistencia a flexión: -2257 MPa en la edad de curado de 6 a 7 días, presentada en la mezcla modificada. Resistencia a compresión: -11211 MPa en la edad de curado de 6 a 7 días y 13194 MPa en la edad de curado de 20 a 21 días, ambos máximos se observaron en las muestras sin modificar. A pesar de que la teoría sugería que las mezclas con adiciones (fibras PP y aditivo fluidificante) tendrían un mejor comportamiento en la resistencia a la flexión y compresión, los resultados obtenidos mostraron una disminución en la resistencia a la compresión. Esto podría deberse principalmente al proceso de colado, ya que no se realizó un vaciado correcto para la mezcla con adiciones, lo que generó huecos en los cilindros de las pruebas de resistencia a compresión, pero no en las vigas de las pruebas de la resistencia a flexión.
Cerda Guardado Karla Benigbe, Universidad de Guadalajara
Asesor: M.C. Liliana Eloisa Pérez Galindo, Universidad Tecnológica Fidel Velázquez

DESARROLLO DE MéTODOS DE TRABAJO


DESARROLLO DE MéTODOS DE TRABAJO

Cerda Guardado Karla Benigbe, Universidad de Guadalajara. Garcia Lopez Maria Jose, Universidad de Guadalajara. Asesor: M.C. Liliana Eloisa Pérez Galindo, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

Conocer e investigar cuáles son las necesidades de los clientes y cómo aplicar un método de trabajo acorde a la satisfacción de dichas necesidades. Así como conocer e investigar los diferentes tipos de métodos de trabajo y de aprendizaje de cada uno de los empleados del área de atención al cliente.



METODOLOGÍA

Primeramente se escogió un lugar para ser analizado. Después se implementó una encuesta para una muestra de 50 clientes en la cual se les preguntaba qué tan satisfechos se sentían con el servicio al cliente de dicha empresa en cuestión, cuál era el trato recibido por los empleados y cuáles eran los diferentes problemas que ellos ubicaban en el servicio prestado, así como las posibles mejoras que ellos proponían para el servicio al cliente.  Una vez teniendo dichos datos se procedió a generar un análisis detallado de dicha encuesta y señalar los puntos débiles de la empresa y cómo podríamos mejorarlos desde el empleado.  Una vez generado dicho análisis, se seleccionó una prueba de estilos de aprendizaje acorde a la empresa, en este caso fue la prueba de Barsh y se le aplicó a un total de 10 empleados de dicha empresa con el fin de conocer cuál era el estilo de aprendizaje predominante, para esto se realizó un análisis con base a los resultados obtenidos y se obtuvo que el aprendizaje predominante era el auditivo.  Para finalizar se generaron propuestas para utilizar dicho método en él área del servicio al cliente como lo eran conferencias con consejos para la mejora del área, capacitaciones constantes en cuanto a la  atención al cliente, videos informativos que reforzarán el área y que brindarán un mayor entendimiento para el empleado, talleres de reforzamiento para la atención.


CONCLUSIONES

Se espera obtener como resultados la implementación de dichas propuestas y la reducción de quejas de los clientes hacia el servicio ofrecido, así mismo como una buena capacitación para los empleados actuales y nuevos empleados, en la cual se busque un aprendizaje más completo por parte de ellos y que puedan generar mayor ganancia a la empresa.
Cerecero Amador María Cristina, Universidad Veracruzana
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

ALGORITMO DE ESTIMACIóN DE DISTANCIAS PARA UN ROBOT MANIPULADOR DE OBJETOS SENSIBLES


ALGORITMO DE ESTIMACIóN DE DISTANCIAS PARA UN ROBOT MANIPULADOR DE OBJETOS SENSIBLES

Cerecero Amador María Cristina, Universidad Veracruzana. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La robótica y la automatización han experimentado un crecimiento significativo en diversas aplicaciones. La manipulación de objetos es una de las tareas fundamentales en la robótica, y la precisión en el agarre de objetos es crucial para garantizar la eficiencia en dicha tarea. Una vez que el robot ha detectado un objeto, debe determinar la mejor manera de agarrarlo. La planificación de agarre implica calcular la posición, orientación y fuerza requerida para agarrar el objeto de manera segura y estable, considerando la geometría y las propiedades físicas del objeto. Sin embargo, en muchas ocasiones el agarre por parte del efector final no es preciso, esta falta de eficiencia desencadena problemas como daños al objeto que se desea manipular. En este contexto, la visión por computadora se ha convertido en una tecnología clave para dotar a los robots de la capacidad de percibir y comprender su entorno. El objetivo principal de esta investigación es desarrollar un algoritmo de visión por computadora que permita estimar la distancia entre la cámara montada en el efector final del robot y el objeto que se desea manipular, creando así un gripper con retroalimentación óptica. El algoritmo propuesto es capaz de trabajar en tiempo real, debe contar con un entorno blanco controlado puesto que el reconocimiento de las regiones/objetos de interés se realiza a través de una segmentación de color.



METODOLOGÍA

Se seleccionó una pequeña cámara con resolución de video de 1920x1080 HD y 30fps, se acondicionó un fondo blanco controlado y se estableció que las regiones de interés serían segmentadas por color. Se creó un primer algoritmo de prueba para establecer un rango de color en HSV que segmente el color de las regiones de interés, en este caso los objetos a manipular, creando así una máscara y posteriormente encontrar los contornos del objeto identificado mediante la máscara de color. Mediante este algoritmo de prueba se pudieron percibir las afectaciones que se reciben del entorno externo como lo es el brillo de la luz y los reflejos. También se hicieron pruebas para identificación de regiones de interés con el uso de funciones surf y sift pero fueron descartados debido a que están patentados. Empleando el lenguaje de programación Python y sus librería OpenCV, numpy, matplotlib.pyplot y datetime; se creó un nuevo algoritmo para ahora establecer un rango en escala de grises, crear una máscara y posteriormente encontrar los contornos del objeto identificado con el uso de la función Canny. Las perturbaciones externas del entorno, las cuales se percibieron con ayuda del algoritmo de prueba, se lograron disminuir empleando procesamiento de imágenes, exactamente, aplicando el filtro de la mediana. Posteriormente se obtienen los momentos de Hu, es decir, el centroide de los objetos de interés, con esto se establece un rectángulo que encierre al objeto para así conocer la distancia euclidiana de un pixel de un extremo del objeto a otro; se establecieron dos tipos de rectángulos, uno fijo y otro cuyo ángulo se orienta con respecto a la inclinación del objeto. Estos datos se guardan en un arreglo, que al ejecutar el código acciona la webcam, censa el entorno y obtiene estos datos para después, mediante probabilidad escoger la moda del arreglo como el dato definitivo. Posterior a esto, empleando una regla de 3 inversa en la que se contemple la distancia real del objeto a la cámara (distancia de referencia), la distancia euclidiana obtenida mediante el algoritmo antes mencionado y una nueva distancia euclidiana resultado de un desplazamiento, se puede lograr obtener la distancia del nuevo desplazamiento. Además, otra manera en que se pueden calcular dichas distancias reales, es mediante el conocimiento de la distancia  focal de la cámara.


CONCLUSIONES

Uno de los principales retos cuando se trabaja con imágenes en tiempo real es el de controlar las variantes del entorno, adecuar el programa para que su confiabilidad sea la suficiente y que logré trabajar de forma adecuada aún cuando se presentan perturbaciones externas. El próximo paso de la investigación es integrar dos cámaras en el efector final (gripper) de un robot y que ambas censen en tiempo real, la distancia de los extremos del gripper al objeto para así lograr un agarre más preciso y sin dañar la estructura del objeto, siendo especialmente útil para manipular objetos sensibles. Se espera que la investigación sobre este algoritmo de visión por computadora permita dotar a los robots manipuladores de una mayor autonomía y precisión en la manipulación de objetos. La aplicación exitosa de este algoritmo puede tener un impacto significativo en diversas áreas industriales, como la manufactura, logística y automatización de almacenes, mejorando la productividad y reduciendo los riesgos asociados a la manipulación de objetos.
Cervantes Barajas Carlos Missael, Instituto Tecnológico Superior de Los Reyes
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

PROPUESTAS DE REDUCCIÓN DEL EFECTO DE ISLA DE CALOR URBANO EN CIUDADES CON ATMOSFERAS URBANAS SECAS: UNA REVISIÓN


PROPUESTAS DE REDUCCIÓN DEL EFECTO DE ISLA DE CALOR URBANO EN CIUDADES CON ATMOSFERAS URBANAS SECAS: UNA REVISIÓN

Cervantes Barajas Carlos Missael, Instituto Tecnológico Superior de Los Reyes. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El paisaje construido modifica los parámetros micro-climáticos de un sitio. Una de las principales alteraciones es el aumento de la temperatura del aire, que da origen al fenómeno de isla de calor urbano. Es por ello que el efecto de la isla de calor urbano es multifactorial, la principal problemática es el aumento de áreas urbanizadas del 60% en la actualidad. Las islas de calor urbano provocan problemas de confort tanto en espacios exteriores como interiores y esto genera que haya mayor uso energético para enfriar espacios en verano o calentarlos en inviernos. Actualmente hay una rama del conocimiento dedicada a la Planeación urbana que prevé evitar estos problemas, pero muchas ciudades fueron diseñadas cuando esta especialidad estaba en ciernes, entonces, ahora estamos buscando soluciones para mitigar esta situación. Otro factor importante es la migración rural hacia centros urbanos, la eliminación de zonas con vegetación o el cambio de vegetación por especies no endémicas. Se espera que para el año 2050 el 70% de la población viva en zonas urbanas (ONU 2014) lo que significa que las superficies modificadas también aumentarán, provocando un daño de temperatura en ciudades mal diseñadas. Esto implica que ya debemos proponer soluciones de bajo gasto energético, de duración a largo plazo, fácilmente aplicables.



METODOLOGÍA

En este presente documento se realizó una revisión bibliográfica de 20 artículos y tesis realizados por diferentes investigadores, los años de publicación de los artículos fueron entre el 2018 al 2021, habla sobre hechos experimentales, donde se utilizan propuestas de reducción del efecto de isla de calor urbano en ciudades con atmosferas urbanas secas. Para la búsqueda de esta investigación se emplearon las siguientes palabras clave: Isla de calor urbano, mitigación, reducción de calor, efecto de calor. Durante la investigación se encontró que existen dos tipos de ICU (Isla de Calor Urbano), las cuales son: la superficial y la atmosférica, que según la investigadora Irina Tumini, se diferencian por los elementos que la generan, los métodos para identificarlas y medirlas, los impactos generados y en algunos casos, las formas para mitigarlas. La isla de calor superficial se genera por la elevación de la temperatura de superficies de suelos, techos y fachadas, esta temperatura se registra mayor a la temperatura del aire. En los documentos revisados habla que se pueden mencionar dos tipos de estrategias a seguir para mitigar el efecto de la isla de calor urbano. Las cuales son estrategias preventivas y estrategias correctivas. Las estrategias preventivas serias tales como; tener un plan de desarrollo urbano sostenible, en donde se tenga identificadas las áreas de reserva, pero sobre todo se respete el uso de suelo dentro de la ciudad. Ciudades sostenibles e inclusivas, con suficientes áreas verdes y suelos permeables, propicios para el desarrollo y esparcimiento del ser humano. Las estrategias correctivas se implementan en espacios o zonas que ya presenten el efecto de isla de calor, insertando elementos que ayuden a mitigar dicho efecto. En los artículos se analiza el albedo, en esto se menciona su función: la cual es la fracción de energía o radiación solar reflejada por una superficie de la tierra al espacio. Estos son algunos valores de la cantidad de albedo (% reflejado) en relación a los materiales utilizados en atmosferas urbanas secas son las siguientes: Nieve 80% - 90%, Zonas de agua 10% - 60%, Cubierta oscura 8% - 18%, Cubierta clara 35% - 50%, Piedra o ladrillo 20% - 40%, Pintura blanca 50% - 90%, Pasto 20% - 30%, Concreto 15% - 25%, Asfalto 5% - 10%, Concreto Hidráulico 10% - 30%. Por lo tanto, el confort térmico es variable, donde resulta un poco difícil determinar las condiciones adecuadas para cada individuo. Sin embargo, es posible sugerir rangos de temperaturas adecuadas para el promedio de las personas. Este rango se determina entre los 20°C y 27°C con condiciones promedio, con una humedad relativa optima en un rango entre los 35% al 60%.


CONCLUSIONES

A base de esto se presentan algunas de las estrategias más utilizadas alrededor del mundo, y hasta el momento siguen vigentes, haciéndose replicables en países en desarrollo que comienzan a presentar señales de este fenómeno, como lo son: las cubiertas vegetales, cubiertas blancas, revestimientos blancos, diseños de viviendas con amplios patios para áreas verdes, mejor orientación sobre los diseños arquitectónicos para aprovechar la mayor parte de los vientos dominantes, entre otros. En relación a este tema se han realizado avances tecnológicos en los que la nanotecnología y la biotecnología parecen ser la tendencia, donde están más ligados a los procesos de diseño más complejos como una urbe. Se modificarán las condiciones iniciales del material mediante la exploración con pigmentos naturales, pigmentos termo crómicos, así como fibras naturales para intentar modificar su capacidad térmica, se espera en algún punto poder modificar las condiciones de un elemento artificial a uno con posibilidades de cambios y respuestas al entorno. A partir de registros y análisis teóricos se puede inferir que el color más eficiente para una superficie es un color calor, por lo que se espera que el color amarillo es que resultara con mejores resultados térmicos para la fatigación de la isla de calor. Este método resulto ser adecuado para identificar, analizar y simular escenarios, que permitan establecer criterios de mitigación de la isla de calor urbano, en esquemas de planeación urbana. La estructura del modelo mostró su viabilidad para ser adaptado a la configuración actual y futuras de usos de suelo de las ciudades afectadas, establecidas en el Programa de Desarrollo Urbano. La presencia de edificaciones es uno de los causantes de la presencia de islas de calor, ya que estos se localizan en los centros de las ciudades y producen aumento en las temperaturas, y afectan a la población con el estrés térmico..
Cervantes Cortes Karla Manuela, Instituto Tecnológico de Morelia
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

MODELACIóN SUPERFICIAL DE LA CALIDAD DEL AGUA DE LA SUBCUENCA DE LA PRESA DE COINTZIO


MODELACIóN SUPERFICIAL DE LA CALIDAD DEL AGUA DE LA SUBCUENCA DE LA PRESA DE COINTZIO

Cervantes Cortes Karla Manuela, Instituto Tecnológico de Morelia. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La problemática surge de la observación de presencia de lirio acuático en la presa de Cointzio en Morelia Michoacán, el cual al ser un cuerpo de abastecimiento de agua para riego agrícola y potabilización requiere de mayor atención. Debido al cambio de uso de suelo para cultivos alrededor de la zona, se ha incrementado el uso de fertilizantes nitrogenados y fosforados principalmente, compuestos que son arrastrados y filtrados hasta llegar al cuerpo de agua deteriorando su calidad. Debido a las consecuencias que puede generar se quiere conocer el transporte de nitrógeno amoniacal, esto puede ayudar a saber si este se encuentra dentro de los parámetros de la NOM-127-SSA1-2021 con la finalidad de determinar su calidad del agua al llegar a la potabilizadora.



METODOLOGÍA

Se realizó revisión bibliográfica, se recopilaron datos históricos de estaciones climatológicas de CLImate COMputing (CLICOM), estos históricos sirven para la validación y análisis de pruebas de homogeneidad e independencia de las estaciones, se recopilaron datos también de estaciones hidrométricas de la Comisión Nacional para el Conocimiento y Uso de la Biodiversidad (CONABIO). Para la parte de la caracterización de la zona de estudio se recopilaron datos de las cartas topográficas obtenidas del Instituto Nacional de Estadística y Geografía (INEGI). La zona de estudio se caracterizó en el programa QGIS (Sistema de Información Geográfica), dentro del cual se insertaron las cartas topográficas para realizar la delimitación de la cuenca, posterior a esto se comenzó la realización del buffer para validar las estaciones climatológicas que son útiles para proporcionar datos de precipitación y temperatura. Se realizaron mapas de uso y tipo de suelo. El análisis, evaluación y validación de estaciones se estuvo trabajando bajo el criterio de cumplimiento de pruebas de homogeneidad e independencia de las estaciones climatológicas contenidas en el buffer, debido a esto se evaluaron catorce estaciones de las cuales únicamente nueve pasaron cuatro de  las pruebas, lo cual indica homogeneidad, pruebas como: secuencias, Helmert, Tstudent, Cramer, Curva masa doble, Wald Woldfowitz y límites de Anderson. Se realizó también análisis de estaciones hidrométricas, únicamente se evaluó la estación de entrada, debido a que es la que mayor influencia tiene en la cuenca, dicha estación es la 12347 de Santiago Undameo, la precipitación  utilizada para dicha zona de estudio se obtuvo con el llenado de vacíos obtenidos mediante la metodología Inverso de la Distancia Ponderada por sus sigas en ingles IDW Se  generaron polígonos de Voronoi para conocer las estaciones climatológicas que tienen mayor influencia en la cuenca, descartando una de las nueve estaciones que anteriormente se tenían (16109), se realizó llenado de vacíos diarios de las ocho estaciones climatológicas en cuanto a precipitación y temperaturas máximas y mínimas, para poder ingresar la información al programa Soil & Water Assessment Tool para QGIS (QSWAT+), que es el programa en donde se realizó la modelación. Una vez obtenidos los datos de llenado de vacíos se cargaron dentro de la base de datos de ARCSWAT 2012, el cual es un programa de base de datos que sirve como auxiliar para generar datos de ficheros de entrada en el programa QSWAT+, el cual realizó los ficheros de precipitación y temperaturas máximas, así como mínimas de las ocho estaciones seleccionadas desde los años 1935 a 2015, también proporcionó un fichero de estadísticos que ayuda para la generación de archivos de entrada dentro del modelo. Se realizaron trabajos de análisis de tipo y uso de suelo, los cuales permitieron de acuerdoo a las características que proporciona el INEGI, calcular los valores de algunos datos de entrada como: valor de usle k el cual ofrece el porcentaje de arena, limo y arcilla de, así como la cantidad de carbono contenida en la zona de estudio, dichos tipos de suelo se agruparon de acuerdo a su conductividad hidráulica.Tras ingresar los datos de entrada y depurar errores se generó el modelo a diez años, este proporcionó datos de nutrientes y contaminantes existentes en el modelo, a la fecha está pendiente la parte de la calibración, la cual se estará trabajando durante la última semana del programa Delfín.


CONCLUSIONES

Durante la estancia y con ayuda de mi co-asesora Estefany Durán Rojas se lograron adquirir conocimientos en cuanto a el área de hidrología, a su vez del uso de Sistemas de Información Geográfica (QGIS), del programa para la modelación matemática superficial de cuerpos de agua (SWAT), parte de la validación de datos y pruebas de homogeneidad aplicada dentro de estaciones climatológicas, así como análisis de datos de estaciones hidrométricas. Se proporcionó conocimiento sobre el tipo y el uso de suelo de la zona de estudio, así como también se logró innovar al seleccionar el uso de programa para la modelación debido a que han sido pocos trabajos los realizados dentro de SWAT; al ser una investigación un tanto extensa se quedó pendiente la calibración del modelo y la elaboración del artículo científico para el ICTI, ambas actividades se procura seguir trabajándolas durante el resto de la estancia.
Cervantes Medina Tivisay Nazareth, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla

INTELIGENCIA ARTIFICIAL PARA EL APOYO A PERSONAS CON ALZHEIMER


INTELIGENCIA ARTIFICIAL PARA EL APOYO A PERSONAS CON ALZHEIMER

Cervantes Medina Tivisay Nazareth, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Márquez Álvarez Luis Humberto, Universidad de Guadalajara. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El Alzheimer es una enfermedad neurodegenerativa progresiva la cual afecta principalmente a las funciones cognitivas, la memoria, el comportamiento y las habilidades sociales de los adultos mayores. Se caracteriza por cambios en el cerebro que derivan en depósitos de ciertas proteínas, la cual con el tiempo empeora. [1]Esta fue descrita por primera vez por el neurólogo alemán Alois Alzheimer en 1906, quien examinó el cerebro de una paciente que mostraba pérdida de memoria, desorientación y cambios de personalidad. Desde entonces, esta se convertido en una de las principales causas de demencia en adultos mayores en todo el mundo. Actualmente, según [2] solo “en EE. UU., unos 6,5 millones de personas de 65 años o más viven con enfermedad de Alzheimer. Entre ellos, más del 70 % tiene 75 años o más. De los casi 55 millones de personas con demencia en todo el mundo, se estima que entre el 60 % y el 70 % tiene la enfermedad de Alzheimer.” Esta enfermedad no solo afecta a los adultos mayores, ya que los familiares de la persona que la padece tambien estará afecta, y representa una carga significativa al momento de los cuidados especiales que requiere. Por ende, se han buscado soluciones o ayudas de los medios con lo que contamos hoy en día. Los síntomas que presenta esta enfermedad, como lo es la confusión, la desorientación y la pérdida de memoria, dificultan la realización de tareas cotidianas, la comunicación efectiva y la independencia de quienes lo padecen y de las personas que lo rodean. Si bien hasta el momento no existe una cura conocida para esta enfermedad, diferentes estudios han demostrado que el apoyo temprano y adecuado puede mejorar la calidad de vida de las personas afectadas y retrasar el avance de los síntomas, teniendo así una mejor calidad de vida. [1] [3] Este trastorno lleva años presentes en nuestras vidas por ello diferentes estudios han trabajado en brindar solución a los problemas que conlleva padecerla. Por lo que recientemente han optado por el uso de la inteligencia artificial ya que esta ofrece nuevas oportunidades para desarrollar soluciones innovadoras que apoyen a las personas con Alzheimer, a su familia y cuidadores. Mediante la aplicación de técnicas de IA, es posible crear sistemas inteligentes capaces de analizar, comprender los patrones y cambios en el comportamiento, facilitar la comunicación, proporcionar recordatorios y adaptar el entorno para brindar asistencia personalizada. [4]



METODOLOGÍA

Para la elaboración de nuestro prototipo fue necesario la elaboración de las siguientes etapas: Análisis de Requisitos: En esta etapa, se realizó una revisión exhaustiva de las necesidades y requerimientos del prototipo. Gracias a la exhaustiva revisión bibliográfica de la colaboración con expertos en Alzheimer, cuidadores y personas afectadas por la enfermedad para entender sus necesidades específicas y los desafíos que enfrentan en su vida diaria. Se definieron los objetivos del prototipo, las funcionalidades necesarias y los casos de uso que se abordarán. Adaptación del Turtlebot3: Se tomo como base el prototipo de Turtlebot3 y se realizaron las modificaciones tanto en su diseño físico como en su programación para adaptarlo a las necesidades del proyecto. Para ello se incorporaron dos cámaras frontales para la detección y seguimiento del paciente. Además, se ajustó las limitaciones de perímetro y velocidad de desplazamiento del robot para asegurar una distancia de seguimiento segura de 3 metros. Desarrollo del Sistema de Programación: Se implemento el sistema de programación del robot utilizando técnicas de Inteligencia Artificial y visión por computadora. Para ello se utilizaron algoritmos de detección y seguimiento de objetos para mantener el enfoque en el paciente mientras se mueve dentro de su hogar. Se desarrollo un mecanismo de alerta para notificar al cuidador si el paciente se encuentra fuera de la casa o perímetro o si ocurre alguna situación inusual. Integración de la Interfaz de Usuario: Se diseño una interfaz de usuario amigable y accesible, adecuada para personas con Alzheimer y cuidadores. La interfaz permitirá establecer parámetros de funcionamiento, como la distancia de seguimiento, activar o desactivar alertas y brindar información relevante sobre el estado y ubicación del paciente. Entrenamiento del Modelo de IA: Se procedió a recopilar y etiquetar un conjunto de datos adecuado para el entrenamiento de los algoritmos de detección y seguimiento. Para esto se utilizarán técnicas de aprendizaje automático y Deep Learning para entrenar modelos que sean capaces de identificar y rastrear al paciente de manera eficiente. Pruebas y Validación: Se llevaron a cabo pruebas exhaustivas del prototipo en un entorno controlado y con pacientes reales. Se evaluará la precisión del seguimiento, la efectividad de las alertas y la facilidad de uso de la interfaz de usuario y se recopilarán comentarios y retroalimentación de los usuarios para realizar mejoras en el diseño y la funcionalidad del prototipo. Optimización y Mejoras: En función de los resultados de las pruebas y la retroalimentación recibida, se realizarán ajustes y mejoras en el sistema. Se trabajará en la optimización de la eficiencia y precisión del prototipo, así como en la implementación de medidas adicionales de seguridad y privacidad para proteger la información del paciente.


CONCLUSIONES

El desarrollo del prototipo expuesto anteriormente representa una iniciativa innovadora y prometedora para mejorar la calidad de vida de las personas afectadas por esta enfermedad neurodegenerativa. A través de la aplicación de técnicas de IA y la adaptación de un robot Turtlebot3, se pretende proporcionar asistencia y seguimiento personalizado a los pacientes, así como brindar tranquilidad a sus cuidadores y familiares. Es importante destacar que, hasta el momento, la investigación se encuentra en la fase teórica y aún no ha sido implementado en forma de prototipo funcional. Sin embargo, la base teórica sentada en este documento proporciona una sólida fundamentación para el desarrollo futuro del prototipo.  
Cervantes Paz Alejandra, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara

APLICACIóN INFORMATIVA CON REALIDAD AUMENTADA PARA SMARTPHONE PARA EL CENTRO UNIVERSITARIO DE LA COSTA


APLICACIóN INFORMATIVA CON REALIDAD AUMENTADA PARA SMARTPHONE PARA EL CENTRO UNIVERSITARIO DE LA COSTA

Cervantes Paz Alejandra, Universidad Autónoma Benito Juárez de Oaxaca. Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit. Ramos Avalos Roberto, Universidad Tecnológica de Nayarit. Sangri Espitia Luis Arturo, Instituto Tecnológico de Matamoros. Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La problemática detectada en el Centro Universitario de la Costa (CUC) de Puerto Vallarta Jalisco conforme ha pasado el tiempo ha ido aumentando cada vez más y por ende sigue afectando a toda la comunidad estudiantil y a todos los usuarios que visitan por primera vez las instalaciones de este centro de estudios, ya que, este instituto tiene una alta demanda de solicitudes de ingreso debido a que también se encuentra ubicado en un municipio de grado turístico y recibe estudiantes tanto locales que habitan en el mismo estado o municipio y hasta alumnos internacionales. Otro de estos motivos es que el centro  universitario está afiliado a distintos programas de estudio lo que conlleva a recibir estudiantes de distintas partes nacionales e internacionales. Por estas razones al visitar por primera vez sus instalaciones  los alumnos se encuentran desorientados ya que desconocen dónde se encuentra cada área de las cuales se compone el campus, debido a que esta institución es muy amplia y se desconoce la ubicación de los mapas de los edificios o algún personal específico o asignado que oriente a los estudiantes o usuarios que ingresan por primera vez a este centro universitario, otro problema detectado es que los señalamientos dentro del instituto están bastante deteriorados y dañados, por lo tanto no son muy entendibles, lo que conlleva a verse involucrados en la problemática mencionada anteriormente.



METODOLOGÍA

Definición del Alcance y Objetivos: En esta fase inicial, el equipo se reunirá con representantes del Centro Universitario para comprender los requisitos y expectativas de la aplicación de realidad aumentada. Se establecerá el alcance del proyecto y se definirán los objetivos específicos, centrándose en proporcionar información detallada sobre instalaciones, edificios, departamentos, oficinas y el reptilario del campus. Planificación y Diseño: El equipo diseñará un plan detallado para el desarrollo de la aplicación. Esto incluirá la asignación de tareas, la definición de los entregables y la estimación de tiempos para cada fase del proyecto. Además, se definirán los requisitos para la captura de datos mediante la tecnología Vuforia y la integración de los área targets generados en Unity para crear el entorno virtual. Fase de Escaneo y Generación de Área Targets: En esta etapa, el equipo llevará a cabo el escaneo de las áreas relevantes del campus utilizando la tecnología Vuforia. Los datos recopilados se utilizarán para generar los área targets necesarios para la aplicación de realidad aumentada. Desarrollo del Entorno Virtual en Unity: Con los área targets generados, el equipo procederá a desarrollar el entorno virtual en Unity. Se crearán los modelos 3D y la interfaz de usuario necesaria para presentar la información adicional de cada ubicación en el campus. Implementación y Pruebas: En esta fase, se integrarán los area targets y el entorno virtual en la aplicación de realidad aumentada. Se llevarán a cabo pruebas exhaustivas para garantizar que la información se muestre correctamente en cada área target y que la aplicación funcione sin problemas. Pruebas de Campo y Retroalimentación: Una vez que la aplicación esté lista, se llevarán a cabo pruebas en campo en el campus universitario para validar su funcionalidad y experiencia de usuario. Se recopilará la retroalimentación de los usuarios para realizar ajustes y mejoras necesarias. Entrega y Despliegue Definitivo: Con todas las funcionalidades implementadas y las pruebas completadas, se preparará la aplicación para su lanzamiento definitivo en el campus universitario. Se llevará a cabo una capacitación más completa para el personal y los usuarios finales. Seguimiento y Mantenimiento Continuo: Una vez que la aplicación esté en funcionamiento completo, se realizará un seguimiento continuo para detectar y resolver cualquier problema que pueda surgir. Se considerará la posibilidad de agregar nuevas funcionalidades en el futuro para mejorar aún más la experiencia de los usuarios.


CONCLUSIONES

El desarrollo de una aplicación informativa con realidad aumentada para Smartphone en el Centro Universitario de la Costa (CUC) promete ser una herramienta valiosa para proporcionar información detallada sobre las instalaciones del campus, incluyendo edificios, departamentos, oficinas y el reptilario. Los usuarios podrán navegar con facilidad y confianza por el centro universitario, lo que mejorará significativamente su experiencia de ingreso y estancia, facilitando su adaptación y comodidad en el campus. La metodología implementada para el desarrollo de la aplicación ha sido cuidadosamente planificada y ejecutada en colaboración con representantes del Centro Universitario, asegurando que los objetivos del proyecto estén alineados con las necesidades reales de los usuarios. El aprovechamiento de tecnologías como Vuforia para el escaneo y generación de área targets, junto con el entorno virtual en Unity, ha permitido una experiencia de realidad aumentada fluida y precisa, garantizando la solidez técnica del proyecto. Esta tecnología no solo facilita la navegación en el campus, sino que también impulsa la imagen del Centro Universitario de la Costa como una institución moderna. La aplicación representa un avance significativo hacia la mejora de la calidad educativa y la satisfacción de la comunidad universitaria, consolidando al CUC como un referente en el ámbito educativo tecnológico.
Chamorro Perez Fionella Rubi, Universidad Autónoma del Estado de México
Asesor: Dr. Juan Manuel Carrión Delgado, Instituto Tecnológico Superior de Xalapa

DISEñO Y VALIDACIóN DE EQUIPO DESHIDRATADOR DE HOJAS DE MORINGA OLEíFERA.


DISEñO Y VALIDACIóN DE EQUIPO DESHIDRATADOR DE HOJAS DE MORINGA OLEíFERA.

Chamorro Perez Fionella Rubi, Universidad Autónoma del Estado de México. Asesor: Dr. Juan Manuel Carrión Delgado, Instituto Tecnológico Superior de Xalapa



PLANTEAMIENTO DEL PROBLEMA

Según Tejeda et. al. (2020), en el estado de Veracruz, el estrés térmico ocasionado por el calentamiento global disminuirá la productividad de los cultivos, lo que a la vez alterará su ciclo fenológico, también reducirán el crecimiento económico, complicarán los esfuerzos por reducir la pobreza (Field et al., 2014), aunado a esto la soberanía alimentaria se vera gravemente afectada, pues esta tiene que ver con la producción, distribución y consumo de alimentos para garantizar el derecho a una alimentación sana. En el ámbito agrícola, en gobierno veracruzano propone el desarrollo de sistemas agrícolas con alta resiliencia, es decir, establecer plantaciones regionales con la implantación y diversificación de prácticas agroecológicas que permiten el reciclaje óptimo de nutrientes y la acumulación de materia orgánica para mejorar la productividad y la capacidad de auto sostenimiento. Desde hace unos años la Moringa llamó la atención de algunos productores del estado debido a sus amplias propiedades medicinales y alimenticias, que pueden comprobarse en los testimonios de Fuglie (2001) sobre un sinfín de casos en África occidental donde la adición de moringa a la dieta rescató a personas en desnutrición extrema se han tomado como evidencia del extraordinario valor del contenido proteínico de la planta, los análisis del contenido proteínico de las hojas secas muestran que hasta el 30% de su peso está formado por proteína, la incorporación al ciclo de cultivo de la moringa podría beneficiar al reciclaje y absorción de nutrientes para la regeneración de los suelos de cultivo. La presente investigación se enfoca en promover la agroecología entre los productores de moringa en el estado de Veracruz y agregar valor a los productos de venta final mediante la implementación de un sistema de deshidratado que conserve en mayor parte el contenido nutrimental de la hoja de moringa. 



METODOLOGÍA

Para recopilar información suficiente que represente la situación actual de la agroecología, la soberanía alimentaria y los sistemas de deshidratado, se usó un gestor de referencias de nombre Mendeley, que sirvió también como visor de PDF para rescatar las ideas más importantes de cada artículo científico consultado. El diseño del deshidratador rectangular tuvo como primera fase, la medición de sus dimensiones reales, posteriormente se recreó en SolidWorks con el fin de tener una perspectiva fresca y creativa para elegir la posición más adecuada de los sensores de temperatura y humedad relativa y de los ventiladores, para colocar los sensores fue necesario diseñar 3 bases cilíndricas delgadas con una base en el extremo más alejado, pues los sensores están al centro suspendidos para una mejor captación del fenómeno. Asimismo, se guardó un ensamble sencillo sin ventiladores para establecer un punto de comparación. Una vez dibujado el deshidratador y ensamblado hasta los ventiladores (sin sensores), se procedió a exportar el ensamble al módulo SolidWorks Flow Simulation, donde se hizo uso del Wizard o asistente donde se colocaron los tipos de análisis requeridos, que fueron de fluido, conducción, radiación y rotación aplicados de manera externa, para ampliar el volumen de control a estudiar, en este paso se fijaron las temperaturas iniciales del entorno y del sólido, así como la zona mediante coordenadas del sol a las 12 PM, finalmente se usaron las condiciones de mallado recomendadas por el software y se pasó a la solución del análisis, con esto se obtuvieron líneas y contornos de temperatura y velocidad del fluido. Únicamente para el modelo son ventiladores, no se usó el análisis de rotación, las demás condiciones redactadas fueron usadas de igual forma. Al finalizar ambas simulaciones, se generaron los reportes que proporciona Flow Simulation y se resumieron en un documento de Word, tomando en cuenta variables como densidad, temperatura, velocidad y se compartió con el equipo para discutir los resultados. 


CONCLUSIONES

En cuanto al diseño del prototipo se obtuvieron 2 ensambles, uno sin ventiladores y el otro con ventiladores, también 3 propuestas para la base de los sensores, de mástil firme, mástil retráctil y un árbol. De las simulaciones y sus reportes, se obtuvieron gráficos del comportamiento del flujo y 2 tablas con las variables más representativas de estudio, que sirvieron para validar las hipótesis iniciales sobre el sistema de deshidratado y su optimización. Al comparar los datos obtenidos, se concluyó que la temperatura se distribuye mejor en el ensamble con ventiladores mientras que en el modelo con convección natural, se presenta un estancamiento de temperatura en una de las paredes y una velocidad de salida más lenta, lo que ralentizaría el tiempo de deshidratado, centrándonos en el modelo con ventiladores, se puede rescatar que la mayor temperatura se concentra en la parte superior y en la zona más baja, difundiéndose en la zona media, este es un comportamiento esperado debido a la forma recta de las paredes y las esquinas que entorpecen el paso del aire, por lo que es una buena opción de deshidratado a bajo costo, este sistema se puede optimizar utilizando una forma cilíndrica con un área de salida más pequeña y ventiladores,  sin embargo esta es una fase del proyecto que durante las 7 semanas no se pudo abordar, se espera que haciendo pruebas de deshidratado entre el sistema de deshidratado rectangular y el cilíndrico, el tiempo de secado disminuya usando la forma cilíndrica.
Chávez Barajas Victoria, Instituto Tecnológico de Morelia
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

ANáLISIS MULTIVARIABLE DE LAS COMPETENCIAS ACADéMICAS DEL PROGRAMA DE PSICOLOGíA


ANáLISIS MULTIVARIABLE DE LAS COMPETENCIAS ACADéMICAS DEL PROGRAMA DE PSICOLOGíA

Chávez Barajas Victoria, Instituto Tecnológico de Morelia. Raya Rodríguez Jaqueline, Instituto Tecnológico de Morelia. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La salud mental juega un papel fundamental en la sociedad actual, ya que afecta a todos los aspectos de la vida de las personas. Está abarca el bienestar emocional, psicológico y social, y tiene un impacto directo en nuestra capacidad para funcionar de manera óptima en nuestras actividades diarias, tanto en el trabajo como en nuestras relaciones personales. De acuerdo con (Bautista, 2021), en Colombia durante el año 2021, aproximadamente el 4,7 % de los casos tanto de hombres como de mujeres necesitaron ser derivados al sistema de salud. En el 50 % de los casos, se abordaron mediante orientación psicológica, brindando información y apoyo, mientras que en el 40 % de los casos se requirió un seguimiento continuo. En América Latina, las tasas de abandono escolar varían entre el 40% y el 75%. En Colombia, alrededor del 36% de todas las personas que abandonan lo hacen al finalizar su primer año de estudio. Es esencial que los futuros psicólogos desarrollen habilidades interpersonales sólidas. De acuerdo con (Lein MS & Wills PhD, 2007), tanto la aplicación de un enfoque de comunicación asertiva como el aprendizaje y la utilización del asesoramiento (counseling) benefician tanto la salud de los pacientes como a los profesionales involucrados.



METODOLOGÍA

En la presente investigación se desarrollan las etapas de análisis de eficiencia y análisis exploratorio. (ver ilustración 1); En la primera se explorarán datos de las pruebas SABER de la carrera de psicología en Colombia mediante la aplicación del método clustering que permitirá identificar grupos, patrones y características similares de los datos evaluados. Para la segunda etapa se realizará un análisis de eficiencia en base a un estudio de componentes principales (PCA) para describir a los individuos y observaciones por múltiples variables interrelacionadas.  Finalmente se interpreta cada componente principal para comprender qué variables están más correlacionadas y cómo contribuyen a la variabilidad de los datos.  


CONCLUSIONES

La metodología empírica creada fue adecuada para identificar las competencias académicas que son fuertes y débiles dentro del programa de psicología. Se realizó un análisis de clúster en RStudio para un conjunto de datos de universidades en Colombia. Para la primera etapa Se obtuvieron son 4 grupos donde el grupo 4 tiene las competencias más adecuadas y el grupo 2 las más débiles. En cambio, el PCA nos ayudó a resumir y visualizar la información en un conjunto de datos que contiene individuos/observaciones descritas por múltiples variables cuantitativas interrelacionadas. Se registraron 97 datos los cuales representan las universidades y departamentos en base a variables que fueron las pruebas SABER (WC.PRO, ENG.PRO, CS.PRO, CR.PRO, QR.PRO, ENG.HS, SC. HS, CR. HS, NS. HS y MATH.HS). Realizamos un análisis de las coordenadas para identificar los datos en los cuadrantes pudimos observar que en el cuadrante 1 y 3 tienen una suma de 53 datos lo que representa el 55% de los individuos; los cuales tienen un desempeño muy bajo o nulo en cuanto a las pruebas de conocimiento, en contraste con los que se encuentran en el cuadrante 2 y 4 que tienen una suma de 44 datos que equivale a un 46% de los individuos, de los cuales el 22% representan el cuadrante 2 son mejores en las pruebas Saber 11 y el 24% representan el cuadrante 4 que son mejores en las pruebas Saber PRO. Los resultados pueden ser utilizados por las universidades para identificar áreas de mejora y diseñar estrategias para mejorar su desempeño en las competencias evaluadas. Además pueden ser utilizados por los organismos encargados de la evaluación de la calidad de la educación para identificar las universidades que se destacan por su desempeño y aquellas que necesitan mejorar en estos aspectos. En resumen, esta investigación enfatiza la necesidad de priorizar la salud mental en la sociedad actual y el papel crucial de la psicología en este proceso. Es fundamental invertir en la formación adecuada de profesionales capacitados para abordar eficazmente los desafíos de la salud mental y promover el bienestar general de la población.
Chávez Cruz Naydelin, Instituto Tecnológico de Chilpancingo
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

ANáLISIS Y DESARROLLO DE PROCESOS INDUSTRIALES


ANáLISIS Y DESARROLLO DE PROCESOS INDUSTRIALES

Ahuizteco Martínez Andrea Lizeth, Instituto Tecnológico de Chilpancingo. Bernabe Carroza Fernando Nathaniel, Instituto Tecnológico de Chilpancingo. Chávez Cruz Naydelin, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La movilidad, es la capacidad de moverse o caminar con libertad y facilidad, algo fundamental para desarrollar las actividades cotidianas y vivir de forma independiente. No obstante, a medida que se envejece, también en el caso de las personas con discapacidad, se va perdiendo autonomía en varias áreas vitales o de sufrir cambios en la movilidad desde la manera de caminar hasta el equilibrio y la fuerza.  De acuerdo con la Organización Internacional de la Salud (OMS), las ayudas técnicas (también conocidos como dispositivos de asistencia o tecnologías de apoyo) son todos los productos, instrumentos, equipos o sistemas técnicos utilizados por una persona con discapacidad fabricados especialmente o disponibles en el mercado para prevenir, compensar, mitigar o neutralizar una deficiencia, discapacidad o minusvalía.  Un problema que enfrentan las personas con discapacidades es la adquisición de equipos para su movilidad, por tal motivo durante la estancia se diseña y desarrolla un equipo para la movilidad de una persona con discapacidad física, el cual le ayudará en la realización de sus actividades cotidianas permitiéndole desplazarse con mayor facilidad.  



METODOLOGÍA

Semana 1: Etapa 1: Diseño de equipo (19 de junio al 23 de junio) Seleccionar un problema o cliente y visualizar solución. Hacer bosquejo Semana 2: Etapa 1: Diseño de equipo (26 de junio al 30 de junio)​ Hacer especificaciones Hacer planos de dibujos Semana 3: Etapa 2: Planeación y presupuesto de 6 M (03 de julio al 07 de julio) Material Método: Soldadura eléctrica, Eléctrico, Mecánico, Hidráulico Mano de obra, Propia y Ajena Semana 4: Etapa 2: Planeación y presupuesto de 6 M (10 de julio al 14 de julio) Método que usamos: Protocolo de investigación, Tesis, Delfín Medición: Movimiento, Tiempo, Economía, Piezas, Volts Amperaje, Revoluciones Maquinaria Equipo   Semana 5: Etapa 3: Fabricación (17 de julio al 21 de julio) Construcción del modelo Las maquetas Semana 6: Etapa 3: Fabricación (24 de julio al 28 de julio) Construir el producto Semana 7: Etapa 4: Comercialización (31 de julio al 04 de agosto) Entrega y recepción del producto al cliente Elaboración del articulo para presentar en congreso Elaborar la carta de satisfacción del cliente Presentar el articulo para titulación, Diploma a la escuela y Cliente, Reporte final. Se seleccionó una persona de tercera edad del sexo femenino con una discapacidad física, la cual le evitaba poderse trasladar de un lugar a otro, esta persona había perdido una extremidad de su cuerpo por lo tanto se buscó darle solución a parte de sus problemas de movilidad.  Se mantuvo en contacto con esa persona para realizar un análisis más a fondo sobre sus problemas de movilidad con el fin de obtener ideas más claras que nos pudieran ayudar a desarrollar un mejor producto, con este análisis logramos detectar cuales eran sus necesidades a cubrir y cual sería la mejor manera de ayudar a esta persona. Después de haber transcurrido 2 días y haber organizado todas las ideas con el equipo de trabajo, se empezó a bosquejar las ideas con dibujos del proyecto a realizar, las ideas y dibujos se trabajaron de manera virtual por medio de chats y videollamadas, ya teniendo en mente cual era la opción más práctica a realizar se empezó a maquetar nuestro proyecto, por medio de una lluvia de ideas se seleccionó el material a utilizar y se llegó a la conclusión de usar madera y cartón para evitar gastos innecesarios. Terminada la maqueta se le informó al asesor la idea central con el fin de avalarla y obtener alguna crítica constructiva que nos ayudara a mejorar el proyecto.   Teniendo la maqueta lista y la aprobación del maestro, buscamos la manera de gestionar precios en tiendas de conveniencia los cuales servirían para comenzar a construir nuestro proyecto. De igual manera se buscó una persona que nos asesorara con los materiales y los procesos a realizar.  La materialización del proyecto se realizó alrededor de dos semanas del mes de julio,  después de ese tiempo se buscó mejorar e incorporar pequeñas cosas de nuestro proyecto, cosas que tendrían la finalidad de cubrir alguna otra necesidad que se le presente a nuestro cliente, no obstante también pueden servirle para realizar alguna otra actividad cotidiana.  Una vez que concluimos con nuestras actividades se optó por regalar nuestro proyecto a esta persona y le agradecimos por su tiempo compartido y habernos apoyado con nuestro proyecto escolar.  Descripción Llegamos a un acuerdo que la persona de la tercera edad necesitaba de una andadera, y pensamos en darle una nueva modificación, así que a la andadera le agregamos un asiento el cual se puede levantar para que la señora la utilice como andadera, y también se puede bajar para cuando la señora se canse, se pueda sentar, este producto funciona como andadera y como silla, también se le agregó una bolsa para que la señora pueda guardar cosas en ellas, como sus medicamentos, su dinero, entre otras cosas más.


CONCLUSIONES

Durante la estancia logramos presenciar que hay una gran cantidad de personas con alguna discapacidad física y no cuentan con las facilidades de comprar algún aparato que les ayude con sus discapacidades, no obstante también nos percatamos que varias personas buscan la forma de adaptarse a las dificultades que se les presentan en su vida diaria.  Se logró alcanzar los objetivos generales, los cuales eran satisfacer las necesidades de la persona a la que nos propusimos ayudar, concluir el proyecto en tiempo y forma y lograr contactar a la persona para poder entregar la andadera de manera presencial. Dentro de los valores monetarios podemos encontrar los siguientes precios de las cosas que tuvimos que comprar: 7 metros de tubo mofle - $500 Lamina de 55x25 calibre 16 - $50 2 bisagras de tubo - $40 1 armella - $5 2 llantas con freno - $200 2 gomas de tubo de 1 pulgada - $80 Base del asiento - $200  Del total de la andadera - silla, nos gastamos $2,000.00 pesos. Total de dinero obtenido por la andadera: $0, se decidido regalar así que no obtuvimos ingresos.
Chavez Morales Alexis Antonio, Universidad Autónoma de Occidente
Asesor: Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente

SíNTESIS VERDE DE NANOPARTICULAS SEMICONDUCTORAS Y SU APLICACIóN EN LA INDUSTRIA DE LA CONSTRUCCIóN


SíNTESIS VERDE DE NANOPARTICULAS SEMICONDUCTORAS Y SU APLICACIóN EN LA INDUSTRIA DE LA CONSTRUCCIóN

Chavez Morales Alexis Antonio, Universidad Autónoma de Occidente. Asesor: Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la nanotecnología ha sido una rama de gran estudio, al diseñar, manipular y sintetizar materiales con tamaño nanométrico. Una de las muchas aplicaciones de los nanomateriales es mejorar las propiedades de los materiales existentes. En ingeniería civil, aparte de regulaciones y normas, se ha avanzado poco en esta área. Los materiales de construcción son en gran medida los mismos que se usaban hace siglos, pero la nanotecnología entiende la posibilidad de mejorar sus propiedades. En las últimas dos décadas, gracias al desarrollo de la nanotecnología, propiedades como la resistencia a la compresión, tracción, y flexión, y la trabajabilidad del concreto han mejorado significativamente, abriendo nuevos horizontes al potencial del material. Gracias a la nanotecnología, los materiales se pueden manipular a nivel atómico. Los nanomateriales más utilizados son los basados ​​en carbono y de forma ovalada o esférica se denominan fullerenos, mientras que los de forma cilíndrica se denominan nanotubos. Los materiales metálicos incluyen puntos cuánticos, NPs de oro y plata y óxidos metálicos como el dióxido de titanio. Los dendrímeros son polímeros a nano escala compuestos por unidades ramificadas. Muchas consecuencias negativas de la síntesis de NPs están relacionadas con la toxicidad de los métodos físicos y químicos debido a la presencia de sustancias tóxicas. Una alternativa respetuosa con el medio ambiente es un método biológico de síntesis de NPs utilizando microorganismos, enzimas, hongos y extractos de plantas. Durante la estancia se investigó y realizó la síntesis verde de nanopartículas de ZnO utilizando Citrus sinensis (Naranja). Con el fin de que a futuro la propuesta de aplicar las NPs biosintetizadas en los materiales cementantes, esto con la finalidad de mejorar sus propiedades mecánicas y de durabilidad. Además, aplicar estos nanomateriales en la eliminación de contaminantes en el agua por medio de fotocatálisis.



METODOLOGÍA

La metodología empleada en el verano científico fue seguida con el Dr. Manuel Chinchillas, está metodología fue enseñada por medios de aprendizajes teóricos presenciales, aplicación directa, etc. 2.1       Síntesis verde de NPs ZnO Para la obtención de nanopartículas se utilizó el extracto de cáscara de naranja. Primeramente fue necesario cortar la cáscara de las naranjas y dejarlas secar durante 48 horas. Posteriormente las cáscaras secas se pesaron (70 gr) y se trituradon hasta obtener un polvo resultante de las cáscaras. Después se agregaron 2 gr a un vaso de precipitado con 50 ml de agua destilada. La solución se agitó durante 2 horas y se dejó reposar. Transcurrido ese tiempo se filtró utilizando una bomba de vacío para eliminar la materia orgánica y dejar solo el extracto en la solución. Ya que se tenía solo el extracto en el vaso de precipitado se agregó el precursor metálico, el cual fue Nitrato de zinc dihidratado a la solución, y se agitó durante 1 hora a temperatura ambiente. La solución se colocó en baño maría durante 7 horas a una temperatura de 60°C hasta lograr una consistencia viscosa y por último se metió a un horno a 300°C durante 2.5 horas. Finalmente, el material obtenido se molió y se obtuvieron las nanopartículas almacenándolas en microviales de plástico. 2.1.1    Caracterización de NPs Para conocer las propiedades de las NPs biosintetizadas se aplicaron algunas técnicas de caracterización como Espectroscopia de infrarrojo, Difracción de rayos X y Microscopia Electrónica de Transmisión en el Centro de Investigación en Materiales Avanzados (CIMAV-Chihuahua). 2.2       Aplicación de Nanopartículas La aplicación de las NPs en el verano científico fue en la eliminación de contaminantes en el agua por medio de fotocatálisis. Para este caso se utilizó agua contaminada por colorantes orgánicos y se agregaron pequeñas cantidades de NPs. La solución contaminada se colocó en el sol para analizar la degradación fotocatalítica. 2.3 NPs en materiales cementantes Para este proceso el objetivo está en evaluar los tiempos de hidratación en las pastas de cemento, se realizará un diseño de mezclas con una normatividad, utilizando el equipo vicat para contabilizar los tiempos de fraguado. Además, se diseñarán cubos y vigas de morteros para evaluar su resistencia, con diferentes proporciones de NPs en la mezcla. Esa metodología no se alcanzó a completar, pero se realizará para elaborar una tesis y titularse por ese método.


CONCLUSIONES

Los resultados de caracterización se continúan analizando y discutiendo. En el FT-IR se lograron identificar bandas de vibración del material orgánico y del enlace Zn-O. Mediante SEM de alta resolución se observaron tamaños de NPs entre 40-60 nm con una morfología cuasiesférica y el análisis de difracción de rayos X se identificó que la estructura cristalina de las nanopartículas es tipo worsita. Durante el programa delfín, se logró tener más conocimiento y acercamiento en toda el área de investigación y experimentación, recibiendo información confiable, gracias a nuestro asesor investigador el Dr. Manuel Chinchillas, con sus conocimientos se logró desarrollar este proyecto, y así lograr tener buen aprendizaje. Fue de gran experiencia tener el contacto con todos los instrumentos de laboratorio, además de realizar experimentación. Este tema se seguirá trabajando, y se pretende realizar una tesis de este tema, ya que en el tiempo el conocimiento fue bueno, pero se pretende tener un conocimiento más profundo de las NPs y nanomateriales en la construcción, ya que el siguiente paso es evaluar sus efectos en las propiedades mecánicas y de durabilidad de los materiales cementantes. Mediante la fotocatálisis para eliminar contaminantes del agua. Cabe destacar que nuestro investigador nos ha seguido durante todo el verano científico y han mostrado un gran interés y experiencia en este campo, por lo que agradece especialmente por todo el trabajo.
Chavez Tellez Veronica Lizbeth, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN EL áREA DE REPORTES EN LA ADMINISTRACIóN DE AGUA POTABLE CAPASU


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN EL áREA DE REPORTES EN LA ADMINISTRACIóN DE AGUA POTABLE CAPASU

Chavez Tellez Veronica Lizbeth, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La CAPASU es un organismo operador con características y funciones de un organismo público descentralizado, con personalidad jurídica y patrimonio propios. Y asume la responsabilidad de operar, administrar, mantener, conservar, rehabilitar, ampliar y mejorar los servicios de agua potable, alcantarillado y saneamiento del Municipio de Uruapan, Michoacán. Se ha identificado que el usuario no está recibiendo la atención adecuada e influye en el levantamiento de los reportes que se generan en el sistema.              - Importancia del problema Debido a la deficiencia en la atención al usuario, se han tenido complicaciones como el mal levantamiento de reportes y/o usuarios enojados de no ser atendidos como corresponde, haciendo a la CAPASU una empresa de la que no se pueda hablar y dar una buena referencia sobre la misma.



METODOLOGÍA

  1.- Analizar las distintas actividades y características de cada operación (Definir) 2.- Determinar el nivel de producción mediante muestreo de trabajo (Medir) . 3.- Realizar un mapa de procesos con el nivel de producción (Analizar). 4.- Presentar la propuesta de mejora (Mejorar). 5.- Diseñar el estándar de trabajo (Controlar) 6.- Presentar el informe técnico y conclusiones.


CONCLUSIONES

  ANTES No se tenía el tiempo definido de atención. No se tenía un protocolo de atención estandarizado. No se implementa la encuesta de satisfacción. No se tenía el material para la capacitación de cómo generar un reporte en el sistema. DESPUÉS Se tiene una media de atención en la cual se pueden basar. Se tiene un protocolo de atención para brindar una mejor atención al usuario. Se realizó una mejora en la encuesta y está lista para comenzar a implementarla. Se tiene un manual con pasos definidos e imágenes para la fácil comprensión del lector.
Chong Lopez Raul de Jesus, Universidad de Ciencias y Artes de Chiapas
Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua

ESTUDIO DE LA ROTURA DE LA PRESA “LOS CARROS” AXOCHIAPAN, MORELOS.


ESTUDIO DE LA ROTURA DE LA PRESA “LOS CARROS” AXOCHIAPAN, MORELOS.

Chong Lopez Raul de Jesus, Universidad de Ciencias y Artes de Chiapas. Franco Villaseñor Brenda Patricia, Universidad Vizcaya de las Américas. Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El del estudio de la presa Los carros ubicada en el municipio de Axochiapan Morelos se realizó con la finalidad de observar el comportamiento de la rotura de la presa; y cómo se comporta aguas abajo hasta llegar a la presa Callehuacan y si esta es capaz de romperse, asi como los daños que pueda ocasionar a las poblaciones cercanas a ella.



METODOLOGÍA

Para realizar el análisis de la rotura de presa Los Carros con características de ser una presa mediana nos proporcionaron la topografía del terreno que será la base para generar un Modelo Digital de Elevaciones (MDE) que servirá como base a la hora de inundar nuestro modelo de agua, en base al archivo DXF con batimetría y curvas de nivel los convertimos a un documento de texto con coordenadas con el programa Dxf2xyz, una vez generado el TXT lo importamos en el programa Qgis y filtramos los puntos; así mismo se extrajo por ubicación, después se importo el CEM descargado y se generaron 2 polígonos el primero era el área de la presa con su embalse, el segundo era un área más grande que fuera desde aguas arriba de la presa hasta aguas abajo, en base a esos 2 polígonos se les genero una malla de puntos a cada uno y se recorto la misma a la forma de cada polígono. Con el CEM importado se hicieron MDE con cada polígono y se le añadieron las elevaciones correspondientes con el uso del complemento de Qgis Point Sampbling tools, una vez generados los 2 ráster los combinamos para así poder obtener la topografía de nuestro modelo de inundación. Como siguiente paso procedemos a ir a la página del IMTA VNE (Visor de Numero de Escurrimientos) y subiremos un zip del polígono con elevaciones; en esta página nos dará ese mismo polígono con nuevos valores y el número de escurrimiento, así mismo lo procesaremos en Qgis y obtendremos 3 mapas (Mapa de uso de suelo, Mapa de tipo de vegetación y Mapa de tipo de suelo). Para los procesos en el programa Iber hacemos un polígono y agregamos contorno a nuestra presa, así como a nuestra área de embalse y los ríos que la abastecen aguas arriba, lo mismo con los ríos aguas debajo de la presa y marcamos las poblaciones en riesgo de la rotura de la presa, así mismo se crea una malla para cada contorno, se marcan las condiciones iniciales del modelo con el NAME de la presa y se le asigna un tipo de rugosidad a cada polígono, se seleccionan las salidas y se le asigna el promedio de infiltración el cual se obtuvo en la página del IMTA.   Parta el comienzo de la modelación se cargó el ráster combinado en Qgis y se generó una nueva malla con este y se cambió la visualización a suave para que se pueda apreciar la topografía, así mismo se marcaron los parámetros de la brecha y el tiempo de simulación el cual fue de 60,000 segundos con intervalos de 1000 y se metieron las condicionantes SCS para la hidrología del modelo. Una vez terminado el proceso de cálculo se hizo el post proceso del modelo en el cual se observó el resultado de la rotura de la presa; así mismo el comportamiento del agua tras la rotura y en base a eso se generaron mapas de tirantes y velocidades, así como un mapa de las zonas urbanas afectadas por la rotura.


CONCLUSIONES

Gracias a esta estancia  he podido adquirir nuevos conocimientos que servirán como parte de mi formación académica pues he aprendido nuevas cosas a lo largo de las semanas de trabajo las cuales llevaron a poder concluir mi estancia de manera satisfactoria. En base a los resultados obtenidos tenemos que la presa Los carros con características de una presa mediana tuvo una rotura a los segundos cumpliendo así el objetivo de la investigación de analizar el comportamiento del agua (Aguas abajo) ante una rotura de la cortina de la presa generando la condicionante que la presa Cayehuacan esté totalmente vacía sirviendo como contenedor para el agua proveniente de la presa Los carros; así como los daños que se ocasionaron al paso del agua.  
Ciapara García Marian Aseret, Universidad de Sonora
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

PROCESAMIENTO CON ACEITE VEGETAL Y DEGRADACIóN DE UN POLíMERO DE FUENTES RENOVABLES


PROCESAMIENTO CON ACEITE VEGETAL Y DEGRADACIóN DE UN POLíMERO DE FUENTES RENOVABLES

Ciapara García Marian Aseret, Universidad de Sonora. Contreras Bañuelos Fabian, Universidad Autónoma de Baja California. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los ésteres de celulosa se obtienen de la que se considera es la fuente de biomasa más abundante de la naturaleza: la celulosa. Varios de estos compuestos se utilizan en diferentes aplicaciones de la industria del plástico, siendo el acetato de celulosa (CA) el éster de celulosa empleado para fabricar éstas últimas. CA contiene sólo los grupos laterales de acetilo, mientras que el butirato de acetato de celulosa (CAB) contiene además de los grupos laterales cortos de acetilo, grupos laterales largos de butirilo. El CAB muestra una temperatura de flujo viscoso más baja y una mejor procesabilidad en estado fundido que CA, e incluso presenta una termoplasticidad superior entre los numerosos ésteres de celulosa comerciales comunes. Por otra parte, el CAB es un material que puede degradarse en condiciones de compostaje. Para abrir las posibilidades de uso del CAB, se propone el uso de aceite vegetal obtenido de semillas de calabaza, como agente plastificante verde para mejorar sus propiedades de resistencia a la flexión, manteniendo su capacidad de degradación la cual se verificará en condiciones de compostaje.



METODOLOGÍA

Para comenzar con las pruebas de desintegración de materiales plásticos en un entorno de compostaje a escala de laboratorio tuvimos que realizar nuestras propias muestras. Para realizar las muestras utilizamos una mezcla de CAB con aceite de semilla de calabaza en tres porcentajes diferentes, creando así tres placas de prueba. Para ello se realizaron tres mezclas: la primera con 40 gr de polvo de CAB, la segunda con 38 gr de CAB y 2 de aceite de semilla de calabaza (5%) y la tercera con 36 gr de CAB y 4 gr de aceite de semilla de calabaza (10%). Este procedimiento se llevó a cabo con las tres mezclas, resultando así en placas cuadradas, flexibles, uniformes, sin fisuras ni burbujas y con un olor leve a calabaza. Una vez que se tienen las tres muestras se procede a llevarlas a la cortadora láser para así obtener las piezas del tamaño y forma adecuada, para realizar pruebas mecánicas con las probetas obtenidas y utilizar los cuadrados resultantes para las pruebas con composta. Al realizar las pruebas mecánicas procedimos a clasificar los cuadros de cada una de las placas dependiendo el porcentaje de aceite de calabaza que posean y pesar cada una de ellas en una báscula. Después de tener listas las muestras se procedieron a la realización de una composta para observar la degradación de los cuadrados producidos con las placas de CAB y aceite de semilla de calabaza. Comenzando con la base seca conformada por los siguientes materiales: Aserrín - 450 gr, Comida para conejo - 338 gr, Composta - 113 gr, Fécula de maíz - 113 gr, Azúcar - 67 gr, Aceite - 45 gr, Urea - 11 gr, Total = 1,125 gr Una vez que se obtuvo la base seca se agregó el 55% del equivalente de su peso en agua a la mezcla, resultando así en una composta de 2,570 gr. Después de tener todos los ingredientes en un mismo recipiente se procedió a mezclar todo su contenido. Al llenar los recipientes con composta se procedió a tomar los cuadros realizados con las placas de CAB y colocados 10 cuadros por recipiente, previamente debía ser mojado antes de introducirlos. Se pesaron los recipientes para obtener un promedio y posteriormente ser colocados en un horno para mantenerlos en una temperatura de alrededor de 55 a 58°C para en las próximas 24 horas continuar con su monitoreo. Durante varios días se hizo chequeo continuo de los recipientes, estos se extrajeron del horno para proceder a pesarlos y ver si experimentaron cierta degradación en su interior, de ser así se le agrega agua hasta que el peso total del recipiente junto con la tapadera nos dé 210 g. Al haber mezclado y humectado cada uno de los recipientes que perdieron cierta cantidad de masa se procedió a guardarlos en el horno, la mayoría de los recipientes experimentaron cierta degradación, sin embargo, no necesitaron demasiada agua para complementar la pérdida de peso experimentada. Pasados aproximadamente unos 6 días desde haber registrado por primera vez la masa inicial del reactor, se continuó agregando agua en caso de ser necesario y una vez que el recipiente haya alcanzado los 0.210 g se procedió a mezclar la masa del compostaje, una vez finalizado se prosiguió a separar todos los cuadrados que iniciaran con el número 1 de las muestras de CAB 0%, 5%, 10% de aceite de semilla de calabaza, siendo estos previamente separados y numerados desde el número hasta el número 4. Al separar los contenidos pesamos cada uno de los cuadrados para ver qué tanto peso había perdido después de haber pasado más de tres días dentro del horno a 57°C. Dentro de la primera semana de observación, se logró percibir que en las muestras CAB puro perdieron un promedio de 0.00393 gr, las muestras con CAB con 5% de aceite de semilla de calabaza perdieron un promedio de 0.00278 gr y las muestras con CAB y 10% de aceite de semilla de calabaza perdieron un promedio de 0.0036 gr. Por lo que se puede concluir que las muestras que más perdieron peso fueron las de CAB puro. Dicho experimento se realizó siguiendo la norma IS/ISO 20200:2004.


CONCLUSIONES

Durante la estancia de verano se logró observar una disminución en su masa en el transcurso que se estuvo llevando a cabo la investigación. Debido a falta de tiempo no se completó en su totalidad el proceso de descomposición física de CAB en fragmentos pequeños como se tenía establecido. Sin embargo, al ser un experimento que requiere de varios días de monitoreo aún se encuentra en fase de observación y desarrollo. Es importante tener en cuenta que los resultados obtenidos en el laboratorio están basados en pruebas y observaciones en condiciones reales de compostaje, siendo estas más precisas y aplicables a situaciones prácticas. Además, se debe considerar la importancia de reducir el uso de plásticos en general y promover prácticas de reciclaje adecuadas para mitigar el impacto ambiental de los residuos plásticos.
Ciriaco Torres Juan Martín, Instituto Tecnológico de Jiquilpan
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

CREACIóN DE UN PROGRAMA, UNA APP O UN JUEGO PARA APRENDER LENGUAJE DE SEñAS. MEXICANO (LSM)


CREACIóN DE UN PROGRAMA, UNA APP O UN JUEGO PARA APRENDER LENGUAJE DE SEñAS. MEXICANO (LSM)

Ciriaco Torres Juan Martín, Instituto Tecnológico de Jiquilpan. Vargas Figueroa Edgar Alexis, Instituto Tecnológico de Jiquilpan. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El Lenguaje de Señas Mexicano (LSM) es una forma de comunicación visual y gestual ampliamente utilizada por la comunidad sorda y/o muda en México para expresar ideas, emociones y conceptos. A pesar de su importancia como medio de comunicación, el LSM sigue siendo relativamente desconocido para la mayoría de la población oyente. Esta falta de conocimiento y comprensión del Lenguaje de Señas Mexicano genera barreras comunicativas y sociales, lo que dificulta la inclusión y participación plena de las personas sordas en la sociedad. La falta de acceso a la educación y recursos adecuados para el aprendizaje del LSM también ha sido un desafío significativo. Aunque existen libros, cursos en línea y materiales impresos que enseñan el LSM, muchos de ellos carecen de interactividad y no están adaptados al entorno digital actual. Además, estos recursos a menudo no son completamente accesibles para personas con discapacidades visuales, lo que crea otro obstáculo para aquellos que buscan aprender Lenguaje de Señas. Las instituciones educativas y plataformas de aprendizaje también pueden tener dificultades para proporcionar programas de enseñanza especializados en LSM, lo que lleva a una oferta limitada de oportunidades educativas para las personas sordas y los interesados en aprender LSM.



METODOLOGÍA

En primer lugar, se realiza una investigación exhaustiva sobre el Lenguaje de Señas Mexicano (LSM), analizando su gramática, vocabulario y gestos más comunes. Además, se estudiarán otras aplicaciones similares en el mercado para identificar sus fortalezas y debilidades en el proceso de enseñanza del Lenguaje de Señas. Una vez recopilada la información necesaria, se definirán los objetivos y el alcance de la aplicación. Los objetivos serán claros y enfocados en enseñar el LSM de manera efectiva, mejorar la comunicación entre personas sordas y oyentes, y fomentar la inclusión social. El alcance se definirá con detalles sobre las características principales de la aplicación, el nivel de enseñanza, el público objetivo y las plataformas móviles compatibles. El siguiente paso será diseñar la interfaz base de usuario (UI) de la aplicación. También se prestará especial atención a la accesibilidad. Con el diseño aprobado, se procederá al desarrollo de la aplicación. Se seleccionará el lenguaje de programación y el entorno de desarrollo más adecuado para el proyecto. Se implementarán las características principales, como lecciones estructuradas, videos de enseñanza, ejercicios interactivos y reconocimiento de gestos. Además, se integrará una base de datos para almacenar el progreso y la información del usuario. El contenido de la aplicación será clave para su éxito, por lo que se pretende trabajar en desarrollar lecciones de alta calidad con explicaciones claras. También se planificará la actualización periódica del contenido para mantenerlo relevante y atractivo. La implementación de funciones especiales será otro punto importante en el desarrollo de la aplicación. Se trabajará para integrar el reconocimiento de gestos para brindar retroalimentación sobre la precisión de los movimientos realizados por los usuarios. Asimismo, se desarrollarán ejercicios interactivos y juegos educativos para reforzar el aprendizaje y hacerlo más entretenido. La creación de una aplicación de Lenguaje de Señas Mexicano (LSM) es una iniciativa significativa y con un propósito social importante. Esta aplicación tiene el potencial de abordar las barreras comunicativas y educativas que enfrenta la comunidad sorda en México, al proporcionar una herramienta interactiva, inclusiva y efectiva para aprender y practicar el LSM. A través de una metodología cuidadosamente planificada, estudiada y en constante aprendizaje construir una sólida investigación, diseño centrado en el usuario, desarrollo de contenido de alta calidad y la implementación de características especiales, se busca crear una experiencia de aprendizaje enriquecedora para personas sordas y oyentes interesados en aprender el LSM.


CONCLUSIONES

Tras el análisis e investigación del lenguaje de señas que en lo personal me interesa aprender un poco más y en el desarrollo es muy lento por cuestiones de que debe de haber una gran estructura clara y bien definida, pero poco a poco se va agregando herramientas, funcionalidades y a lo que he aprendido me ha gustado y siento que el impacto social de esta aplicación será significativo, ya que contribuirá a derribar barreras comunicativas y sociales que enfrentan las personas sordas. Este desarrollo como otras ayuda a promover la comprensión y la inclusión, la aplicación puede generar una sociedad mas igualitaria y empática, donde la comunidad sorda sea plenamente reconocida y respetada. A mi pensar la creación de una aplicación de enseñanza de LSM es una oportunidad para avanzar hacia una sociedad más inclusiva y accesible, donde la diversidad lingüística y cultural sea apreciada y celebrada. Al proporcionar una plataforma para el aprendizaje teórica de momento y práctica con el entendimiento y comprensión del LSM, la aplicación puede marcar la diferencia en la vida de muchas personas, facilitando la comunicación y promoviendo la igualdad de oportunidades para todos.
Cisneros Alejos Maria Cristina, Universidad Autónoma de Sinaloa
Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara

FRAMEWORK EVOLOPY MEJORADO.


FRAMEWORK EVOLOPY MEJORADO.

Cisneros Alejos Maria Cristina, Universidad Autónoma de Sinaloa. Tello Gómez Lilia Anayeli, Instituto Politécnico Nacional. Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proceso de optimización es un tema crítico que tiene aplicaciones en varias disciplinas y campos de estudio, que van desde las ciencias de la computación y la ingeniería hasta la economía y las ciencias de la vida. En este contexto, la optimización basada en metaheurísticas bioinspiradas se ha convertido en un enfoque popular debido a su eficiencia y capacidad para abordar una amplia gama de problemas. Evolopy es una herramienta que ofrece metaheurísticas clásicas y recientes inspiradas en la naturaleza para la optimización global, incluyendo el Optimizador de Enjambre de Partículas (PSO), el Optimizador Multiverso (MVO), el Optimizador de Lobo Gris (GWO) y la Optimización de Llama de Polilla (MFO). Sin embargo, a pesar de su utilidad y eficacia, existen varios desafíos que limitan su aplicación y eficiencia general. Uno de los principales desafíos es la falta de flexibilidad para adaptarse a una amplia gama de problemas de optimización. Cada algoritmo de metaheurística tiene su propia eficacia y eficiencia para resolver tipos específicos de problemas de optimización. Como tal, la elección de un algoritmo de optimización sobre otro puede no resultar en la mejor solución para un problema dado. Otro desafío es el equilibrio entre la exploración y la explotación. En términos de optimización, la exploración se refiere a la capacidad de un algoritmo para explorar un espacio de búsqueda amplio, mientras que la explotación se refiere a la capacidad de un algoritmo para profundizar en un espacio de búsqueda local. Muchos de los algoritmos implementados en Evolopy tienden a tener dificultades para mantener este equilibrio, lo que puede resultar en una convergencia prematura hacia soluciones subóptimas. Además, el rendimiento computacional de Evolopy puede ser limitado en aplicaciones a gran escala. El uso de metaheurísticas para problemas de optimización a gran escala puede ser computacionalmente costoso debido a su naturaleza iterativa y al hecho de que a menudo requieren un gran número de evaluaciones de la función objetivo. Por lo tanto, es necesario mejorar el marco Evolopy para abordar estos desafíos. Este proyecto se centrará en el desarrollo de un Framework EvoloPy mejorado, con el objetivo de aumentar su flexibilidad, mejorar el equilibrio entre exploración y explotación, y optimizar su rendimiento computacional para aplicaciones a gran escala.



METODOLOGÍA

El proyecto para el desarrollo de un Framework EvoloPy mejorado se llevó a cabo en dos fases principales: Fase 1: Modificación del archivo .csv Esta fase implicó el análisis detallado del código existente para comprender su estructura y funcionalidad. Posteriormente, se modificó el archivo .csv que ya existía para agregar datos importantes que faltaban. Esta acción fue necesaria para mejorar la funcionalidad y eficiencia del framework, permitiéndonos manejar y procesar un conjunto más amplio y completo de datos. Fase 2: Integración de un nuevo algoritmo (En curso) En esta fase en curso, se está trabajando en la integración de un nuevo algoritmo a la lista de algoritmos disponibles en EvoloPy. El proceso comenzó con la selección de un algoritmo que se consideró valioso para el propósito de optimización global y que se ajusta a las capacidades del framework. Actualmente, se está adaptando este algoritmo para integrarse correctamente en EvoloPy. Esto implica la creación de funciones que permitan la correcta interacción del algoritmo con las características ya existentes en EvoloPy. También se está asegurando que el algoritmo pueda utilizar las funciones ya existentes en EvoloPy. Una vez que se complete la integración del algoritmo, se procederá a realizar pruebas exhaustivas para asegurar su correcto funcionamiento y para evaluar su impacto en la eficacia general del framework. Por lo tanto, la metodología adoptada para este proyecto se centra en mejorar la funcionalidad existente y expandir las capacidades de EvoloPy a través de la integración de un nuevo algoritmo. Todo ello se realiza garantizando la compatibilidad y coherencia con las funciones y estructuras existentes en el framework.


CONCLUSIONES

Mejora de la funcionalidad de datos: La modificación del archivo .csv existente ha permitido una mejora significativa en la capacidad de manejar y procesar un conjunto de datos más amplio y completo. Este avance es un paso crucial para mejorar la funcionalidad general del framework EvoloPy. Ampliación de las capacidades de EvoloPy: El proyecto ha demostrado que es posible expandir las capacidades de EvoloPy a través de la integración de nuevos algoritmos. Este hallazgo sienta las bases para futuras mejoras y expansiones del framework. Consistencia y coherencia del framework: A través de la adaptación del nuevo algoritmo, hemos confirmado la importancia de mantener la consistencia y coherencia con las funciones y estructuras existentes en EvoloPy. Esto ha permitido preservar la eficiencia y eficacia del framework durante el proceso de mejora. Próximos pasos: En la siguiente fase del proyecto, nos enfocaremos en la integración final del nuevo algoritmo y en la realización de pruebas exhaustivas. El objetivo es garantizar el correcto funcionamiento del algoritmo y evaluar su impacto en la eficacia general del framework. Las conclusiones finales y las recomendaciones se basarán en los resultados de estas pruebas. Estas conclusiones preliminares muestran el progreso significativo que se ha hecho en la mejora del framework EvoloPy. Sin embargo, es importante recordar que estos hallazgos son preliminares por lo que aún se deben presentar los resultados del algoritmo totalmente integrado.
Clemente Jimenez Fernanda, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dra. Florentina Zurita Martínez, Universidad de Guadalajara

TRATAMIENTO DE VINAZAS TEQUILERAS MEDIANTE HUMEDALES CONSTRUIDOS


TRATAMIENTO DE VINAZAS TEQUILERAS MEDIANTE HUMEDALES CONSTRUIDOS

Arriaga Bueno María Guadalupe, Tecnológico de Estudios Superiores de Jocotitlán. Clemente Jimenez Fernanda, Tecnológico de Estudios Superiores de Jocotitlán. Rugerio Sánchez Alejandra Abigail, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Florentina Zurita Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA Jalisco es el principal productor de Tequila en México, sin embargo, cada día que se produce Tequila al mismo tiempo se genera Vinaza. ¿Cuál es el problema con la vinaza? La vinaza es un residuo generado en la destilación del Tequila añadiendo que por cada litro de tequila se generan de 12 a 15 litros de Vinaza a una temperatura de 90 ⁰C, un pH de 4, se caracteriza por ser de un color cafe oscuro, tener mucha materia órganica, es decir que su DQO y la DBO son demasiado altas y que lamentablemente  es vertida en ríos o cerros ocasionando un impacto negativo en el ambiente contaminando el suelo y cuerpos de agua.  Por lo tanto esta investigación se dedica a hallaer una manera de reducir este impacto implementando una técnologia de control de la contaminación de la vinazas tequileras y con el objetivo de reutilizar el agua ya tratada.



METODOLOGÍA

HUMEDALES CARGA DE VINAZA A TANQUES DE ALMACENAMIENTO La vinaza es transportada desde una tequilera hasta los humedales, en donde se tiene preparado un tanque de almacenamiento para pasar la vinaza que llega a un tanque de almacenamiento más grande que corresponde a 5000 L. La vinaza antes de llegar al CVS que corresponde a un tanque de almacenamiento pasa por otros dos los cuales ayudan a que los sólidos se sedimenten correspondiendo a una etapa se pretratamiento antes del ingreso a los humedales. NEUTRALIZACIÓN DE VINAZA Cuando el CVS se llena de vinaza, debido a sus propiedades es neutralizada por medio de hidróxido de calcio en la cual se deberá diluir primero en agua y posteriormente vaciar en el CVS monitoreando el pH por medio de un sensor. RELLENO DEL CI De manera para mantener el almacenamiento de vinaza apropiado este proceso se hace cada 9 días, por lo que asegura que la alimentación a los humedales no se agote. CALIBRACIÓN DE BOMBAS PERISTÁLTICAS Para tener un buen funcionamiento en los humedales y tener controlado las entradas y salidas del flujo es de gran importancia que las bombas trabajen bien. La calibración de las bombas es fundamental ya que nos permiten garantizar la precisión de los caudales. MEDICIÓN DE CLOROFILA Para evaluar el estado de la planta que están en los humedales se mide la clorofila mediante un equipo que arroja directamente su valor, cuando se mide se deberá tomar la clorofila aproximadamente 10 veces en hojas de las plantas y presionamos el botón average y procedemos a leer el dato. El cual nos permite evaluar la sobrevivencia de la planta. PARAMETROS AMBIENTALES Se cuenta con un monitoreo ambiental que corresponde a la medición de luz, humedad Relativa y la temperatura ambiental. La cual sirve para saber las condiciones en las que trabajan los humedales. MEDICIÓN DE CAUDALES Se realiza una medición de caudales en los humedales para balances de materia en el H1, H2 con un caudal aproximadamente de 10 litros de cada uno por cubeta en un día y su respectivo caudal se regresa a una deposito que alimenta los humedales V1, V2 teniendo un caudal de 5 litros de cada uno para el regado de plantas en análisis, esto se realiza todos los días en un horario de 10:00 am. PARAMETROS IN SITU De manera en la que se puedan monitorear los humedales, se mide semanalmente el pH, conductividad, Oxígeno Disuelto (OD) y Potencial de óxido reducción (ORP). ORP Los sensores de potencial de reducción de la oxidación (ORP/Redox) o redox mide la capacidad de una solución de mezclas de vinaza para actuar como agente oxidante o reductor. OD El oxígeno disuelto (OD) es necesario para la respiración de los microorganismos aerobios y anaerobios, así como para otras formas de vida aerobia. pH Se monitorea el pH para tener un mejor control con el influente debido a que los humedales y en especial los microorganismos. Conductividad Nos permite conocer la dureza del agua, el total de iones lo cual nos da una idea de la purificación del agua. ANÁLISIS Para evaluar el funcionamiento y comprobar su efectividad es necesario realizar ciertos analisis que nos apoyaran a saber la diferencia y comprobar si se lleva acabo exitosamente el tratamiento de la vinaza. DETERMINACIÓN DEL COLOR APARENTE DETERMINACIÓN DE NITRATOS DETERMINACIÓN DE NITRITOS DQO DBO5 COLOR VERDADERO SOLIDOS SUSPENDIDOS TOTALES Y SOLIDOS DISUELTOS TOTALES FOSFORO TOTAL NITRÓGENO KJELDAHL FENOLES  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos prácticos del tratamiento de vinazas tequileras mediante humedales construidos, así mismo se aprendió de técnicas para caracterizar la vinaza y los efluentes obtenidos de los humedales. Sin embargo, al ser un proyecto de investigación y que busca recolectar datos para asemejarse a la realidad aún se está evaluando y se espera que este proyecto sirva de apoyo para el Consejo Regulador de Tequila (CRT). Aunque, de acuerdo con los resultados obtenidos en los análisis ya antes mencionados, podemos concluir que el humedal cumple con la función de tratar la vinaza cruda, puesto que da resultados demasiado exitosos comparando la DQO y DBO del influente y efluente obteniendo una remoción mayor del 95%. Así mismo, con ayuda de la experimentación de las plantas nos da una alternativa de uso de esta agua tratada.
Cobos Mercado Irina de Jesus, Instituto Tecnológico de Sonora
Asesor: Dr. David Choque Quispe , Universidad Nacional José María Arguedas

ADSORCIóN DE METALES PESADOS UTILIZANDO RESIDUOS CELULóSICOS DE PAPA NATIVA


ADSORCIóN DE METALES PESADOS UTILIZANDO RESIDUOS CELULóSICOS DE PAPA NATIVA

Cobos Mercado Irina de Jesus, Instituto Tecnológico de Sonora. Asesor: Dr. David Choque Quispe , Universidad Nacional José María Arguedas



PLANTEAMIENTO DEL PROBLEMA

El incremento de las actividades industriales y agrícolas ha conllevado a la contaminación de los cuerpos de agua. Estos contaminantes pueden ser orgánicos e inorgánicos; dentro de los contaminantes inorgánicos se encuentran los metales pesados, los cuales son considerados los más peligrosos debido a que a diferencia de los contaminantes orgánicos estos no se degradan de manera biológica en productos finales inofensivos. La contaminación de los cuerpos de agua por metales pesados es un problema grave ya que la presencia de estos compuestos por encima de limites permisibles causa repercusiones en el medio ambiente y en la salud humana, tales como intoxicación, cáncer, disfunción hepática, infertilidad masculina, trastornos neurológicos y aborto.  Distintas tecnologías se han desarrollado para el tratamiento de estos efluentes contaminados, dentro de los cuales se encuentra la oxidación química, precipitación, filtración por membrana, intercambio de iones, entre otros, sin embargo, estos metodos tienen un alto costo de operación y difieren en su efectividad además de que se generan desechos durante el proceso, lo cual ocasiona un nuevo problema que resolver. Por lo tanto, se han buscado alternativas para tratar estos efluentes contaminados ya que el agua es un recurso vital y limitado que utilizamos día a día, ya sea para beber, para uso domésticos o para la producción de alimentos. Dentro de las investigaciones para el desarrollo de nuevas tecnologías para la remoción de metales pesados surge la bioadsorción, la cual se basa en la capacidad que tienen algunos materiales biológicos para remover metales pesados que están en soluciones acuosas.



METODOLOGÍA

Obtención de nanocristales El pretratamiento de los residuos de papa se realizó con el objetivo de remover ciertos componentes como lignina, hemicelulosa y otros componentes. Se colocaron 10 g de muestra  (cascara de papa de la variedad Amarilla Reina) previamente secada y molida a 45 para su disolución con NaOH al 3% en 200 mL (p/v), posteriormente se pasó a tubos de cuarzo para su digestión en un termoreactor a 105 °C por 90 min. con el fin de hidrolizar las muestras. Posteriormente las muestras se centrifugaron a 500 rpm por 5 min. a 15 °C y se procedió a lavar con agua destilada hasta pH neutro. Por último, las muestras se secaron a 50 °C durante 24 h en una estufa de convección forzada. Después para eliminar la hemicelulosa presente en las muestras se realizó un blanqueamiento colocando 10 g en 250 mL de NaClO al 0.525% y se agitó a 200 rpm por 22 h. Luego se lavó hasta pH neutro (utilizando fenolftaleína como indicador) y se secó en estufa por 24 h a 50 °C.  Las muestras blanqueadas se hidrolizaron con una relación de 1g/10 mL en una solución de ácido cítrico al 3 y 5% con agitación constante de 200 rpm por 2 h. Seguidamente las muestras se sonicaron a 25 kHz en dos tiempos; 60 y 40 min. a temperatura ambiente. Posteriormente las muestras se enjugaron con agua destilada hasta pH neutro y se secaron a 60 °C por 24 h. Por último, las muestras se molieron en un molino ciclón, enseguida se llevaron a otra molienda hasta malla N° 325 ( < 45 µm) en un molino planetario de bolas.   Caracterización de nanocristales Las pruebas de caracterización de los nanocristales de celulosa (NCC) se describen a continuación: Tamaño de partícula Se colocaron 25 mg de NCC en 50 mL de agua destilada y se sonicaron por 5 min. a una amplitud del 30%, seguido de esto se determinó el tamaño de partícula en el equipo Zetasizer. Esto se repitió para cada tratamiento. Potencial Z Se determino el índice de refracción de los NCC en un refractómetro manual. Se colocaron 25 mg de NCC en 50 mL de agua destilada y se sonicaron por 5 min. a una amplitud del 30%, seguido de esto se determinó el potencial Z en el equipo Zetasizer. Esto se repitió para cada tratamiento. Punto de carga cero Se prepararon 8 soluciones a diferente pH (2,4,6,7,8,9,10 y 12) agregando HCl 0.1 M y NaOH 0.1 M hasta ajustar el pH. En un vaso de precipitado se colocaron 25 mg de NCC en 25 mL de agua destilada y se agitaron por 24 h. El pH se registró a las 24 y 48 h. Esto se hizo por triplicado para cada tratamiento.   Eficiencia de adsorción Se aplicaron los NCC para la adsorción en una solución acuosa mixta de Pb, Cr y Cd a dos pH (acido y alcalino) tomando como referencia el punto de carga cero. La solución mixta se preparó con una concentración de 10 ppm de cada metal y se agregaron 50 ppm del adsorbente (5 mg de NCC en 50 mL de la solución mixta de metales). Se dejo el adsorbente en contacto con los metales pesados durante 1.5 h, posteriormente se filtró la solución mixta de metales usando un filtro para  jeringa de 0.45 µm. La solución filtrada se dejó secando a 50 °C durante 24 h para recuperar los NCC que estuvieron en contacto con la solución mixta de metales.


CONCLUSIONES

A lo largo del verano de investigación se logró la obtención de nanocristales de celulosa (NCC) a partir de residuos de papa nativa del Perú con el fin de probarlos como un bioadsorbente de bajo costo y amigable con el medio ambiente.  Así mismo,  se realizó el proceso de caracterización en el cual se obtuvieron datos importantes para la aplicación de este producto en el proceso de remoción de Pb, Cd y Cr, tales como el punto de carga cero, potencial Z y tamaño de partícula.  Por otro lado, se logró obtener conocimientos teóricos y prácticos en el área de la ingeniería y ciencias biológicas.  Dentro del proyecto las pruebas futuras engloban al método ICP-MS que se utilizara para complementar la prueba de eficiencia de adsorción.
Cobos Secundino Diego, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Ing. Gabriela Gómez Arizmendi, Tecnológico de Estudios Superiores de Valle de Bravo

EVALUACIóN TéCNICA DE LA CARRETERA DE SAN LUIS MEXTEPEC – VALLE DE BRAVO


EVALUACIóN TéCNICA DE LA CARRETERA DE SAN LUIS MEXTEPEC – VALLE DE BRAVO

Cobos Secundino Diego, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Ing. Gabriela Gómez Arizmendi, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

  La carretera San Luis Mextepec - Valle de bravo en el tramo que conecta El Arco- Santa Ma. Pipioltepec,  presenta carencias de señalamientos verticales y horizontales, así mismo requiere de una ampliación y mejoramiento en su trazo y estructura geométrica, considerando que esta vía presenta conexión con carretera federal y de cuota,  es clasificada como red alimentadora  al municipio de Valle de Bravo. En los registros de los datos viales publicados por la SCT, el TDPA  correspondiente  a 6,225 vehículos, correspondientes al año 2021, ocasionando que las necesidades de la estructura geométrica de acuerdo al Manual de Diseño Geométrico de Carreteras y su clasificación sea de  A4 lo que corresponde a  4 carriles,  dos por cada lado para satisfacer sus demandas. El autor Rafael Cal en su Manual de Ingeniería de Carreteras menciona que una carretera con las características de dos carriles un solo sentido por cada uno corresponde a una clasificación de tipo D, la incoherencia de características requeridas con su clasificación de la carretera la convierten en un peligro porque según reporta el INEGI en su pagina oficial que existe un aumento de accidentes con el tiempo ya que según la investigación realizada esto ocurre por la falta de diseño geométrico y mejoramiento de las mismas. (Cardenas, 2017) Por tal motivo en este proyecto de investigación, se pretende evaluar todos los criterios existentes de dicho tramo, conforme a sus demandas, posteriormente presentar un plan de mejora del mismo.      



METODOLOGÍA

  Al inicio del proyecto se utilizo la estación total para el levantamiento topográfico  de altimetría y planimetría de la carretera, trabajando en cuadrillas junto con Ing. Civiles, se fue tomando punto por punto de las coordenadas, con una distancia acorde a si era un tramo largo derecho o una curva puesto que en las curvas se requieren más puntos y menos distancia entre ellos, para una mejor representación al momento de elaborar los planos con la finalidad de tener las medidas y composición exactas de esta carretera. Seguidamente se realizó la importación de los puntos hacia el software llamado AutoCAD para de esta forma empezar el correcto desarrollo de el conjunto de planos, como lo fueron vista de planta y cortes. Una vez realizado esto se comenzó a mejorar y pulir dichos documentos para de esta manera poder anexar los elementos correspondientes. En cuanto a los señalamientos mediante softwares de geolocalización se logró una identificación de la carencia de las señales verticales y horizontales. Así como señalamientos de identificación correspondientes a su clave y nomenclatura. Los pocos que tenían los fuimos representando de manera digital y grafica para realizar la comparativa entre lo que es la carretera actualmente y lo que debería ser realmente. Posteriormente se realizó un informe en el cual se clasifica de manera correcta en los siguientes aspectos: Administrativa, Importancia, Nomenclatura, TPDA, Transitabilidad, Secciones transversales, Secciones transversales, Normativas y Función. Al realizar la gestión del análisis comparativo utilizando de referencia datos del Manual de diseño geométrico de carreteras con datos de la SCT, se empezó a presenciar todas las irregularidades con las que cuenta este tramo e incongruencias.  


CONCLUSIONES

Una vez analizado la comparación entre las características de la red actual y las mínimas establecidas se determinó que no es adecuada su geometría según el TPDA que le corresponde, afectando de esta manera a los usuarios, generando problemas de daños materiales y viales. Tanto los anchos de los carriles como la estructura no cumplen los lineamientos, haciendo alusión a la estructura de igual forma la carretera es carente de varios elementos constructivos. Consultando diversos instrumentos normativos se llegó a la conclusión de que la carretera fue creada con una finalidad distinta a la que tiene en la actualidad, con el tiempo va ir incrementando su TDPA haciendo que requiera ciertas adaptaciones específicas para que cumpla con la normativa correspondiente. Se considera carente tanto de señalamientos verticales, así como horizontales, ejerciendo de esta manera un flujo vehicular no adecuado, sin control y peligroso. De igual forma al momento de realizar el levantamiento topográfico, se identificó que en unas partes de la carretera se vuelve más ancha pero que posteriormente se vuelven a reducir, esto es peligroso para los vehículos y camiones de carga pesada que tomen las vueltas sin precaución puesto que la tangente también se ve afectada generando así accidentes. Tampoco se encontró un señalamiento claro que identifique que tipo de nomenclatura corresponde la carretera para su identificación de la misma. Por lo tanto, se determina que no cumple con la normativa que le corresponde.          
Colarte Aviles Virginia, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

DISEÑO Y DESARROLLO DE UNA APP PARA EL APRENDIZAJE DE LA LENGUA MIXTECA


DISEÑO Y DESARROLLO DE UNA APP PARA EL APRENDIZAJE DE LA LENGUA MIXTECA

Aparicio Rodriguez Jorge, Instituto Tecnológico de Ciudad Altamirano. Colarte Aviles Virginia, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La lengua mixteca, también llamada Tu'un savi, es una de las lenguas indígenas más habladas en México; está compuesta por un gran número de variedades lingüísticas de filiación otomangueana, 81 según el Instituto Nacional de Lenguas Indígenas de México. En nuestra sociedad actual, la lengua mixteca enfrenta una serie de desafíos que amenazan su supervivencia y difusión. A pesar de ser hablada por una gran cantidad de personas en diversas regiones de México (Los datos del INEGI obtenidos en 2010 contemplan 496,038), la falta de recursos educativos para su aprendizaje ha resultado en una disminución en la transmisión de esta lengua indígena, lo que puede causar que en un futuro esta se extinga. La preservación y promoción de la lengua mixteca son cruciales para salvaguardar la identidad cultural y lingüística de las comunidades que la hablan. Sin embargo, la ausencia de herramientas modernas y accesibles para su enseñanza dificulta el acceso a una educación de calidad en la lengua y limita el desarrollo de habilidades lingüísticas en las nuevas generaciones.



METODOLOGÍA

Se llevó a cabo una investigación exhaustiva sobre la lengua, su gramática, vocabulario y aspectos culturales relevantes, tanto en fuentes digitales como también con un hablante nativo de la misma. Se realizo la elección de los temas sobre los cuales los usuarios aprenderían dentro de la app y seleccionamos las palabras referentes a cada tema que nos parecieron mas importantes para cada uno. En la fase de diseño y desarrollo se utilizó el entorno de desarrollo integrado Android Studio, debido a que esta es la herramienta oficial para la plataforma, y el software de gráficos vectoriales Illustrator para la creación de las ilustraciones. La aplicación incluye lecciones en las cuales el usuario puede observar la escritura de las palabras seleccionadas tanto en español como en mixteco y escuchar la pronunciación en la lengua indígena. Además, incluye pruebas de cinco preguntas para cada uno de los temas, con lo cual el usuario podrá medir de cierta forma el progreso que ha tenido en el aprendizaje de la lengua.


CONCLUSIONES

A lo largo de esta estancia de verano hemos logrado adquirir mucho conocimiento, desde el como se realiza un diseño de ilustraciones vectoriales, hasta cómo crear una aplicación móvil para Android desde cero usando el lenguaje de programación Java. De todo esto se espera que, gracias a la realización de esta app, más personas aprendan la lengua mixteca, lo cual favorecerá a la preservación de la misma. Se continuará trabajando en ella para pulir los detalles faltantes, y se estará incorporando información adicional para garantizar que la app sea lo más completa posible.
Comparán Pantoja Francisco, Instituto Tecnológico de Colima
Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia

TéCNICAS DE PROCESAMIENTO DE LENGUAJE NATURAL Y ALGORITMOS DE CONVERSIóN DE VOZ Y TEXTO EN EL DESARROLLO DE UN SISTEMA INTELIGENTE PARA EL APOYO MéDICO


TéCNICAS DE PROCESAMIENTO DE LENGUAJE NATURAL Y ALGORITMOS DE CONVERSIóN DE VOZ Y TEXTO EN EL DESARROLLO DE UN SISTEMA INTELIGENTE PARA EL APOYO MéDICO

Comparán Pantoja Francisco, Instituto Tecnológico de Colima. Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La atención medica es un servicio básico primordial para todos los ciudadanos, por lo que es crucial garantizar un acceso rápido y eficiente a dicho servicio. Hay pacientes que necesitan acceder a estos de forma menos frecuente, por ejemplo, para realizar consultas de seguimiento o por enfermedades agudas esporádicas. Sin embargo, hay otro tipo de pacientes cuyas visitas al médico deben ser más recurrentes, este tipo de pacientes son aquellos que presentan algún tipo de enfermedad del tipo crónica, como podrían ser la diabetes, problemas de hipertensión, el cáncer, entre otros. El tratamiento de las enfermedades crónicas, que demandan una atención médica más constante, son las que implican los mayores gastos en términos de recursos y tiempo. En este tipo de enfermedades los pacientes deben llevar un seguimiento regular de su salud, esto porque tienen la necesidad de estar revisando constantemente sus signos vitales, estas revisiones pueden ser en cortos periodos que pueden ir desde la revisión diaria, semanal o mensual. Dichas revisiones llegan a ser realizadas por el mismo paciente y otras, por su complejidad, llegan a ser hechas directamente con el médico. El monitoreo de los signos vitales es fundamental para determinar el tratamiento adecuado para un paciente. Sin embargo, factores como una comunicación deficiente entre el médico y el paciente, registros inadecuados de los resultados por parte del paciente o largos periodos de tiempo entre consultas pueden afectar este proceso.



METODOLOGÍA

En un primer momento, se reconoció la necesidad de contar con un fundamento teórico para guiar el desarrollo del sistema propuesto. Se realizaron dos procesos iniciales: investigar las implementaciones actuales del Procesamiento de Lenguaje Natural (PLN) en el ámbito médico y explorar los algoritmos de conversión de texto a voz y viceversa utilizados en Python. Estas investigaciones proporcionaron el contexto necesario para comprender las aplicaciones existentes y elegir las mejores opciones para incorporar funcionalidades de conversión de voz a texto en el sistema. Posteriormente, se formuló una propuesta para el apoyo médico mediante PLN. Se formalizó la propuesta del sistema médico que utilizará PLN para analizar la información requerida. Luego, se implementaron los algoritmos de conversión de texto a voz y viceversa en múltiples dispositivos embebidos. A través de pruebas de funcionamiento, se evaluó la eficacia y el rendimiento de estos algoritmos en dichos dispositivos. Gracias a esto, se determinó cuáles algoritmos serían los más eficientes y en qué dispositivos podrían ser implementados, lo que permitió tener un mejor panorama de las limitaciones de los sistemas embebidos analizados. Conociendo las limitaciones de los dispositivos embebidos en tareas de conversión de texto y voz, se procedió con la implementación de un modelo de PLN que permitiera el análisis de textos clínicos. Para ello, se optó por utilizar un modelo de clasificación de texto de la plataforma HuggingFace, llamado "roberta-es-clinical-trials-ner". Este modelo, especializado en el área médica, clasifica palabras en cuatro categorías: ANAT, CHEM, DISO y PROC, correspondientes a anatomía, compuesto químico, enfermedad y procedimiento médico, respectivamente. Aunque el modelo arrojó resultados satisfactorios, en ciertos casos segmentaba palabras en fragmentos, como "uretrografía" en "ure", "tro" y "grafia". Esta segmentación afectaba a la eficacia del modelo, por lo que se propuso una mejora mediante un algoritmo simple, sin recurrir a técnicas de IA, para detectar y unir las palabras segmentadas. Para validar este algoritmo, se realizó un proceso experimental que probó la eficacia del algoritmo de detección y unión de palabras segmentadas. Se configuró inicialmente el experimento, preparando el dispositivo que ejecutaría el modelo, seleccionando 250 muestras de narrativas médicas y ajustando el código de corrección para almacenar los resultados en un formato adecuado para el análisis posterior. El proceso continuó con el análisis de cada una de las narrativas médicas con el modelo de clasificación de texto y la aplicación del algoritmo de detección y unión de palabras segmentadas. Las palabras unidas se almacenaron en un archivo de Excel. Una vez que se procesaron todas las narrativas, se obtuvo un archivo de Excel con la colección de palabras unidas, lo que permitió analizar los resultados y determinar cuántas palabras se unieron correctamente o de manera incorrecta. Con esto, se validó la viabilidad tanto de los algoritmos de conversión como del modelo de clasificación. A partir de ello, se buscó integrar todos los elementos generados hasta el momento para desarrollar el sistema completo, enfocado en el contexto médico y específicamente en la clasificación o detección de elementos clave en narrativas médicas o textos clínicos. Finalmente, se obtuvieron los resultados del sistema y se realizó un análisis exhaustivo para verificar su eficacia y, en base a ello, se generaron las correspondientes conclusiones.


CONCLUSIONES

Durante esta estancia de verano, se adquirieron conocimientos significativos en el área de Inteligencia Artificial, especialmente en el Procesamiento de Lenguaje Natural (PLN). Aunque no fue posible alcanzar el resultado final esperado debido a limitaciones de tiempo, se logró un avance significativo en el desarrollo de un sistema que emplea PLN para asistir en labores médicas. Este avance nos permitió realizar una evaluación precisa del funcionamiento y las limitaciones de diversos algoritmos de conversión de texto y voz en dispositivos embebidos, como la Raspberry Pi. Además, se implementó una mejora sencilla en un modelo de clasificación de texto enfocado en el contexto médico. Esta mejora consistió en detectar y unir palabras que eran segmentadas, evitando así inconsistencias en el análisis de textos clínicos.
Concha Quezada Andrik Arturo, Instituto Tecnológico de Morelia
Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia

ANáLISIS DE NARRATIVAS MéDICAS EN EL IDIOMA ESPAñOL PARA OBTENER INFORMACIóN ESTADíSTICA DE PATRONES FRECUENTES EN CONJUNTO DE DATOS MéDICOS USANDO DISPOSITIVOS EMBEBIDOS.


ANáLISIS DE NARRATIVAS MéDICAS EN EL IDIOMA ESPAñOL PARA OBTENER INFORMACIóN ESTADíSTICA DE PATRONES FRECUENTES EN CONJUNTO DE DATOS MéDICOS USANDO DISPOSITIVOS EMBEBIDOS.

Concha Quezada Andrik Arturo, Instituto Tecnológico de Morelia. Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Actualmente, existen cantidades inmensas de información La cantidad de datos no estructurados generados en la actualidad es mayor a los que sí están estructurados ya que existen diversas fuentes de información y los sistemas médicos del país mexicano no son la excepción, generan y recopilan datos una gran cantidad de datos, pero no los utilizan de manera efectiva para el análisis y diagnóstico. Esto se debe a que la Recuperación de Información generalmente trata de volúmenes de información no estructurada, tales como texto libre, imágenes, audio y video en se comenta que un 80 % de los datos comerciales y médicos se guardan de forma no estructurada. Esto requiere modelos de análisis más específicos que las bases de datos tradicionales.  La propuesta es realizar una limpieza de datos (transformar la información en conocimiento) y utilizar técnicas como el procesamiento de lenguaje natural y la limpieza de datos: Tokenización, Lematización, Quitar stop words, eliminar caracteres, entre otras. En resumen, la idea es Desarrollar un sistema y optimizar el sistema de información de los sistemas médicos mexicanos mediante la limpieza de datos, el análisis de patrones utilizando técnicas de inteligencia artificial y la implementación de un modelo de lenguaje natural. El objetivo final es lograr una atención médica personalizada y mejorar la toma de decisiones en base a un análisis predictivo y descriptivo de los pacientes. El sistema desarrollado busca crear un flujo de procesamiento de información que extraiga las partes relevantes de informes clínicos de pacientes y presentar la información de forma que ayude en la toma de decisiones llevada a cabo en el contexto biomédico.



METODOLOGÍA

La metodología de este trabajo ha consistido en aplicar las técnicas y herramientas de PLN para un crear un preprocesamiento y el análisis de narrativas medicas con los datos estructurados. Se realizaron varias actividades durante las primeras semanas para adquirir conocimientos sobre la teoría del Procesamiento del Lenguaje Natural (PLN) y familiarizarse con algunos sistemas operativos, tales como Windows, Linux (versiones: Debian y Raspberry Pi OS), y sus dispositivos embebidos como Raspberry Pi, Asus Tinker Board, Lattepanda y BeagleBone. Una vez identificado el sistema a cuál trabajar, se obtuvieron las narrativas medicas en un repositorio de internet llamado Zenodo, el cual es un repositorio en línea gratuito y de acceso abierto para el almacenamiento, preservación y distribución de datos científicos. Proseguimos con la lectura de narrativas médicas con el propósito de asignar una etiqueta a cada una de ellas. Estas etiquetas representan las enfermedades diagnosticadas, las cuales se encuentran explícitamente mencionadas en las narrativas respecto a la afección presentada por cada paciente. Se crearon varios scripts en Python, estos códigos en conjunto permitieron realizar diferentes tareas relacionadas con la manipulación de narrativas médicas, como la creación de etiquetas y la organización de los archivos. Después se realizaron varios scripts para preprocesamiento con el fin de identificar cuáles serían las mejores librería y modelos para desarrollar el preprocesamiento de los datos, esto se llevó a cabo con el uso de librerías que son utilizadas para PLN como lo son NLTK, Spacy y Stanza. Tras varias fases de pruebas se optó por usar la librería de Spacy por ser la más eficiente y mejor resultados nos arroga, NLTK y Spacy, aunque cabe aclarar que puede llegar a tener pequeños problemas de compatibilidad con la arquitectura (ARM) de los procesadores de algunos sistemas embebidos. También se utilizaron librerías como time, re, pandas, psutil, matplotlib, etc para medir los recursos y graficar también se utilizaron las librerías de al igual que se descargaron los recursos necesarios. Se crearon funciones para un mejor proceso, dentro de estas funciones se realizó la lectura de los archivos y un filtro de limpieza de los datos, primero se eliminaron los valores alfanuméricos, todas las letras se convirtieron en minúsculas, se eliminaron los signos de puntuación. Posteriormente se realizó el preprocesamiento el cual empezó con la Tokenización, se eliminaron las stop words (palabras comunes que no agregan mucho significado), se eliminaron las palabras de un solo carácter y se terminó este proceso con la lematización. Posteriormente se centró en recibir el texto y una lista de enfermedades, se filtran las palabras en el texto que están en la lista de enfermedades y calcula la frecuencia de cada una utilizando Counter. Luego, obtiene las 15 palabras más repetidas y las devuelve de manera similar a la función anterior.   Después otra función recibe la lista de tuplas de palabras y frecuencias y crea un DataFrame de pandas con dos columnas: 'Palabra' y 'Frecuencia'. Retorna el DataFrame para finalizar con otra función que recibe el DataFrame creado anteriormente y grafica las frecuencias de palabras utilizando la biblioteca matplotlib. Crea un gráfico de barras donde el eje x contiene las palabras y el eje y contiene las frecuencias.


CONCLUSIONES

Durante la estancia de verano, se logró un avance significativo al entender diversas técnicas utilizadas en el procesamiento del lenguaje natural (PLN). Se adquirieron conocimientos teóricos y se pusieron en práctica varias de las numerosas técnicas existentes en este campo. Se llevó a cabo el análisis de 250 narrativas médicas, obteniendo datos importantes para su estudio, aunque no suficientes para extraer conclusiones definitivas. Es necesario continuar con una investigación más profunda y ampliar el uso de técnicas de Procesamiento del Lenguaje Natural, como la vectorización, para obtener resultados más sólidos y permitir la toma de decisiones fundamentadas.
Constantino Elías Alessandra Jocelyn, Universidad Politécnica de Atlautla
Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia

GOBIERNO DE DATOS PARA EL ASEGURAMIENTO DE LA CALIDAD EN EDUCACIóN SUPERIOR


GOBIERNO DE DATOS PARA EL ASEGURAMIENTO DE LA CALIDAD EN EDUCACIóN SUPERIOR

Constantino Elías Alessandra Jocelyn, Universidad Politécnica de Atlautla. Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

¿Cuáles son las prácticas y estrategias efectivas del gobierno de datos que pueden contribuir a fortalecer el aseguramiento de calidad en las instituciones de educación superior?



METODOLOGÍA

En la estancia en línea del programa delfín en la Universidad Cooperativa de Colombia, se ha realizado una investigación sobre el gobierno de datos, cómo se aplica, para qué sirve y la importancia del mismo. Se hablo acerca de plataformas como scopus que es una base de datos bibliográfica de resúmenes y citas de artículos de revistas científicas Se llevó a cabo el desarrollo de un diagrama entidad relación, el cual plasma el funcionamiento de la Universidad, sus sedes y las actividades que se realizan dentro de la misma, esto se realizo con el fin de entender como se gestionan datos y que las actividades de un gobierno de datos se pueden dividir entre las actividades de planeación y las actividades de control. Para llevar a cabo los metodos para la toma de decisiones y cumplir con esa finalidad, se define y aprueba una estrategia para la gestión, procedimientos y arquitectura de datos, asegurándose de su cumplimiento. También resolver problemas con los datos y promover los valores de los datos activos. En las reuniones que se han llevado a cabo, se han tocado temas referentes al tema del proyecto, se ha explicado el uso de algunas herramientas para subir archivos leídos y/o consultados para realizar la investigación. Se creo una cuenta en mendeley para crear un dataset con los archivos vistos.y subir los mismos a la plataforma, se investigo en diferentes archivos acerca del tema para entenderlo mejor, entre elllos se encuentran archivos pdf con titulos como: Guía tecnica de información - Gobierno de dato del gobierno de Colombia, en el cual se visualizo el concepto de gobierno de datos, sus beneficios y algunos otros conceptos relacionados al tema. La gobernabilidad de datos como apoyo en la gestión de datos de instituciones de educación superior de Alexandra Osorio, aqui se entendio mejor la impotancia del gobiermo de datos en la educación superior y para que se puede implementar. https://dama.org.mx/ Este enlace fue compartido por un investigador para conocer acerca del tema de gobierno de datos. Tambien se compartio la macroestrutura de evaluación de programas - CNA 2022 y la Guia CNA para evaluar programas, los mencionados archivos fueron consultados para desarrollar el diagrama entidad-relación solicitado.


CONCLUSIONES

Se desarrollo un diagrama que muestra el resultado obtenido después de analizar documentos relacionados a la Universidad (UCC), se pudo observar y analizar que el gobierno de datos ejerce la autoridad y control, con la planificación y aplicación, de los datos activos. Para ello se incluyen organismos y normas para los métodos de toma de decisiones, este punto llevo a desarrollar el diagrama donde se visualizo la estructura de la universidad y las areas que tienen a su cargo otros departamentos, lo cual es importante para llevar un buen control y seguir las normas que se apliquen para la toma de decisiones. Evidencia de diagrama E-R https://lucid.app/publicSegments/view/14f9a460-bd60-4680-8beb-6caffc5a8107/image.png El gobierno de datos es fundamental para que las organizaciones aprovechen el potencial de sus datos, reduzcan riesgos y tomen decisiones informadas. Con estrategias planificadas. Se aprendio bastante y se conocieron nuevas plataformas para trabajar con archivos o información confiable y evitar información erronea o no veridica.
Contreras Arredondo Ricardo Daniel, Instituto Tecnológico de Querétaro
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEÑO, DESARROLLO Y CONTROL DE UN SIMULADOR BASADO EN LA CONFIGURACIÓN DE UN ROBOT SCARA DE 3GDL


DISEÑO, DESARROLLO Y CONTROL DE UN SIMULADOR BASADO EN LA CONFIGURACIÓN DE UN ROBOT SCARA DE 3GDL

Contreras Arredondo Ricardo Daniel, Instituto Tecnológico de Querétaro. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Durante el verano de investigación, el propósito principal fue desarrollar un simulador de un brazo robótico de 3 grados de libertad. La utilidad de este proyecto radica en adquirir una sólida base de conocimientos en robótica y sistemas de control, con el fin de prepararnos para enfrentar los desafíos tecnológicos actuales y futuros en este campo. Con el enlace entre MATLAB y SolidWorks, el simulador permitirá realizar un control adaptable para el seguimiento preciso de trayectorias deseadas en el brazo robótico, lo que es crucial para el desempeño y la aplicabilidad en diversas tareas robóticas.



METODOLOGÍA

Entre las clases, se exploraron conceptos de modelado dinámico de sistemas mediante la metodología Euler-Lagrange, adquiriendo las herramientas necesarias para describir el comportamiento físico de robots y sistemas mecatrónicos. Además, se brindó un enfoque en la teoría de control, centrándonos en el control PD con compensación de gravedad, que es esencial para el seguimiento preciso de trayectorias deseadas en robots. Con el objetivo de comprender a profundidad el comportamiento cinemático de robots, se estudió el algoritmo Denavit-Hartenberg, que permitió describir eficientemente las configuraciones geométricas de sistemas robóticos de múltiples grados de libertad. Adicionalmente, se abordaron temas clave en control adaptable y estabilidad, utilizando la teoría de Lyapunov para el análisis y diseño de sistemas robustos y adaptables.


CONCLUSIONES

El verano de investigación culminó con la adquisición de habilidades en el modelado, control y simulación de robots de 3 grados de libertad. Los participantes del proyecto obtuvimos las capacidades necesarias para enfrentar desafíos en el ámbito de la robótica y sistemas de control, demostrando competencia en el modelado matemático de sistemas físicos mediante la metodología Euler-Lagrage.
Contreras Bañuelos Fabian, Universidad Autónoma de Baja California
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

PROCESAMIENTO CON ACEITE VEGETAL Y DEGRADACIóN DE UN POLíMERO DE FUENTES RENOVABLES


PROCESAMIENTO CON ACEITE VEGETAL Y DEGRADACIóN DE UN POLíMERO DE FUENTES RENOVABLES

Ciapara García Marian Aseret, Universidad de Sonora. Contreras Bañuelos Fabian, Universidad Autónoma de Baja California. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los ésteres de celulosa se obtienen de la que se considera es la fuente de biomasa más abundante de la naturaleza: la celulosa. Varios de estos compuestos se utilizan en diferentes aplicaciones de la industria del plástico, siendo el acetato de celulosa (CA) el éster de celulosa empleado para fabricar éstas últimas. CA contiene sólo los grupos laterales de acetilo, mientras que el butirato de acetato de celulosa (CAB) contiene además de los grupos laterales cortos de acetilo, grupos laterales largos de butirilo. El CAB muestra una temperatura de flujo viscoso más baja y una mejor procesabilidad en estado fundido que CA, e incluso presenta una termoplasticidad superior entre los numerosos ésteres de celulosa comerciales comunes. Por otra parte, el CAB es un material que puede degradarse en condiciones de compostaje. Para abrir las posibilidades de uso del CAB, se propone el uso de aceite vegetal obtenido de semillas de calabaza, como agente plastificante verde para mejorar sus propiedades de resistencia a la flexión, manteniendo su capacidad de degradación la cual se verificará en condiciones de compostaje.



METODOLOGÍA

Para comenzar con las pruebas de desintegración de materiales plásticos en un entorno de compostaje a escala de laboratorio tuvimos que realizar nuestras propias muestras. Para realizar las muestras utilizamos una mezcla de CAB con aceite de semilla de calabaza en tres porcentajes diferentes, creando así tres placas de prueba. Para ello se realizaron tres mezclas: la primera con 40 gr de polvo de CAB, la segunda con 38 gr de CAB y 2 de aceite de semilla de calabaza (5%) y la tercera con 36 gr de CAB y 4 gr de aceite de semilla de calabaza (10%). Este procedimiento se llevó a cabo con las tres mezclas, resultando así en placas cuadradas, flexibles, uniformes, sin fisuras ni burbujas y con un olor leve a calabaza. Una vez que se tienen las tres muestras se procede a llevarlas a la cortadora láser para así obtener las piezas del tamaño y forma adecuada, para realizar pruebas mecánicas con las probetas obtenidas y utilizar los cuadrados resultantes para las pruebas con composta. Al realizar las pruebas mecánicas procedimos a clasificar los cuadros de cada una de las placas dependiendo el porcentaje de aceite de calabaza que posean y pesar cada una de ellas en una báscula. Después de tener listas las muestras se procedieron a la realización de una composta para observar la degradación de los cuadrados producidos con las placas de CAB y aceite de semilla de calabaza. Comenzando con la base seca conformada por los siguientes materiales: Aserrín - 450 gr, Comida para conejo - 338 gr, Composta - 113 gr, Fécula de maíz - 113 gr, Azúcar - 67 gr, Aceite - 45 gr, Urea - 11 gr, Total = 1,125 gr Una vez que se obtuvo la base seca se agregó el 55% del equivalente de su peso en agua a la mezcla, resultando así en una composta de 2,570 gr. Después de tener todos los ingredientes en un mismo recipiente se procedió a mezclar todo su contenido. Al llenar los recipientes con composta se procedió a tomar los cuadros realizados con las placas de CAB y colocados 10 cuadros por recipiente, previamente debía ser mojado antes de introducirlos. Se pesaron los recipientes para obtener un promedio y posteriormente ser colocados en un horno para mantenerlos en una temperatura de alrededor de 55 a 58°C para en las próximas 24 horas continuar con su monitoreo. Durante varios días se hizo chequeo continuo de los recipientes, estos se extrajeron del horno para proceder a pesarlos y ver si experimentaron cierta degradación en su interior, de ser así se le agrega agua hasta que el peso total del recipiente junto con la tapadera nos dé 210 g. Al haber mezclado y humectado cada uno de los recipientes que perdieron cierta cantidad de masa se procedió a guardarlos en el horno, la mayoría de los recipientes experimentaron cierta degradación, sin embargo, no necesitaron demasiada agua para complementar la pérdida de peso experimentada. Pasados aproximadamente unos 6 días desde haber registrado por primera vez la masa inicial del reactor, se continuó agregando agua en caso de ser necesario y una vez que el recipiente haya alcanzado los 0.210 g se procedió a mezclar la masa del compostaje, una vez finalizado se prosiguió a separar todos los cuadrados que iniciaran con el número 1 de las muestras de CAB 0%, 5%, 10% de aceite de semilla de calabaza, siendo estos previamente separados y numerados desde el número hasta el número 4. Al separar los contenidos pesamos cada uno de los cuadrados para ver qué tanto peso había perdido después de haber pasado más de tres días dentro del horno a 57°C. Dentro de la primera semana de observación, se logró percibir que en las muestras CAB puro perdieron un promedio de 0.00393 gr, las muestras con CAB con 5% de aceite de semilla de calabaza perdieron un promedio de 0.00278 gr y las muestras con CAB y 10% de aceite de semilla de calabaza perdieron un promedio de 0.0036 gr. Por lo que se puede concluir que las muestras que más perdieron peso fueron las de CAB puro. Dicho experimento se realizó siguiendo la norma IS/ISO 20200:2004.


CONCLUSIONES

Durante la estancia de verano se logró observar una disminución en su masa en el transcurso que se estuvo llevando a cabo la investigación. Debido a falta de tiempo no se completó en su totalidad el proceso de descomposición física de CAB en fragmentos pequeños como se tenía establecido. Sin embargo, al ser un experimento que requiere de varios días de monitoreo aún se encuentra en fase de observación y desarrollo. Es importante tener en cuenta que los resultados obtenidos en el laboratorio están basados en pruebas y observaciones en condiciones reales de compostaje, siendo estas más precisas y aplicables a situaciones prácticas. Además, se debe considerar la importancia de reducir el uso de plásticos en general y promover prácticas de reciclaje adecuadas para mitigar el impacto ambiental de los residuos plásticos.
Contreras Bañuelos Katherine, Universidad Tecnológica de Nayarit
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

ANáLISIS DEL COMPORTAMIENTO DEL CLIENTE CON RESPECTO A LOS DESECHOS GENERADOS A TRAVéS DEL COMERCIO ELECTRóNICO.


ANáLISIS DEL COMPORTAMIENTO DEL CLIENTE CON RESPECTO A LOS DESECHOS GENERADOS A TRAVéS DEL COMERCIO ELECTRóNICO.

Contreras Bañuelos Katherine, Universidad Tecnológica de Nayarit. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

La globalización, los avances tecnológicos y la rapidez para concretar negocios han impulsado el comercio electrónico en el mundo actual, pues según el índice de compras de Saleforce, desde el estado de alarma y hasta el final del mismo, las compras online aumentaron un 71% a escala global. El comercio electrónico ha crecido bastante en la ultima década, y hoy en día se define como un proceso de compra-venta, o un intercambio de bienes y servicios a traves de internet. Según Illanes (1999)esta modalidad de comercio joven permite utilizar la tecnología como un medio para obtener ventajas importantes sobre la competencia, fundamentalmente en dos aspectos: la toma de decisiones y la prestación de servicios a los clientes. El comercio electrónico permite hacer compras en cualquier parte del mundo sin necesidad de estar presente físicamente, es ahí donde radica su importancia, pues es un medio de comunicación internacional donde solo necesitas un dispositivo y una conexión a internet. Sin embargo, para que estas compras puedan llegar a su destino final, es necesario implementar un buen sistema logístico, donde se planeen todas las actividades que lo conforman, desde el aprovisionamiento, la producción y, sobre todo, el almacenamiento y la distribución, donde se incluye el embalaje y empaquetado del producto.



METODOLOGÍA

El primer enfoque de este proyecto de investigación es el análisis cuantitativo, donde se estudio a traves de fuentes secundarias las variables estipuladas con anterioridad, esto se llevo a cabo traves de los 17 artículos encontrados en diversas fuentes como redaylic, google scholar, sciencie direct, entre otras. A continuación, se presenta una tabla que muestra la base de datos de la información obtenida para el estudio realizado:   (Cuadro) Ahora bien, se conceptualizan las variables a estudiar en este proyecto de investigación:  Variable 1: Un empaque se define como la técnica de acondicionar y proteger los productos comercializados a traves de e-commerce, esto asegurará su manejo, distribución, almacenamiento, venta y uso.  Variable 2: La contaminación de residuos solidos se refiere a la introducción directa o indirecta en el medio ambiente de materiales o sustancias sólidas resultantes de actividades relacionadas con el comercio electrónico en cantidades que exceden la capacidad del medio ambiente para manejarlos y descomponerlos. Variable 3: El proceso de reciclaje se refiere a la transformación de productos o empaques desechados adquiridos por medio del e-commerce en nuevos materiales o productos de calidad igual o superior, con el fin de reducir el consumo de materias primas, reducir el uso de energía y minimizar los impactos ambientales asociados con la extracción y producción de nuevos materiales. Por otro lado, se busca entender la percepción del cliente con respecto a los desechos que el e-commerce genera, es por ello que se aplicó una entrevista con preguntas abiertas a traves de un formulario de google, esto debido al plazo para la obtencion de resultados. Se estableció contacto con los usuarios por medio de redes sociales, donde se logró la identificación de ciertas variables a través de la saturación de términos. En el anexo 1 se puede encontrar la entrevista aplicada. Cabe destacar que, debido al método utilizado, las entrevistas solo fueron aplicadas a 50 personas, pues fue el total de respuestas que permitieron llegar a la saturación de términos esperada para identificar las variables previstas.  


CONCLUSIONES

La investigación mixta permitió hacer una evaluación mas puntual con respecto al estudio relacionado con el comercio electrónico, donde se encontraron datos a traves de fuentes secundarias y primarias para complementar los resultados. A través de la entrevista realizada para estudiar la percepción del cliente respecto a los desechos generados por e-commerce, se identificó que 36 usuarios compran de manera frecuente en plataformas digitales, mientras que 9 lo hacen con poca frecuencia y 5 de manera casi nula. Asimismo, se presentaron los siguientes productos que los entrevistados indicaron son los más adquiridos por ellos: (imagen) Ahora bien, con respecto al principal objetivo de esta entrevista, que es identificar la percepción que tienen los clientes de los desechos que genera el comercio electrónico, se elaboraron ciertas preguntas que ayudaron a evaluar el comportamiento de los participantes, pues indicaron que en la mayoria de las ocasiones los empaques recibidos van directamente a la basura, sin embargo, muchos otros afirmaron que dependía del material para ver si se les podía dar un segundo uso. Las cajas, por ejemplo, suelen utilizarlas para guardar cosas dentro del hogar.  Por ello, se reconoció a la reutilización como la única estrategia que la población entrevistada conoce como iniciativa de reciclaje, aunque son pocos quienes realmente la llevan a cabo.  No obstante, es importante destacar que, a pesar de que las personas si son conscientes de lo que la generación de empaques representa, no se realizan acciones para contrarrestarlo. El 100% de la muestra confirma que el empaque que se utiliza en el e-commerce afecta al medio ambiente de diferentes formas. Además del tiempo de degradación y la huella de carbono, la mayoria indica que la acumulación de basura es lo que mayormente impacta el medio ambiente.  Siendo el desecho de residuos solidos, un tema de vital importancia en el asunto de la contaminación ambiental, y sobre todo, el comercio electrónico, se debe de tomar la importancia necesaria para darla a conocer, pues el 44% de la muestra entrevistada no conoce casi nada acerca de la contaminación generada por desechos de residuos solidos.
Contreras Cárdenas Saúl, Universidad de Colima
Asesor: Dra. Gloria Ivone Dávila Pulido, Universidad Autónoma de Coahuila

EXTRACCIóN DE áCIDOS HúMICOS A PARTIR DE LEONARDITA


EXTRACCIóN DE áCIDOS HúMICOS A PARTIR DE LEONARDITA

Contreras Cárdenas Saúl, Universidad de Colima. Asesor: Dra. Gloria Ivone Dávila Pulido, Universidad Autónoma de Coahuila



PLANTEAMIENTO DEL PROBLEMA

Actualmente México cuenta con reservas de carbón mayores a las de gas y petróleo, sin embargo, la extracción y uso de este ha disminuido en gran manera en los últimos años, esto en gran parte se debe a la demanda de energías cada vez más limpias y sustentables. No obstante, el carbón no solo puede ser utilizado en la industria del coque metalúrgico y la producción de energía eléctrica, sino que también, ha demostrado tener muchas otras aplicaciones en la industria actual. Una de las aplicaciones no combustibles del carbón, es la producción de sustancias húmicas, mismas que han ido tomando importancia a nivel mundial, todo esto debido a su aplicabilidad en el sector agrícola como recuperador de suelos y/o fertilizante. Es sabido que las sustancias húmicas se forman a partir de carbón de bajo rango. No obstante, la agricultura no es el único ámbito de aplicación de las sustancias húmicas, sino que cuenta con otros usos, tales como en medicina y productos farmacéuticos, dispersante de polvos cerámicos, síntesis de materiales y en la industria cosmética como protector solar.



METODOLOGÍA

La metodología utilizada para la obtención de sustancias húmicas a partir de Leonardita, se diseñó tomando como referencia la reportada por Lamar et al., 2014 y Asing et al., 2009. La obtención de sustancias húmicas es un proceso que está conformado por las siguientes etapas: (1) extracción; (2) separación sólido-liquido (filtrado) (3) acidificación y floculación; (4) separación sólido-liquido (centrifugación) y secado, (5) cuantificación de ceniza y (6) purificación. Las pruebas de extracción se realizaron utilizando 10, 15 y 20% de sólidos. Los sólidos se pusieron en contacto con 200 mL de la solución extractante (NaOH 0.5M), para posteriormente ser agitados durante 5 h a una velocidad constante de 200 rpm, este proceso se realizó utilizando un agitador mecánico. Al termino de las 5 h, las soluciones fueron filtradas y posteriormente acidificadas hasta pH 1, para lo cual se utilizó HCl 6 M. Este último paso tiene como objetivo lograr la precipitación del ácido húmico (el cual es insoluble a pH ácidos), logrando la separación del ácido fúlvico y la humina, los cuales permanecen en la solución. Posteriormente, la solución acidificada se dejó floculando durante 24 horas. Una vez transcurrido el tiempo de floculación, la suspensión fue transferida a tubos de polipropileno de 15 mL y centrifugada durante 45 minutos a una velocidad de 4,500 rpm. Al concluir el tiempo de centrifugado, la solución fue decantada. El sólido resultante (ácido húmico) fue secado en una estufa de laboratorio a 90°C, hasta obtener un peso constante, el tiempo de secado promedio fue de 30 h. Los tubos fueron retirados de la estufa y se dejaron enfriar, para posteriormente determinar la cantidad de HA producido. Una vez que el ácido húmico fue secado y pesado, se procedió a cuantificar la cantidad de impurezas inorgánicas que contenía (ceniza). Este procedimiento se realizó utilizando 0.5 g de HA, los cuales se llevaron a una mufla a 500°C durante 4 h. Con la finalidad de reducir el contenido de materia inorgánica en los AH obtenidos, se implementó un proceso de purificación que consiste en adicionar 60 mL de una solución 5% HCl + 5% HF al acido húmico y colocar en un agitador orbital por 24 horas a 160 rpm. Al término del proceso, la solución purificada es transferida a tubos de polipropileno y se centrifugan a 4,500 rpm por 30 minutos. Posteriormente se filtran, lavando con agua desionizada con el fin de eliminar las impurezas orgánicas e inorgánicas. Finalmente, se somete a un proceso de secado. Adicionalmente se empleó una metodología para llevar a cabo una re-extracción a las pruebas realizadas donde se obtuvieron rendimientos menores a 80%. Este proceso consiste en poner los sólidos en contacto con 200 mL de una solución NaOH 0.5M, para posteriormente ser agitado durante 1 hora a una velocidad constante de 200 rpm. Al término, la solución lixiviada es filtrada evitando el paso de la mayor cantidad de sólidos no reaccionados. Los sólidos no reaccionados de la etapa anterior se pusieron en contacto con 200 mL de solución fresca de NaOH 0.5M durante 3 horas a una velocidad constante de 200 rpm. Al término, se emplean las seis etapas descritas anteriormente


CONCLUSIONES

De la caracterización física de la Leonardita se obtuvo que presenta un contenido de ceniza de 26.55% y un porcentaje de humedad del 12.34%. Además de una distribución de tamaño con d80 de 950 µm. De los resultados obtenidos se concluye que la influencia del porcentaje de sólidos implica una reducción en el rendimiento atribuido principalmente a la concentración del agente lixiviante la cual resulta insuficiente para reaccionar con una mayor cantidad de sólido. La implementación de un método de re-extracción presenta resultados favorables, con un aumento en el rendimiento de 62% a 87% para el caso de 15 % de sólidos. Mientras que en el caso de 20% de sólidos el rendimiento incrementa de 40%  a 72%. Los aspectos teóricos básicos de la investigación que incluyen el origen, la composición y las aplicaciones industriales de la Leonardita, además de la parte práctica llevando a cabo la experimentación para extraer ácidos húmicos a partir de este material, se desarrollaron siguiendo el cronograma de actividades adecuadamente. Durante la estancia de verano se han adquirido nuevas habilidades y aprendizajes, principalmente el uso y manejo de instrumentos de laboratorio, equipos y funcionamiento. Además, una de las partes fundamentales fue comprender el ritmo de trabajo dentro del laboratorio, como la organización requerida y aprender cómo resolver las situaciones que se pueden presentar durante la experimentación. Adaptarse al trabajo en equipo fue una de las áreas más importantes ya que esto aporta a las habilidades blandas, así como compartir espacio con otras personas y saber tener una convivencia sana con ellas.
Contreras Galván María del Carmen, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro

IMPLEMENTACIÓN Y OPTIMIZACIÓN DEL MODELO DE VENTA EN LÍNEA PARA LA MARCA DE PERFUMES POCIMAS EN TACÁMBARO.


IMPLEMENTACIÓN Y OPTIMIZACIÓN DEL MODELO DE VENTA EN LÍNEA PARA LA MARCA DE PERFUMES POCIMAS EN TACÁMBARO.

Contreras Galván María del Carmen, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más digitalizado y conectado, la implementación de modelos de venta en línea se ha vuelto esencial para la supervivencia y el crecimiento de las marcas y empresas en cualquier industria. En este contexto, el mercado de perfumes también se ha visto afectado, y las marcas locales en Tacámbaro enfrentan el desafío de adaptarse a las nuevas tendencias de consumo en línea para seguir siendo competitivas. La marca de perfumes Pocimas, reconocida por su calidad y exclusividad en el mercado local, busca expandir su alcance y atraer a un público más amplio a través de una plataforma de venta en línea. Sin embargo, enfrenta la incertidumbre sobre cómo implementar efectivamente este modelo de venta en línea y optimizarlo para obtener resultados exitosos.



METODOLOGÍA

Para abordar este desafío, se llevará a cabo una metodología que comprende varias etapas. En primer lugar, se realizará una investigación de mercado exhaustiva para comprender las necesidades y preferencias de los consumidores locales, así como para analizar la competencia y las tendencias del mercado de perfumes en línea en Tacámbaro. Con base en los datos recopilados, se definirá un catálogo inicial de productos y precios competitivos. A continuación, se procederá al diseño y desarrollo de la aplicación de venta en línea, con una interfaz de usuario atractiva y funcionalidades de compra seguras. La estrategia de marketing digital jugará un papel crucial, con la creación de campañas publicitarias en redes sociales y el uso de correos electrónicos promocionales para aumentar la visibilidad de la marca y atraer nuevos clientes.


CONCLUSIONES

 Se espera que la implementación y optimización del modelo de venta en línea para la marca de perfumes  en Tacámbaro proporcione resultados positivos y oportunidades de crecimiento en el mercado digital. La metodología utilizada se basa en la comprensión profunda de las necesidades del mercado local y la aplicación de soluciones tecnológicas y de marketing efectivas. Se anticipa que la plataforma de venta en línea mejorará la accesibilidad de los productos y fortalecerá la posición de la marca en el sector de perfumería en línea. A medida que el proyecto avance, se monitorearán los resultados y se realizarán ajustes estratégicos para maximizar su éxito.
Contreras González Jesús, Instituto Tecnológico Superior de Tierra Blanca
Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla

PROTOTIPO INTEGRADO DE MONITOREO Y REGISTRO DE DATOS METEOROLOGICOS EN EDIFICACIONES DEL SIGLO XVI


PROTOTIPO INTEGRADO DE MONITOREO Y REGISTRO DE DATOS METEOROLOGICOS EN EDIFICACIONES DEL SIGLO XVI

Contreras González Jesús, Instituto Tecnológico Superior de Tierra Blanca. Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Este trabajo resalta la importancia de preservar el patrimonio histórico y garantizar la estabilidad de edificaciones. Se destaca el caso de la iglesia "Santuario de Nuestra Señora de la Merced" en el Centro Histórico de Puebla, que ha resistido eventos como la Batalla de Puebla y terremotos. A pesar de esto, no se comprenden completamente los factores que han asegurado su supervivencia ante terremotos. Se propone un proyecto de investigación que utiliza un circuito de monitoreo para medir la intensidad de sismos, registrando detalles precisos y supervisando condiciones ambientales. Este enfoque se busca aplicar en varios contextos para mejorar la seguridad de edificaciones. El objetivo es contribuir al conocimiento sobre conservación del patrimonio histórico, seguridad estructural y planificación urbana. Los resultados pueden influir en diseños de edificios resistentes a desastres naturales y en la gestión de patrimonio histórico en Puebla Centro y otras áreas culturales e históricas.



METODOLOGÍA

En este proyecto, se abordó la preservación del patrimonio histórico a través del análisis detallado de una iglesia particular, el "Santuario de Nuestra Señora de la Merced", ubicada en el Centro Histórico de Puebla. Se destacó la resistencia de esta iglesia a lo largo del tiempo, incluyendo eventos históricos y desastres naturales, como la Batalla de Puebla y terremotos. Para lograr un entendimiento más profundo de los factores que han contribuido a la supervivencia de esta iglesia, se propuso un proyecto de investigación basado en la implementación de tres prototipos. Cada prototipo constaba de una Raspberry Pi 4, una memoria SD de 32GB y varios sensores, como el giroscopio MPU6050, el sensor de temperatura DHT22, el sensor de humedad FC-28 y el sensor de temperatura LM35. Para permitir que la Raspberry Pi analizara y almacenara los datos de los sensores FC-28 y LM35, se utilizó un convertidor de señales analógicas a digitales A/D MCP3008. El proceso comenzó con la instalación del sistema operativo Raspbian en la memoria SD y la configuración de periféricos como teclado, mouse, cable Ethernet y monitor. A través del entorno de Raspbian OS, similar a Linux, se activaron las comunicaciones I2C y SCH en la Raspberry Pi para habilitar la transmisión de datos entre los sensores y el procesador. Se realizaron pruebas iniciales con el giroscopio MPU6050, programando en Python para obtener datos precisos de aceleración y ángulos en tres ejes. A medida que se depuraba el código, los resultados se volvieron más precisos y significativos. Luego, se agregaron sensores de temperatura y humedad DHT22 para capturar las condiciones ambientales y se incorporaron sensores FC-28 y LM35 para medir valores analógicos. La limitación de que la Raspberry Pi solo pudiera leer datos digitales se resolvió mediante la conversión de señales analógicas con el MCP3008. La información recopilada de los sensores se almacenó en archivos CSV, con el giroscopio generando archivos en respuesta a movimientos y los sensores de temperatura y humedad creando archivos nuevos cada 10 minutos. Como un extra, se implementó la capacidad de enviar los archivos CSV a un servidor si había una red WiFi disponible, lo que permitiría el análisis remoto de datos. Finalmente, para consolidar los componentes en un solo lugar, se diseñó una placa PCB utilizando el software ISIS de PROTEUS. Esta placa se creó mediante el proceso de "planchado", donde el circuito impreso se adhirió a una placa fenólica y se eliminó el cobre sobrante mediante un químico llamado "Cloruro férrico". Luego se perforaron los orificios para los componentes y se procedió a soldarlos. En resumen, el proyecto involucró la implementación de tres prototipos para analizar diferentes áreas de una iglesia histórica. Se utilizaron una variedad de componentes y sensores, junto con programación en Python y técnicas de conversión de señales, para recopilar y analizar datos que podrían contribuir al conocimiento de la conservación del patrimonio histórico y la seguridad de las estructuras.


CONCLUSIONES

En conclusión, se lograron obtener datos consistentes en la edificación ya que se encuentra mal las estructuras y puede que en un futuro este pueda afectar la vida de las personas que asisten a tomar sus sesiones religiosas y en algunos casos a realizar alguna ceremonia importante, así que se esperaría que las personas encargadas del área y así como los secretarios de seguridad tomen cartas en el asunto y no se tenga que lamentar alguna vida humana en un futuro.
Contreras Jimenez Jesus Ramiro, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

PLAN NEGOCIOS PARA LA EMPRESA SOLYMONDO


PLAN NEGOCIOS PARA LA EMPRESA SOLYMONDO

Contreras Jimenez Jesus Ramiro, Instituto Tecnológico Superior de Tacámbaro. Cortez Contreras Javier de Jesús, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el 33% de las empresas fracasan en el primer año en México y gran causa es que no cuentan con un plan de negocios bien estructurado desde el principio por ello la razón de este proyecto es generar un plan de negocios bien estructurado y completo, de acuerdo al giro de la empresa que es la venta y comercialización de productos con fruta deshidratada, apoyando con un modelo de negocio Canva, registro de marca, estudios de mercado, así como su constitución legal. 



METODOLOGÍA

- Realización de Modelo Canva: un modelo Canva es una herramienta que permite comprender y presentar un modelo de negocio de forma objetiva y estructurada, donde desarrollaremos los siguientes aspectos: Socios Clave, Actividades Clave, Propuesta de Valor, Relacion con el Cliente, Segmento de Clientes, Recursos Claves, Canales, Estrcutura de Coste, Fuentes de Ingreso,  - Registro de marca. Realizar el trámite de registro de marca ante el IMPI  - Realizar estudio de Mercado que determine la factibilidad de los productos que comercializará la empresa. A través de la realización de una encuesta investigar cuáles son los productos que a las personas más les gusta o les interesa consumir, y con ello determinar que productos son los más viables para el inicio de su comercialización.  - Realizar una acta constitutiva que consolide y se establezca la empresa bien estructurada tanto interna,  externa y legalmente. Una vez identificado y determinardo nuestro modelo de negocio, nuestro registro de marca y nuestro estudio de mercado realizado. Iniciamos con la constitución de manera legal de la empresa para el inicio de la comercialización de sus prodcutos de manera legal y estructurada. 


CONCLUSIONES

Los resultados obtenidos hasta ahora han sido con el estudio de mercado, donde les han parecido muy buenos los productos, en especial los empaques de fruta deshidrata para tisanas donde su sabor favorito des ponche mexicano y mango.  Los resultados por obtener es conocer cuanta demanda tiene el producto, y con ello iniciar con una producción después de sea constituida legalmente, tenga un modelo de negocio bien estructurado y este registrada ante el IMPI.
Contreras Legorreta Guadalupe, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán

GESTIóN ESTRATéGICA PARA EL MEJOR CONTROL DEL ALMACéN DE UNA EMPRESA FARMACéUTICA.


GESTIóN ESTRATéGICA PARA EL MEJOR CONTROL DEL ALMACéN DE UNA EMPRESA FARMACéUTICA.

Contreras Legorreta Guadalupe, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

Los almacenes son una pieza fundamental para la correcta función de las empresas, sin embargo, en el Almacén de Materiales de una empresa farmacéutica el mal control de los inventarios ha ocasionado agotamientos de algunos de sus materiales, afectando directamente al área de producción.



METODOLOGÍA

Se trabajó en el Almacén de Materiales a través de la investigación de campo, identificando el problema de agotamientos, por lo que se decidió realizar un diagrama de causa-efecto con el objetivo de conocer la causa raíz del problema que afectan directamente a la correcta gestión de los almacenes, las compras y producción, logrando intervenir con propuestas de mejora para su correcta gestión estratégica. El problema de agotamientos de materiales afecta directamente a toda la organización porque al no contar con los mismos no habrá producción, por tal motivo fue necesario intervenir con una propuesta de mejora, creando una base de agotamientos en con la finalidad de identificar cuantos materiales se tenían y cuales había en existencia y cuales estaban agotados, para así poder intervenir con la propuesta de mejora. Una vez realizada la base de agotamientos se mantuvo en actualización diaria por los movimientos que pudieran ocurrir por las entradas al almacén o salidas al área productiva. Se realizo el layout del almacén con la finalidad de mostrar el lugar físico en el que se encontraba cada material, se desarrolló el layout con el método ABC que sirve para analizar los materiales con mayor y menor rotación, los artículos A son aquellos de mayor rotación y representan el 80%, en la clasificación B son aquellos con rotación media y representan el 15% y los artículos C son aquellos con poca rotación y representan el 5%. Con la elaboración de layout se desarrolló la clasificación ABC por cada rack de acuerdo con las características mencionadas, para el desarrollo de éste se hizo un análisis de los materiales de acuerdo con su tamaño y características, los de mayor peso se colocaron en el rack número dos los de menor peso en el tres y cuatro.


CONCLUSIONES

La investigación se realizó con la finalidad de fomentar el crecimiento económico ya que a través de que la empresa alcanza un nivel de cobertura logra garantizar empleo para los colaboradores de la organización. Durante la estancia de verano se logró adquirir conocimientos teóricos prácticos del control de los almacenes, con el diagrama de Causa-efecto se pudo identificar las causas que generan los agotamientos de materiales, el no realizar las órdenes de compra o no requerir la cantidad necesaria, otro causa que se pudo detectar fue la falta de planeación adecuada entre las áreas correspondientes, pero la principal causa es el control del almacén ya que al no contar con un buen control hay agotamientos, demoras, tiempos muertos, falta de producción, etc. Al realizar el análisis de los productos por su clasificación correspondiente el método ABC ayudo a determinar cómo se debería almacenar los productos de acuerdo a la rotación o bien el más consumido que pide el área productiva, teniendo en cuenta el peso y características. Por lo cual la ejecución del proyecto resulto favorable ya que si se lograron las mejoras del almacén de materiales.
Contreras Oviedo Jose Luis, Instituto Tecnológico de Morelia
Asesor: Mg. Lewin Andrés López López, Universidad del Valle

DISEñO DE UN PROTOTIPO MECATRóNICO DE TRANSELEVADOR PARA ALMACENES 4.0 BASADO EN IMPRESIóN 3D.


DISEñO DE UN PROTOTIPO MECATRóNICO DE TRANSELEVADOR PARA ALMACENES 4.0 BASADO EN IMPRESIóN 3D.

Contreras Oviedo Jose Luis, Instituto Tecnológico de Morelia. Asesor: Mg. Lewin Andrés López López, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

A nivel mundial, las tendencias en producción se dirigen hacia la industria 4.0, donde se utilizan tecnologías avanzadas como comunicación, Internet de las cosas e inteligencia artificial para agilizar los procesos en la cadena de abastecimiento, incluyendo la producción y el despacho de mercancía. En Colombia, la industria está gradualmente adoptando estas tendencias y tecnologías emergentes con el propósito de aplicar avances en el ámbito de la logística 4.0, especialmente dentro de los almacenes (Yang J. 2019). Tomando como referencia algunos documentos consultados en bases de datos especializadas, se encuentran trabajos enfocados al posicionamiento y recolección de unidades de carga, que trabajan de forma automatizada con anaqueles a lado y lado o en uno solo. El enfoque principal del proyecto desarrollado es para el diseño de prototipos de mecanismos industriales con el objetivo de acelerar el progreso en los sectores manufactureros, enfocándose particularmente en mejorar los sistemas de gestión de almacenes mediante la incorporación de sistemas robóticos. La meta es contribuir al avance de la industria, la innovación y las infraestructuras (ODS 9), aprovechando la automatización, para optimizar la eficiencia y productividad de los almacenes (Jerez B. 2021). El prototipo a escala está conformado por un sistema de colocación automatizada de unidades de carga en estanterías con tres ejes de movimiento, de los cuales el movimiento en Y depende de dos niveles de profundidad y se constituyó en el principal aporte del trabajo ejecutado durante la estancia de investigación. Esto permitirá implementar prácticas avanzadas de gestión logística, especialmente en lo que respecta a la administración de almacenes e inventarios, y fomentará la transformación de la industria colombiana hacia una mayor adopción de la logística 4.0, cuando el sistema se integre con sistemas de control y operación remota a través de interfaces gráficas y control logístico avanzado.



METODOLOGÍA

La metodología utilizada para desarrollar el prototipo del sistema electromecánico será el Design Thinking (Pensamiento de Diseño), que consta de cinco fases: Empatizar, Definir, Idear, Prototipar y Probar. En la primera fase, se abordó la problemática para determinar el posible impacto y beneficio para la sociedad en términos de innovación industrial y logística 4.0. En la fase de Definir, se estableció el alcance funcional y estructural del prototipo, permitiendo la colocación de unidades de carga en un anaquel con 5 niveles de altura y doble profundidad. En la fase de Idear, se propuso una solución para automatizar el movimiento de un transelevador mediante un sistema embebido que controle el posicionamiento y reubicación de las unidades de carga. También se realizó el modelo de interfaz de control para mover los ejes de forma manual y automatizada como mecanismo de prueba. Una vez definida la idea, se pasó a la fase de prototipar, donde se diseñó un sistema mecatrónico con fines de comprobación mediante la impresión 3D y la adaptación de mecanismos y electrónica. El diseño utilizó un piñón que forma parte de un costado del pallet, el cual recoge las unidades de carga y permite ejecutar un movimiento rectilíneo en el eje Y, y este recibe la transmisión de potencia de un engranaje que es el torque principal. Así mismo, la base lleva un canal como inicio y final de carrera, que ayuda a graduar con mayor precisión los dos niveles de profundidad en los que se debe posicionar la unidad de carga. Finalmente, en la fase de Probar, aún por completar, el sistema se someterá a un conjunto de pruebas para mejorar su rendimiento y respuesta antes de su implementación final. Realizando recorridos para colocar las unidades de carga en primera y segunda posición en el estante del almacén en el que se encuentran. Mediante esta metodología de varias repeticiones, se busca desarrollar un prototipo eficiente que permita la especificación y elaboración del sistema electromecánico para la automatización de la logística en el almacén, en línea con las tendencias de la industria 4.0.


CONCLUSIONES

La interfaz gráfica propuesta permite tener un mejor entendimiento de la logística para la colocación y reubicación de las unidades de carga, con el manejo de carga y descarga de pallets en dos niveles de profundidad, usando motores paso a paso. Con base en los resultados previos del proyecto, que cuenta con un mecanismo para el eje X, se desarrolló una propuesta de diseño en SolidWorks, enfocada principalmente en el eje Y, que se encargará de recoger y posicionar las unidades de carga dentro del estante. Este eje utiliza un piñón y un engrane para desplazarse a lo largo de la plataforma y recoger la unidad de carga. Para lograr el movimiento de los ejes, se eligieron motores paso a paso programados desde un Arduino, con la asistencia de un driver como el A4988 o el DRV8825. Estos drivers tienen la capacidad adecuada para una transmisión de señal eficiente en el tamaño del motor, que no requerirá una gran potencia debido a la infraestructura en la cual se aplicará el sistema. La automatización resultante de este prototipo se espera que genere mejoras significativas en la productividad y eficiencia de los almacenes, lo que a su vez impulsará la transformación de la industria colombiana hacia la adopción plena de la logística 4.0. Si bien este proyecto tiene un futuro aún mayor, la interfaz puede ser mejorada para tener una interacción más intuitiva con los usuarios, una mejora en ella puede ser el colocar en diferentes páginas para seleccionar mediante botones el lugar en donde se deseé colocar las unidades de cargas, al igual que calcular los tiempos de colocación y reubicación de las unidades de carga para comprobar algoritmos de análisis predictivo, que optimicen la labor logística. >Yang, J. (2019). Desing and study of intelligent warehousing system based on RFID technology. En 2019 International conference on intelligent transportation, Big Data & Smart City (ICITBS) (págs. 393-396). IEEE. https://ieeexplore-ieee-org.bd.univalle.edu.co/document/8669644 >Jerez, B. (2021). Diseño y construcción de un prototipo a escala de un transelevador automatizado tipo AS/RS unit load para el transporte de cargas paletizadas. Unab.edu.co. http://hdl.handle.net/20.500.12749/14336
Contreras Ramos Moises, Universidad de Guadalajara
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

ANáLISIS ESPACIO-TEMPORAL DE DATOS ABIERTOS DE SALUD


ANáLISIS ESPACIO-TEMPORAL DE DATOS ABIERTOS DE SALUD

Contreras Ramos Moises, Universidad de Guadalajara. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades respiratorias, dentro de las que se encuentra la bronquitis representan un desafío significativo para la salud pública en todo el mundo, incluido México. Caracterizada por la inflamación crónica de los bronquios, esta afección puede llevar a una reducción de la calidad de vida y, en casos graves, a complicaciones mortales. En el contexto de la epidemiología, comprender los factores que influyen en la incidencia y la gravedad de la bronquitis crónica es crucial para el diseño de estrategias de prevención y atención adecuadas. El presente informe de investigación se enfoca en desarrollar un modelo predictivo basado en machine learning que permita identificar y analizar la relación entre las defunciones por bronquitis crónica y el lugar de residencia de las personas afectadas en México. El objetivo principal de este estudio es emplear técnicas avanzadas de ciencia de datos para descubrir posibles patrones y correlaciones que podrían no ser aparentes en un análisis convencional. El entorno geográfico y ambiental en el que las personas residen podría tener un papel crucial en la prevalencia y gravedad de la bronquitis crónica. Factores como la calidad del aire, la exposición a contaminantes ambientales y las condiciones climáticas pueden influir en la aparición y desarrollo de la enfermedad. Por lo tanto, es fundamental explorar cómo el lugar de residencia puede estar relacionado con la mortalidad por esta afección respiratoria. El desarrollo de un modelo predictivo preciso y confiable podría brindar una comprensión más profunda de los factores geográficos y ambientales que influyen en la mortalidad por bronquitis crónica en México. Esta información será de gran relevancia para los responsables de la toma de decisiones en salud pública, ya que permitirá identificar áreas geográficas con mayores tasas de mortalidad y diseñar intervenciones específicas para reducir la carga de esta enfermedad en la población afectada.  



METODOLOGÍA

El objetivo de esta investigación se centró en encontrar una posible relación entre las muertes causadas por bronquitis crónica en México y el lugar de residencia de las personas afectadas. Para alcanzar este propósito, se llevó a cabo un minucioso análisis utilizando dos conjuntos de datos clave: el conjunto de datos abiertos de la dirección general de información en salud correspondientes a los años 2020 y 2021, y el censo de población y vivienda 2020 proporcionado por el INEGI. La metodología empleada para llevar a cabo este estudio se basó en el enfoque CRISP-DM (Cross-Industry Standard Process for Data Mining) de ciencia de datos, que proporcionó una estructura sistemática para la exploración, preparación y modelado de los datos. El primer paso consistió en realizar una exhaustiva limpieza y preparación de los datos para eliminar posibles valores atípicos y garantizar la integridad y confiabilidad de la información. Posteriormente, se procedió a la integración de ambos conjuntos de datos, buscando vincular las variables demográficas proporcionadas por el censo con la incidencia de muertes por bronquitis crónica registradas en el conjunto de datos de salud. Con los datos preparados, se procedió a la etapa de modelado utilizando diferentes algoritmos de machine learning. Entre los algoritmos empleados se incluyeron Random Forest Classifier, Naive Bayes, y Extreme Gradient Boosting, entre otros. Sin embargo, el algoritmo que arrojó los mejores resultados fue el "Light Gradient Boosting Machine" (LGBM), el cual demostró una eficacia destacable en la predicción de la probabilidad de que una persona sea afectada gravemente por la bronquitis crónica en función de su lugar de residencia. La metodología utilizada durante el proyecto se compone de los siguientes datos listados a continuación: Revisión exhaustiva de la literatura científica y recursos disponibles sobre datos abiertos de salud relacionados a defunciones por bronquitis crónica y datos sociodemográficos. Selección de los conjuntos de datos abiertos de salud y sociodemográficos a utilizar enfocados a bronquitis. Análisis de los conjuntos de datos seleccionados individualmente con el objetivo de familiarizarse con  la información dentro de estos, así como identificar patrones relevantes Preprocesamiento de los datos de salud y sociodemográficos, incluyendo limpieza, normalización e integración de diversas fuentes. Aplicación de técnicas de minería de datos y aprendizaje automático para descubrir patrones y tendencias ocultas Desarrollo de modelos predictivos experimentando con distintos algoritmos de aprendizaje automático con el objetivo de determinar el más apto para descubrir relaciones relevantes entre datos abiertos de salud relacionados a defunciones por bronquitis y datos sociodemográficos Validación del modelo seleccionado como el mas apto utilizando una muestra de datos de prueba. Realización de documentación del proyecto, incluyendo el proceso de desarrollo del mismo, resultados y conclusiones Preparación de presentación final  para resumir hallazgos y contribuciones del proyecto Presentación y discusión de resultados en el congreso.  


CONCLUSIONES

Al concluir la estancia, se logró alcanzar el objetivo general del proyecto, que consistía en emplear técnicas de aprendizaje automático y una metodología de ciencia de datos para crear un modelo de predicción con una precisión suficientemente alta para que los datos generados fueran útiles. Después de realizar experimentos con diferentes algoritmos de inteligencia artificial, se obtuvo una precisión del 78% utilizando el algoritmo "Light Gradient Boosting Machine". La metodología empleada durante el proceso de construcción del modelo fue CRISP-DM. Debido al breve periodo de tiempo de la estancia, no fue posible desarrollar una interfaz web para representar de manera más amigable los datos generados por el modelo de predicción. Sin embargo, las gráficas generadas a partir del modelo sirven como una buena representación visual de los resultados finales.  
Contreras Tortoledo Miguel Angel, Universidad de Guadalajara
Asesor: Dr. Alejandro Ramirez Gaytan, Universidad de Guadalajara

CARACTERIZACIóN DE SUELO EN 4 SITIOS DE LA CIUDAD DE MéXICO UTILIZANDO EL MéTODO DE HVSR.


CARACTERIZACIóN DE SUELO EN 4 SITIOS DE LA CIUDAD DE MéXICO UTILIZANDO EL MéTODO DE HVSR.

Contreras Tortoledo Miguel Angel, Universidad de Guadalajara. Asesor: Dr. Alejandro Ramirez Gaytan, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La Ciudad de México esta rodeada por sierras, volcanes y lagos. Ha sido afectada por diferentes fenómenos geológicos, de los cuales los más destacados son los sismos, fallas geológicas, subsidencias y hundimientos. Se encuentra dividida en 3 zonas diferentes: Lomas, transición y lago, cada una con diferentes tipos de suelo y roca que hacen a la Ciudad de México una zona altamente compleja en términos geológicos y geotécnicos. Estas divisiones geológicas tienen un papel importante en la respuesta sísmica del suelo y en la vulnerabilidad ante eventos sísmicos. La mayor problemática con los sismos es que el terreno sufre de cambios geotécnicos mayormente negativos y esto tiene consecuencias al construir cualquier obra civil sobre el terreno. Los problemas aparecen cuando el periodo fundamental del sitio cambia negativamente, esto puede requerir modificaciones en las normas de construcción establecidas y en el peor de los casos que una estructura colapse. Por lo tanto es muy importante conocer el periodo fundamental del suelo para mitigar los daños causados ante un sismo y garantizar la seguridad de las obras civiles.



METODOLOGÍA

Se tomaron los registros sísmicos de los siguientes 3 sismos: 19 de septiembre del 2022, Mw = 7.7 22 de septiembre del 2022, = 6.9 19 de enero del 2023, Mw = 3.4 Estos registros fueron registrados por 4 estaciones sísmicas a superficie y a pozo con una excepción en la estación ZARA, ya que solo registro los sismos del 2022. COYO - 42 m - Tipo de suelo (Arena limosa) CHAP - 32.2 m - Tipo de suelo (Arena con grava) ROMA - 24 m - Tipo de suelo (Arcilla limosa) ZARA - 32.4 m - Tipo de suelo (Arcilla limosa) Para la interpretación, se utilizó el método HVSR (Horizontal to Vertical Espectral Ratio) que es una técnica que se utiliza para determinar la frecuencia natural del suelo y su amplificación sísmica, y con este método y la ayuda del software Geopsy se generaron los cocientes espectrales H/V, que no es mas que una relación entre las amplitudes horizontales y verticales de la señal sísmica. Primero se tomo la onda S, después la onda S y coda y al final toda la señal, esto se realizó con la señal de los 3 sismos en cada estación a superficie y a pozo. Teniendo ya todos los cocientes espectrales H/V, se generó una tabla con los datos de las amplitudes y periodos máximos alcanzados, esto para que después, con ayuda del lenguaje de programación Python, se generarán gráficas mostrando los picos máximos de amplitud de cada onda para así observar de manera mas clara su comportamiento. Después se elaboraron 8 gráficas las cuales muestras su señal registrada a superficie y a pozo, mostrando su amplitud máxima alcanzada por cada sismo, esto para visualizar de manera mas clara la comparación entre cada uno. Por último, se gráfico para cada señal los periodos máximos alcanzados, esto para darnos cuenta si el terreno del sitio se fue consolidando o se volvió mas inestable con el tiempo. Los resultados fueron los siguientes: La estación COYO a superficie y a pozo tuvo un aumento de frecuencia, que indicaría que el sitio se volvió mas inestable con el tiempo. La estación CHAP a superficie tuvo una disminución de frecuencia, lo que indica que el sitio se consolido, pero en pozo tuvo un aumento de frecuencia, lo cual nos indica que se volvió mas inestable. La estación ROMA arrojó resultados con frecuencias crecientes en cada sismo, lo que indicaría que se volvió mas inestable el sitio. Por último, la estación ZARA mostró una disminución de frecuencia en la superficie y en pozo, lo que indica que el sitio se consolido, volviéndolo mas estable.


CONCLUSIONES

Los resultados muestran que en algunas estaciones el terreno se ha consolidado, volviéndose más estable, mientras que en otras ha ocurrido lo opuesto, volviéndose más inestable. Estos hallazgos son de vital importancia para comprender cómo el suelo responde ante eventos sísmicos y para adoptar medidas preventivas y de mitigación de riesgos. En definitiva, este proyecto que realicé contribuye al avance del conocimiento sobre la geología y geotecnia de la Ciudad de México, proporcionando información crucial para la toma de decisiones en la planificación urbana y la seguridad de las construcciones en una región altamente susceptible a sismos. El análisis de los cocientes espectrales y la comparación de periodos permiten tener una visión más clara de la respuesta del suelo frente a los sismos y subraya la importancia de continuar investigando y monitoreando el comportamiento geológico de esta ciudad en constante evolución.
Contreras Vergara Alonso, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara

EVALUACIóN DE LA ACTIVIDAD FOTOCATALíTICA DEL DIóXIDO DE TITANIO DOPADO CON NíQUEL EN DISTINTAS PROPORCIONES PARA LA DEGRADACIóN DE IBUPROFENO BAJO IRRADIACIóN UV-C.


EVALUACIóN DE LA ACTIVIDAD FOTOCATALíTICA DEL DIóXIDO DE TITANIO DOPADO CON NíQUEL EN DISTINTAS PROPORCIONES PARA LA DEGRADACIóN DE IBUPROFENO BAJO IRRADIACIóN UV-C.

Contreras Vergara Alonso, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La creciente población y el aumento en el uso de productos químicos han causado problemas ambientales, liberando sustancias dañinas al medio ambiente. Los contaminantes emergentes, presentes en diversas fuentes de agua, plantean riesgos para la salud y el ecosistema. Los contaminantes incluyen productos farmacéuticos, pesticidas y metales pesados, afectando gravemente recursos hídricos y la salud en varias regiones, como Egipto, India y China. En particular, los medicamentos antiinflamatorios no esteroideos (AINEs), como el ibuprofeno, son preocupantes. Aunque los tratamientos de aguas residuales eliminan parte de estos compuestos, persisten en niveles preocupantes. El ibuprofeno, comúnmente usado y presente en aguas residuales, plantea preocupación por sus efectos tóxicos y la formación de compuestos peligrosos. La fotocatálisis se destaca como una prometedora técnica para degradar contaminantes en el agua. Utiliza óxidos metálicos para generar especies oxidantes que eliminan contaminantes. El dióxido de titanio (TiO2) es un fotocatalizador común, pero solo es activado por radiación ultravioleta (UV), limitando su eficacia. El dopaje con níquel (Ni) se propone como solución para activar el TiO2 con luz visible, mejorando la eficiencia. Aunque se ha estudiado en otros contaminantes, su efecto específico en el ibuprofeno aún no está claro. Esta investigación busca evaluar la actividad fotocatalitica de distintas proporciones de dopaje de níquel en el TiO2 para degradar el ibuprofeno bajo irradiación UV-C. El objetivo es avanzar en la aplicación de la fotocatálisis con níquel dopado para limpiar el agua de contaminantes farmacéuticos y contribuir a una solución sostenible.



METODOLOGÍA

Preparación de la solución de ibuprofeno: Se trituró una tableta de ibuprofeno de 500 mg hasta obtener un polvo fino, posteriormente se calculó la cantidad de sólido a añadir en 1 L de agua purificada para obtener una solución con una concentración de 30 ppm. Esta solución se mantuvo en constante agitación y aireación durante todo el proceso. Configuración del experimento: El reactor de vidrio pyrex fue llenado con 0.3 L de solución de ibuprofeno a 30 ppm. Se agregó 0.1 g de fotocatalizador al sistema y se inició la agitación y aeración. Muestreo: Se realizaron extracciones de 3 mL de la solución para su análisis mediante espectrofotometría UV-VIS. La primera toma de muestra se efectuó después de 30 minutos en condiciones de oscuridad, con el propósito de evaluar el efecto de la adsorción del material en la solución de degradación. A continuación, se procedió con la activación de la solución mediante la lámpara UV-C. Se tomaron muestras a intervalos de 1 minuto durante los primeros 10 minutos, seguidas por 2 muestras a los 20 y 30 minutos. Posteriormente, se recolectaron muestras cada 15 minutos hasta alcanzar un período total de 180 minutos (3 horas). Análisis de Datos: Para el análisis se empleó un espectrofotómetro SHIMADZU UV-VIS UV-2600. Se procedió a generar una curva de calibración utilizando diversas disoluciones de ibuprofeno, las cuales fueron preparadas a partir de una solución madre. El rango de concentraciones abarcó desde 30 ppm hasta 3 ppm, con decrementos de 3 ppm. Posteriormente, todas las muestras obtenidas se sometieron al análisis espectrofotométrico para determinar las concentraciones correspondientes. Cinética y tiempo de vida media: La determinación de la velocidad de degradación de la solución de ibuprofeno se realizó empleando el modelo de Langmuir-Hinshelwood.


CONCLUSIONES

Curva de Calibración: Se obtuvo una curva de calibración que exhibe un ajuste lineal notablemente preciso para el equipo espectrofotométrico. Degradación de Ibuprofeno: En los primeros 30 minutos de oscuridad, no se observó una adsorción significativa en ninguno de los fotocatalizadores. El TiO2 - 0.1%Ni se destacó como el más efectivo en la degradación del ibuprofeno, presentando una constante cinética de 0.0107 L/min. Aunque el TiO2 - 0.3%Ni demostró un rendimiento cinético muy cercano. Es importante resaltar que una mayor proporción de níquel no necesariamente resulto en una mejor actividad fotocatalítica, al menos en términos de la degradación del ibuprofeno. Además, se observa que dentro del rango de 0.5% a 1% de níquel, se produce un efecto adverso en las constantes cinéticas y los tiempos de vida media, lo cual contrasta con los demás fotocatalizadores. En general, los tiempos de vida media oscilan entre 75 y 85 minutos para todos los otros fotocatalizadores. Lista de constantes cinéticas, tiempos de vida media y porcentaje de degradación de cada uno de los fotocatalizadores: TiO2-0.1%Ni - 0.01079 L/min - 64.23 min - 78.28% TiO2-0.3%Ni - 0.00884 L/min - 78.41 min - 71.29% TiO2-0.5%Ni - 0.00524 L/min - 132.27 min - 53.90% TiO2-1%Ni - 0.00654 L/min - 105.98 min - 62.78% TiO2-3%Ni - 0.0079 L/min - 87.74 min - 68.84% TiO2-5%Ni - 0.00806 L/min - 85.99 min - 63.18% Los resultados de este trabajo destacan la importancia del dopaje de níquel en los fotocatalizadores de TiO2 para la degradación eficiente del ibuprofeno, se evidencia en los resultados que el dopaje conduce a una actividad fotocatalítica destacada como se menciona en diversos estudios. Aunque se esperaría que un mayor porcentaje de níquel condujera a una mayor actividad fotocatalítica, los hallazgos revelan una relación más compleja. El fotocatalizador TiO2 - 0.1%Ni se distinguió como el más eficaz en términos de constante cinética, seguido de cerca por el TiO2 - 0.3%Ni. Sorprendentemente, la incorporación de níquel en el rango de 0.5% a 1% condujo a resultados menos deseables, evidenciando que el efecto del dopaje no es lineal y puede estar sujeto a fenómenos específicos de interacción en la estructura del material que, dada su complejidad, es necesario realizar un análisis estructural detallado de estos materiales. La posibilidad de polimorfismo o variaciones en la estructura cristalina de los fotocatalizadores podría influir en los resultados observados en los fotocatalizadores con 0.5 y 1% de Níquel.
Córdova Morales Javier Isain, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE ESFUERZOS MECáNICOS – ELéCTRICOS DEL CABLE OPGW POR MEDIO DEL SOFTWARE SOLIDWORKS Y COMSOL.


ANáLISIS DE ESFUERZOS MECáNICOS – ELéCTRICOS DEL CABLE OPGW POR MEDIO DEL SOFTWARE SOLIDWORKS Y COMSOL.

Camera Ozuna Javier, Instituto Tecnológico de Tuxtla Gutiérrez. Córdova Morales Javier Isain, Instituto Tecnológico de Tuxtla Gutiérrez. Perez de la Cruz Albert Uriel, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el cable óptico a tierra, mas conocido por sus siglas en ingles como cable OPGW este tiene la función de blindar el SEP y de transmitir datos mediante su fibra óptica. Para garantizar el rendimiento optimo y la confiabilidad del cable OPGW, es fundamental llevar a cabo pruebas mecánicas y eléctricas rigurosas durante su diseño y desarrollo. En este contesto existe una gran variedad de software sofisticados como son SolidWorks y Comsol que permiten simplificar y optimizar el proceso de pruebas, asegurando la calidad y seguridad del cable en cuestión.



METODOLOGÍA

Las pruebas mecánicas se enfocan en evaluar la resistencia y durabilidad del cable frente a diversas condiciones y cargas mecánicas. Esto incluye pruebas de tracción, compresión, flexión y resistencia a la vibración entre otras. SolidWorks es un software de diseño que ofrece herramientas de simulación y modelado 3D que permite recrear estas condiciones y analizar el comportamiento del cable bajo diferentes escenarios. Lo que son las pruebas eléctricas se centran en evaluar la capacidad de transmisión de datos a través de la fibra óptica y la integridad del conductor a tierra. Comsol es un software que también desempeña un papel crucial en este aspecto, ya que puede simular el comportamiento de la señal óptica y eléctrica en el cable OPGW, además Comsol puede evaluar la resistencia a corrientes de cortocircuito y la capacidad de conducción térmica, eléctrica y magnética.


CONCLUSIONES

En simulaciones mecánicas empleadas en SolidWorks se obtuvieron 2 pruebas, una de ellas es la de análisis estático mediante sujeciones y cargas a la deflexión. Provocando la holgura y deformación del cable OPGW. Y la segunda fue la de tensión y cargas de tracción que simulan el efecto jaula de pájaro o llamado en ingles bridcaging. Ya que en pruebas eléctricas mediante el software Comsol se obtuvieron de igual manera 2 simulaciones, una de ellas es la conducción de densidad de flujo magnético que es provocada por una alta elevación de corriente, y por la misma elevación de corriente también se obtiene el efecto joule o conducción térmica. En conclusión, se obtuvo una gran cantidad de información sobre el comportamiento del cable OPGW y una gran cantidad de conocimiento sobre la manipulación de estos softwares  que permiten simplificar y optimizar las pruebas que por ende son presenciadas en campo.
Cornelio Salinas Sergio Alejandro, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

ALGORITMOS DE CLASIFICACIóN NO SUPERVISADA, PARA DETERMINAR PATRONES EN CONJUNTOS DE DATOS


ALGORITMOS DE CLASIFICACIóN NO SUPERVISADA, PARA DETERMINAR PATRONES EN CONJUNTOS DE DATOS

Cornelio Salinas Sergio Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema Clasificar, es la acción que consiste en asignar un objeto (instancia, dato) a una clase (categoría). Por ejemplo, podemos clasificar una imagen como paisaje, retrato, etc. Otro ejemplo es asignar palabras a categorías gramaticales: sustantivo, verbo, adjetivo, etc. La clasificación encuentra aplicaciones, tales como: • Sistemas biométricos: donde se asigna una imagen de una huella, el iris o inclusive el rostro a la persona correspondiente, en sistemas de control de acceso (seguridad). • Lectores de correo electrónico: los cuales filtran mensajes que sean spam (no solicitados), pishing (suplantación de identidad), entre otros. • Control de calidad en la industria: para clasificar una pieza o producto como correcta o defectuosa, en forma rápida, exacta, precisa y relativamente poca incertidumbre.  • Sistemas expertos para asistencia médica: los cuales ayudan a los especialistas médicos a diagnosticar apropiadamente enfermedades, muchos de estos se basan en procesamiento digital de imágenes. Para los humanos la acción de clasificar es natural, ya que los sentidos permiten abstraer información del entorno y catalogarla, ayudando a la toma de decisiones. Sin embargo, en los sistemas computacionales, no es una acción tan sencilla, ya que primeramente la información deberá de representarse en términos tales, que puedan ser manipulados computacionalmente y entonces proceder a la clasificación. Esto indica que en la clasificación por computadora existen dos problemas, por un lado, la representación de la información (la cual se puede originar de diversas fuentes como sensores, archivos, etc.), y por el otro lado, la clasificación en sí. Se reconoce dos tipos de clasificadores fundamentalmente: a) No supervisado o agrupamiento, donde un conjunto de n objetos se debe dividir (clasificar) en k clases desconocidas, de tal forma que objetos similares se les asigna la misma clase b) Supervisado, donde se conocen a priori las clases, y el problema se reduce a encontrar una función que asigne cada objeto su clase correspondiente. Los clasificadores no supervisados son muy útiles cuando no se cuenta con la información de salida del problema. Por el contrario, cuando se dispone de esta información (de salida) o metadatos, un clasificador supervisado es más adecuado. Entre los algoritmos de clasificación supervisada, se encuentran: Naïve-Bayes, K vecinos más cercanos o KNN, Perceptrón Multicapa (MLP), entre otros, mientras que los no supervisado Clusterización por Lógica Difusa (FCM) y redes neuronales artificiales (RNA), entre otros.



METODOLOGÍA

METODOLOGÍA Primeramente, se realizó una revisión de la literatura sobre Algoritmos de Clasificación, tanto supervisados como No Supervisados, encontrándose una gran variedad destinados a diversos tipos de problemas, seleccionándose el Clasificador de Naïve Bayes, KNN y Perceptrón Multicapa como algoritmos supervisados, mientras que los No Supervisados se seleccionan: FCM, K-Means, y Red Neuronal de Regresión General. También, se selecciono Python 3.3 como lenguaje de programación y la librería Scikit-Learn.  A continuación, se seleccionó el conjunto de datos (dataset) Iris (reunido por Fisher en 1936), teniendo las características de ser multi características (cuatro en total: largo del sépalo, ancho del sépalo, largo del pétalo y ancho de pétalo); con 150 muestras dividido en 3 clases (50 muestras por clase). Para todos los algoritmos se separaron aleatoriamente el conjunto total en 90% para entrenamiento (135 muestras) y 10% (15 muestras), para pruebas.  Enseguida, se empezó con los Algoritmos Supervisados, encontrándose que el Perceptrón Multicapa (MLP), es el mejor algoritmo dado el conjunto de datos que se tiene. Posteriormente, se procedió con los Algoritmos de Clasificación No Supervisada, encontrándose que el FCM da buenos resultados, mientras que las Redes Neuronales en ocasiones da muy buenos resultados, sin embargo, tiende a no ser repetible los resultados.


CONCLUSIONES

En conclusión, se abordó el problema de la clasificación y se destacó su importancia en diversas aplicaciones, desde sistemas biométricos hasta sistemas expertos para asistencia médica. Se mencionaron dos tipos de clasificadores: supervisados y no supervisados. La metodología del estudio involucró la revisión de la literatura sobre algoritmos de clasificación y la selección de varios algoritmos para el conjunto de datos "Iris". Se encontró que el Perceptrón Multicapa (MLP) es el mejor algoritmo supervisado, mientras que el FCM dio buenos resultados en la clasificación no supervisada. Sin embargo, se observó que los resultados de las redes neuronales no supervisadas pueden variar y no ser repetibles invariablemente.
Coronado Cabrera Bryan Axl, Universidad de Guadalajara
Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco

ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA


ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. González Ascencio Osvaldo Isay, Universidad de Guadalajara. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Quintero García Oliver Israel, Universidad de Guadalajara. Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

El dengue transmitido por los mosquitos Aedes aegypti y Aedes albopictus es un problema de salud crítico en las zonas tropicales de nuestro país. Sin embargo, incluso en áreas urbanas con un clima cálido y subhúmedo, como la zona metropolitana de Guadalajara, existe un riesgo considerable, especialmente durante el verano. Aunque los casos registrados en Jalisco son relativamente pocos, alrededor de 150 confirmados por año en promedio, es importante considerar que la mayoría de los casos pueden no ser diagnosticados, ya que otras regiones del país con clima similar y menor densidad poblacional informan y registran más casos anualmente. Entre la información necesaria a la hora de atacar esta problemática, está la estimación de densidad poblacional de los mosquitos y riesgos de transmisión. Ésta se realiza haciendo uso de ovitrampas distribuidas estratégicamente en zonas críticas de la región, utilizadas para recolectar huevos de vectores de dengue (Ae. aegypti y Ae. albopictus). Las ovitrampas utilizadas en el área metropolitana de Guadalajara consisten en dispositivos hechos de un bote plástico de color negro de 1 L. de capacidad, el cual es llenado a partes de volumen y recubierto sobre el borde de agua con una papeleta de pellón o papel filtro. Uno de los problemas presentes en el uso de este método de monitoreo del dengue es la falta de practicidad y fiabilidad en el conteo manual de los huevos de Ae. aegypti y Ae. albopictus en ovitrampas por parte del personal del Departamento de Dirección del Programa de Enfermedades Transmitidas por Vectores del Gobierno de Jalisco. Para abordar esta situación, es necesario digitalizar el proceso de conteo de huevos, que actualmente se realiza de forma manual por el personal gubernamental. Además, es importante analizar la información procesada para determinar la precisión del conteo de huevos en contraste con los datos públicos. El conteo manual de los huevos no solo se ve afectado por la salud visual del personal a largo plazo, si no que también presenta una fiabilidad altamente variable debido a la fatiga visual que se produce en la concentración de la vista en puntos específicos como lo demanda el conteo que realiza el personal. Al abordar el siguiente problema, también se podría reducir el margen de error en el conteo de huevos en un considerable porcentaje.



METODOLOGÍA

Con base al análisis situacional previo, realizado en base a los reportes emitidos por la Secretaría de Salud de Jalisco, en el cual se conoció el proceso de vigilancia y monitoreo de las ovitrampas instaladas en la zona, se ha detectado la necesidad de vigilar y cuantificar la cantidad de huevecillos producidos por el mosquito Aedes Aegypti y Aedes Albopictus transmisor de la enfermedad del dengue. El hecho de cuantificar los huevecillos captados en las ovitrampas le proporciona al sector salud información para determinar las estrategias a implementar para combatir la proliferación de dicho mosquito. Sin embargo, se percibe que este proceso de vigilancia y cuantificación se realiza de forma manual, por lo cual sería importante realizarlo con base a tecnologías emergentes que coadyuven en esta tarea para aumentar la optimización del tiempo y los niveles de confianza en el conteo y monitoreo. Se ha tomado como punto de partida el hecho de que, para una computadora, las imágenes no son más que una matriz de información donde se almacena el valor del píxel en que se encuentra sobre una pantalla. Cada uno de dichos píxeles se identifica por sus coordenadas y el nivel de intensidad con el que se visualiza. En las imágenes en blanco y negro dicho nivel de intensidad es un valor en el rango 0 - 255, siendo 0 la oscuridad absoluta y 255 la máxima luminosidad. Entre medias estaría toda la escala de grises. En las imágenes en color cada píxel se compone de tres valores, correspondientes a la intensidad de los tres colores primarios: rojo, verde y azul. De tal manera que para el desarrollo del proyecto, se han aplicado los aportes conceptuales de los diversos autores consultados así como las cuatro fases ya mencionadas: adquisición, preprocesamiento, determinación de objetos y análisis de imágenes del mundo real.


CONCLUSIONES

Una de las técnicas empleadas para el procesamiento de la imagen fue la binarización. Esta técnica tiene como función principal convertir la imagen en escala de grises a una imagen binaria, donde los píxeles se representan con valores de blanco o negro. La binarización permite que la computadora perciba la imagen de manera más efectiva, se simplifica la complejidad de la imagen y se resaltan los contornos y características distintivas. A través de la binarización es posible distinguir los contornos de la imagen y los objetos que contienen, de esta manera podemos identificar los huevos en el pellón, para reducir la cantidad de falsos positivos basándonos en un análisis previo de los rangos en los que se encuentran los tamaños de los huevos. De esta manera, el algoritmo puede realizar un conteo preciso de la cantidad de huevos presentes en el pellón. El avance de este algoritmo de conteo, que emplea técnicas de visión artificial, representa una alternativa considerablemente más precisa y eficiente en comparación con los métodos actuales que el personal de la Secretaría de Salud de Jalisco utiliza para contar manualmente los huevecillos presentes en el pellón. Además del ahorro de tiempo, el enfoque de visión artificial muestra un mayor grado de consistencia y fidelidad en los datos obtenidos. Al eliminar el factor subjetivo asociado con el conteo manual, se minimizan las posibles discrepancias y errores humanos, asegurando resultados más precisos y confiables en el análisis. En conclusión, los resultados de esta investigación respaldan la superioridad del enfoque de visión artificial en términos de ahorro de tiempo, eficiencia y precisión en el conteo de huevecillos. Esta tecnología promete ser una herramienta valiosa para mejorar la calidad y efectividad de los procesos de conteo en diversas aplicaciones, incluida la labor del personal de la Jurisdicción Sanitaria en el monitoreo de huevecillos y otras tareas relacionadas.
Coronado Hernández Ayelen Geraldine, Instituto Tecnológico de Tlalnepantla
Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

LEAN SAFETY


LEAN SAFETY

Coronado Hernández Ayelen Geraldine, Instituto Tecnológico de Tlalnepantla. Cortes Navarro Orlando, Instituto Tecnológico Superior de Uruapan. Garibay Diaz Marcela, Instituto Tecnológico Superior de Uruapan. Ramirez Castro Ana Georgina, Instituto Tecnológico Superior de Uruapan. Silva Tapia Melchor, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La falta de implementación de la filosofía Lean Safety en la empresa empacadora de aguacates, no permite reducir los sietes desperdicios en el área de producción y contribuir a la minimizar la incidencia de accidentes, además de riesgos laborales.  Con lo anterior mencionado, se requiere darle solución a este problema por parte de la empresa Brandon´s Fresh.



METODOLOGÍA

El plan de trabajo llevado a cabo se realizó bajo los principios de Manufactura Esbelta tales como: 5s, 7 desperdicios, Kaizen, Administración visual y Mantenimiento Productivo Total (TPM).  El equipo de trabajo se apoyó del campo de la Seguridad e Higiene Industrial, que con su enfoque y normatividad, se buscó la aplicación de las Normas Mexicanas establecidas por la Secretaría de Trabajo y Previsión Social (NOM-STPS). Fue así que en la primera intervención se inició con un recorrido dentro de las diferentes áreas que conforman a la empresa empacadora: proceso de selección, empaquetado, cámara de frio y distribución del producto. Con lo anterior se identificaron oportunidades de mejora en el área de producción utilizando un formato llamado Actividad de Seguridad Esbelta. Se prosiguió con la realización de una encuesta para el llenado del formato de Relevamiento Inicial, donde se identifican las Normas Mexicanas (NOM) de acuerdo a la Secretaria de Trabajo y Previsión Social (STPS). Se buscó profundizar en los inconvenientes que en la empresa se encontraron, a través del formato de Actividad de Seguridad Esbelta, revisando temas como: ergonomía, riesgos latentes y desperdicios (esperas, transporte, sobreproceso, inventario, movimientos, defectos y sobreproducción). Se elaboró una base de datos en una hoja de calculo de EXCEL donde se organizaron los inconvenientes encontrados con su debida propuesta, herramienta Lean, Normativa y Clausula Especifica que le corresponde. Cabe mencionar que los inconvenientes encontrados se presentaron formalmente ante el departamento de S.H.I con las respectivas propuestas, herramientas de Lean y su normatividad. Se invitó al equipo de trabajo a participar en la Comisión Mixta de Seguridad e Higiene, junto con el coordinador de S.H.I y participantes del área de inocuidad y almacén, con el fin de identificar condiciones y actos inseguros en cada área de le empresa Brandon´s Fresh.  


CONCLUSIONES

Para culminar, durante las intervenciones a la empresa se logró aplicar la filosofia Lean Safety para la elaboración de un diagnóstico que nos diera la nocion total sobre la situación actual de la empacadora. Apartir de conocer a la empresa se pudieron proponer alternativas de solución para los inconvenientes encontrados, es decir, por cada área de oportunidad encontrada se propone una acción de mejora a partir de la aplicación de herramientas de Lean y siguiendo la normatividad de las Normas Mexicanas (NOM).  El proyecto de Lean Safety ayudó a cada miembro del equipo a desarrollar sus competencias en un plano práctico.    
Coronado Ocaño Stefany Lizeth, Servicio Nacional de Aprendizaje SENA - Regional Risaralda
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

MEDICIóN DEL NIVEL DE CUMPLIMIENTO DE LA NOM-030-STPS, EN LAS PYMES DE BALANCáN TABASCO


MEDICIóN DEL NIVEL DE CUMPLIMIENTO DE LA NOM-030-STPS, EN LAS PYMES DE BALANCáN TABASCO

Coronado Ocaño Stefany Lizeth, Servicio Nacional de Aprendizaje SENA - Regional Risaralda. Estrada González Samantha, Universidad de Guadalajara. Ferruzca Velazquez Yosseline Jackeline, Instituto Tecnológico de Querétaro. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con el libro de seguridad y salud industrial en el trabajo en el 2017 se ha registrado que en Tabasco cuentan 202,673 trabajadores que cuentan con seguro de riesgos, y los casos registrados son de 4,198 que equivale al 2.1% de riesgos que trabajos, así mismo el porcentajes de accidentes de trabajo y en trayecto en las mujeres es de 25.2% y en hombres de 74.8%, en defunciones por accidentes las mujeres tienen un porcentaje de 7.7% y los hombre de 92.3%, en enfermedades de trabajo las mujeres un 11,1% y los hombres de 88,9%. No cuenta con un registro sobre las empresas que no cumplen con la seguridad industrial, pero se considera importante fomentar una colaboración más activa entre trabajadores y patrones, a nivel corporativo y está ligado a construir activamente mejoras entre trabajadores y empleadores en seguridad y salud en el trabajo en conjunto de la normativa de nuestro país lo contempla como una obligación empleados, formar e integrar comités de seguridad y salud en el lugar de trabajo.



METODOLOGÍA

La metodología empleada fue cualitativa y cuantitativa, ya que se utilizó a la lo largo del proyecto la recopilación de datos de diversidad fuentes como libros, artículos y tesis, además de la realización de checklist creado a partir de la NOM-030-STPS, la cuál se aplicó a 66 PYMES de Balancán Tabasco, y con los datos obtenidos se realizó un análisis estadístico.


CONCLUSIONES

De acuerdo con los datos obtenidos en la investigación se puede determinar que el número de lesiones y enfermedades laborales si se pueden prevenir mediante la aplicación de un programa de higiene y seguridad en el trabajo en las PYMES de Balancán, ya que la NOM-030-STPS, es la que por objetivo establecer las funciones y actividades que deberán realizar los servicios preventivos de Seguridad y Salud en el Trabajo para prevenir accidentes y enfermedades de trabajo, por lo cual ante la aplicación de un programa de higiene y seguridad en el trabajo se reducirán considerablemente los accidentes y enfermedades de trabajo. La facilitación de la implementación de la NOM-030-STPS-2009, es muy sencilla aunque por falta de desinterés y desinformación de las MIPYMES en Balancán no las aplican.
Coronado Ruiz Jonathan Ivan, Instituto Tecnológico de Morelia
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

EFECTOS DE LA ADICIóN DE MUCíLAGO DE NOPAL EN LA CARBONATACIóN DE MORTEROS BASE CEMENTICIA


EFECTOS DE LA ADICIóN DE MUCíLAGO DE NOPAL EN LA CARBONATACIóN DE MORTEROS BASE CEMENTICIA

Coronado Ruiz Jonathan Ivan, Instituto Tecnológico de Morelia. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La carbonatación se ha convertido en un problema serio en nuestros días por efecto del aumento en las cantidades de dióxido de carbono en el ambiente. En 2021, las emisiones de CO2 en México han crecido 17,222 megatoneladas, un 4,29% respecto a 2020 generando en 2021 un total de 418,348 megatoneladas en México. El mortero que contiene acero de refuerzo y con una humedad relativa de 50% a 55% se ve directamente agraviado por este fenómeno. Sin embargo, estudios han demostrado que morteros con humedad relativa de 75% disminuye la carbonatación porque los poros en el material quedan bloqueados. El efecto de carbonatación, se basa en la pérdida de pH en el mortero, cambiando drásticamente la alcalinidad (de 13 a 9 de pH), tener un pH alto protege el acero de la corrosión. Por consecuente; cuando el pH disminuye, la corrosión comienza a efectuarse en el acero de refuerzo, de esta manera, empieza el agrietamiento del mortero, disminuyendo así su vida útil, lo cual se vuelve un punto de interés y de estudio. Se busca que el mortero tenga la mayor vida útil y el menor mantenimiento posible. Por consiguiente, mejorar esta característica y evitar la propagación de este fenómeno en el mortero es fundamental. Es por esto, que este estudio busca mejorar la resistencia a la carbonatación con la adición de mucilago de nopal a morteros base cemento.



METODOLOGÍA

El dióxido de carbono tarda un tiempo considerable en infiltrarse a través de los poros del concreto. Por esta razón, y en concordancia con la norma NMX-C-530-ONNCCE-2018, se realizaron especímenes con medidas de 4X4X16, bajo circunstancias de humedad relativa de entre 50% y 80% y con un recubrimiento mínimo. Se generaron dos mezclas de mortero, una testigo y una adicionada con mucílago de nopal al 5%. Se colocaron 6 especímenes en la azotea durante 11 meses para conseguir una exposición constante al ambiente de la ciudad de Morelia. También, se dejaron 6 especímenes sumergidos en la pila de curado por el mismo lapso de tiempo. Se consideró utilizar el mucílago de nopal como agregado por varias razones; además de generar fuertes redes moleculares y retener grandes cantidades de agua, se destacan sus propiedades como buen gelificante, espesante y emulsificante, asimismo mejora la viscosidad y elasticidad. Transcurridos los 11 meses, se cortaron por mitad los especímenes con ayuda de marro y cincel. Posteriormente, se aplicó fenolftaleína en el área interna del espécimen. La característica de la fenolftaleína es que al aplicarse en superficies donde el pH es ácido, este permanece incoloro, sin embargo, al estar en contacto con superficies alcalinas, este se pintará de color rosado. De esta manera, se volvió muy sencillo detectar la carbonatación a simple vista, el área donde el espécimen permanecía incolora, develaba que se encontraba carbonatado.


CONCLUSIONES

En el caso de los especímenes que permanecieron en la azotea, una vez aplicada la fenolftaleína, se visualizó que el mucílago de nopal contribuyó a permanecer la alcalinidad de manera superior a los especímenes sin agregado. En los especímenes que permanecieron sumergidos en agua, la carbonatación fue nula, debido a que no tuvieron contacto con dióxido de carbono. Los milímetros de carbonatación medidos en los especímenes con mucílago de nopal fueron de 1.04 cm. Mientras que la carbonatación medida en los testigos fue de 1.4 cm. Siendo la anterior una diferencia bastante considerable entre especímenes, podemos afirmar que el mucílago de nopal mejora sustancialmente la resistencia a la carbonatación. Además, se observó que el área más carbonatada fue del lado del espécimen de donde provenían los vientos dominantes, lo cual se podía deducir, porque era mayor el contacto con dióxido de carbono contenido en el aire.
Correa Pérez Jessica Estefanía, Universidad Autónoma del Estado de México
Asesor: Mg. Gabriel Hernando Cadavid Marín, Universidad Autónoma de Manizales

PLANTA SOLAR FOTOVOLTAICA FLOTANTE SAN FRANCISCO 4,9MW – CHEC S.A. E.S.P.


PLANTA SOLAR FOTOVOLTAICA FLOTANTE SAN FRANCISCO 4,9MW – CHEC S.A. E.S.P.

Correa Pérez Jessica Estefanía, Universidad Autónoma del Estado de México. Asesor: Mg. Gabriel Hernando Cadavid Marín, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

En Colombia, la rica biodiversidad se traduce en oportunidades para el desarrollo económico y la lucha contra la pobreza. A pesar de depender en gran medida de la generación hidroeléctrica, el agotamiento de los combustibles fósiles y los impactos negativos de su extracción están impulsando la exploración de fuentes de energía renovable como la solar y la eólica. La transición hacia una economía baja en carbono es esencial, involucrando la descarbonización, descentralización y digitalización de la energía. El Plan Energético Nacional 2022-2052 (PEN) establece pilares para la transformación, incluyendo la Planta Solar Flotante San Francisco CHEC, que contribuiría a un suministro energético confiable y sostenible. La sostenibilidad también se conecta con los Objetivos de Desarrollo Sostenible, específicamente los objetivos 7 y 11, que buscan energía asequible y comunidades sostenibles. La diversificación de la matriz energética aumenta la seguridad energética, siendo vital para enfrentar el crecimiento de la demanda. En este contexto, la propuesta de implementar sistemas fotovoltaicos flotantes surge como una manera de aprovechar recursos disponibles y aumentar la capacidad instalada de generación eléctrica.



METODOLOGÍA

Para definir el alcance de las actividades asociadas a la Investigación, el Desarrollo tecnológico y la Innovación (I+D+i) de las propuestas de programa y sus proyectos asociados, y considerando sus posibilidades de transferencia de conocimiento y tecnologías generados, es conveniente establecer el grado de madurez tecnológica de los resultados esperados de las propuestas de programas en cualquiera de los focos estratégicos. En tal sentido, resulta de utilidad identificar el alcance de dichas actividades en términos del concepto de Nivel de Madurez Tecnológica o TRL por sus siglas en inglés (Technology Readiness Level), que tuvo su origen en la NASA a mediados de los años 70. (Minviencias Colombia). Van desde el nivel 1, que es la idea conceptual, hasta el nivel 9, que representa una tecnología completamente validada y lista para su implementación en el mercado. Cada nivel refleja un progreso gradual en términos de investigación, desarrollo, pruebas y aplicaciones prácticas. Estos niveles son utilizados para evaluar el riesgo y la viabilidad de una tecnología en diversos contextos, como investigación, desarrollo militar y desarrollo industrial.


CONCLUSIONES

La planta solar tendrá una potencia instalada de generación eléctrica de 6,1 MWp aproximadamente, y una potencia máxima para inyectar al sistema de 4,9 MW. Este abarcará una superficie 11% (4,5Ha de 44Ha). Incluirá una subestación eléctrica elevadora y una línea eléctrica evacuación de 14 km para alimentar, como fuente de respaldo, los servicios auxiliares de la planta Esmeralda.
Correa Rios Angely Juliana, Universidad Autónoma Latinoamericana
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

AJUSTE DE UN MODELO DE áRBOL DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LAS PRUEBAS SABER T&T


AJUSTE DE UN MODELO DE áRBOL DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LAS PRUEBAS SABER T&T

Carriazo Julio Geraldin Paola, Universidad Tecnológica De Bolívar. Correa Rios Angely Juliana, Universidad Autónoma Latinoamericana. Jaimes Hernández Erik Rubén, Instituto Tecnológico de Toluca. Suárez Sánchez Alex Antonio, Instituto Tecnológico de Toluca. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El proyecto tiene como objetivo ajustar un modelo de árbol de decisión para predecir el rendimiento de los estudiantes en las pruebas Saber T&T en Colombia. Estas pruebas son fundamentales para medir el nivel de conocimientos y habilidades de los alumnos, y el resultado puede tener un impacto significativo en su trayectoria educativa y futuras oportunidades. La predicción precisa del rendimiento estudiantil permitirá identificar áreas de mejora, optimizar recursos educativos y apoyar la toma de decisiones en políticas educativas.



METODOLOGÍA

La metodología CRISP-DM (Cross-Industry Standard Process for Data Mining) es un enfoque estructurado y ampliamente utilizado para la realización de proyectos de minería de datos. Fue desarrollada con el objetivo de guiar a los profesionales a través de las diferentes etapas del proceso de minería de datos de manera sistemática y eficiente. A continuación, se explica brevemente cada una de las fases de CRISP-DM, con apoyo de la definición de Espinosa-Zuñiga (2020) FASE I – Comprensión del problema o del negocio • Identificación del problema: Consiste en entender y delimitar la problemática, así como identificar los requisitos, supuestos, restricciones y beneficios del proyecto. • Determinación de objetivos: Puntualiza las metas a lograr al proponer una solución basada en un modelo de minería de datos. • Evaluación de la situación actual: Especifica el estado actual antes de implementar la solución de minería de datos propuesta, a fin de tener un punto de comparación que permita medir el grado de éxito del proyecto. FASE II – Comprensión de los datos En esta fase, se realiza una exploración exhaustiva de los datos disponibles para el proyecto. Se busca familiarizarse con las fuentes de datos, evaluar su calidad y determinar qué variables pueden ser relevantes para los objetivos del proyecto. De manera más específica: • Recolección de datos: Consiste en obtener los datos a utilizar en el proyecto identificando las fuentes, las técnicas empleadas en su recolección, los problemas encontrados en su obtención y la forma como se resolvieron los mismos. • Descripción de datos: Identifica el tipo, formato, volumetría y significado de cada dato. • Exploración de datos: Radica en aplicar pruebas estadísticas básicas que permitan conocer las propiedades de los datos a fin de entenderlos lo mejor posible. FASE III – Preparación de los datos En esta etapa, se lleva a cabo la limpieza, transformación y selección de los datos relevantes para construir el conjunto de datos adecuado para el análisis. Se trata de un proceso fundamental para garantizar que los datos sean aptos para su uso en la fase de modelado. De forma puntual, así: • Limpieza de datos: Aplicación de diferentes técnicas, por ejemplo, normalización de datos, discretización de campos numéricos, tratamiento de valores ausentes, tratamiento de duplicados e imputación de datos. • Creación de indicadores: Genera indicadores que potencien la capacidad predictiva de los datos a partir de los datos existentes y ayuden a detectar comportamientos interesantes para modelar. • Transformación de datos: Cambia el formato o estructura de ciertos datos sin modificar su significado, a fin de aplicarles alguna técnica particular en la etapa de modelado. FASE IV – Modelado En esta fase, se aplican diferentes técnicas de minería de datos, como árboles de decisión, regresión, clasificación, entre otras, para crear modelos predictivos o descriptivos que resuelvan el problema planteado. Se evalúan y ajustan los modelos para obtener el mejor rendimiento posible, de la siguiente manera: • Selección de técnica de modelado: Elige la técnica apropiada de acuerdo con el problema a resolver, los datos disponibles, las herramientas de minería de datos disponibles, así como el dominio de la técnica elegida. • Selección de datos de prueba: En algunos tipos de modelos se requiere dividir la muestra en datos de entrenamiento y de validación. • Obtención del modelo: Genera el mejor modelo mediante un proceso iterativo de modificación de parámetros de este. FASE V – Evaluación del modelo En esta etapa, se evalúan los modelos creados en la fase anterior para determinar su precisión y efectividad. Se utilizan métricas de evaluación para medir el rendimiento de los modelos y asegurarse de que cumplen con los objetivos del proyecto, se comparan los resultados con resultados previos, o bien, analizando los resultados con apoyo de expertos en el dominio del problema. De acuerdo con los resultados de esta etapa se determina seguir con la última fase de la metodología, regresar a alguna de las etapas anteriores o incluso partir de cero con un nuevo proyecto. FASE VI – Implementación del modelo Esta etapa explota, mediante acciones concretas, el conocimiento adquirido mediante el modelo, los resultados y conclusiones obtenidos a partir de los modelos se presentan a los interesados y se integran en el flujo de trabajo operativo, para que puedan utilizarse en la toma de decisiones y obtener beneficios prácticos. CRISP-DM proporciona una guía clara y estructurada para llevar a cabo proyectos de minería de datos, permitiendo a los profesionales abordar complejos problemas de análisis de datos de manera efectiva y eficiente.


CONCLUSIONES

El proceso de modelado implicó ajustar el algoritmo de árbol de decisión y explorar otras técnicas de aprendizaje automático, evaluando su rendimiento y precisión en diferentes conjuntos de datos. Como resultado, se seleccionó el mejor modelo que demostró ser eficiente y preciso en la predicción del rendimiento estudiantil en las pruebas Saber T&T. En conclusión, este proyecto ha demostrado la utilidad y relevancia de los modelos de árbol de decisión en la predicción del rendimiento académico. Al contar con un modelo preciso y confiable, se pueden identificar tempranamente a aquellos estudiantes que necesiten apoyo adicional, lo que permitirá implementar estrategias educativas personalizadas y efectivas para mejorar el rendimiento estudiantil en Colombia. Los resultados obtenidos tienen el potencial de mejorar la calidad de la educación y contribuir al desarrollo académico y socioeconómico del país, brindando igualdad de oportunidades para todos los estudiantes y fomentando una educación inclusiva y equitativa.
Corte Maldonado Andrea, Instituto Tecnológico de Puebla
Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro

LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO


LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO

Corte Maldonado Andrea, Instituto Tecnológico de Puebla. Cortés López Mariana Estefanía, Instituto Tecnológico de Tuxtla Gutiérrez. de la Cruz Rodriguez Paloma Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Hernández Hernández Verónica Vanessa, Universidad Autónoma de Occidente. Perez Mendoza Paloma Yunuhen, Instituto Tecnológico Superior de Uruapan. Pulido Diaz Maritza, Instituto Tecnológico Superior de Uruapan. Rodríguez Lujan Yamileth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En México existen más de 5 millones de personas que se dedican al trabajo agrícola, según el censo de INEGI 2020, sin embargo, según el Gobierno de México, somos el séptimo país exportador de productos agrícolas al resto del mundo lo que nos genera la siguiente pregunta ¿Qué alimentos quedan para nuestras comunidades? Como lo sabemos cada estado de la republica cuenta con sus terrenos en donde cultivan algunos frutos que son originarios de las regiones y que con ayuda de la experiencia y los cuidados es bien sabido que se han podido generar productos de excelente calidad pero realmente el futuro de esos productos en su mayoría es terminar en manos y mesas de familias extranjeras y aquí en México la calidad siempre es colocada en tiendas o supermercados con un costo elevado y que no siempre está al alcance de todas las familias. Es por esta razón que se encuentra con el problema de que las comunidades productoras terminan consumiendo el producto que sobra o el producto que posee algún defecto lo cual no siempre garantiza una alimentación sana y de calidad por esta razón se debe encontrar una manera de garantizar un producto de calidad a las primeras comunidades de atención prioritaria, para que así todos consumamos un producto de excelente calidad, mismo como el que se exporta o el que se distribuye en los supermercados más reconocidos del país y por ello hacemos de referencia el primer momento de la cadena de suministros en la industria alimentaria.



METODOLOGÍA

Considerando que ésta es una investigación en su mayoría documental está centrada en la cadena de suministro de productos perecederos en la industria alimentaria mexicana, con un enfoque en la inocuidad y seguridad alimentaria. Se analizan y proponen mejoras a las normativas generales y específicas, particularmente la Norma Oficial Mexicana NOM-251-SSA1-2009 e ISO 22000, que aborda la higiene y calidad de los alimentos, bebidas y suplementos alimenticios. Dada la creciente población y la evolución global, es fundamental garantizar la seguridad y salud de los alimentos para el consumo humano. En México, la Secretaría de Salud a través de la Comisión Federal para la Protección contra Riesgos Sanitarios (COFEPRIS) y la Dirección General de Epidemiología (DGE) son las instituciones encargadas de monitorear y reportar la incidencia de enfermedades transmitidas por alimentos por lo que se pide la intervención puntual de los diferentes órdenes de gobierno en el ámbito de su incumbencia para generar la normativa necesaria que garantice alimentos de calidad.  El mercado agrícola en México es amplio y tiene un gran potencial para competir a nivel nacional e internacional, sin embargo, se detectan limitaciones en la propia industria local en todos sus ámbitos ya que no existe garantía para un consumo local inmediato y el mejor producto se considera calidad de exportación, se cuenta con poca información sobre empresas con certificaciones de normas y sistemas de gestión de calidad y de manera general quienes se dedican a este ramo ya que no es suficiente la información que proporciona el INEGI. La propuesta se orienta a incentivar y apoyar a las empresas que aún no cuentan con regulaciones, animándolas a acercarse a las autoridades correspondientes para mejorar la calidad de sus productos y garantizar su inocuidad. La prevalencia de enfermedades transmitidas por alimentos, como la salmonela y la E. coli, representa un desafío para la salud pública, y se necesita un seguimiento continuo a través de sistemas de vigilancia sanitaria. Se enfatiza la importancia de evaluar las de higiene en todas las etapas del proceso de producción, desde la selección de materias primas, almacenamiento, hasta la distribución, considerando la reciente pandemia vivida por COVID SARS-CoV 19. Una de las pretensiones es hacer evidente que el uso de la cadena en frio está alejado de una realidad económica para la mayoría de los productores y se debe tomar estrategia para la adecuación de transporte de menor tamaño en zonas serranas como la planta procesadora de alimentos de San Joaquín, así como la consideración de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje.


CONCLUSIONES

La cadena de suministro de productos perecederos en la industria alimentaria mexicana es fundamental para asegurar la inocuidad de los alimentos garantizando productos de calidad, la investigación ofrece una visión integral de la situación actual y propone acciones para mejorar la calidad y seguridad alimentaria, garantizando un consumo de calidad en México. Se propone una lista de verificación general para evaluar el cumplimiento de los estándares de calidad en la industria alimentaria. Establecer programas de capacitación certificada para garantizar el cumplimiento de estándares de calidad y normativo de manera local con la intervención de las instituciones como Universidades Públicas y privadas, así como del TecNM. Se plantea el uso de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje donde dejamos propuestas amigables al medio ambiente en base a la NOM-002-SSA1-1993. Se realizó un ejemplo de análisis de ruta con plataformas de la CST del INEGI y software libre para facilitar el análisis de costos y planteamiento de rutas para productores de menos poder económico. Esta investigación multidisciplinaria permite tener nuevos enfoques sobre la problemática de atención prioritaria atendiendo los objetivos de la agenda 2030 hambre cero, fin de la pobreza, salud y bienestar desde la perspectiva de la cadena de suministro de la industria alimentaría de los productos perecederos que lo limitamos a frutas y verduras en general en nuestro país. Refrendamos el compromiso con las causas sociales por lo que esta investigación hace una invitación a continuar con la participación activa de las diferentes instituciones públicas y privadas de Educación Superior para propuesta de las normativas necesarias que permitan garantizar “La soberanía alimentaria participando activamente en los temas legislativos en esta área".
Cortés Aparicio Yael Itsuky, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DISEñO DE MAQUINA DOBLADORA DE VARILLA


DISEñO DE MAQUINA DOBLADORA DE VARILLA

Cortés Aparicio Yael Itsuky, Benemérita Universidad Autónoma de Puebla. Hernandez Elizalde Wendy Cecilia, Universidad Autónoma de Sinaloa. Hernandez Sanchez Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Jiménez Rodríguez Anayansi, Universidad Autónoma Benito Juárez de Oaxaca. Sanchez Fonseca Edna Julieth, Instituto Tecnológico Metropolitano. Valenzuela Medina Fabian, Universidad Autónoma de Sinaloa. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el área de la construcción se tiene la necesidad de fabricar hogares, puentes, edificios entre otros, por lo que se requiere resolver el problema de la fabricación de estribos que son varillas de alambrón de acero, que unen las varillas en los castillos, por lo que se plantea el diseño una maquina dobladora de varilla, capaz de doblar por medio de una secuencia con un sistema mecánico y un sistema de moldeo fijo, dirigido por un motor, este diseño se propuso dado que era necesario un prototipo de bajo costo, esto debido a que en el área de la construcción en México ha crecido un 5% de acuerdo a la cámara Mexicana de la industria de la construcción (CMIC), durante el año 2021.



METODOLOGÍA

Para el diseño de la maquina dobladora de varilla se utilizaron materiales biodegradables para el prototipado por impresión 3D, dichos materiales fueron el acido polilactico (PLA) y poliuretano termoplastico (TPU), además de los diseños se pueden realizar bajo cualquier software asistido por computadora como ejemplo Solidworks, autodesk, FreeCAD,  entre otros, los pasos a seguir para el dieño de la maquina dobladora de varilla fuerón los siguientes 1) Se realizó una búsqueda del estado del arte y de vigilancia tecnológica en diferentes buscadores de patentes como Google Patents, EspaceNet,  Patentscope, entre otros más. 2) Posteriormente se realizó con dicha búsqueda inicial una serie de propuestas diseñadas por medio de algún Software CAD para diseño 3D, para posteriormente realizar la impresión de dichos modelos para su fabricación por manufactura aditiva, con PLA.  3) La serie de prototipos se realizaron haciendo simulaciones de movimiento mecánico por computadora y realizando una comparativa con el movimiento en ambiente real.  4)  A la par de la realización de la fabricación por manufactura aditiva de los diferentes prototipos se realizó la escritura de la solicitud de patente que actualmente continua en proceso para solicitar el trámite ante el Instituto Mexicano de la Propiedad Industrial (IMPI).  5) Se realizaba una serie de vigilancias tecnología cada vez que se quería realizar otra propuesta de prototipo y verificar el estado del arte en los diferentes buscadores de patente.  6) Finalmente se construyó el prototipo que cumple las simulaciones mecanicas y en ambiente real,  para verificar la prueba de concepto, por manufactura aditiva que es una representación a escala para la maquina real que se construirá, en caso de conseguir recursos.


CONCLUSIONES

Las diferentes conclusiones que llego el equipo fueron que se aprendió una metodología diferente de como investigar la alta tecnología así de cómo usar el diseño por computadora, la impresión 3D en diferentes materiales para realizar prototipos de manera rápida y como profundizar en un tema para realizar su vigilancia tecnológica además de realizar el desarrollo de la escritura de patente y la solicitud de la misma ante el IMPI en un futuro, en este caso, la maquina dobladora de varilla de alambrón y materiales de inferior densidad así como de sus diferentes aleaciones, dado que fue un reto desarrollar un prototipo mecánico, que cumpliera las caracteristicas de funcionalidad tanto en simulación por computadora y en ambiente real a escala, el mayor reto fue realizar el proceso para hacer los dobleces de la varilla es por medio de un sistema sincronizado de engranajes.
Cortés Bermúdez Zara Juliana, Universidad de la Costa
Asesor: Mtra. Maria Claudia Angeles Velásquez Velásquez, Universidad César Vallejo

REALIDAD AUMENTADA Y REALIDAD VIRTUAL EN EL APRENDIZAJE Y COMPRENSIóN DE LA ARQUITECTURA EN BARRANQUILLA Y TARAPOTO, 2023


REALIDAD AUMENTADA Y REALIDAD VIRTUAL EN EL APRENDIZAJE Y COMPRENSIóN DE LA ARQUITECTURA EN BARRANQUILLA Y TARAPOTO, 2023

Cortés Bermúdez Zara Juliana, Universidad de la Costa. Asesor: Mtra. Maria Claudia Angeles Velásquez Velásquez, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

En el campo de la arquitectura, la enseñanza y comprensión de conceptos espaciales y de diseño representan desafíos. Los métodos tradicionales como modelos físicos y dibujos 2D tienen limitaciones para visualizar espacios tridimensionales, afectando el desarrollo de habilidades en estudiantes. También, la preservación del patrimonio arquitectónico enfrenta obstáculos debido a elementos ocultos o deteriorados que dificultan su apreciación. La Realidad Virtual (RV) y la Realidad Aumentada (RA) emergen como alternativas tecnológicas con potencial para mejorar la enseñanza y preservación del patrimonio. Estas tecnologías ofrecen experiencias inmersivas y multisensoriales, superando limitaciones y mejorando la comprensión espacial y de diseño. A pesar de su relevancia, se necesita investigar en profundidad su impacto y utilidad. Es crucial estudiar cómo (RV) y (RA) pueden emplearse efectivamente en la enseñanza de arquitectura y enriquecer la experiencia en la preservación del patrimonio. Esta investigación busca explorar el potencial e influencia de (RV) y (RA) en la arquitectura, proporcionando información valiosa para su aplicación efectiva en el diseño y la educación.



METODOLOGÍA

Este estudio se enfoca en analizar el impacto de la Realidad Virtual (RV) y la Realidad Aumentada (RA) en la arquitectura y la educación, mejorando la visualización, comprensión y socialización de conceptos espaciales y de diseño. Se propone una metodología de investigación mixta con enfoque cualitativo y cuantitativo, utilizando revisiones bibliográficas, entrevistas, encuestas y aplicaciones (RV) y (RA). El enfoque cualitativo permite explorar las percepciones y experiencias de usuarios en el uso de (RV) y (RA) en arquitectura y educación, profundizando en su potencial. El enfoque cuantitativo proporciona datos numéricos para medir la eficacia y aceptación de estas tecnologías en el aprendizaje y diseño. El tipo de investigación es exploratorio y descriptivo, analizando experiencias de estudiantes, docentes, arquitectos y expertos en (RV) y (RA) en arquitectura y educación. Se describirá su aplicación en enseñanza, preservación del patrimonio y visualización de proyectos. La investigación se realizará en etapas, iniciando con una revisión bibliográfica exhaustiva para fundamentar y contextualizar el estudio. Luego, se aplicarán encuestas y entrevistas a estudiantes y profesionales para obtener percepciones detalladas. También, se experimentará con aplicaciones de (RV) y (RA) para recopilar datos de experiencia y rendimiento. Los datos cualitativos se analizarán con técnicas de contenido, identificando patrones y tendencias. Los datos cuantitativos se analizarán estadísticamente para obtener conclusiones sobre la aceptación y eficacia de estas tecnologías. Las conclusiones y recomendaciones presentadas ofrecerán perspectivas para el uso efectivo de (RV) y (RA) en arquitectura y educación, discutiendo sus implicaciones y proponiendo áreas de desarrollo. Se resaltarán las limitaciones, como la disponibilidad de tecnología y acceso a herramientas de (RV) y (RA), así como las consideraciones éticas.


CONCLUSIONES

En esta investigación, se ha explorado el potencial revolucionario de la Realidad Virtual (RV) y la Realidad Aumentada (RA) en arquitectura y educación, evidenciando sus experiencias inmersivas y mejoras en la visualización y comprensión de conceptos espaciales y de diseño. La (RV) y la (RA) se destacan como valiosas herramientas educativas, mejorando el proceso de enseñanza y aprendizaje en arquitectura, atrayendo la participación de estudiantes y potenciando su creatividad en el diseño. Los participantes resaltan su influencia positiva en el aprendizaje y rendimiento académico. Además, la (RA) es especialmente valiosa en la preservación del patrimonio, al recrear elementos arquitectónicos ocultos y enriquecer la experiencia de visitantes en monumentos históricos. Aunque los resultados son positivos, es importante desarrollar aplicaciones adaptadas a contextos específicos y garantizar el acceso a la tecnología. La continua investigación permitirá maximizar sus beneficios en educación y construcción, impulsando el avance en arquitectura. En conclusión, la (RV) y (RA) tienen un potencial significativo para transformar la enseñanza y preservación del patrimonio en arquitectura. Estas herramientas prometen revolucionar la disciplina en la era digital, ofreciendo nuevas posibilidades para estudiantes y profesionales.  
Cortes Hernandez Miguel Angel, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora

ANáLISIS DE DATOS PARA LA SOSTENIBILIDAD ENERGéTICA EN MéXICO: DESAFíOS Y OPORTUNIDADES


ANáLISIS DE DATOS PARA LA SOSTENIBILIDAD ENERGéTICA EN MéXICO: DESAFíOS Y OPORTUNIDADES

Cortes Hernandez Miguel Angel, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

La producción energética es un pilar fundamental para el desarrollo económico de un país. Este tema se ha convertido en un tema recurrente en la política nacional de cualquier pais. El principal origen de la producción energética en México proviene de hidrocarburos, donde el carbón y el combustóleo son las fuentes predominantes. El combustóleo, especialmente, es un subproducto generado por PEMEX, la empresa estatal encargada de la explotación del petróleo nacional. A pesar de ser altamente contaminante y poco eficiente en comparación con otras alternativas, la Comisión Federal de Electricidad (CFE) se ve comprometida a comprar este combustóleo para su utilización en la generación de energía. Además, la corrupción en estas empresas ha generado múltiples rescates para evitar su quiebra. El agotamiento progresivo de estas fuentes de energía representa un riesgo significativo para la seguridad del abastecimiento energético del país en el futuro, especialmente considerando el crecimiento poblacional proyectado. La falta de inversión y políticas deficientes para fomentar el uso de fuentes renovables también es motivo de preocupación. Aunque existen zonas en el territorio nacional con potencial para el aprovechamiento de fuentes como la geotérmica en Michoacán, la eólica en Oaxaca y Veracruz, y la solar en el norte del país, se requiere una planificación adecuada para evitar el deterioro y la destrucción de los ecosistemas. A pesar de los planes recientes para crear proyectos que aprovechen fuentes renovables, todavía no se han alcanzado avances significativos. Es esencial fomentar el interés tanto de la población como del gobierno estatal y federal en esta industria.



METODOLOGÍA

El análisis del sistema energético nacional ha sido realizado mediante la descarga y procesamiento de conjuntos de datos en formato Excel (.xlsx) provenientes de la página de la Secretaría de Medio Ambiente y Recursos Naturales (SEMARNAT). Estos datos se sometieron a un riguroso análisis para descartar información no relevante y se les aplicó un formato numérico decimal para facilitar su manejo. Asimismo, se llevó a cabo una limpieza de datos para abordar aquellos registros nulos que podrían presentar problemas en futuros análisis. Una vez depurados, los archivos fueron convertidos al formato .csv para su posterior utilización en el estudio. Se procedió a la creación de una base de datos con SQLite, en la cual se diseñó una tabla específica para alojar la información de cada archivo. Luego, se importaron los datos desde los archivos .csv a las tablas correspondientes. Para llevar a cabo el análisis y procesamiento de datos, se utilizó la potente herramienta Google Colab, basada en Jupyter Notebook. Con la ayuda del lenguaje de programacion Python y bibliotecas como Pandas, Matplotlib y NumPy, se crearon dataframes que permitieron recopilar, tratar y separar la información para su posterior visualización gráfica. Estos datos fueron analizados en conjunto y comparados con información adicional para extraer conclusiones sobre las condiciones del sistema energético del país, identificando sus carencias y fortalezas. Además, se determinaron áreas que requieren atención inmediata y aquellas en las que no. Una vez obtenidos los resultados, se aplicó otro filtro para seleccionar la información relevante para predecir el comportamiento futuro del sistema energético. Con el uso de la biblioteca Sklearn, se crearon modelos de machine learning utilizando el algoritmo de regresión lineal. Estos modelos fueron sometidos a evaluaciones de sus métricas de rendimiento para verificar la fiabilidad de las predicciones realizadas. Se aplicó una validación cruzada para evitar el sobreajuste y, posteriormente, se volvió a entrenar los modelos con hiperparámetros optimizados. Con el objetivo de facilitar futuras predicciones sin tener que repetir todo el proceso de entrenamiento, los modelos se guardaron en archivos .pkl para su importación en caso necesario. Finalmente, se realizó un análisis de las políticas energéticas y planes futuros del país para obtener conclusiones y recomendaciones basadas en los hallazgos obtenidos del estudio.  


CONCLUSIONES

Durante período de estancia de verano, se logró un fortalecimiento significativo de los conocimientos en Inteligencia Artificial (IA) y Machine Learning, al aplicar estos avances en campos reales relacionados con el sistema energético nacional. Adquirimos habilidades clave para abordar con precisión y agudeza la visualización de datos gráficos, asegurándonos de presentar la información de manera óptima y clara para una mejor comprensión. Si bien el análisis de las políticas futuras relacionadas con el sistema energético aún está pendiente, podemos destacar algunos avances importantes. La riqueza de datos recopilados durante el estudio nos permite extraer conclusiones preliminares. Un aspecto destacado es que la matriz energética del país sigue basándose principalmente en combustibles fósiles. Desafortunadamente, las energías renovables han sido relegadas y han experimentado un desarrollo insuficiente en comparación. Esta situación genera una clara preocupación en términos de sostenibilidad y resiliencia energética. A lo largo de la investigación, se han identificado patrones alarmantes en la autosuficiencia energética del país. Cada año, lamentablemente, hemos sido testigos de una disminución en nuestra capacidad de ser autosuficientes en términos de energía. Este declive representa un desafío significativo para el futuro, dado el crecimiento continuo de la población y la creciente demanda de energía
Cortés López Mariana Estefanía, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro

LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO


LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO

Corte Maldonado Andrea, Instituto Tecnológico de Puebla. Cortés López Mariana Estefanía, Instituto Tecnológico de Tuxtla Gutiérrez. de la Cruz Rodriguez Paloma Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Hernández Hernández Verónica Vanessa, Universidad Autónoma de Occidente. Perez Mendoza Paloma Yunuhen, Instituto Tecnológico Superior de Uruapan. Pulido Diaz Maritza, Instituto Tecnológico Superior de Uruapan. Rodríguez Lujan Yamileth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En México existen más de 5 millones de personas que se dedican al trabajo agrícola, según el censo de INEGI 2020, sin embargo, según el Gobierno de México, somos el séptimo país exportador de productos agrícolas al resto del mundo lo que nos genera la siguiente pregunta ¿Qué alimentos quedan para nuestras comunidades? Como lo sabemos cada estado de la republica cuenta con sus terrenos en donde cultivan algunos frutos que son originarios de las regiones y que con ayuda de la experiencia y los cuidados es bien sabido que se han podido generar productos de excelente calidad pero realmente el futuro de esos productos en su mayoría es terminar en manos y mesas de familias extranjeras y aquí en México la calidad siempre es colocada en tiendas o supermercados con un costo elevado y que no siempre está al alcance de todas las familias. Es por esta razón que se encuentra con el problema de que las comunidades productoras terminan consumiendo el producto que sobra o el producto que posee algún defecto lo cual no siempre garantiza una alimentación sana y de calidad por esta razón se debe encontrar una manera de garantizar un producto de calidad a las primeras comunidades de atención prioritaria, para que así todos consumamos un producto de excelente calidad, mismo como el que se exporta o el que se distribuye en los supermercados más reconocidos del país y por ello hacemos de referencia el primer momento de la cadena de suministros en la industria alimentaria.



METODOLOGÍA

Considerando que ésta es una investigación en su mayoría documental está centrada en la cadena de suministro de productos perecederos en la industria alimentaria mexicana, con un enfoque en la inocuidad y seguridad alimentaria. Se analizan y proponen mejoras a las normativas generales y específicas, particularmente la Norma Oficial Mexicana NOM-251-SSA1-2009 e ISO 22000, que aborda la higiene y calidad de los alimentos, bebidas y suplementos alimenticios. Dada la creciente población y la evolución global, es fundamental garantizar la seguridad y salud de los alimentos para el consumo humano. En México, la Secretaría de Salud a través de la Comisión Federal para la Protección contra Riesgos Sanitarios (COFEPRIS) y la Dirección General de Epidemiología (DGE) son las instituciones encargadas de monitorear y reportar la incidencia de enfermedades transmitidas por alimentos por lo que se pide la intervención puntual de los diferentes órdenes de gobierno en el ámbito de su incumbencia para generar la normativa necesaria que garantice alimentos de calidad.  El mercado agrícola en México es amplio y tiene un gran potencial para competir a nivel nacional e internacional, sin embargo, se detectan limitaciones en la propia industria local en todos sus ámbitos ya que no existe garantía para un consumo local inmediato y el mejor producto se considera calidad de exportación, se cuenta con poca información sobre empresas con certificaciones de normas y sistemas de gestión de calidad y de manera general quienes se dedican a este ramo ya que no es suficiente la información que proporciona el INEGI. La propuesta se orienta a incentivar y apoyar a las empresas que aún no cuentan con regulaciones, animándolas a acercarse a las autoridades correspondientes para mejorar la calidad de sus productos y garantizar su inocuidad. La prevalencia de enfermedades transmitidas por alimentos, como la salmonela y la E. coli, representa un desafío para la salud pública, y se necesita un seguimiento continuo a través de sistemas de vigilancia sanitaria. Se enfatiza la importancia de evaluar las de higiene en todas las etapas del proceso de producción, desde la selección de materias primas, almacenamiento, hasta la distribución, considerando la reciente pandemia vivida por COVID SARS-CoV 19. Una de las pretensiones es hacer evidente que el uso de la cadena en frio está alejado de una realidad económica para la mayoría de los productores y se debe tomar estrategia para la adecuación de transporte de menor tamaño en zonas serranas como la planta procesadora de alimentos de San Joaquín, así como la consideración de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje.


CONCLUSIONES

La cadena de suministro de productos perecederos en la industria alimentaria mexicana es fundamental para asegurar la inocuidad de los alimentos garantizando productos de calidad, la investigación ofrece una visión integral de la situación actual y propone acciones para mejorar la calidad y seguridad alimentaria, garantizando un consumo de calidad en México. Se propone una lista de verificación general para evaluar el cumplimiento de los estándares de calidad en la industria alimentaria. Establecer programas de capacitación certificada para garantizar el cumplimiento de estándares de calidad y normativo de manera local con la intervención de las instituciones como Universidades Públicas y privadas, así como del TecNM. Se plantea el uso de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje donde dejamos propuestas amigables al medio ambiente en base a la NOM-002-SSA1-1993. Se realizó un ejemplo de análisis de ruta con plataformas de la CST del INEGI y software libre para facilitar el análisis de costos y planteamiento de rutas para productores de menos poder económico. Esta investigación multidisciplinaria permite tener nuevos enfoques sobre la problemática de atención prioritaria atendiendo los objetivos de la agenda 2030 hambre cero, fin de la pobreza, salud y bienestar desde la perspectiva de la cadena de suministro de la industria alimentaría de los productos perecederos que lo limitamos a frutas y verduras en general en nuestro país. Refrendamos el compromiso con las causas sociales por lo que esta investigación hace una invitación a continuar con la participación activa de las diferentes instituciones públicas y privadas de Educación Superior para propuesta de las normativas necesarias que permitan garantizar “La soberanía alimentaria participando activamente en los temas legislativos en esta área".
Cortes Martínez Dilan, Instituto Politécnico Nacional
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

MODELO BASADO EN ESCENARIOS DE CAMBIO CLIMáTICO PARA EVALUAR Y PRIORIZAR ACCIONES QUE PERMITAN COMBATIR EL CAMBIO CLIMáTICO EN MéXICO.


MODELO BASADO EN ESCENARIOS DE CAMBIO CLIMáTICO PARA EVALUAR Y PRIORIZAR ACCIONES QUE PERMITAN COMBATIR EL CAMBIO CLIMáTICO EN MéXICO.

Cortes Martínez Dilan, Instituto Politécnico Nacional. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El clima en el planeta está cambiando y aunque muchas empresas, gobiernos, organizaciones, etc. se encuentran planteando propuestas que pretenden combatir el cambio climático. ¿Cómo sabemos que estas realmente van a funcionar? Considerando el poco tiempo existente para disminuir el ritmo del cambio climático, el costo monetario y de tiempo que llegan a tener algunas propuestas. Es importante tener herramientas que permitan tener una aproximación al resultado de la propuesta para poder evaluar su viabilidad.



METODOLOGÍA

Mediante la herramienta "Google Académico" busque conjuntos de datos y artículos científicos referentes a los temas: -Temperatura en la República Mexicana.  -Deforestación en la República Mexicana. -Gases de efecto invernadero producidos en la República Mexicana. -Consecuencias del cambio climático en los diferentes estados de la República Mexicana  Mediante la herramienta "Google Colab" y el uso del lenguaje de programación Python, preprocese todos los datos de interés, reuniéndolos en un solo Data Frame.


CONCLUSIONES

La creación de modelos cuyo enfoque sea ayudar en el combate contra el cambio climático es indispensable. Lo anterior lo justifico en la cantidad de recursos, sobre todo el tiempo, que podrán ayudar a ahorrar en un tema donde lo que menos tenemos, es tiempo.  El modelo creado durante la estancia no es totalmente acertado pues la temperatura de una región no depende únicamente de los factores locales. En este caso, México. Sin embargo, se limitó de esta manera para poder comprender y manejar de una mejor manera tanto los datos como los algoritmos de predicción.  El objetivo a futuro es extrapolar este trabajo a un modelo robusto que permita determinar la viabilidad de un proyecto contra el cambio climático creando escenarios futuros con datos globales.
Cortes Montelongo Myriam Guadalupe, Universidad Autónoma de Coahuila
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

DISEñO EXPERIMENTAL DE LA EXTRACCIóN DE BIOCOMPUESTOS A PARTIR DE SEMILLA DE GUAYABA EMPLEANDO SOLVENTES EUTéCTICOS


DISEñO EXPERIMENTAL DE LA EXTRACCIóN DE BIOCOMPUESTOS A PARTIR DE SEMILLA DE GUAYABA EMPLEANDO SOLVENTES EUTéCTICOS

Cortes Montelongo Myriam Guadalupe, Universidad Autónoma de Coahuila. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Los polifenoles son compuestos formados por un grupo bencénico y al menos un grupo hidroxilo con diversas propiedades benéficas para el ser humano. Una de las propiedades más atractivas de los polifenoles es su capacidad antioxidante. Estos compuestos están presentes de forma natural en mayor o menor medida en una gran diversidad de plantas y productos como el vino tinto, los frutos rojos, frutas y verduras. Recientemente se ha encontrado que una fuente importante de compuestos fenólicos, es la biomasa la cual representa una fuente renovable y económica de diferentes compuestos de valor agregado. La extracción con solventes es el principal método para separar los compuestos fenólicos de diferentes biomasas. Debido a que uno de los principales elementos del proceso es el solvente, este debe seleccionarse de manera adecuada para aprovechar al máximo sus propiedades como la polaridad, viscosidad y densidad. En este sentido los solventes eutécticos, recientemente han demostrado su gran capacidad en la extracción de compuestos de valor agregado como los polifenoles. Debido a las propiedades benéficas de los polifenoles contenidos en la biomasa, el presente trabajo tubo como objetivo determinar las condiciones óptimas para la extracción de polifenoles empleando solventes eutécticos profundos a partir de la Guayaba.



METODOLOGÍA

Para la preparación de los solventes eutécticos se utilizó cloruro de colina como aceptador de protones y urea como donador, en una relación molar de 1:2. Al solvente preparado se le agregaron diferentes cantidades de agua en una relación molar de 1:4-1:12. Los compuestos se pesaron y colocaron en un matraz de fondo plano y se calentó a 70 ° C empleando una parrilla con agitación magnética durante 2 horas hasta obtener una mezcla homogénea e incolora. Debido al importante número de productos derivados del aprovechamiento de la guayaba en el estado de Aguascalientes se optó por trabajar con los residuos de semilla, la cual es generada en grandes cantidades. La semilla de guayaba se secó y molió para después tamizarla con una relación de malla de 0.0177/0.0420 mm. Para la extracción sólido- líquido de los polifenoles, se pesó 1 g de biomasa, se colocó en tubos de vidrio, los cuales se calentaron en una parrilla con agitación magnética de acuerdo a las condiciones de los diferentes factores en el diseño experimental. Una vez finalizado el proceso de extracción, el solvente se separó y centrifugo para su posterior cuantificación. La Cromatografía de líquidos en alta presión (HPLC) es una técnica analítica que permite separar mezclas complejas logrando identificarlas, cuantificarlas y purificarlas.  En este caso se utilizó el equipo de HPLC para determinar la cantidad de polifenoles presentes en los diferentes extractos.  Los diferentes extractos se filtraron y colocaron en viales su cuantificación en el equipo HPLC. Para medir la capacidad antioxidante de las diferentes muestras, utilizó un espectrofotómetro de UV- Vis y la metodología basada en el reactivo DPPH. Las muestras se prepararon colocando 2 ml del extracto y 5 ml de una solución de DDPH. Las muestras se dejaron reposar durante 1 hora en ausencia de luz. Pasado el tiempo las muestras se cuantificaron y se determinó la capacidad antioxidante empleando una curva de calibración. Finalmente se utilizó un diseño experimental de superficie de respuesta Box-Behnken como una herramienta para determinar las variables optimas que incrementen el rendimiento de la extracción. Este diseño de experimentos evaluó 4 factores que fueron la temperatura, tiempo, volumen de solvente y una relación molar con el agua. Cada factor conto con tres niveles cada uno; 30-70° C, 1-3 h,10-30 ml y 4-12 M. Las variables de respuesta del diseño experimental fue el contenido total de polifenoles y la capacidad antioxidante de los diferentes extractos.


CONCLUSIONES

En el presente trabajo se informa sobre un método con menor impacto ambiental para realizar la extracción de polifenoles empleando solventes eutécticos profundos y una biomasa abundante en el estado de Aguascalientes. A partir de los resultados preliminares se observó que la cantidad de agua promueve una mayor extracción de los polifenoles, en donde una relación molar con el agua de 8 M presento los mayores valores de polifenoles presentes en el extracto. por otro parte se observó que la relación molar de 8 y 12 M presentó la mayor capacidad antioxidante medida con el equipo UV-vis.   Los solventes eutécticos promueven un mayor rendimiento de extracción y la capacidad antioxidante de lo compuestos fenólicos a partir de fuentes naturales. Este rendimiento de extracción puede incrementarse empleando técnicas adecuadas, los resultados presentaron una extracción eficaz y una concentración de polifenoles alta en comparación con lo reportado en la literatura. Los resultados obtenidos en el presente trabajo pueden contribuir a ampliar el campo de aplicación de los solventes eutécticos en diferentes áreas relacionadas el aprovechamiento de la biomasa y la química verde. Este tipo de metodologías tienen un gran potencial para el aprovechamiento de la biomasa con un sentido más ecológico y económico. 
Cortes Navarro Orlando, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

LEAN SAFETY


LEAN SAFETY

Coronado Hernández Ayelen Geraldine, Instituto Tecnológico de Tlalnepantla. Cortes Navarro Orlando, Instituto Tecnológico Superior de Uruapan. Garibay Diaz Marcela, Instituto Tecnológico Superior de Uruapan. Ramirez Castro Ana Georgina, Instituto Tecnológico Superior de Uruapan. Silva Tapia Melchor, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La falta de implementación de la filosofía Lean Safety en la empresa empacadora de aguacates, no permite reducir los sietes desperdicios en el área de producción y contribuir a la minimizar la incidencia de accidentes, además de riesgos laborales.  Con lo anterior mencionado, se requiere darle solución a este problema por parte de la empresa Brandon´s Fresh.



METODOLOGÍA

El plan de trabajo llevado a cabo se realizó bajo los principios de Manufactura Esbelta tales como: 5s, 7 desperdicios, Kaizen, Administración visual y Mantenimiento Productivo Total (TPM).  El equipo de trabajo se apoyó del campo de la Seguridad e Higiene Industrial, que con su enfoque y normatividad, se buscó la aplicación de las Normas Mexicanas establecidas por la Secretaría de Trabajo y Previsión Social (NOM-STPS). Fue así que en la primera intervención se inició con un recorrido dentro de las diferentes áreas que conforman a la empresa empacadora: proceso de selección, empaquetado, cámara de frio y distribución del producto. Con lo anterior se identificaron oportunidades de mejora en el área de producción utilizando un formato llamado Actividad de Seguridad Esbelta. Se prosiguió con la realización de una encuesta para el llenado del formato de Relevamiento Inicial, donde se identifican las Normas Mexicanas (NOM) de acuerdo a la Secretaria de Trabajo y Previsión Social (STPS). Se buscó profundizar en los inconvenientes que en la empresa se encontraron, a través del formato de Actividad de Seguridad Esbelta, revisando temas como: ergonomía, riesgos latentes y desperdicios (esperas, transporte, sobreproceso, inventario, movimientos, defectos y sobreproducción). Se elaboró una base de datos en una hoja de calculo de EXCEL donde se organizaron los inconvenientes encontrados con su debida propuesta, herramienta Lean, Normativa y Clausula Especifica que le corresponde. Cabe mencionar que los inconvenientes encontrados se presentaron formalmente ante el departamento de S.H.I con las respectivas propuestas, herramientas de Lean y su normatividad. Se invitó al equipo de trabajo a participar en la Comisión Mixta de Seguridad e Higiene, junto con el coordinador de S.H.I y participantes del área de inocuidad y almacén, con el fin de identificar condiciones y actos inseguros en cada área de le empresa Brandon´s Fresh.  


CONCLUSIONES

Para culminar, durante las intervenciones a la empresa se logró aplicar la filosofia Lean Safety para la elaboración de un diagnóstico que nos diera la nocion total sobre la situación actual de la empacadora. Apartir de conocer a la empresa se pudieron proponer alternativas de solución para los inconvenientes encontrados, es decir, por cada área de oportunidad encontrada se propone una acción de mejora a partir de la aplicación de herramientas de Lean y siguiendo la normatividad de las Normas Mexicanas (NOM).  El proyecto de Lean Safety ayudó a cada miembro del equipo a desarrollar sus competencias en un plano práctico.    
Cortes Sereno Maria Esmeralda, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

ESTUDIO DE MERCADO PARA LA INTRODUCCIÒN DE PRODUCTOS COSMÈTICOS


ESTUDIO DE MERCADO PARA LA INTRODUCCIÒN DE PRODUCTOS COSMÈTICOS

Cortes Sereno Maria Esmeralda, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Estudio de mercado para la empresa NATURE GLEM Asesor:  Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro. Estudiante: Cortés Sereno María Esmeralda, Instituto Tecnológico Superior de Tacámbaro. PLANTEAMIENTO DEL PROBLEMA En el ambiente hay miles de partículas que dañan nuestra piel diariamente, es por esta razón que surge la empresa NATURE GLEM en la región de Tacámbaro, integrada por cuatro grandes amigos, con el principal objetivo de cubrir las distintas necesidades de las personas que integran la región, es decir, desde el cuidado de la piel, que está enfocada en el rostro, por medio de productos que ayudan a hidratar y exfoliar, hasta tomar en cuenta la experiencia de cada una de las personas. Llegando con la ilusión de lograr grandes cosas ante el mercado regional y posteriormente lograr expandirse, ofreciendo jabones elaborados de una manera 100 % artesanal, con un mínimo de químicos, creando una experiencia única hacia el cliente, con nuestra responsabilidad social enfocada hacia el cuidado del medio ambiente, tomando en cuenta desde el momento de utilizar envases biodegradables y retornables. Un estudio de mercado nos ayuda a conocer cuál será nuestro público meta, pero esto se logra a partir de un proceso de recopilación de datos y posteriormente se lleva a cabo un análisis de la información sobre nuestro mercado específico, en este caso la región de Tacámbaro y sus alrededores. Es una revisión de un nicho de mercado, Para determinar qué tan viable es y qué tan conveniente sería invertir el capital en desarrollarlo. Es un proceso de examinar sistemáticamente la viabilidad de un nuevo proyecto. Además de ser una herramienta que nos ayuda a conocer las opiniones, gustos, hábitos y costumbres de un segmento de mercado en específico, con la finalidad de obtener resultados validos que nos permitan tomar decisiones.



METODOLOGÍA

Para conocer la viabilidad de este nuevo proyecto denominado NATURE GLEM, se llevaron a cabo una serie de pasos, para lograr obtener datos más confiables y reales del estudio de mercado, realizado en la región de Tacámbaro. Llevándose a cabo un formulario digital en la aplicación de Google forms, que se integro con la cantidad de 19 preguntas, utilizando una escala de Likert del número 1 al número 4, donde el 1 representaba el menor valor de aceptación, utilizando la etiqueta de nunca, mientras que el número 2 fue representado con la etiqueta casi nunca, en el número 3 se le agrego la etiqueta de algunas veces, y por último el número 4 y el número con mayor ponderación y nivel de aceptación  representado con siempre. Por medio de este formulario se analizaron dos dimensiones de vital importancia, para lograr obtener datos favorables de nuestro estudio de mercado y poder lanzar nuestros productos enfocados a nuestro nicho de mercado, estas dos dimensiones fueron el conocer las preferencias de las personas de la región y la frecuencia con que utilizan un cierto producto.   Después se realizó en el programa IBM SPSS Proyect el Alfa de Cronbach, que nos ayuda a conocer el nivel de fiabilidad de la encuesta, obteniendo en este caso un excelente nivel de aceptación de 0.987 para el estudio de mercado de NATURE GLEM, ya que del 0.8 hacia arriba significa un muy buen nivel de aceptación y fiabilidad. Además, se llevó a cabo la determinación del tamaño de muestra de nuestra población, tomando en cuenta un nivel de significancia de 0.5, donde se obtuvo como resultado un muestreo de 245 personas, por medio del uso de las fórmulas de la población infinita. También fue muy necesario utilizar aplicaciones de las ya mencionadas anteriormente, para lograr obtener gráficos que nos ayudaron a poder analizar de una manera más completa el estudio de mercado de la empresa NATURE GLEM, y de esta manera saber que productos lanzar en mayor cantidad. Gracias a los gráficos se pudo determinar hacia qué tipo de personas y en que rango de edad se encuentran nuestros futuros clientes, en el cual dio como resultado que cerca del 50% de los encuestados se encuentra entre el rango de edad 15 a 25 años y en cuanto al sexo la mayoría de las personas fueron mujeres, aunque no hubo mucha diferencia con el porcentaje que representa el sexo masculino, ya que en la actualidad tanto hombres como mujeres se preocupan más por su apariencia y el cuidado personal, además en cuanto a los aromas de los productos, el que destacó más fue el aroma de frutos rojos con aproximadamente un 80 % de los encuestados que preferirían ese aroma sobre cualquier otra . Por otra parte, la mayoría de nuestros encuestados están interesados en nuestra propuesta de utilizar envases de vidrio y ayudar al medio ambiente, por medio de reutilizar nuestros envases y no generar una mayor cantidad de envolturas que contaminan en una mayor cantidad. Gracias a los gráficos, también se pudo determinar si comprarían nuestros productos, y dio como resultado cerca del 50% de la muestra que lo comprarían siempre y la otra mitad también lo compraría, pero en un lapso de tiempo un poco más prolongado.


CONCLUSIONES

Durante la estancia de verano del Delfín se lograron obtener conocimientos teóricos y prácticos acerca de cómo se realiza adecuadamente un estudio de mercado, esto a través del uso de programas y formularios  informáticos que se analizaron para conocer  si el nivel de confianza era aceptable,   tomando en cuenta una muestra de 245 personas para este estudio, Se tomaron en cuenta varios elementos que nos dieron  resultados favorables a lo que deducimos que el producto es viable para ser lanzado al mercado de la región de Tacámbaro y posteriormente extenderse hacia otras regiones.
Cortez Contreras Javier de Jesús, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

PLAN NEGOCIOS PARA LA EMPRESA SOLYMONDO


PLAN NEGOCIOS PARA LA EMPRESA SOLYMONDO

Contreras Jimenez Jesus Ramiro, Instituto Tecnológico Superior de Tacámbaro. Cortez Contreras Javier de Jesús, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el 33% de las empresas fracasan en el primer año en México y gran causa es que no cuentan con un plan de negocios bien estructurado desde el principio por ello la razón de este proyecto es generar un plan de negocios bien estructurado y completo, de acuerdo al giro de la empresa que es la venta y comercialización de productos con fruta deshidratada, apoyando con un modelo de negocio Canva, registro de marca, estudios de mercado, así como su constitución legal. 



METODOLOGÍA

- Realización de Modelo Canva: un modelo Canva es una herramienta que permite comprender y presentar un modelo de negocio de forma objetiva y estructurada, donde desarrollaremos los siguientes aspectos: Socios Clave, Actividades Clave, Propuesta de Valor, Relacion con el Cliente, Segmento de Clientes, Recursos Claves, Canales, Estrcutura de Coste, Fuentes de Ingreso,  - Registro de marca. Realizar el trámite de registro de marca ante el IMPI  - Realizar estudio de Mercado que determine la factibilidad de los productos que comercializará la empresa. A través de la realización de una encuesta investigar cuáles son los productos que a las personas más les gusta o les interesa consumir, y con ello determinar que productos son los más viables para el inicio de su comercialización.  - Realizar una acta constitutiva que consolide y se establezca la empresa bien estructurada tanto interna,  externa y legalmente. Una vez identificado y determinardo nuestro modelo de negocio, nuestro registro de marca y nuestro estudio de mercado realizado. Iniciamos con la constitución de manera legal de la empresa para el inicio de la comercialización de sus prodcutos de manera legal y estructurada. 


CONCLUSIONES

Los resultados obtenidos hasta ahora han sido con el estudio de mercado, donde les han parecido muy buenos los productos, en especial los empaques de fruta deshidrata para tisanas donde su sabor favorito des ponche mexicano y mango.  Los resultados por obtener es conocer cuanta demanda tiene el producto, y con ello iniciar con una producción después de sea constituida legalmente, tenga un modelo de negocio bien estructurado y este registrada ante el IMPI.
Cortez Navarro Francisco Ja Vier, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora

REINVENCIÓN DE HERRAMIENTAS PARA LA SEGURIDAD COTIDIANA, PRODUCCIÓN Y CONSUMO RESPONSABLES.


REINVENCIÓN DE HERRAMIENTAS PARA LA SEGURIDAD COTIDIANA, PRODUCCIÓN Y CONSUMO RESPONSABLES.

Arias Mendoza Jesús Esteban, Instituto Tecnológico de Estudios Superiores de Zamora. Cortez Navarro Francisco Ja Vier, Instituto Tecnológico de Estudios Superiores de Zamora. Molina Sales Miguel Angel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

DENTRO DE NUESTRO DÍA A DÍA ENCONTRAMOS COMO INVESTIGADORES NUMEROSOS CAMPOS DE REINVENCIÓN PARA MEJORAR EN TODOS LOS ASPECTOS NUESTRAS VIDAS, UNO DE LOS MÁS IMPORTANTES DESDE NUESTROS INICIOS CÓMO CIVILIZACIÓN HA SIDO LA BUSQUEDA DE TRANQULIDAD CREADA A PARTIR DE LA SEGURIDAD.   EL EQUIPO EN FUNCIÓN SE ENCUENTRA IDENTIFICACANDO DE QUE MANERA SE PUEDEN REALIZAR ,FUNCIONALMENTE Y CON PRESUPUESTOS QUE SE AJUSTEN AL PARAMETRO DADO,  PRÁCTICAS DE SEGURIDAD PARA IMPLEMENTAR EN NUESTRO ENTORNO. COMENZAREMOS POR DEFINIR LA PALABRA SEGURIDAD.   LAS CERRADURAS AUTOMÁTICAS HAN EXPERIMENTADO UN CRECIENTE INTERÉS EN LOS ÚLTIMOS AÑOS DEBIDO A SU CAPACIDAD PARA MEJORAR LA SEGURIDAD Y COMODIDAD EN EL ÁMBITO RESIDENCIAL Y COMERCIAL. ESTAS CERRADURAS UTILIZAN TECNOLOGÍAS AVANZADAS, COMO LA BIOMETRÍA, LA CONECTIVIDAD INALÁMBRICA Y LOS SISTEMAS DE CONTROL REMOTO, PARA PROPORCIONAR UN ACCESO SEGURO Y CONVENIENTE A LAS PROPIEDADES. ESTA REVISIÓN DE LITERATURA TIENE COMO OBJETIVO EXAMINAR LAS INVESTIGACIONES MÁS RECIENTES SOBRE EL DESARROLLO Y LAS APLICACIONES DE LAS CERRADURAS AUTOMÁTICAS, CENTRÁNDOSE EN SU FUNCIONAMIENTO, CARACTERÍSTICAS DE SEGURIDAD, VENTAJAS Y DESAFÍOS.



METODOLOGÍA

DE ACUERDO A LA AGENDA 2030 PUBLICADA POR LA ORGANIZACIÓN DE LAS NACIONES UNIDAS EL CONSUMO Y LA PRODUCCIÓN MUNDIALES (FUERZAS IMPULSORAS DE LA ECONOMÍA MUNDIAL) DEPENDEN DEL USO DEL MEDIO AMBIENTE NATURAL Y DE LOS RECURSOS DE UNA MANERA QUE CONTINÚA TENIENDO EFECTOS DESTRUCTIVOS SOBRE EL PLANETA. EL PROGRESO ECONÓMICO Y SOCIAL CONSEGUIDO DURANTE EL ÚLTIMO SIGLO HA ESTADO ACOMPAÑADO DE UNA DEGRADACIÓN MEDIOAMBIENTAL QUE ESTÁ PONIENDO EN PELIGRO LOS MISMOS SISTEMAS DE LOS QUE DEPENDE NUESTRO DESARROLLO FUTURO (Y CIERTAMENTE, NUESTRA SUPERVIVENCIA). EL CONSUMO Y LA PRODUCCIÓN SOSTENIBLES CONSISTEN EN HACER MÁS Y MEJOR CON MENOS. TAMBIÉN SE TRATA DE DESVINCULAR EL CRECIMIENTO ECONÓMICO DE LA DEGRADACIÓN MEDIOAMBIENTAL, AUMENTAR LA EFICIENCIA DE RECURSOS Y PROMOVER ESTILOS DE VIDA SOSTENIBLES. EL CONSUMO Y LA PRODUCCIÓN SOSTENIBLES TAMBIÉN PUEDEN CONTRIBUIR DE MANERA SUSTANCIAL A LA MITIGACIÓN DE LA POBREZA Y A LA TRANSICIÓN HACIA ECONOMÍAS VERDES Y CON BAJAS EMISIONES DE CARBONO. DICHO ÉSTO SE INTENTA LOGRAR UN USO ERGONÓMICO Y SIMPLE. SE UTILIZARAN COMPONENTES DE BAJO COSTO, AMABLES CON EL MEDIO AMBIENTE, RECICLABLES Y DE FÁCIL MANTENIMIENTO. AL ENGLOBAR LOS OBJETIVOS A ALCANZAR CON ESTA INVESTIGACION SE PREVEE GENERAR UTENCILIOS DE USO DIARIO REPARABLES Y CON UNA VIDA UTIL MUY ACEPTABLE.   SERÁ UN EQUIPO DE SEGURIDAD QUE ESTARÁ DE PARTE DEL CONSUMIDOR PARA RESOLVER SU PROBLEMATICA AL MANETENER SUS PUERTAS CON UN SISTEMA ESTABLE Y CONFIABLE. ANTE LA PROBLEMÁTICA DE EXTRVIO DE LLAVES NUESTRA CERRADURA SERÁ PARTE VITAL Y UNA DE LAS ESTRATEGIAS DE MERCADEO PARA QUE SEA UN PRODUCTO EXITOSO.   SE UTILIZARÁ UNA CERRADURA  Y UNA PUERTA SIMPLE, COMÚN Y CORRIENTE. CÓMO REQUISITOS ADICIONALES SE USARA UN MECANISMO DE CARGA, QUE USARÁN LOS COMPONENTES DIGITALES. EL MONTAJE SE RELIZARA DENTRO DE LA MISMA CORAZA DE LA CERRADURA SIN MÁS CABLEADO QUE EL QUE SE USA DENTRO DEL ARDUINO Y LA ALIMENTACIÓN ENERGÉTICA DEL MISMO.


CONCLUSIONES

EN RESUMEN, DESTACA QUE LAS CERRADURAS AUTOMÁTICAS SON UNA OPCIÓN PROMETEDORA PARA MEJORAR LA SEGURIDAD Y LA COMODIDAD EN EL ACCESO A PROPIEDADES RESIDENCIALES Y COMERCIALES. A PESAR DE LOS DESAFÍOS MENCIONADOS, LA TECNOLOGÍA CONTINÚA AVANZANDO EN TÉRMINOS DE SEGURIDAD, CONECTIVIDAD Y FACILIDAD DE USO. PARA FUTURAS INVESTIGACIONES, ES IMPORTANTE ABORDAR LAS PREOCUPACIONES DE SEGURIDAD Y GARANTIZAR LA INTEROPERABILIDAD CON OTROS SISTEMAS INTELIGENTES EN EL HOGAR. ADEMÁS, ES NECESARIO CONSIDERAR LA ACEPTACIÓN Y ADOPCIÓN POR PARTE DE LOS USUARIOS, ASÍ COMO LAS IMPLICACIONES LEGALES Y ÉTICAS RELACIONADAS CON EL USO DE DATOS BIOMÉTRICOS EN LAS CERRADURAS AUTOMÁTICAS.
Cortina Barrales Naraai, Universidad de Guadalajara
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE FOTODETECTORES A BASE DE OXIDO DE ZINC


SíNTESIS Y CARACTERIZACIóN DE FOTODETECTORES A BASE DE OXIDO DE ZINC

Cortina Barrales Naraai, Universidad de Guadalajara. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los fotodetectores son dispositivos sensibles a cualquier tipo de radiación óptica, respondiendo con una señal eléctrica a una señal luminosa. En su estructura más simple están conformados por un material semiconductor y un metal. El óxido de zinc (ZnO) es un material semiconductor que tiene un band gap de 3.3 eV a temperatura ambiente, por lo que, en años recientes, ha generado gran interés en el desarrollo de dispositivos debido a sus características físicas. Durante este verano de investigación se estudia la eficiencia de los fotodetectores hechos a base de óxido de zinc y cómo se puede mejorar la respuesta de estos cambiando diversas características de su estructura.



METODOLOGÍA

Para sintetizar los dispositivos se hizo uso del laboratorio de electrónica flexible de la BUAP, donde se realizó un fotodetector con estructura de plata y óxido de zinc. En un sustrato de corning de 25 mm x 25 mm, haciendo uso de una evaporadora de metales, se depositó una capa de Ag con un grosor de 200 nm aproximadamente. Después, se le hizo un fotolitograbado para obtener los contactos con la forma requerida, sobre esto se añadió una capa de ZnO mediante un proceso de spray pyrolysis con un grosor de 200 nm aproximadamente. Se realizó otro dispositivo en el que primero se depositó el ZnO con la misma técnica, después se realizó el depósito de Ag, el fotolitograbado y por último se añadió una segunda capa de ZnO. También se hicieron fotodetectores con una estructura de óxido de indio y estaño (ITO) y óxido de zinc en el laboratorio de electrónica flexible. Sobre sustratos de PET cubiertos por una capa de ITO de 75 nm se llevó a cabo el fotolitograbado con la mascarilla para obtener la forma requerida de los contactos. Después se depositó sobre uno de los sustratos ZnO por el método de spray pyrolysis y sobre el otro sustrato se depositó una capa de ZnOx por el método de spin coating, ambas capas de 100 nm aproximadamente. Después se elaboraron fotodetectores con estructura de plata y óxido de zinc sobre PET. En sustratos de PET limpios se realizó un depósito de una capa de 100 nm de Ag para después grabar los contactos con el proceso de fotolitograbado. Sobre un sustrato se depositó una capa de 100 nm ZnO por el método de spray pyrolysis. En el segundo sustrato se depositó ZnOx por el método de spin coating para obtener una capa de 100 nm de grosor. Para determinar su eficiencia se llevó a cabo la caracterización electrónica haciendo mediciones de corriente contra voltaje de todos los dispositivos. Primero se hizo la medición en la oscuridad con un voltaje de -10 a 10 V, después incidiendo luz blanca a una distancia de 4.5 cm, luego con luz UV a una distancia de 7 cm con una longitud de onda de 365 nm y, por último, con luz UV con longitud de onda de 254 nm. Con los datos obtenidos en la caracterización electrónica, se realizó el cálculo de la fotosensibilidad, la responsividad y la detectividad de los fotodetectores en todos los voltajes. A partir de estos datos se pudo determinar qué fotodetector es más eficiente.


CONCLUSIONES

Durante la estancia de investigación se logró adquirir conocimientos sobre síntesis de dispositivos elaborados a base de óxido de zinc y de esta forma, descubrir diferentes técnicas para fabricar fotodetectores, además de conocer las características que afectan su eficiencia como los grosores de las capas y el material de los contactos. De esta forma, se propusieron diferentes estructuras para mejorar su eficiencia. También se aprendió sobre la caracterización de estos dispositivos y los cálculos para determinar si son eficientes. Por otro lado, siguiendo esta misma metodología, se podría continuar trabajando para mejorarlos y hacerlos más eficientes.
Cota Astorga Maria Gabriela, Universidad de Guadalajara
Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa

ESTUDIO DE NANOMATERIALES DE ZN Y ZNS EN UNA MATRIZ DE ARCILLA COMO USO POTENCIAL EN LA ELIMINACIóN DE COLORANTES CONTAMINANTES.


ESTUDIO DE NANOMATERIALES DE ZN Y ZNS EN UNA MATRIZ DE ARCILLA COMO USO POTENCIAL EN LA ELIMINACIóN DE COLORANTES CONTAMINANTES.

Cota Astorga Maria Gabriela, Universidad de Guadalajara. Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Debido a los altos colorantes contaminantes del medio ambiente es posible utilizar alternativas para su eliminación por medio de la fotocatálisis.



METODOLOGÍA

Se colocaron 5 muestras de Montmorillonite K10 de 5 g hidratadas con 50 ml de agua des-ionizada, en un baño térmico, que le transfiere calor indirectamente a las muestras, hasta llegar a una temperatura adecuada de 50°C. Cuando se obtuvo la temperatura adecuada se le añadió una cantidad de Zn anteriormente calculada, por medio de goteo, y después se dejó agitar durante 25 min. La muestra se filtró y lavó dos veces con agua des-ionizada. Luego, se recolecto la mitad de cada muestra para hidratarlas de nuevo con 75 ml de agua des-ionizada, dejándolas reposar por 24 horas para provocar un intercambio iónico. Se repitió el procedimiento con el ZnS en la arcilla recolectada y se dejó secando las 10 muestras para una próxima caracterización y análisis de resultados.


CONCLUSIONES

Se obtendrán nanopartículas de Zn y ZnS en la matriz de arcilla para su aplicación. 
Cristobal Garcia Jesus Omar, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Hernán Paz Penagos, Escuela Colombiana de Ingeniería Julio Garavito

DISEÑO DE UN SISTEMA DE MONITORIZACIÓN DE BAJO COSTO PARA DIAGNOSTICAR LA APNEA OBSTRUCTIVA DEL SUEÑO


DISEÑO DE UN SISTEMA DE MONITORIZACIÓN DE BAJO COSTO PARA DIAGNOSTICAR LA APNEA OBSTRUCTIVA DEL SUEÑO

Cristobal Garcia Jesus Omar, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Hernán Paz Penagos, Escuela Colombiana de Ingeniería Julio Garavito



PLANTEAMIENTO DEL PROBLEMA

En un estudio del 2019 que lleva por nombre Estimación de la prevalencia global y la carga de la apnea obstructiva del sueño: un análisis basado en la literatura, se realizó una aproximación sobre personas con AOS donde la edad ronda de 30 a 69 años. Se concretó que 936 millones de personas (hombres y mujeres) padecen de apnea leve y 425 millones de personas (hombres y mujeres), en el mismo rango de edad, padecen AOS que oscila de grado moderado a grave. En el año 2016, el artículo Epidemiología mundial, latinoamericana y colombiana y mortalidad del síndrome de apnea-hipopnea obstructiva del sueño (SAHOS) reflejó que en Colombia, específicamente de Bogotá D.C., Bucaramanga y Santa Marta, la prevalencia global de alto riesgo de AOS fue de 26.9%. También asocia la AOS con problemas cardiovasculares y neuropsicológicas que afectan en altos costos socioeconómicos para la población. La polisomnografía es el examen médico que permite diagnosticar la APNEA, pero es un servicio de alto costo, alámbrico (invasivo al cuero) y para leer e interpretar los resultados se requiere personal médico. Se busca ofrecer un sistema de diagnóstico alternativo de bajo costo, inalámbrico y de fácil lectura e interpretación para el paciente.



METODOLOGÍA

Cuenta con dos metodologías, cuantitativa y cualitativa. El primero involucra el desarrollo de software y hardware para medir parámetros fisiológicos del paciente durante una noche de sueño. El segundo es un instrumento de cribado que lo contestará el paciente al día siguiente de la prueba de monitorización. Se deberán calibrar mediante hardware y software los sensores encargados de registrar cada parámetro fisiológico: frecuencia respiratoria (sensor FSR406), frecuencia cardiaca (sensor MAX30102), saturación de oxígeno, movimientos de miembros inferiores (sensor BNO055) y ronquidos (sensor INMP441). Con base en la literatura se seleccionó la ubicación de los sensores en partes del cuerpo menos invasivas para el paciente. En el cual es la parte superior del tobillo, dedo índice, caja torácica y para el micrófono una cánula cerca de la boca para detectar los ronquidos. Para medir la magnitud de error de cada parámetro fisiológico estimado por el sistema de bajo costo, se compara los resultados de un monitor multiparametrico PG M7000 progetti medical y un sensor inercial xsens con los que cuenta la universidad. Mediante diagramas de flujo se explica el proceso de medida para cada sensor donde se utiliza como referencia los umbrales de los predictores clínicos de la AOS y protocolos de prueba. Mediante una interfaz gráfica de usuario en C# se recibe, procesa y muestra información respecto al predictor clínico. Los datos son enviados a la aplicación de escritorio de manera inalámbrica con diferentes microcontroladores esp32. Estos últimos leen de manera independiente los valores de cada sensor. El soporte de los diferentes circuitos con las respectivas baterías se diseña en solidworks en un formato de 3 dimensiones para luego imprimirlas con el material PLA. Estos soportes estarán sujetos al paciente mediante correas y velcro. Se deberán combinar los resultados del sistema de monitorización (método cuantitativo) y el instrumento de cribado (método cualitativo) para que aumenten las probabilidades de diagnóstico sobre la AOS en el paciente.


CONCLUSIONES

Se adquirieron conocimientos nuevos respecto al análisis de signos vitales del ser humano. Al trabajar con un proyecto en el que es necesario tener información actualizada y variada por los diferentes predictores, se fomentó a investigar en diferentes bases de datos indexadas. El uso de tecnologías de inteligencia artificial como chat GPT aceleró la búsqueda de base de datos sobre estudios de polisomnografias para la detección de AOS. Así podemos aprovechar esta tecnología a nuestro favor y que repercuta de manera positiva en la investigación. La investigación al ser programada en un lapso de un año, solamente se encuentra finalizada la tercera fase. En consecuencia aún no se pueden mostrar resultados globales sobre la validación del producto tecnológico.
Cruz Alcántara Sthefanie Rubí, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Lucas Fernando Quintana Fuentes Quintana Fuentes, Universidad Nacional Abierta y a Distancia

ANáLISIS SENSORIAL DE LICOR DE CACAO MEDIANTE LA CAPACITACIóN DE UN PANEL DE JUECES


ANáLISIS SENSORIAL DE LICOR DE CACAO MEDIANTE LA CAPACITACIóN DE UN PANEL DE JUECES

Cruz Alcántara Sthefanie Rubí, Tecnológico de Estudios Superiores de San Felipe del Progreso. Suarez Gonzalez Angelica Lizeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Lucas Fernando Quintana Fuentes Quintana Fuentes, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

La evaluación sensorial se ha definido como una disciplina científica utilizada para medir, analizar e interpretar respuestas a los productos percibidos a través de los sentidos ( vista, olfato,  tacto y  gusto), comprende un conjunto de técnicas para una medición precisa de las respuestas humanas a los alimentos y minimiza los efectos potencialmente sesgados de la identidad de marca y cualquier otra información que pueda tener influencia en percepción del consumidor. Existen diversos tipos de pruebas sensoriales que estudian el gusto y preferencia de los consumidores hacia los alimentos o bebidas, así mismo se obtiene información objetiva ya que existen metodologías que controlan una serie de variables para llevar a cabo las evaluaciones y se capturan en un cuestionario los resultados para realizar análisis estadísticos de los mismos. Para realizar la formación de un grupo de panelistas de evaluación sensorial se deben considerar las varias etapas como reclutamiento, selección y entrenamiento de jueces, además de un proceso de validación del panel, se basa en proporcionar los principios elementales de las técnicas utilizadas en el análisis sensorial y desarrollar su aptitud para detectar, reconocer y describir los estímulos sensoriales que se presentan en el licor de cacao.



METODOLOGÍA

La evaluación sensorial es de vital relevancia para el desarrollo de la industria de los alimentos y en el caso del cacao debe asumirse con rigor científico. Después de la percepción sensorial, el evaluador y el consumidor dan su concepto consciente de aquello que perciben en una materia prima, producto en fase de proceso o producto terminado, para luego conceptuar sobre la calidad de los atributos de acuerdo con su intensidad y calidad. Si la sensación percibida es buena, el producto será aceptado, o si por el contrario, la sensación es mala, será rechazado (Chambers, 2019). Se realiza una evaluación sensorial referente a licor o pasta de cacao, se realiza con la presentación de las muestras a un panel capacitado en la evaluación específica de este producto, que es la materia prima para la industria del chocolate y la bombonería.  Para que un panel evalúe el licor de cacao se requiere entrenamiento específico en sabores básicos del cacao como son: el sabor a cacao, la astringencia, la acidez y el amargo. También, en sabores específicos de cacaos finos de sabor y aromas como son: la nuez, el afrutado, el floral y el cítrico. Y adquiridos como: crudo, verde, ahumado, mohoso, terroso, entre otros. Esto con ayuda de bibliografía previamente revisada, se tomó en cuenta la metodología utilizada en una evaluación de licor de cacao de Colombia, para ser aplicado en México, cumpliendo con normas que se correlacionen. Primeramente, el entrenamiento de los jueces se basa en conocimientos que son propuestos por los moduladores de la evaluación sensorial, logran diferenciar entre los sentidos y sabores. Evalúan los atributos referentes a el licor/pasta de cacao; la calidad del atributo hace referencia a la relación entre rasgos de interés de un producto y cuya presencia en un momento dado le son favorables o desfavorables. Se seleccionaron 15 evaluadores previamente capacitados en el tema, y se les aplicó la evaluación sensorial, una prueba hedónica de 5 puntos, donde registran sus datos, así como respuestas. Para esta evaluación sensorial se aplicó la normatividad mexicana Se recolectaron los datos, dentro de una base de datos que permite identificar de manera más precisa, además de un análisis de resultados obtenidos. 


CONCLUSIONES

Los resultados obtenidos dentro de la evaluación sensorial plantearon significancia dentro de esta diferencia, en México y en el Tecnológico de Estudios Superiores de San Felipe del Progreso donde se llevó a cabo este análisis, el licor/pasta de cacao presentada al panel de jueces en promedio presentó una apariencia general de 3.8, indica dentro de la escala un buen nivel de aceptación. En las características sensitivas presentó resultados de color 4.4, olor 4.6 y sabor 2.6, con esto a simple vista podemos notar que al en México no ser un producto tan consumido, costo trabajo que se lograran distinguir entre los sabores generales y específicos relacionados a cacao. La estancia del programa nos permitió adquirir nuevos conocimientos teóricos sobre el cacao y su procesamiento, así como también reconocer las normas que se involucran dentro de este tipo de cultivo y cómo se diferencia el cacao de México con el de Colombia obteniendo diferentes resultados y normas para su cultivación. Se realizó la capacitación de un panel de jueces la cual nos permitió tener un mejor control al momento de realizar la evaluación ya que comprendieron los temas, la clasificación, los métodos de prueba, tipos de evaluadores y los diversos sabores, lo cual nos permitió hacer más eficaz evaluar el licor o pasta para obtener mejores resultados. Si bien es cierto tener en cuenta las normas aplicables para cada país permiten establecer un criterio más adecuado al momento de realizar e impartir incluso una evaluación sensorial, conocer cómo se diferencias los sentidos, los sabores que el propio producto nos permite conocer, al igual incorporar las sensaciones, teniendo en cuenta a un panel que debe conocer el producto, así como saber los aspectos de calidad que este puede definir para obtener resultados más favorables. La comparación que se realizó entre México y Colombia permite observar que se necesita más conocimiento y normas que se puedan establecer entre México sobre un producto que debería tener mayor relevancia.  
Cruz Cervantes Cid Manuel, Instituto Politécnico Nacional
Asesor: Dr. Arturo Abúndez Abúndez, Centro Nacional de Investigación y Desarrollo Tecnológico

DISEñO Y CARACTERIZACIóN MECáNICA DE MATERIALES COMPUESTOS


DISEñO Y CARACTERIZACIóN MECáNICA DE MATERIALES COMPUESTOS

Bojorquez Romero Alehisa Poleb, Universidad Autónoma de Baja California. Cruz Cervantes Cid Manuel, Instituto Politécnico Nacional. Roldán Leyva Juan Jesús, Instituto Tecnológico de Hermosillo. Rubio Vazquez Aletza, Universidad Autónoma de Baja California. Asesor: Dr. Arturo Abúndez Abúndez, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la alta demanda de materiales ligeros y de calidad, así como la creciente crisis ambiental ha traído consigo la búsqueda de nuevos materiales, siendo los materiales compuestos híbridos una alternativa viable para dar solución a esta necesidad, estos juegan un papel muy importante debido a que poseen alta resistencia y rigidez, además, de baja densidad. En relación con los compuestos híbridos, se encuentran los reforzados con fibra de carbono (CFRP) y de vidrio (PRF), estos ampliamente utilizados en aviones, palas de aerogeneradores, construcción y autopartes. Debido a sus propiedades individuales que ambas fibras se complementan, en primera instancia la fibra de vidrio ofrece elasticidad y solidez, en contraparte la fibra de carbono es flexible, ligera y además ofrece alta resistencia. Ahora bien, el presente trabajo tiene como objetivos evaluar el efecto de la orientación de las fibras en las propiedades mecánicas a tensión de materiales compuestos híbridos CFRP y PRF, a través del análisis teórico- experimental.



METODOLOGÍA

Fabricación de laminados (2,4,6 capas de carbono). A continuación se describe el procedimiento seguido para la fabricación de los laminados, los cuales corresponden a la siguiente configuración: [±45/02]s [±45/04]s [±45/06]s El método de fabricación de los laminados por hand lay-up consiste en lo siguiente: Preparación del molde: Limpieza y eliminación de residuos en el molde de vidrio. Preparación de fibras: Corte y organización de fibras para el laminado. Mezcla de resina: Proporción 100/30 de resina-catalizador, considerando tiempo de trabajo. Aplicación capas: Resina, Peel ply, fibras en secuencia [±45, 0n]S, impregnación y alisado. Embolsado y compactación: Bolsa de vacío, caul plate, mangueras y sellado. Curado: Tres días a temperatura ambiente para endurecer la resina. Desmoldeo y acabado: Retiro, eliminación de Peel ply y excesos de resina. Fabricación de las probetas. Siguiendo la norma ASTM D3039, se fabricaron probetas de laminados con dimensiones 130x13x0.13 mm, cortadas en una fresadora G0704. Ajustes se realizaron con movimientos longitudinales y transversales. Tras elaborar los moldes, se lijaron las probetas con papel abrasivo y limas planas, usando un vernier digital para controlar medidas y evitar daños. Este proceso garantizó precisiones y evitó deformaciones. Caracterización de probetas. Una vez elaboradas y rectificadas las probetas según la norma ASTM D3039M, se procedió a su caracterización, mediante una máquina de ensayos marca Shimadzu modelo AG-X plus con una capacidad máxima de carga de 100kN. A continuación, se describe el procedimiento de ensayo de una probeta con el fin de ejemplificar el procedimiento llevado a cabo con el resto de estas. Primero, se identificó y etiqueto la probeta, ingresando esta información al software. Luego, se ajustó la máquina y se introdujo la probeta, asegurando el empalme con las líneas centrales. Se monta el extensómetro y se configura el software. Tras la inicialización del ensayo, la máquina tensionaba la probeta mientras el software registraba datos y generaba un diagrama esfuerzo-deformación. Se detenía manualmente cuando se alcanzaba el esfuerzo máximo. Luego se desmontaba el extensómetro y la probeta con precaución. Los datos se guardaban y se repitieron los pasos para cada probeta. Resultados. Se reportaron resultados de tres laminados con diferentes configuraciones de capas de fibra de carbono y vidrio. Para el laminado de 4 capas, se ensayaron 9 probetas, 7 mostraron ruptura dentro de la sección establecida. Similarmente, para el laminado de 6 y 10 capas, se ensayaron 7 y 8 probetas, respectivamente, con 5 de cada uno mostrando ruptura dentro del área designada. Se obtuvo un gráfico de esfuerzo contra deformación promediando el comportamiento de cada lote de probetas ensayadas de los tres laminados, el cual evidencia la influencia del número de capas de carbono en el comportamiento del material. Se obtuvieron datos suficientes para evaluar y se les atribuyeron a las probetas ensayadas que no cumplieron el requisito de norma, problemas en el agarre y/o problemas de funcionamiento de la máquina o montaje del extensómetro, reafirmando la validez de los datos obtenidos en la preparación de placas y ensayos de probetas.  


CONCLUSIONES

  Los resultados obtenidos de las pruebas de tracción demostraron la adecuada cantidad del peel ply y su orientación utilizada, ya que las pruebas fueron válidas y se mantuvieron dentro de los límites establecidos. El diagrama esfuerzo-deformación revelo un comportamiento pseudo dúctil en los laminados con 6 y 4 capas de carbono al centro, donde se observó una meseta de esfuerzos y una falla gradual en cada probeta, siendo las capas de carbono las primeras en dañarse. El objetivo de evaluar el efecto de la orientación de las fibras en las propiedades mecánicas del material compuesto híbrido se cumplió exitosamente mediante un análisis teórico-experimental. Estos materiales compuestos encuentran aplicaciones amplias y diversas en diversas industrias gracias a sus propiedades únicas, como alta resistencia y bajo peso, junto con su durabilidad. La investigación de alternativas sostenibles para producir estos compuestos conlleva un ahorro significativo de energía y recursos. La implementación de compuestos híbridos es relevante debido a su versatilidad, destacado desempeño mecánico, durabilidad y favorable relación resistencia-peso. Esta línea de investigación muestra un potencial significativo para el avance tecnológico en diversas industrias, desde la aeroespacial y automotriz, hasta la energética e infraestructuras. En conclusión, el estudio de materiales compuestos juega un papel esencial en el progreso industrial y tecnológico, abriendo un mundo de posibilidades para aplicaciones innovadoras y sostenibles.  
Cruz del Angel Alan, Instituto Tecnológico Superior de Huauchinango
Asesor: Ing. Cupertino Luna Trejo, Instituto Tecnológico Superior de Huauchinango

IMPACTO DEL DESARROLLO FULL STACK EN LOS APRENDIENTES DE LOS úLTIMOS TRES SEMESTRES DE LA CARRERA DE INGENIERíA EN SISTEMAS COMPUTACIONALES DEL ITSH


IMPACTO DEL DESARROLLO FULL STACK EN LOS APRENDIENTES DE LOS úLTIMOS TRES SEMESTRES DE LA CARRERA DE INGENIERíA EN SISTEMAS COMPUTACIONALES DEL ITSH

Arevalo Navarro Erick Wladimir, Universidad de Pamplona. Cruz del Angel Alan, Instituto Tecnológico Superior de Huauchinango. Asesor: Ing. Cupertino Luna Trejo, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La aplicación web de la papelería en línea de Huauchinango es una solución digital innovadora que ha transformado la forma en que los usuarios realizan compras de suministros de papelería. En un mundo cada vez más digitalizado, esta plataforma se ha convertido en una opción preferida para aquellos que buscan una experiencia de compra práctica y segura desde la comodidad de sus dispositivos móviles o computadoras. El catálogo de la aplicación ofrece una amplia gama de productos de papelería, que van desde útiles escolares hasta artículos de oficina y materiales de arte. Los clientes pueden navegar fácilmente por las diversas categorías y utilizar un sistema de búsqueda eficiente para encontrar rápidamente los productos que necesitan.



METODOLOGÍA

La implementación de la metodología Scrum en el proyecto de desarrollo web de venta de artículos de papelería se llevará a cabo con los siguientes roles: Product Owner: Dulce Abigail, quien será responsable de definir y priorizar los requisitos del proyecto en colaboración con las partes interesadas. Scrum Master: Erick Arevalo, encargado de facilitar el proceso Scrum, asegurar el seguimiento de las prácticas y eliminar obstáculos. Equipo de Desarrollo: Todos los miembros del equipo, responsables del diseño, desarrollo y pruebas del software. Los eventos en Scrum incluirán: Sprint Planning: Reunión al inicio de cada sprint (6 o 7 semanas) para seleccionar tareas del backlog y establecer objetivos. Daily Scrum: Reunión diaria breve para compartir progreso y abordar problemas. Sprint Review: Reunión al final de cada sprint para demostrar funcionalidades y recibir comentarios. Sprint Retrospective: Reunión para evaluar el desempeño y planificar mejoras. Los artefactos en Scrum serán: Product Backlog: Lista de requisitos funcionales y no funcionales, actualizada y priorizada por el Product Owner. Sprint Backlog: Lista de tareas seleccionadas para el sprint actual. Incremento: Entrega funcional y desplegable al final de cada sprint, con nuevas funcionalidades y mejoras. La implementación seguirá el siguiente proceso: El Scrum Master organizará la primera reunión de Sprint Planning para definir tareas del Sprint Backlog. Reuniones diarias de Daily Scrum para mantener alineado al equipo y eliminar obstáculos. Sprint Review al final de cada sprint para presentar avances y recibir retroalimentación. Sprint Retrospective para analizar el sprint y planificar mejoras para el siguiente. Con Scrum, buscamos mejorar la colaboración, enfoque en la entrega de valor y eficiencia en el desarrollo del proyecto, asegurando una experiencia satisfactoria para nuestros usuarios y la adaptabilidad necesaria en un mercado en constante evolución.


CONCLUSIONES

  Se ha logrado cumplir con el objetivo del proyecto teniendo como resultado un sitio web donde se pueden comprar de manera fácil productos de papelería sin tener que salir al punto en físico a comprar, el sitio web permite visualizar los productos que se encuentras disponibles así como las categorías con las que se cuentan, además de poder visualizar los productos se puede realizar un registro para poder realizar compras por distintos medios de pago como mercado pago y Paypal. Y se cuenta con un apartado para editar la información de usuario como correo, contraseña, dirección entre otros datos. Eso sería por el lado del cliente, para la parte de administración se cuenta con una interfaz donde se pueden ver, editar y agregar los productos y demás información necesaria para el sistema.
Cruz Hernández Ayline Itxell, Instituto Tecnológico Superior de Guanajuato
Asesor: Mg. Julieth Pahola Vergara Libernal, Corporación Universitaria Americana

DISEÑO DE UNA PROPUESTA DE UN PROGRAMA DE PROMOCIÓN Y PREVENCIÓN DE LA SEGURIDAD Y SALUD EN EL TRABAJO EN LA EMPRESA INDUSTRIAS PLÁSTICAS FUSSIÓN S.A.S: UN ENFOQUE SOSTENIBLE PARA LOS ODS 3 Y 8


DISEÑO DE UNA PROPUESTA DE UN PROGRAMA DE PROMOCIÓN Y PREVENCIÓN DE LA SEGURIDAD Y SALUD EN EL TRABAJO EN LA EMPRESA INDUSTRIAS PLÁSTICAS FUSSIÓN S.A.S: UN ENFOQUE SOSTENIBLE PARA LOS ODS 3 Y 8

Cruz Hernández Ayline Itxell, Instituto Tecnológico Superior de Guanajuato. Asesor: Mg. Julieth Pahola Vergara Libernal, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Dentro de la empresa Fussión S.A.S en la ciudad de Barranquilla, se llevan a cabo diversos procesos correspondientes al sector de industrias plásticas. Sin embargo, no se ha realizado una actualización de los riesgos presentes tanto en las áreas operativas como en las administrativas durante los procesos de producción. Por tanto, no se ha llevado la adecuada aplicación de un programa efectivo de promoción de seguridad y salud en el trabajo. Con el objetivo de abordar esta problemática, se llevó a cabo un proyecto de investigación cuya finalidad es diseñar un programa integral de promoción y prevención de seguridad y salud para los trabajadores, para llevarlo a cabo se realizó una matriz de riesgos por lo que se efectuó una minuciosa observación durante la jornada laboral dentro de la empresa, esto permitió obtener información que posteriormente fue analizada estadísticamente, por este medio fue posible conocer los riesgos de mayor presencia dentro de la organización. Se desarrollo la creación de un programa para la prevención de accidentes donde se encuentran distintas recomendaciones para mitigar los riesgos y mejorar la calidad de las condiciones en las que se encuentran los trabajadores.



METODOLOGÍA

El tipo de estudio de acuerdo con el autor Esteban Nieto, N (2018), se utilizó la explicativa, de tal forma que se analizaron las situaciones y factores que están latentes en cada puesto de trabajo; en el cual se aplicó el instrumento de medición que fue por medio de la observación. De esta manera, se recolectó la información acerca de los peligros a los que los trabajadores están expuestos en sus labores cotidianas. Luego, se llevó a cabo un análisis estadístico para determinar los riesgos más frecuentes en la empresa. El enfoque de investigación que se utilizó es el cualitativo, dado que, nos basamos en la recolección de datos a partir de las experiencias de los trabajadores durante el desarrollo de las actividades que realizan en la empresa Fussion S.A.S; el cual nos permite la identificación de factores de riesgos laborales a los que se encuentran expuestos los trabajadores. Con el fin de realizar el diseño del programa de promoción de seguridad y salud del trabajador. Diseño metodológico  Fase 1: Analizar los riesgos laborales en la empresa Fussion S.A.S identificando los riesgos y factores que afectan la seguridad y salud de los empleados. Fase 2: Diseñar una matriz de riesgos basándonos en la norma GTC-45 para determinar cuáles son los riesgos y peligros relevantes para la salud y bienestar del trabajador con el fin de evitar accidentes. Fase 3: Diseñar e integrar en el programa enfoques sostenibles, tales como la reducción del consumo de plásticos, el manejo adecuado de residuos, y la promoción de prácticas eco amigables, para contribuir a la sostenibilidad ambiental y al cumplimiento de los ODS 3 y 8.


CONCLUSIONES

Se ha desarrollado un Programa de Promoción y Prevención de seguridad y salud para la empresa FUSSION S.A.S, lo cual está alineado con el Objetivo de Desarrollo Sostenible 3 (Salud y Bienestar). Este programa busca minimizar los riesgos relacionados con la seguridad y salud de los colaboradores, asegurando una vida sana y promoviendo el bienestar para todos. A medida que la empresa crezca en productividad y fuerza laboral, la matriz de riegos que se realizó para llevar a cabo el programa se convertirá en una herramienta crucial para identificar las necesidades reales de los colaboradores, contribuyendo así al Objetivo de Desarrollo Sostenible 8 (Trabajo Decente y Crecimiento Económico). Enfocarse en las necesidades de los trabajadores permite fomentar un crecimiento económico sostenible y un entorno laboral más justo e inclusivo.
Cruz Hernández Yaritzza Meritxell, Instituto Tecnológico Superior de Guanajuato
Asesor: Mg. Marlon Antonio Calabria Lopez, Corporación Universitaria Americana

ESTRATEGIAS DE GESTIóN FINANCIERA PARA EL DESARROLLO DE INNOVACIONES EN EMPRESAS DE MANUFACTURA.


ESTRATEGIAS DE GESTIóN FINANCIERA PARA EL DESARROLLO DE INNOVACIONES EN EMPRESAS DE MANUFACTURA.

Cruz Hernández Yaritzza Meritxell, Instituto Tecnológico Superior de Guanajuato. Asesor: Mg. Marlon Antonio Calabria Lopez, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Las empresas de manufactura en Colombia enfrentan diversos desafíos para mantener su competitividad y sostenibilidad a largo plazo. Uno de los factores clave que influyen en su éxito es su capacidad para desarrollar innovaciones en sus productos, procesos y modelos de negocio. Sin embargo, la implementación efectiva de estas innovaciones requiere una gestión financiera sólida y estratégica que respalde las iniciativas de cambio y mejora. Ante esta situación, el análisis de las estrategias permitirá comprender mejor los enfoques financieros más efectivos para fomentar la innovación en el sector manufacturero colombiano, para así, identificar los desafíos y oportunidades que se puedan presentar y de esta manera proporcionar recomendaciones prácticas para que las empresas mejoren su gestión financiera, maximicen el valor de sus iniciativas innovadoras y visualicen la importancia a  la atención que se le da a las condiciones del mercado y sean flexibles para adaptarse a los cambios y desafíos que puedan surgir en el entorno empresarial. Además, se espera que este estudio contribuya al conocimiento académico y la relación entre la gestión financiera y el desarrollo de innovaciones en el contexto empresarial colombiano.



METODOLOGÍA

Este trabajo de investigación es cuantitativo, de tipo analítico debido a que busca analizar estrategias de gestión financiera para el desarrollo de innovaciones en empresas de manufactura de Colombia. La presente investigación contiene las siguientes fases: Fase 1: Revisión de literatura Se hace la búsqueda de artículos científicos relacionados con la importancia de las finanzas en el proceso de innovación. Fase 2: Caracterización de la industria manufacturera Utilizando la encuesta de innovación de Colombia se busca caracterizar a las empresas manufactureras del país Fase 3: Análisis de estrategias A partir de los datos de la encuesta, se busca analizar que estrategias financieras se están utilizando actualmente en las empresas manufactureras para innovar. Las fuentes de información primaria serán: Encuesta de Desarrollo Tecnológico e Innovación (EDIT) versión 9 y se utilizarán 2,059 registros de empresas con resultados de innovación reportados. Adicionalmente se utilizarán publicaciones científicas relacionadas con la temática del proyecto (ver fase 1) Fuentes de información secundario: Se utilizarán fuentes científicas complementarias y publicaciones institucionales de tipo local, regional o nacional. El alcance de la investigación estará determinado geográficamente por las empresas manufactureras de Colombia. El alcance temporal estará demarcado por la versión 9 de la EDIT que corresponde a los años 2017 y 2018.


CONCLUSIONES

El desarrollo de innovaciones en empresas de manufactura en Colombia es un factor clave para mantener su competitividad y sostenibilidad a largo plazo. Sin embargo, la implementación efectiva de estas innovaciones requiere una gestión financiera sólida y estratégica que respalde las iniciativas de cambio y mejora. Esta investigación se propone analizar estrategias de gestión financiera para fomentar la innovación en el sector manufacturero colombiano y comprender mejor los enfoques financieros más efectivos para este propósito. Las dificultades para gestionar los recursos financieros que hacen sostenible a la industria manufacturera, el escaso conocimiento y apropiación de procesos de innovación, y las dificultades para gestionar los riesgos asociados a la innovación son algunos de los desafíos que enfrentan las empresas en este contexto. Por otro lado, la importancia de gestionar procesos de innovación sr relaciona directamente con la sostenibilidad, competitividad y desarrollo económico de las empresas manufactureras. Los resultados resaltan también, la importancia de superar las dificultades financieras, invertir en el desarrollo del personal y adaptar la estrategia de innovación de acuerdo con las necesidades y características de cada sector. Esta información puede ser utilizada  para tomar decisiones informadas y fomentar un ambiente para la innovación en el mundo empresarial. Finalmente se puede observar una correlación positiva entre el nivel de formación del personal y la participación en actividades innovadoras. Las empresas que cuentan con empleados altamente educados tienden a estar más involucradas en proyectos de innovación y a implementar prácticas innovadoras de manera más efectiva.
Cruz Moctezuma Ricardo Leonel, Instituto Tecnológico de Chilpancingo
Asesor: M.C. Víctor Manuel Jacobo Adán, Instituto Tecnológico de Iguala

PáGINA WEB C.B.T.I.S. NO. 56


PáGINA WEB C.B.T.I.S. NO. 56

Cruz Moctezuma Ricardo Leonel, Instituto Tecnológico de Chilpancingo. Marquez Cayetano Ruth, Instituto Tecnológico de Chilpancingo. Xinol Sanchez Victor Manuel, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Víctor Manuel Jacobo Adán, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La institución educativa C.B.T.i.s. No. 56 en Iguala de la Independencia, Guerrero, enfrenta el desafío de contar con una página web desactualizada y no adaptativa a diferentes dispositivos, lo que dificulta el acceso y la experiencia de los usuarios. Además, carece de un sistema de gestión de contenidos que permita administrar dinámicamente los distintos apartados de la página, como:  Departamentos de servicios escolares, docentes y vinculación,  Oficinas de becas y construyeT,  Anuncios del inicio, Enlaces importantes,  Promoción institucional y la opción de Transparencia.  Esta situación ocasiona dificultades para proporcionar información actualizada y relevante a la comunidad educativa y al público en general. El proyecto aborda la necesidad de actualizar y hacer adaptable la página web a diferentes dispositivos, así como implementar un sistema de gestión de contenidos que permita una administración dinámica de los diferentes apartados. Es fundamental establecer roles de administradores y editores para garantizar una gestión eficiente y segura de los usuarios y contenidos. También se debe establecer criterios claros para el formato y tamaño de las imágenes que se podrán subir a los apartados, así como definir los criterios del formato y calidad de los videos.   



METODOLOGÍA

El presente plan de trabajo tiene como objetivo principal modificar la página web del C.B.T.i.s. No. 56, ubicado en Iguala de la Independencia, Guerrero, con el fin de actualizarla y hacerla adaptativa a diferentes dispositivos. Además, se busca incluir módulos que permitan administrar dinámicamente los contenidos de diferentes apartados de la página. Para lograrlo, se utilizará el modelo de desarrollo ágil RAD (Rapid Application Development), que permitirá un enfoque iterativo e incremental, garantizando la participación activa de los usuarios y una entrega temprana de funcionalidades. A continuación se especifican las fases:  Fase 1: Modelado de la gestión Actividades: Identificar los objetos relevantes para la página web de la institución, como departamentos, oficinas y secciones. Documentar los procesos de gestión actuales e identificar áreas de mejora. Reunión con los responsables de la institución para entender los requisitos de gestión y los flujos de información. Fase 2: Modelado de datos Actividades: Definir las características de cada objeto, como los datos que se deben almacenar y los vínculos entre ellos. Obtener la aprobación del modelo de datos por parte de la autoridad máxima de la institución. Fase 3 : Modelado de procesos Actividades: Diseñar una propuesta de diseño actualizado y adaptativo para la página web, asegurando que se cumplan los requisitos de los diferentes dispositivos y reflejando la identidad visual de la institución. Crear prototipos interactivos o wireframes que muestren cómo se verán los diferentes apartados y módulos con el gestor de contenido integrado.   Fase 4 y 5 : Generación de aplicaciones y pruebas y entrega.  Actividades 4: Desarrollar los componentes necesarios para la gestión de usuarios, roles y permisos. Implementar el gestor de contenido para cada una de las secciones especificadas. Integrar los componentes desarrollados en la página web existente. Actividades 5: Realizar pruebas exhaustivas de todos los componentes y asegurar su correcto funcionamiento. Preparar una documentación detallada que explique los pasos necesarios para administrar y actualizar el contenido de la página web. Entregar la versión final de la página web actualizada y adaptativa. Manual del software diseñado, con el objetivo de que los participantes puedan utilizarlo de forma correcta y eficiente.


CONCLUSIONES

Durante el desarrollo del proyecto de modificación y actualización de la página web del C.B.T.i.s. No. 56, se ha logrado un avance significativo en la resolución de la problemática planteada. La implementación de la metodología de Desarrollo Rápido de Aplicaciones (RAD) ha permitido un enfoque ágil y eficiente, lo que ha facilitado la entrega temprana de funcionalidades y la participación activa de los usuarios en el proceso de desarrollo.  El proyecto ha sido un éxito en la solución de la problemática inicial, y se espera que la nueva página web actualizada y adaptativa mejore significativamente la visibilidad del C.B.T.i.s. No. 56 en línea, brindando una experiencia de usuario más satisfactoria y facilitando la comunicación de información relevante a la comunidad educativa y al público en general. El equipo de desarrollo ha adquirido valiosos conocimientos y experiencias en el desarrollo de sistemas de software administrativo, así como en el trabajo en equipo, lo que representa un enriquecimiento profesional para cada uno de sus miembros.  
Cruz Ramirez Oscar Mauricio, Universidad Tecnologica de León
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.


FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.

Aguirre Mena Federico de Jesus, Universidad Tecnologica de León. Castellanos Luevano Oswaldo, Universidad Tecnologica de León. Cruz Ramirez Oscar Mauricio, Universidad Tecnologica de León. Duarte Hernández Daniel, Universidad Tecnologica de León. Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Perez Soto Jose Saul, Universidad Tecnologica de León. Rodríguez Galaviz Brian Axel, Universidad Tecnologica de León. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proyecto reforzará la interacción con diferentes periféricos y dispositivos, como el módulo de biometría de huella digital, el módulo GPS y el sensor de carga de la batería. También se reforzará el diseño y montaje de un circuito adecuado para conectar y gestionar estos componentes.  



METODOLOGÍA

El objetivo de este proyecto es integrar una serie de sensores en un vehículo eléctrico para mejorar la seguridad y funcionalidad del mismo. Los sensores que se utilizarán son: Sensor de biometría de huella digital: Este sensor se aseguró para autenticar al conductor y permitir el acceso al vehículo. La huella digital del conductor se almacenará en una base de datos y se comparará con la huella digital escaneada para conceder o denegar el acceso. Posicionamiento global GPS: Se implementará un módulo GPS para obtener la ubicación precisa del vehículo. Esto permitirá realizar funciones como seguimiento en tiempo real, registro de trayectos y localización en caso de robo o emergencia. Sensor de estado de carga de batería: Para garantizar la eficiencia y seguridad del vehículo eléctrico, se obtendrá un sensor para medir el nivel de carga de la batería. Esto permitirá al conductor tener una estimación precisa del alcance del vehículo antes de necesitar una recarga. El microcontrolador ATMega328P será el cerebro del sistema, encargado de procesar los datos de los sensores y controlar las diferentes funciones del vehículo. Para lograrlo, se programará el microcontrolador en lenguaje C o algún lenguaje de programación compatible.


CONCLUSIONES

Al finalizar el proyecto, se tendrá un vehículo eléctrico más seguro y funcional, con capacidades avanzadas de autenticación, localización y supervisión del estado de la batería. Esto contribuirá a mejorar la experiencia del usuario y fomentará el uso de vehículos eléctricos como una opción de movilidad más sostenible.
Cruz Regalado Ariana Daheli, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA Y MEJORA CONTINUA EN EMPRESAS DEL SUR DE SINALOA


LOGíSTICA Y MEJORA CONTINUA EN EMPRESAS DEL SUR DE SINALOA

Cruz Regalado Ariana Daheli, Universidad Politécnica de Sinaloa. Gonzalez Cabanillas Ailin, Universidad Politécnica de Sinaloa. Salazar Ibarra Isela Donahi, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La globalización impulsa la competitividad empresarial entre las cadenas de valor y cadenas de suministro, ambas importantes y con la necesidad de la innovación constante, lo anterior puede ser posible si la estructura organizacional es eficiente y eficaz, aun con lo anterior el factor calidad es esencial, el cual se puede definir como realizar las actividades a la primera y bien con referencia empresarial; es decir, es necesario que se comprenda qué es lo que la hace funcionar, los procesos claves medios por indicadores estratégicos, ser sostenible y la toma de decisión asertiva son tendencia actual y futura. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la capacidad del sector logístico y transporte en mejorar continuamente,  pues si bien las necesidades como el ser competitivo ya no es opcional, es una cualidad natural de la organización, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio de campo que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento empresarial relacionado con el ámbito logístico y mejora continua. El alcance de la investigación cuantitativa de tipo campo es identificar si las condiciones en materia logística y mejora continua en las empresas del Sur de Sinaloa son adecuadas, desde la perspectiva empresarial del sector industrial.  



METODOLOGÍA

Para este estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos escritos y a distancia con medios digitales de tecnología de la información y la comunicación, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El método de recolección de datos es a través de instrumento de encuesta con 60 reactivos, se aplicó a personas directivas de empresas, con una muestra de 85 organizaciones, de la cual se seleccionó tres reactivos orientada a conocer las opiniones sobre la capacitación de la gestión logística y cadena de suministro (variable A1), capacidad en mejora continua (variable A2); así también, la capacitación en la gestión de calidad (variable A3), para cada reactivo se aplica una categorización de la siguiente forma Muy  necesario (5), Necesario (4), No necesario (3), No sé (2) y No aplica (1). Se analiza la información de forma gráfica estadística para realizar una argumentación sustentada abordando si las condiciones en habilitación del personal en materia logística y mejora continua en las empresas del Sur de Sinaloa son adecuadas, desde la perspectiva empresarial del sector industrial.  


CONCLUSIONES

La población encuestada se encuentra en empresas de giro industrial, en áreas disciplinares de logística y transporte, de la muestra general de 85 personas se muestra un resultado estadístico descriptivo en la variable A1 con una media de 3.9818 y una desviación estándar de 1.147, lo cual indica que la mayoría de las empresas están de acuerdo en que capacitan a su personal en gestión logística y cadena de suministro, mientras que en la variable A2 una media de 4.6941 con una desviación estándar de 0.5123, significa que las organizaciones están muy de acuerdo en que la mayoría de sus colaboradores tienen las habilidades de realizar mejoras continuas; así también, la variable A3 una media de 4.2824 con una desviación estándar de 0.9208, eso describe que la empresa está muy de acuerdo en la necesidad de que los empleados deben ser capacitados con mayor frecuencia en la gestión de calidad, los resultados en materia logística y mejora continua en empresas del Sur de Sinaloa nos proporcionan que las variable A1, A2 y A3 describen en que los subordinados deben ser capacitadas con mayor frecuencia para el desarrollo de sus habilidades en ámbitos de la logística y mejora continua, con el propósito de aportar la continuidad en proyectos orientados al punto 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030.  
Cruz Rodriguez Diana, Instituto Tecnológico de Pachuca
Asesor: Mg. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena

RECICLAJE TéRMICO COMO ESTRATEGIA DE REUTILIZACIóN DE RESIDUOS PLáSTICOS Y FIBRAS VEGETALES DE LA ACTIVIDAD BANANERA EN EL CENTRO ACUíCOLA Y AGROINDUSTRIAL DE GAIRA


RECICLAJE TéRMICO COMO ESTRATEGIA DE REUTILIZACIóN DE RESIDUOS PLáSTICOS Y FIBRAS VEGETALES DE LA ACTIVIDAD BANANERA EN EL CENTRO ACUíCOLA Y AGROINDUSTRIAL DE GAIRA

Cruz Rodriguez Diana, Instituto Tecnológico de Pachuca. Ortiz Flores Damaris Itzel, Instituto Tecnológico de Pachuca. Salazar Fernandez Maricielo del Carmen, Universidad César Vallejo. Asesor: Mg. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena



PLANTEAMIENTO DEL PROBLEMA

La industria del plástico ha aumentado su nivel de producción significativamente, generando cerca de 400 millones de toneladas por año, sin embargo, solo el 9% es reciclado mientras que la disposición final de 19 a 23 millones de toneladas de plásticos termina en botaderos. Cada año Colombia genera 1.400.000 toneladas de plástico al año en todas sus presentaciones, cientos de toneladas de estos residuos terminan en los ríos y mares del país. El Magdalena Santa Marta emite una carga estimada de 16.700 toneladas de plásticos por año que terminan en el Mar Caribe.   En el Centro Acuícola y Agroindustrial de Gaira (CAAG), hay gran demanda de botellas PET (Polietileno Tereftalato) generado por el consumo de aprendices, funcionarios e instructores en promedio 1.689 usuarios que producen 4.720 kg anuales de residuos sólidos aprovechables; entre ellos un 62% de plásticos (Informe Mediciones 2022 Sistema de Gestión Ambiental CAAG). Debido a esto, se ha generado una problemática, ya que existe una incorrecta disposición de los residuos sólidos e inexistencia de estrategias que hagan transformación o reaprovechamiento a los residuos generados.



METODOLOGÍA

La Metodología planteada se fundamenta en los planteamientos de las Normas: ASTM D1037: 12 y la Norma ASTM D143-21; que, aunque no son directamente aplicadas a madera plástica, son desarrolladas para madera y se realizará una adaptación del método para obtener resultados confiables en el prototipo.   Clasificación de residuos Para dar inicio al desarrollo del proyecto, se recolectaron residuos plásticos pertenecientes a tres tipos diferentes de clasificación; Polietileno Tereftalato (PET), Poliestireno (PS) y Polipropileno (PP). Dichos residuos se obtuvieron de los contenedores de reciclaje ubicados dentro del Centro Acuícola y Agroindustrial de Gaira. Posteriormente se extrajeron las etiquetas y las tapas de las botellas de PET que fueron recolectadas; para después realizar la reducción de tamaño de los envases de PET, las bolsas de PS y los fragmentos de LDPE, de esta forma se obtuvieron piezas plásticas de aproximadamente 1cm X 1cm.   Limpieza y desinfección de residuos plásticos Previamente, se realizó la limpieza y desinfección de los diferentes tipos de plásticos de forma mecánica (frotar y enjuagar con agua) y química (utilización de agua, detergentes y detergentes enzimáticos para reducir la carga microbiana y partículas de polvo).   Recolección de la fibra vegetal de banano Se recolectaron dos vástagos de banano de 6 y 9 meses de edad ubicados en el CAAG, los cuales fueron trasladados al centro de acopio en donde se realizó el acondicionamiento de la fibra vegetal de banano, separando las capas de fibras del vástago. Posteriormente, dichas capas fueron distribuidas sobre una superficie plástica y se dejaron a temperatura ambiente durante 48 horas para eliminar la humedad.   Secado de la fibra vegetal de banano Después de las 48 horas el vástago pasó por un proceso de cortado, el cual se llevó a cabo con ayuda de equipos manuales con la finalidad de obtener trozos de 10 a 15 cm de longitud para posteriormente, poderse colocar en charolas de acero inoxidable que se colocaron dentro de un horno de secado ubicado en la planta de alimentos del CAAG. El proceso de secado se realizó durante 8 horas a una temperatura de 45°C.   Pruebas Fisicoquímicas Para realizar los cálculos de humedad se utilizó un método de pesaje, en donde se tomaron muestras de la fibra de banano recién cortada y se colocaron en un horno a 105°C durante 8 horas y se calculó el % Extracto seco e indirectamente el % Humedad, este procedimiento se repitió 2 veces para poder sacar un promedio. Adicionalmente se realizó en un equipo analizador de humedad halógeno localizado en el laboratorio de físico química, en donde se sometieron 2.742 g de muestra de fibra de banano en el equipo a 105°C durante 15 minutos y se obtuvo una humedad de 93.64%, siendo el promedio final de humedad de 94.26%.   Pruebas Microbiológicas Se realizaron pruebas microbiológicas a la materia prima empleada, con el propósito de conocer qué microorganismos se encuentran presentes en los materiales que se manipulan durante el proceso. Se utilizaron dos medios de cultivos: Agar Cromocult en la primera prueba microbiológica y Agar nutritivo para la segunda prueba, asimismo se procedió a realizar diluciones seriadas con agua peptonada utilizando muestras de la materia prima a trabajar.   Pulverización de fibra vegetal de banano Al tener obtener fibras vegetales desecadas se procedió a triturar con ayuda de un triturador de mandíbulas ubicado en el laboratorio de ciencias ambientales se redujo la fibra vegetal hasta 2 cm de tamaño.


CONCLUSIONES

A lo largo de la estancia de verano para la investigación, los resultados obtenidos fueron muy gratificantes, ya que se enriquecieron los conocimientos académicos y culturales de cada uno de los integrantes que apoyaron con el desarrollo del proyecto abordado, resaltando algunos aspectos se pueden mencionar: la búsqueda de la literatura en diversas fuentes electrónicas, conocimientos prácticos aprendidos en los laboratorios del CAAG, reflexión y apreciación de la cultura colombiana, degustación de gastronomía propia de la costa del mar Caribe, entre otros.   Es importante destacar que se trabajó con un proyecto nuevo y financiado por el estado, el cual pertenece a la línea programática: 82 - Fomento de la innovación y desarrollo tecnológico en las empresas;  por lo cual aún se encuentra en proceso la compra de equipos para facilitar la molienda y fundición de los plásticos, por ende nuestros resultados se basan en la obtención de un prototipo conformado por residuos plásticos y fibra vegetal del banano elaborado de manera artesanal siguiendo los protocolos de limpieza y desinfección, los cuales fueron objeto de nuestra estancia y se establecieron en el plan de trabajo, asimismo teniendo en cuenta la contaminación de emisiones generadas en el proceso de fundición de la materia prima.
Cruz Román Dione Alejandra, Universidad Veracruzana
Asesor: Post-doc Cesar Leandro Londoño .calderon, Universidad Autónoma de Manizales

REMOCIÓN DE CONTAMINANTES ORGÁNICOS A PARTIR DE BIOMASA DESLIGNIFICADA


REMOCIÓN DE CONTAMINANTES ORGÁNICOS A PARTIR DE BIOMASA DESLIGNIFICADA

Arriaga Salazar Karina, Instituto Tecnológico de Toluca. Cruz Román Dione Alejandra, Universidad Veracruzana. Asesor: Post-doc Cesar Leandro Londoño .calderon, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Los residuos agroindustriales son un tipo de biomasa generada principalmente por el procesamiento de materiales orgánicos.En Colombia, la industria del café es una de las principales ya que es el segundo productor a nivel mundial, por lo cual, los residuos generados son demasiados que al no ser utilizados para alguna otra actividad se consideran como un tipo de contaminante. Es por ello por lo que para aprovechar estos residuos agroindustriales se decide realizar la deslignificación del pergamino de café en un solo paso para la obtención de biomasa el cual será utilizado como material activo para la remoción de compuestos orgánicos en soluciones acuosas.



METODOLOGÍA

Fase 1. Previo al diseño de experimentos, se realizó la lectura y exposición de los resultados encontrados en el artículo Evaluation of Soda Delignification and Single-Stage Hydrogen Peroxide Bleaching for the Ethiopian Sugarcane Bagasse for Paper Production, en donde se propone a la deslignificación como principal metodología para la extracción de celulosa Fase 2. Se realizó un diseño de experimentos de estructura 23, en este el valor 2 hace referencia a los niveles con los que se trabajó, es decir, valor alto (valor +1) y valor bajo (valor -1), mientras que el superíndice 3, indica las variables con las que se implementaron, las cuales son: Concentración de peróxido de hidrogeno (H2O2) (3% y 1%). Tiempo (60 minutos y 30 minutos). Temperatura (60° C y 40° C) Fase 3. Para la parte de desarrollo experimental, la parte inicial se centra en la obtención de las cantidades de los reactivos, con este objetivo, fue necesaria la estandarización del volumen total, de 150 ml, ya que, de esa manera se logra un mayor control, en donde la relación del pergamino es de 10% (m/v) por lo que en toda la experimentación se utilizaron 15 g para cada prueba. En cuanto a los reactivos, el H2O2 se tomó en cuenta como variable principal para el proceso de deslignificación, ya que al variar la concentración de 1% o 3%, también influye en la solución de hidróxido de sodio (NaOH). Una vez obtenidos los valores y concentraciones, la parte práctica se centra en el cuidado y verificación constante de las temperaturas, así como los tiempos requeridos para cada una de las pruebas, recordando que, al término, se sometían a un proceso de filtración al vacío para así poder separar el residuo sólido y el residuo líquido. El residuo sólido es aquel de principal interés, de manera que se encuentra la celulosa ya deslignificada, es decir, se eliminaron los compuestos lignocelulósicos, los cuales se encuentran en el residuo líquido. Las etapas finales de cada uno de estos residuos fueron, para el sólido, secado a 100° C durante 1 hora o bien 25° C durante toda la noche, mientras que, para el líquido, el almacenamiento temporal, razón que como parte de la sostenibilidad de este proyecto se propuso la elaboración de nanopartículas de hierro reutilizando dicho residuo. Fase 4. La celulosa obtenida como producto final del proceso de deslignificación se sometió a trituración y posteriormente a pruebas como colorimetría, microscopia óptica, microscópica electrónica, UV-VIS y espectroscopia infrarroja, con el fin de observar la estructura y composición de nuestro residuo final, para así poder determinar previamente si tiene capacidades como medio adsorbente de compuestos orgánicos como lo es el azul de metileno. Para la elaboración de la biopelícula se implementó un proceso denominado acetilación, el cual consiste en 3 etapas, en la primera se adicionan ácido acético (CH₃COOH) y ácido sulfúrico (H₂SO₄) a la celulosa obtenida, las cantidades dependen del tamaño de muestra de celulosa que se disponga a acetilar, durante 1 hora con agitación, posterior a ese tiempo, en la etapa 2 se adicionan anhidrido acético (C4H6O3) y CH₃COOH a baño maría de 60° C, durante 30 minutos y con agitación, finalmente con CH₃COOH, agua y H₂SO₄, aumenta la temperatura hasta 80° C y se deja reaccionar durante 3 horas. Como parte de la obtención del acetilado, transcurridas las 3 horas se debe lavar con agua destilada y filtrar, para asi poder obtener un residuo solido que se seca en horno a 100° C durante 12 horas. Fase 5. En la elaboración de las películas, se hace uso de 144 ml de acetona (C3H6O) que  se disuelven 2.8 g de acetato de celulosa, con agitación alta durante 3 horas sin calor, posterior al tiempo se agregan 2.8 g de glicerol (C3H8O3), o bien, 44 gotas de la solución, manteniendo la agitación y con un tiempo de espera de 30 minutos, para que finalmente se vierta la solución sobre una charola lo suficientemente lisa y plana, para que se deje secar a temperatura ambiente durante 12 horas aproximadamente. Fase 6. Como parte del objetivo principal, la adsorción de azul de metileno por medio de biopelículas se realizó cortando 2 cuadros con medidas de 2 cm x 2 cm de cada una de las películas, las cuales se añadieron a una solución de 20 ppm de azul de metileno. Con el fin de conocer la capacidad de adsorción de las películas, se sometieron a pruebas de absorbancia con espectrofotometría UV-VIS, con un espectro de 400 a 900 nm y medidas durante 6 horas, haciendo chequeos de las soluciones cada 30 minutos, siendo asi la primera medición del tiempo 0 sin películas, posteriormente un tiempo de 30 minutos y asi sucesivamente hasta el tiempo de 360 minutos.


CONCLUSIONES

Con el proceso de deslignificación empleado en este proyecto de investigación se optimizó el proceso convencional en el cual se disminuyen tiempos, reactivos, energía y la cantidad de producto obtenido incrementa. Además, se empleó la economía circular debido que el residuo generado de la deslignificacion fue utilizado como materia prima para la elaboración de nanopartículas de hierro. Con esto contribuimos a la disminución de contaminación ya que los materiales se reutilizan.
Cuarezma Gonzalez Fatima del Carmen, Universidad Nacional de Ingeniería
Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco

DISEñO EN 3D Y CONSTRUCCIóN DE MAQUINA ENCORCHADORA SEMIAUTOMáTICA MEDIANTE PRINCIPIOS DE TECNOLOGíA APROPIADA


DISEñO EN 3D Y CONSTRUCCIóN DE MAQUINA ENCORCHADORA SEMIAUTOMáTICA MEDIANTE PRINCIPIOS DE TECNOLOGíA APROPIADA

Cuarezma Gonzalez Fatima del Carmen, Universidad Nacional de Ingeniería. Siles Mendéz Deyling, Universidad Nacional de Ingeniería. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Por el alto costo de las encorchadoras automatizadas o semiautomatizadas adquirir una por parte de los(as) elaboradores de vinos artesanales en Nicaragua no ha sido una opción, Fishers, Herrera, & Cruz (2014) indican Maquina manual con sistema de cuatro mordazas que facilitan un buen encorchado, su precio es de $ 500 dólares americanos; Nicaragua es un país que sus ingresos son en Córdoba, moneda nacional, por ende, adquirir un equipo a tal precio para un emprendedor o microempresa no es viable. El diseño en 3D de una encorchadora haciendo uso de un software como Sketch Up permite crear el prototipo de lo que se convertirá en una máquina indispensable para optimizar una operación unitaria en la producción de vinos artesanales. Tanto los tiempos y movimientos a la hora de efectuar un trabajo es lo que determina la productividad en una empresa, por tal razón El objeto de un estudio de movimientos es eliminar o mejorar elementos innecesarios que podrían afectar la productividad, seguridad, y calidad de la producción Bello, Murrieta, & Cortes (2020). El proyecto de diseño desarrollado en este documento presenta aplicación de tecnología apropiada, la cual se convierte en un proceso para satisfacer una necesidad o darle solución a una problemática mediante la adaptación de medios con los que se cuenta, al respecto (Turner, 1972) como se citó en (Belcredi, y otros, 2011)  La tecnología verdaderamente adecuada es la tecnología que la gente ordinaria puede usar para su propio beneficio y el de su comunidad, la que no les hace dependiente de sistemas sobre los que no tienen control. por consiguiente al introducir este tipo de tecnología se pretende mejorar los procesos de elaboración de vinos artesanales.



METODOLOGÍA

Para el análisis de ausencia de máquinas encorchadoras semiautomatizadas en la elaboración de vinos artesanales se hizo uso del diagrama de Ishikawa o conocido también como de causa - efecto, que nos permitió conocer la problemática mediante un esquema de manera más clara y divididas por áreas (maquina, métodos, mano de obra, medio, materiales, medición) para una mejor comprensión. Se planteó en maquinaria la falta de equipo debido a escases de recursos económicos y a su vez los altos costos de adquirir este tipo de encorchadoras, por otro lado, en mediciones el tiempo perdido por no poseer una maquinaria semiautomatizada o no tener acceso a ninguna; También se refleja en el diagrama lo que causa en el operario encargado de esta acción tanto estrés laboral por el sobrecargo de trabajo como falta de seguridad por los riesgos ( cortaduras por vidrios al quebrarse una botella, heridas al realizarle una punta al corcho para que logre entrar en la boca de la botella, entre otros) de encorchar de manera no adecuada, de igual forma es importante mencionar la pérdida económica que genera tal problemática en el emprendedor de vinos artesanales. En base al diagrama de causa - efecto se logra establecer la problemática y delimitar las causas, lo que conlleva a realizar una encuesta que permita determinar las características necesarias que debe de tener una maquina encorchadora semi-automática. La encuesta se realizó en la Universidad Nacional de Ingeniería Sede Juigalpa-Chontales, Nicaragua y se tomó en cuenta como población a todos los estudiantes de la carrera de Ingeniería Agroindustrial, teniendo como muestra los estudiantes que cursan el quinto año, quienes son personas emprendedoras que elaboran vinos artesanales y no disponen de un equipo como este. Al analizar y recopilar los datos de la encuesta se obtiene que la mayoría de las personas realizan la operación del encorchado de forma manual, exponiéndose a los riesgos que esto representa, el 100% expone que le gustaría adquirir una encorchadora de material de acero puesto que tiene mayor vida útil, un 71.4% considera que el peso adecuado de una maquina encorchadora semiautomática sería de 20 Lb, de forma que permita realizar una fácil manipulación, en su mayoría (42.9%) los emprendedores expresan que elaboran un promedio de 30 unidades de botellas de vino artesanal. Uno de los puntos más importantes a tomar en cuenta son los tiempos y movimientos, ya que a partir de esto se analiza la efectividad de una maquina o equipo empleado; Los encuestados expresan que de forma manual realizan la operación de encorchado en aproximadamente 5 minutos, lo que significa que encorchar 30 unidades de botellas de vino se realiza en 2.5 horas. Listo el análisis del caso y las respuestas obtenidas en la encuesta aplicada se procede a realizar el diseño en 3D mediante Sketch Up, software de diseño en 3D, de lo que se convertirá en la maquina encorchadora semiautomática.


CONCLUSIONES

Al obtener las características determinadas mediante la pequeña encuesta que se realizó a partir de las interrogantes que se hicieron por medio del método del diagrama de pescado o Ishikawa, se logra llevar a cabo un diseño 3D de la máquina encorchadora semiautomática, para finalmente ejecutar su construcción siguiendo los requerimientos necesarios para efectuar la operación unitaria del encorchado de vinos artesanales eficazmente. La creación de una maquina como esta brinda beneficios a los emprendedores que elaboran este tipo de productos, ya que refiere la solución a la problemática encontrada, podrán contar con una maquina eficiente la cual les proporcionará una seguridad laboral y una reducción significativa de costos en las pérdidas que comúnmente resultan al encorchar de forma manual.
Cubides Jaimes Maria Fernanda, Universidad de Investigación y Desarrollo
Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla

PREDICCIóN DE PATRONES DE COMPORTAMIENTO EN DATOS MéDICOS DE COVID-19 MEDIANTE INTELIGENCIA ARTIFICIAL.


PREDICCIóN DE PATRONES DE COMPORTAMIENTO EN DATOS MéDICOS DE COVID-19 MEDIANTE INTELIGENCIA ARTIFICIAL.

Cubides Jaimes Maria Fernanda, Universidad de Investigación y Desarrollo. Gonzalez Lopez Karen Aislinn, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La pandemia del COVID-19 ha desafiado los sistemas de salud en todo el mundo. La inteligencia artificial puede procesar grandes volúmenes de datos y encontrar patrones cruciales para entender la propagación del virus y la efectividad de las medidas. En el contexto del COVID-19, estas técnicas pueden identificar patrones de comportamiento, características clínicas y estrategias de intervención. La calidad y disponibilidad de los datos serán desafíos en el proyecto. La elección de los algoritmos adecuados será fundamental para obtener resultados precisos. La evaluación teórica del modelo será crucial para determinar su confiabilidad en situaciones reales. Se exploraron datos médicos de COVID-19 en estudiantes de 18 a 28 años para reducir errores en el análisis. Este proyecto representa una oportunidad para explorar el potencial de la inteligencia artificial en la toma de decisiones médicas y la gestión de la pandemia a nivel nacional e internacional. Se espera obtener información valiosa para una respuesta más efectiva ante futuras emergencias sanitarias.



METODOLOGÍA

La metodología consistió en una investigación preliminar y recopilación exhaustiva de datos sobre COVID-19 en estudiantes jóvenes, seguida de la preparación y limpieza rigurosa de los datos. Se diseñaron modelos de inteligencia artificial y se evaluó su viabilidad para predecir patrones de comportamiento relacionados con la enfermedad. A continuación, los pasos a seguir en la metodología: 1.Recopilación de datos: Se realizó una investigación preliminar exhaustiva, abarcando la revisión de fuentes bibliográficas y bases de datos nacionales e internacionales, definiendo la base de datos del gobierno mexicano sobre COVID-19. 2.Preparación y limpieza de datos: Se eliminó el ruido y los valores atípicos en el análisis posterior, revisando cada registro para asegurar su integridad. Se aplicaron técnicas de normalización y estandarización para homogeneizar los datos. 3.Aplicación de técnicas de preprocesamiento de datos: Se utilizaron técnicas avanzadas para abordar los desafíos específicos de datos médicos de COVID-19: valores faltantes y variables categóricas. La imputación de valores faltantes y la codificación de variables categóricas se llevaron a cabo para mejorar la calidad de los resultados y la precisión de las predicciones. 4.Exploración y análisis descriptivo de los datos: Mediante técnicas de visualización, se exploraron los datos médicos de COVID-19 en estudiantes de edades entre 18 y 28 años. Se identificaron tendencias, distribuciones y correlaciones entre variables clave para guiar el proceso de modelado. 5.Diseño y exploración de modelos teóricos de inteligencia artificial: Se diseñaron modelos centrados en algoritmos de Selección Múltiple y Árbol de Decisión, demostrados en la clasificación y análisis de datos epidemiológicos. La interpretabilidad del Árbol de Decisión fue considerada crucial para la toma de decisiones informada. 6.Ajustes teóricos en los modelos considerando las limitaciones y especificidades de los datos médicos: Se realizaron ajustes para abordar las características específicas de los datos médicos de COVID-19. Se exploraron técnicas de selección de características y reducción de dimensionalidad para mejorar la capacidad predictiva del modelo. 7.Evaluación de la viabilidad teórica de los modelos seleccionados: Se evaluó la capacidad de los modelos para capturar patrones de comportamiento relevantes en los datos médicos de COVID-19 en estudiantes de edades entre 18 y 28 años. Se compararon con investigaciones previas utilizando métricas de evaluación adicionales. 8.Análisis y evaluación teórica del modelo: Se realizó un análisis detallado del desempeño de los modelos de Selección Múltiple y Árbol de Decisión, dividiendo el conjunto de datos en conjuntos de entrenamiento y prueba utilizando técnicas de validación cruzada. Los resultados se contextualizaron y discutieron sus implicaciones prácticas para la toma de decisiones en salud pública y la planificación de intervenciones. En resumen, esta metodología permitió realizar una investigación detallada en la Predicción de Patrones de Comportamiento en Datos Médicos de COVID-19 mediante Inteligencia Artificial en estudiantes de edades entre 18 y 28 años. Los resultados obtenidos pueden tener un impacto significativo en la comprensión de la propagación del virus y la efectividad de las intervenciones, contribuyendo a una mejor gestión de la pandemia y al diseño de estrategias de salud pública más efectivas.


CONCLUSIONES

En conclusión, este proyecto de pasantía investigativa ha sido una invaluable contribución al campo de la salud y la inteligencia artificial, brindando una visión detallada y exhaustiva del proceso de aplicación de técnicas avanzadas para la predicción buscando patrones de comportamiento en datos médicos relacionados con COVID-19 en estudiantes de edades comprendidas entre los 18 y 28 años. La combinación de una amplia investigación preliminar, rigurosa preparación y limpieza de datos, exploración analítica y diseño de modelos teóricos han permitido obtener resultados prometedores.  Los modelos empleados de Selección Múltiple y Árbol de Decisión han demostrado ser efectivos en la predicción de comportamientos asociados con la pandemia y este estudio sienta las bases para futuras investigaciones en el campo de la salud e IA. Sin duda se ofrece una herramienta valiosa para anticipar tendencias y mejorar la toma de decisiones médicas y la gestión de esta crisis sanitaria.
Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

ESTUDIO SOBRE EL ESTADO ACTUAL, FORTALEZAS Y DEBILIDADES DE LA MANUFACTURA ADITIVA EN LA INDUSTRIA


ESTUDIO SOBRE EL ESTADO ACTUAL, FORTALEZAS Y DEBILIDADES DE LA MANUFACTURA ADITIVA EN LA INDUSTRIA

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. Gómez Vega Silvana Denisse, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la industria moderna, la manufactura aditiva ha ganado relevancia como una tecnología innovadora para la creación de objetos en dimensión 3D mediante la adición sucesiva de material capa por capa. Esta técnica ha demostrado ser prometedora en términos de eficiencia, personalización y reducción de costos en comparación con los métodos de fabricación convencionales. Sin embargo, a pesar de su creciente adopción, existe la necesidad de llevar a cabo un estudio sobre el estado actual de la manufactura aditiva en la industria, para identificar sus fortalezas y debilidades. Este planteamiento de investigación busca responder las siguientes preguntas: ¿Cuál es el grado de implementación de la manufactura aditiva en la industria en la actualidad? ¿Cuáles son las principales fortalezas de la manufactura aditiva en términos de ventajas competitivas y beneficios operativos para las empresas? ¿Cuáles son las principales debilidades y limitaciones de la manufactura aditiva en la industria? ¿Qué sectores de la industria se han beneficiado más de la implementación de la manufactura aditiva y cuáles presentan mayores desafíos para su adopción? ¿Qué amenazas representa la manufactura aditiva en tanto al trabajo de los subordinados? ¿Cuáles son las perspectivas futuras y oportunidades de mejora para la manufactura aditiva en la industria?  



METODOLOGÍA

La investigación se llevó a cabo en las siguientes etapas: Recabar información sobre la manufactura aditiva, abarcando desde su origen, el cómo ha ido revolucionando, ventajas y desventajas. Analizar y lograr comprender que es la manufactura aditiva y ver sus impactos en la industria. Definir las oportunidades y desventajas de la manufactura aditiva para los ingenieros industriales. Aprender a usar SolidWorks. Presentar diseño de pieza industrial. Corregir errores del diseño de la pieza. Imprimir pieza en 3D. Documentar la información sobre la manufactura aditiva con visión en la ingeniería industrial y sobre el proyecto: Estudio sobre el estado actual, fortalezas, debilidades de la manufactura aditiva en la industria.  


CONCLUSIONES

El estudio sobre el estado actual, fortalezas y debilidades de la manufactura aditiva en la industria ha arrojado resultados sobre esta tecnología innovadora. Las principales fortalezas identificadas en la manufactura aditiva incluyen la capacidad de producir piezas altamente personalizadas, reduciendo así los tiempos de desarrollo y permitiendo una mayor flexibilidad en el diseño. Además, se ha destacado su contribución a la optimización de procesos, la eliminación de desperdicios y la simplificación de la cadena de suministro, lo que favorece la agilidad y competitividad de las empresas. Sin embargo, también se han señalado algunas debilidades y desafíos asociados a esta tecnología. Entre ellos se encuentran la limitación en la velocidad de producción en comparación con métodos tradicionales, la selección adecuada de materiales y la necesidad de contar con equipos y profesionales especializados. Asimismo, se ha resaltado que la manufactura aditiva todavía enfrenta cierta resistencia en algunos sectores de la industria debido a la falta de información y conocimiento sobre su aplicación. A pesar de estas limitaciones, el estudio revela que la manufactura aditiva ofrece un gran potencial de crecimiento y mejora para la industria. Se espera que, con el avance de la tecnología y el aumento de la experiencia en su uso, estas debilidades sean superadas y se abran nuevas oportunidades para su adopción en aplicaciones industriales.
Daowz Laguna Erwin Enrique, Instituto Politécnico Nacional
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

DEPRESIóN: EXPLORANDO PATRONES CON CIENCIA DE DATOS E INTELIGENCIA ARTIFICIAL


DEPRESIóN: EXPLORANDO PATRONES CON CIENCIA DE DATOS E INTELIGENCIA ARTIFICIAL

Daowz Laguna Erwin Enrique, Instituto Politécnico Nacional. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El proyecto "Depresión: Explorando Patrones con Ciencia de Datos e Inteligencia Artificial" se centra en la aplicación de técnicas de ciencia de datos e inteligencia artificial para investigar y comprender la depresión, un trastorno mental complejo que afecta a millones de personas en todo el mundo. El objetivo es identificar patrones y correlaciones a partir de grandes conjuntos de datos recopilados de pacientes con diferentes tipos y grados de depresión, proporcionados por la Secretaría de Salud (SSA). Mediante el uso de algoritmos y análisis de datos, se busca mejorar la detección temprana, el diagnóstico y el tratamiento de la depresión, además de ofrecer datos e información para futuras investigaciones sobre el tema. La integración de la ciencia de datos y la inteligencia artificial en el campo de la salud mental abre nuevas perspectivas y oportunidades para abordar la depresión de manera más precisa y personalizada.



METODOLOGÍA

La metodología utilizada en este estudio comprendió una serie de pasos, los cuales se detallan en las secciones posteriores. Investigación de la literatura científica y una búsqueda exhaustiva de recursos disponibles relacionados con datos abiertos sobre la depresión. Selección de los mejores conjuntos de datos disponibles para el estudio de la depresión. Uso de drive para guardar los conjuntos de datos y notebooks Preprocesamiento de los datos de depresión, incluyendo limpieza, normalización e integración de diversas fuentes. Análisis descriptivo para identificar patrones espaciales y temporales relevantes. Se emplearon técnicas de minería de datos y aprendizaje automático para descubrir patrones y tendencias ocultas en los datos. Se procedió con el desarrollo de modelos predictivos con el objetivo de estimar los factores de riesgo asociados a la depresión. Se llevó a cabo el diseño y desarrollo de un dashboard o gráficas para integrar los resultados del análisis. Se implementan funcionalidades que permiten a los usuarios filtrar los datos según criterios espacio temporales y explorar relaciones con datos sociales. Se integraron los modelos predictivos en el dashboard con el propósito de realizar estimaciones de la población sobre la depresión de acuerdo con sus datos. Asegurar el funcionamiento óptimo de la interfaz web y mejorar su apariencia y usabilidad. preparación de una presentación final para resumir los hallazgos y contribuciones del proyecto. Presentación y discusión de resultados en el Congreso


CONCLUSIONES

Se aplicaron técnicas de clustering (agrupamiento) para descubrir patrones en los datos. Se usó el algoritmo k-means para formar 9 grupos con centros representativos y se identificaron casos más característicos cercanos a esos centros. El clustering identificó subgrupos de individuos con características similares relacionadas con la depresión. Esta información ayuda a comprender la variabilidad en los niveles de depresión y permite enfoques de tratamiento y prevención más personalizados. Un ejemplo de esto es el caso más cercano al clusster "2". El cual podría indicar que clase de personas son las más afectadas por un episodio depresivo grave con síntomas psicóticos; momentos y fechas de mayor riesgo y también concluir que un objeto punzocortante en manos de un paciente con esta dolencia es más peligroso que otros agentes como las drogas, medicamentos, fuego, objetos contundentes o plantas tóxicas. El uso de técnicas de clustering en este estudio resultó efectivo para analizar la depresión, identificando grupos con patrones comunes y proporcionando puntos de referencia para futuras investigaciones en México. Aunque podría haberse ampliado a otros países para una visión más comparativa, las conclusiones sientan bases importantes para futuras investigaciones y el desarrollo de intervenciones y políticas de salud mental más personalizadas en la población mexicana. En última instancia, se enfatiza la necesidad de continuar explorando y profundizando en el análisis de la depresión a nivel global para mejorar la calidad de vida y fomentar una sociedad más empática y comprensiva con la salud mental.
de Dios Garcia Victoria del Alba, Instituto Tecnológico Superior de Las Choapas
Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE SENTIMIENTOS EN TWITTER PARA LAS CAMPAñAS DE LOS PRECANDIDATOS PRESIDENCIALES DE MéXICO: EVALUACIóN DEL POSICIONAMIENTO PARA LAS ELECCIONES PRESIDENCIALES DE 2024


ANáLISIS DE SENTIMIENTOS EN TWITTER PARA LAS CAMPAñAS DE LOS PRECANDIDATOS PRESIDENCIALES DE MéXICO: EVALUACIóN DEL POSICIONAMIENTO PARA LAS ELECCIONES PRESIDENCIALES DE 2024

de Dios Garcia Victoria del Alba, Instituto Tecnológico Superior de Las Choapas. Torres Ochoa Eduardo Rafael, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el contexto de las elecciones presidenciales de México en 2024 y considerando que el partido MORENA (Movimiento Regeneración Nacional), es uno de los principales actores políticos en México, se realizó un análisis de sentimientos para evaluar la posición de los cuatro precandidatos presidenciales del partido a través de un proceso de minería de datos. Los precandidatos en cuestión son: Marcelo Ebrard (ex Canciller de México), Claudia Sheinbaum (ex Jefa de Gobierno de la Ciudad de México), Adán Augusto López (ex Secretario de Gobernación de México) y Ricardo Monreal (ex Senador Coordinador de MORENA en el Congreso). Para llevar a cabo este análisis, se ha implementado un sistema de análisis de sentimiento basado en miles de tweets relacionados con los candidatos y recopilados durante el inicio de sus campañas para la elección interna del candidato de MORENA.  El objetivo principal de este análisis de sentimientos es comprender la percepción pública y la aceptación de cada precandidato en el ciberespacio, específicamente en la red social Twitter, la cual la cual concentra las opiniones de millones de personas que publican mensajes cortos (conocidos como tuits). Con el crecimiento exponencial de la participación de los usuarios se genera una gran cantidad de datos para analizar y obtener una muestra representativa de opiniones y sentimientos, en donde los usuarios expresan sus opiniones, apoyos y críticas. En el análisis de sentimientos realizado se tomo en cuenta la polaridad de las opiniones de cada tuit, es decir, los tweets positivos, negativos y neutros, así como otras características de interés, por ejemplo, los re-tweets para determinar qué precandidato ha generado un mayor impacto y atracción en la audiencia, además de cómo influye en las decisiones de los votantes.  El análisis de sentimientos permitió identificar tendencias y patrones en la opinión pública hacia cada precandidato, lo que puede reflejar su nivel de popularidad y aceptación en el electorado. Asimismo, se buscó comprender las razones detrás de los sentimientos positivos o negativos hacia cada candidato, lo que puede revelar las percepciones de los votantes sobre su capacidad, liderazgo, propuestas y trayectoria política. Este análisis puede ser de utilidad en la toma de decisiones de los votantes. 



METODOLOGÍA

Twitter es considerada como la herramienta de facto para la comunicación política, así lo manifiesta Campos Domínguez en su trabajo de investigación Twitter y la comunicación política, en la cual afirma que, Twitter se ha convertido en un medio consolidado en la comunicación política. Recopilamos 1,000 tuits por cada día y por cada candidato del partido MORENA de México para realizar el análisis de sentimientos durante 7 días.   Después de la recapitulación de los tuits, se llevó a cabo un análisis de sentimiento directo, empleando el atributo de texto y usuario como base para recopilar datos relevantes, por medio de la aplicación RapidMiner. En esta etapa inicial del análisis, se consideraron todos los tweets sin duplicados para obtener una visión general de los sentimientos expresados.   A partir de ahí se hicieron 5 experimentos, que consisten en hacer nuevamente el análisis de sentimientos pero está vez aplicando filtros, primero con el atributo de re-twitteao, es decir, solamente se toman los tweets que han sido  retwitteados  Se aplicaron otros filtrados, donde se toman Tweets twitteados en dispositivos móviles, tweets retwitteados recientemente, tweets twitteados recientemente en dispositivos móviles y tweets tweteados recientemente.  A partir del resultado de estos experimentos se creó un artículo, el cualserá enviado a la revista de divulgación científica llamada Revista Científica de Sistemas e Informática, en donde se capturaron todos los resultados que obtuvimos de una manera más detallada y profesional. 


CONCLUSIONES

  Tras analizar  resultados obtenidos, se pudo observar lo siguiente lo siguiente:    En cuanto a la cantidad de tweets positivos, el candidato con la mayor cantidad es Marcelo Luis Ebrard Casaubón, seguido de Claudia Sheinbaum Pardo, Ricardo Monreal Ávila y Adán Augusto López.   En términos de tweets negativos, nuevamente Marcelo Luis Ebrard Casaubón lidera, seguido de Claudia Sheinbaum Pardo, Ricardo Monreal Ávila y Adán Augusto López.   En relación a los tweets neutros, el candidato con la mayor cantidad es Adán Augusto López, seguido de Marcelo Luis Ebrard Casaubón, Claudia Sheinbaum Pardo y Ricardo Monreal Ávila.   Respecto a los tweets sin clasificar, Adán Augusto López presenta la cifra más alta, seguido de Marcelo Luis Ebrard Casaubón, Claudia Sheinbaum Pardo y Ricardo Monreal Ávila.   En términos de los tweets positivos + con retweets, Adán Augusto López lidera, seguido por Marcelo Luis Ebrard Casaubón, Claudia Sheinbaum Pardo y Ricardo Monreal Ávila.   En cuanto a los tweets negativos + con retweets, Adán Augusto López también lidera, seguido por Marcelo Luis Ebrard Casaubón, Claudia Sheinbaum Pardo y Ricardo Monreal Ávila.   Considerando estos resultados, podemos inferir que Marcelo Luis Ebrard Casaubón se destaca por tener la mayor cantidad de tweets positivos y negativos en general. Sin embargo, es importante tener en cuenta que Adán Augusto López obtiene una cantidad significativa de tweets positivos con retweets, lo que podría indicar un mayor nivel de apoyo y respaldo activo por parte de los usuarios de Twitter.
de Jesús Sabino Azucena, Universidad Mexiquense del Bicentenario
Asesor: Mtro. Armando Hernández Machuca, Instituto Tecnológico Superior de Pánuco

CONSTRUCCIóN DE UN PROGRAMA DE CóMPUTO PARA EL CáLCULO DE ÍNDICES DE VEGETACIóN ENFOCADO A LA DETERMINACIóN DE MASA VEGETAL EN UN CULTIVO.


CONSTRUCCIóN DE UN PROGRAMA DE CóMPUTO PARA EL CáLCULO DE ÍNDICES DE VEGETACIóN ENFOCADO A LA DETERMINACIóN DE MASA VEGETAL EN UN CULTIVO.

de Jesús Sabino Azucena, Universidad Mexiquense del Bicentenario. Santos Alonso Judith, Universidad Mexiquense del Bicentenario. Asesor: Mtro. Armando Hernández Machuca, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Dado al crecimiento de la población en el mundo el cual exige una producción suficiente de alimentos en cantidad y calidad de bajo costo, y con el menor impacto ambiental. La agricultura convencional considera las condiciones de un cultivo como uniformes y aplica la misma cantidad de insumos agrícolas a toda la superficie de siembra, lo que genera un incremento en los costos de inversión y aumenta los riesgos de la contaminación ambiental. Con el uso de nuevas tecnologías, la implementación de la Agricultura de Precisión permite aplicar distintas cantidades de insumos y valorar las necesidades de manera específica de cada sección del cultivo y proporcionar respuesta en tiempo real. En cuanto al caso de estudio en la Ciudad de Pánuco, Veracruz se realizan actividades de agricultura en la cual se aplican técnicas convencionales y no se tiene acceso a tecnologías emergentes que permiten obtener una mayor sostenibilidad, sobre todo para lograr reducir los recursos invertidos y a la par reducir el impacto ambiental y maximizar la producción. El propósito de la presente investigación es desarrollar un Programa de cómputo para el cálculo de índice de vegetación, enfocado a la determinación de masa vegetal en un cultivo, teniendo como objetivo asegurar la sostenibilidad de los sistemas de producción de alimentos, adicionalmente detectar plagas o malas hierbas en campos de cultivo por medio de visión artificial y uso de drones para coadyuvar a prevenir pérdidas y monitorear el sano crecimiento de los cultivos.



METODOLOGÍA

La presente investigación se encuentra enfocada en construir un Programa de cómputo que permita el cálculo de índices de vegetación, específicamente el EXG (Exceso de Verde). El Índice de Vegetación Verde-Exceso de Verde (EXG, por sus siglas en inglés Enhanced Vegetation Index) es un índice de vegetación que se utiliza para cuantificar y resaltar la presencia y salud de la vegetación en imágenes. La fórmula para calcular el EXG es la siguiente: EXG = 2 * Green - Blue – Red. Donde: Green es el valor de reflectancia en el canal verde, Blue es el valor de reflectancia en el canal azul y Red es el valor de reflectancia en el canal rojo. A diferencia de otros índices de vegetación como el NDVI o el EVI, el EXG no utiliza el infrarrojo cercano y, en su lugar, se basa en los canales visibles de la imagen. Esto puede hacer que el EXG sea más sensible a las variaciones de vegetación en diferentes condiciones y tipos de vegetación. El rango de valores del EXG depende de la escala de la imagen y las unidades de los valores de reflectancia. Generalmente, valores más altos de EXG indican áreas con mayor presencia de vegetación y vegetación más saludable, mientras que valores más bajos o negativos indican áreas con menor presencia de vegetación o con otros tipos de superficies, como agua o suelo desnudo. Para construir el software se utilizó el lenguaje de programación Python y la librería OpenCV. OpenCV (Open Source Computer Vision Library) es una biblioteca de código abierto de visión por computadora y procesamiento de imágenes. OpenCV está escrita en C++ y cuenta con interfaces para varios lenguajes de programación, incluidos Python, Java y MATLAB, así también proporciona más de 2500 algoritmos optimizados para llevar a cabo tareas de visión por computadora y análisis de imágenes en tiempo real. El programa necesita como entrada imágenes aéreas de cultivos, para lo cual se obtuvieron imágenes aéreas de cultivos de caña de azúcar de la ciudad de Pánuco, Veracruz. El proceso del programa construido es el siguiente: 1. Dentro del programa importamos el módulo cv2, es el módulo más importante de OpenCV, que proporciona una interfaz para trabajar con funciones de procesamiento de imágenes y vídeo. 2. Cargamos la imagen a través de la función cv2.imread() que se encarga de localizar y cargar la imagen desde el sistema de archivos. La imagen se carga en formato JPG, y tiene las siguientes propiedades: una dimensión de 490 x 474, un ancho de 490 píxeles, una altura de 474 píxeles y una profundidad de bits de 32. 3.Una imagen digital a color usualmente está compuesta por tres canales de información, para un espacio de color RGB tendremos los siguientes canales, (R) Rojo, (G) Verde y (B) Azul. Por lo que separamos la imagen en los tres canales RGB, utilizando la función cv2.split(), el resultado de esta fase son tres imágenes, correspondientes a cada uno de los canales RGB. 4. El cálculo del índice EXG se obtiene utilizando la expresión algebraica EXG = 2 * G – R - B, donde G corresponde al canal verde RGB, R corresponde al canal rojo RGB y R corresponde al canal rojo RGB de una imagen. Cada uno de los canales se obtiene a través de la función cv2.split (). 5. El resultado de la ejecución de la expresión EXG = 2 * G – R - B es una imagen en escala de grises. El siguiente paso es extraer características de la imagen. Para lo cual se aplica un umbral a la imagen a través de la función cv2.threshold(), función que permite segmentar la imagen y extraer las regiones de interés. El resultado de este proceso es una imagen binarizada, utilizando un valor de umbral de 127 y Otsu como algoritmo de umbralización. 6. Para mostrar la imagen final construida es necesario redimensionarla, por lo que se utiliza la función cv2.resize(). Es una instrucción que utiliza la biblioteca de OpenCV para redimensionar una imagen. En este caso, la imagen que se redimensiona es la imagen generada a través de la función cv2.threshold(), y la nueva dimensión se establece en 800 píxeles de ancho y 600 píxeles de alto. 7. Como salida mostramos la imagen a través de la función cv2.imshow (). Se logra mostrar la imagen de salida con un título especificado ‘Índice Exceso de Verde’. El resultado de programa construido es una imagen binaria, compuesta por pixeles de color negro y blanco. La siguiente etapa de la investigación es determinar y aplicar una máscara de visualización a la imagen para interpretar visualmente el área verde correspondiente a la vegetación en la imagen del cultivo.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos y tecnológicos, sobre el procesamiento de imágenes y el desarrollo de códigos para determinar la separación de canales RGB, determinar la cantidad de pixeles que tiene de cada color primario, calcular los índices de color y aplicar el Umbral (Otsu). Sin embargo, al ser extenso trabajo, aún se encuentra en desarrollo de dicho software, pero así mismo se pueden obtener resultados conforme lo mencionado ya anteriormente.
de la Concha Camarena Diego, Instituto Politécnico Nacional
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

PROPUESTA DE UN CENTRO DE CARGA PARA UN BARCO ELéCTRICO ALIMENTADO CON MóDULOS FOTOVOLTAICOS.


PROPUESTA DE UN CENTRO DE CARGA PARA UN BARCO ELéCTRICO ALIMENTADO CON MóDULOS FOTOVOLTAICOS.

de la Concha Camarena Diego, Instituto Politécnico Nacional. Lara Carpio Rafael, Instituto Politécnico Nacional. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

La Universidad Tecnológica de Bolívar ubicada en Cartagena, Colombia es una institución responsable con el medio ambiente y que se preocupa por el cambio climático, por esa razón una de sus acciones para contribuir con el cuidado del medio ambiente fue la creación del proyecto AquaBus. Dicho proyecto consta de un barco 100% eléctrico con un centro de recarga de baterías de litio alimentadas por módulos fotovoltaicos, el proyecto propone que las baterías del AquaBus sean intercambiables para maximizar su uso y aumentar la autonomía del mismo. Este proyecto al tener la característica de las baterías intercambiables supone un gran reto, el cual es adecuar el dimensionamiento de los módulos fotovoltaicos al área disponible que se tiene en la estación de recarga, posteriormente debemos de saber el tipo de cargador adecuado para cargar las baterías y así poder determinar el tiempo de carga de las baterías. Este último dato nos ayudará a realizar el dimensionamiento ideal del centro de recarga para que las baterías que no se encuentren en uso estén cargadas con la suficiente energía para que al regreso del AquaBus a la estación de recarga las baterías descargadas puedan ser sustituidas por unas baterías con la carga necesaria para que el AquaBus pueda desempeñar su función de manera eficiente. 



METODOLOGÍA

Con la finalidad de visualizar los retos que supone este proyecto y proponer una solución en base a lo aprendido en la estancia con el Dr. Juan Carlos Martínez Santos se realizó una superestructura la cual está basada en el recorrido cotidiano de un barco en Cartagena, Colombia que va de un punto de partida denominado A a un punto denominado B y viceversa así cumpliendo viajes redondos. En la super estructura también se muestra el desgaste de la carga de las baterías al regreso AquaBus, también se muestran los elementos necesarios para plantear el modelo matemático y se muestran todos los posibles flujos de energía y todas las posibilidades de movilidad que tiene el AquaBus. Con la superestructura a simple vista no podemos conocer los detalles del proyecto como el número de paneles, capacidad de las baterías o los tiempos de carga y descarga de las baterías por esa razón se desarrolló un modelo matemático que nos ayudará a conocer esos datos. Las ecuaciones principales de modelo son las siguientes: Dimensionamiento de Baterías: Tiempo de Carga de las Baterías = Capacidad de la Batería (Ah) / Ccorriente de salida del conversor DC / DC (A) Dimensionamiento de Paneles solares: Numero de Módulos Fotovoltaicos = (Capacidad de las Baterías (Ah)) * (Factor de Seguridad (1.3)) / (Horas de exposición solar (HSP)) * (Potencia del Modulo Fotovoltaico) Producción de Energía Fotovoltaica Producción de energía fotovoltaica = Potencia de Panel (W) * Horas de exposición solar (HSP) * Numero de Paneles Finalmente se realizó un diagrama unifilar del centro de recarga de la instalación en donde se muestran todas las conexiones y los componentes principales del sistema los cuales son: Módulos Fotovoltaicos Protecciones de sobre corriente y sobre voltaje Conversor de DC a DC (Cargador de las baterías) Baterías de lito  


CONCLUSIONES

Este proyecto colabora con el cumplimiento de dos objetivos para el desarrollo sustentable los cuales son el 7. Energía asequible y no contaminante y el 13. Acción por el clima debido a que el AquaBus utilizará únicamente energía limpia por lo que no generará emisiones de CO2 en su uso, ayudando así a la reducción de gases contaminantes. Por otro lado dentro de la estancia de investigación con el Dr. Juan Carlos Martínez Santos aprendí a identificar diversas problemáticas en distintos ámbitos y en base a eso proponer soluciones mediante el desarrollo de modelos matemáticos los cuales aprendí a resolver mediante el lenguaje de programación Rstudio, gracias a los conocimientos y habilidades adquiridas durante la estancia se logró identificar diversas problemáticas las cuales tienen relación directa con las carreras que se imparten en la Unidad Profesional Interdisciplinaria de Energía y Movilidad (UPIEM) del IPN. Uno de los retos más grandes a los que me enfrente en este proyecto fue la creación de un algoritmo que sea capaz de brindarnos los tiempos en los que se demorarán las baterías en cargarse de acuerdo con distintos escenarios teniendo como variable el área disponible para instalar paneles solares, siendo así el número paneles una variable dependiente del área disponible y con esos datos evaluar que tanta autonomía puede tener el AquaBus. Con este algoritmo se busca facilitar el dimensionamiento de sistemas energéticos aislados sustentables para así contribuir a la transición energética implementando energías renovables, no de los objetivos principales de este algoritmo es que sea utilizado para cualquier tipo de proyectos energéticos de movilidad aislados, ya sea de movilidad terrestre o acuática. Al ser un proyecto complejo se requiere más tiempo de trabajo para completar el proyecto por lo que seguimos trabajando y adquiriendo nuevas habilidades para con ayuda del algoritmo creado obtener una solución real a las problemáticas expuestas en este resumen. Complementando la conclusión de este resumen me gustaría adicionar que durante esta estancia de investigación con el objetivo de enriquecer nuestra formación académica y nuestros aprendizajes el Dr. Juan Carlos Martínez Santos en conjunto con el Dr. Edwin Puertas del Castillo nos impartieron clases de inteligencia artificial. Con lo aprendido en dichas clases seguiremos trabajando para poder implementar técnicas de inteligencia artificial en el dimensionamiento de proyectos de energías renovables.
de la Cruz Arzate Haleb, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SITIO WEB COMO HERRAMIENTA DE CONCIENTIZACIóN INFANTIL ENTRE LOS 6 A 12 AñOS SOBRE LA DISCAPACIDAD EN MéXICO EN 2023


DISEñO E IMPLEMENTACIóN DE UN SITIO WEB COMO HERRAMIENTA DE CONCIENTIZACIóN INFANTIL ENTRE LOS 6 A 12 AñOS SOBRE LA DISCAPACIDAD EN MéXICO EN 2023

de la Cruz Arzate Haleb, Instituto Tecnológico de Ciudad Altamirano. Rios Sanchez Francisco Obed, Instituto Tecnológico de Ciudad Altamirano. Rodriguez Noguez Leslim Noemi, Instituto Tecnológico de Ciudad Altamirano. Villanueva Ortega Manuel, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la discapacidad forma parte de nuestras sociedades porque en ellas encontramos personas con una variedad de condiciones físicas, intelectuales, mentales, psicosociales, sensoriales, auditiva y visuales que obstaculizan su participación de forma plena y efectiva en las sociedades. Estas discapacidades pueden ser desde el nacimiento o desarrollarse a lo largo de la vida, además de manifestarse en diferentes maneras y niveles de gravedad. Conocer acerca de las discapacidades es de gran importancia para las sociedades, ya que esto permite el desarrollo, comunicación y satisfacción de las personas que cuentan con estas condiciones, por lo tanto se han hecho grandes progresos para que el mundo sea más accesible para las personas que viven con discapacidad; sin embargo, se requiere mucho más trabajo para satisfacer sus necesidades (Organización Panamerica de la Salud, s/f). De acuerdo con la Organización Mundial de la Salud (Organización Mundial de la Salud, 2023) señalo que, a nivel mundial, se calcula que 1300 millones de personas, es decir, el 16 % de la población mundial, sufren actualmente una discapacidad importante. Sin embargo, las personas con discapacidad son objeto de discriminación y exclusión, fomentando así, las desigualdades sociales en el mundo.  Entre las causas de esta situación se debe por la falta de conocimiento que hay en la sociedad sobre esta condición dando como resultado que las personas con discapacidad no puedan gozar de sus derechos plenamente.   En América Latina y el Caribe, según el Banco Mundial (Banco Mundial, s.f.) señala que, en 2020, vivieron 85 millones de personas con discapacidad, es decir, uno de cada tres hogares vive con una persona con algún tipo de discapacidad, sin embargo, los hogares con personas con discapacidad son más vulnerables pues se estima que uno de cada cinco hogares en situación de pobreza extrema vive una persona con discapacidad. En el ámbito de educación, el analfabetismo es cinco veces mayor en las personas con discapacidad y el 15 % de niños con discapacidad no van a la escuela. En el ámbito laboral, una de cada dos personas con discapacidad no trabaja en el mercado laboral y los que trabajan, ganan entre el 6 y 11 % menos por el mismo empleo que otros trabajadores. Como resultado, la discriminación produce países que no se desarrollan por el límite de oportunidades que ofrece.   A nivel nacional, de acuerdo con cifras en el Censo de Población y Vivienda 2020 del INEGI (INEGI, s/f) en México hay aproximadamente 6 millones de personas con algún tipo de discapacidad, posteriormente, de acuerdo con ENADIS 2022 (INEGI, 2023), 33.8 % de las personas con discapacidad de doce años y más manifestó haber sido discriminado durante los últimos doce meses. En México, según el Banco Mundial (Banco Mundial, 2021) las personas con discapacidad tienen una media del 24 % de no completar su educación primaria y el 30 % si pertenecen a una minoría etnoracial y, además, un trabajador con discapacidad gana en promedio $ 0.8 de cada dólar que recibe un trabajador sin discapacidad. En términos generales, México es un país en donde las personas con discapacidad encuentran dificultades en su vida cotidiana generando falta de oportunidades, pobreza, falta de reconocimiento en las leyes, falta de acceso a la educación y claramente, la discriminación.  



METODOLOGÍA

Para la metodología se realizó por la metodología cascada que consta de los sguientes pasos: 1.- Especificación de requisitos: Para obtener los requisitos era necesario obtenerlos de primera mano por parte de la población de estudio, es decir, los niños de 6 a 12 años, La encuesta se realizo en Google Forms, este cuestionanrio consto de 14 preguntas. 2.- Analisis: Con la información obtenida se crearon tablas de información en donde se proporcionaba los porcentajes de las respuesta. 3.- Diseño: Para el diseño se realizo bajo la experiencia UI/UX 4.- Implementación: Se implemento con las tecnologías HTML, CSS y Javascript. Se realizo la pagina index (página principal) en donde se encuentran las diferentes discapacidades que existen: fisicas, mentales e intelectuales, viscerales, sensoriales y  multiples. 5.- Evaluación y pruebas: Se revisó a que no hubiera fallas de lógica y de sintaxis. 6.- Documentación de proyecto: Se desarrollaron informes cada viernes de las diferentes actividades que se realizaron en la semana. 7.- Entrega del informe final: Se entrego el resumen de lo desarrollado en la instancia.  


CONCLUSIONES

En conclusión, el lograr concientizar a una población es un reto ya que esta tiene diferentes estigmas y perspectivas acerca de las discapacidades, una de las formas que más alcance se tiene es a través de la internet y se logra la importancia de sensibilizar a través de la información a los niños, debido a que el programa es corto se tuvo que realizar una encuesta a los niños de 6 a 12 años, sin embargo, como nos encontramos en periodo de vacaciones no se logró aplicar las encuestas de manera correcta. Sin embargo, el contenido del sitio web se extrajo de diferentes fuentes de información como organizaciones internacionales y nacionales. Con esta información se realizo el sitio web mostrando contenido informativo que servirá para que los niños conozcan acerca de las diferentes discapacidades que existen en el país.
de la Cruz Flores Gerardo, Instituto Tecnológico de Chilpancingo
Asesor: Mg. Dennis Martínez Duque, Universidad Cooperativa de Colombia

GOBIERNO DE DATOS PARA EL ASEGURAMIENTO DE LA CALIDAD EN EDUCACIóN SUPERIOR


GOBIERNO DE DATOS PARA EL ASEGURAMIENTO DE LA CALIDAD EN EDUCACIóN SUPERIOR

de la Cruz Flores Gerardo, Instituto Tecnológico de Chilpancingo. Asesor: Mg. Dennis Martínez Duque, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Gobierno de datos para el aseguramiento de la calidad en educación superior Asesor: Mg. Martínez Duque Dennis, Universidad Cooperativa de Colombia Estudiante: Gerardo de la Cruz Flores, Instituto Tecnológico de Chilpancingo     PLANTEAMIENTO DEL PROBLEMA   ¿Cuáles son las practicas y estrategias efectivas del gobierno de datos que pueden contribuir a fortalecer el seguimiento de calidad en las instituciones de educación superior?



METODOLOGÍA

METODOLOGIA   En la estancia del programa delfín en la Universidad Cooperativa de Colombia se realizó la investigación sobre la importancia del gobierno de datos, como es que se aplican y su funcionalidad dentro de la educación superior. Se trabajo con plataformas para consultar artículos sobre este tema como scopus, mendeley los cuales proporciona diversos artículos confiables sobre el tema del gobierno de datos. Se desarrollo un diagrama entidad-relación en el cual se plasmo una propuesta para la Universidad, sus sedes y actividades que se realizan, esto se realizó con el propósito de comprender mejor la gestión de los datos y de la importancia que es implementar el gobierno de datos en este diagrama entidad-relacion.Para llevar  a cabo los métodos para la toma de decisiones y cumplir con los objetivos  se definió y se propuso una propuesta para la gestión de los datos, procedimientos y arquitectura de datos, de esta manera asegurando el cumplimiento, para resolver la problemática que se estableció. En las reuniones que se llevaron a cabo, se abracaron temas referentes al proyecto propuesto, se explico el uso de algunas herramientas para compartir los artículos consultados con los demás compañeros del proyecto para poder realizar la investigación. Sé creo una cuenta en mendeley para crear un dataset con los artículos consultados y poder compartirlos, se investigo en diferentes fuentes sobre el tema de investigación para entenderlo mejor, entre ellos se encuentras los siguientes archivos en formato pdf. El estado actual de la gobernanza de datos en la educación superior- la autoraHsia-Ching Chang de la Universidad del norte de Texas menciona la importancia que tiene el gobierno de datos en la educación superior. Caracterización de marcos de referencia que apoyan la implementación del gobierno de datos propuesto por MinTIC para entidades públicas donde los autores Mauricio Garcés Ordóñezs y Mayda Patricia González Zabala mencionan la importancia una buena administración de la información para que se garantice la confiabilidad de los datos. También se compartió la macroestructura de evaluación de programas - CNA 2022 y la guía CNA para evaluar programas por parte del asesor, estos archivos se utilizaron para poder desarrollar el diagrama entidad-relación.


CONCLUSIONES

CONCLUSIONES   Se desarrollo el diagrama entidad-relación el cual es una propuesta de los documentos que proporciono el asesor de la Universidad (UCC), donde se tomó en cuanta la implementación del gobierno de datos para la estructura de la universidad y las áreas que tienen a su cargo con el fin de llevar un mejor control. Evidencia del diagrama E-R https://lucid.app/publicSegments/view/cc81ed93-de38-44aa-9612-6c8a8f06123b/image.pdf En esta investigación aprendí diversas cosas ya que no tenía algún conocimiento sobre el gobierno de datos y poder aplicarlo en un entorno real me fue de mucha utilidad para comprenderlo aún más, además de trabajar con información confiable con los artículos que se consultaron
de la Cruz Nava Victor Manuel, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero

DESARROLLO DE UNA APLICACIóN WEB PARA SISTEMATIZAR EL PROCESO DE COTIZACIóN Y GESTIóN DE TRANSPORTES TERRESTRES EN LA AGENCIA DE VIAJES QUALITY


DESARROLLO DE UNA APLICACIóN WEB PARA SISTEMATIZAR EL PROCESO DE COTIZACIóN Y GESTIóN DE TRANSPORTES TERRESTRES EN LA AGENCIA DE VIAJES QUALITY

Azabay Najera Juan Daniel, Instituto Tecnológico de Chilpancingo. de la Cruz Nava Victor Manuel, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

En la agencia de Viajes Quality existe una problemática en su servicio de renta de transportes terrestres, ya que muchos clientes interesados no finalizan el proceso de contratación. Esta situación se debe en gran parte a que existen algunas deficiencias en el proceso que hacen que el tiempo de respuesta sea indefinido. Actualmente, el tiempo de respuesta puede tardar desde cinco minutos hasta más de un día. Lo que genera una experiencia inhóspita y poco confiable para los clientes. En el proceso de renta de transportes terrestres, es necesario que el agente de ventas recopile los datos necesarios de diversas fuentes, verificando previamente que estén actualizados. Después de obtener la información requerida, se deben realizar cálculos manuales con herramientas como papel, lápiz y calculadora, lo que puede generar retrasos y errores humanos en el proceso de cotización. Al obtener el precio, el agente de ventas debe consultar la disponibilidad de los transportes terrestres con el encargado correspondiente. Sin embargo, este último suele tener otras responsabilidades, lo que puede resultar en una respuesta tardía. Una vez confirmado el precio y la disponibilidad de cada transporte que se desee cotizar, se informa al cliente sobre el costo de la renta y las fechas disponibles. En este punto, el cliente debe confirmar si desea tomar el servicio. Si es así, se llega a un acuerdo mediante un contrato realizado en Excel para el servicio de transporte en las fechas y unidades solicitadas. Si se requiere actualizar el anticipo o hacer cambios en el nombre del contrato, es necesario realizar un nuevo contrato desde cero, ingresando todos los datos nuevamente. Si se desea modificar el itinerario, se debe volver a cotizar, lo que implica repetir todo el proceso. Todo lo anterior hace que el servicio de renta de transportes terrestres resulte fastidioso y lento tanto para el cliente como para el agente de ventas, lo que puede afectar negativamente la reputación de la empresa. Esto hace que el posible cliente al no tener una respuesta próxima decida buscar nuevas opciones de servicio con otras agencias ya que ellos buscan resolver su necesidad en el menor tiempo posible, a veces no considerando otros factores como el precio o la calidad del transporte. Por lo que es fundamental mejorar la eficiencia de este servicio para retener al cliente potencial y evitar la pérdida de oportunidades de negocio.



METODOLOGÍA

La metodología para desarrollar la página web de la agencia de viajes Quality se basará en un enfoque ágil y centrado en el usuario. Se comenzará con el análisis de requerimientos y el diseño de la interfaz de usuario utilizando Bootstrap para lograr un diseño responsivo y atractivo. Luego, se dividirá la interfaz en componentes de React para mejorar el modularidad y la reutilización de código, la metodología también incluye una comparación de páginas de agencias de viajes similares para tomar ideas y mejorar el diseño y las funcionalidades de la página web de la agencia Quality. Esto permite identificar las mejores prácticas y características de la competencia, con el objetivo de superar sus propuestas y brindar una experiencia más atractiva y satisfactoria a los usuarios. El desarrollo incluirá la implementación del flujo de cotización de precios, donde los usuarios ingresarán datos como fechas de salida y llegada, lugares de salida y destino, entre otros. Estos datos se procesarán para ofrecer opciones de viaje y sus precios correspondientes. React React es una biblioteca de JavaScript ampliamente utilizada para construirinterfaces de usuario interactivas y dinámicas en aplicaciones web. Desarrollada y mantenida por Facebook, React se centra en la construcción de componentes reutilizables que representan diferentes partes de la interfaz de usuario. La principal característica de React es su enfoque en el rendimiento y la eficiencia. Emplea un concepto llamado "Virtual DOM" (DOM virtual) que permite realizar actualizaciones en la interfaz de usuario de manera eficiente al minimizar las manipulaciones directas del DOM. Cuando los datos cambian en una aplicación React, React compara la representación virtual del DOM con el DOM real y actualiza solo las partes que han cambiado, evitando actualizaciones costosas en términos de rendimiento. React también es conocido por su programación declarativa. En lugar de manipular directamente el DOM para realizar cambios en la interfaz de usuario, en React se describe cómo debería lucir la interfaz en diferentes estados y React se encarga de realizar los cambios necesarios en el DOM real para que coincida con esa descripción.


CONCLUSIONES

Durante la estancia logramos adquirir el conocimiento sobre el lenguaje React, su entorno de programación y como ponerlo en practica para desarrollar la página de cotización para los clientes de la empresa Quality permitiéndonos dividir la interfaz en componentes reutilizables, como formularios de selección de destinos, fechas y preferencias. El trabajo realizado se encuentra en su etapa de despliegue a la espera de ser subido a un servidor en línea para que sea accesible en Internet.
de la Cruz Rodriguez Paloma Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro

LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO


LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO

Corte Maldonado Andrea, Instituto Tecnológico de Puebla. Cortés López Mariana Estefanía, Instituto Tecnológico de Tuxtla Gutiérrez. de la Cruz Rodriguez Paloma Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Hernández Hernández Verónica Vanessa, Universidad Autónoma de Occidente. Perez Mendoza Paloma Yunuhen, Instituto Tecnológico Superior de Uruapan. Pulido Diaz Maritza, Instituto Tecnológico Superior de Uruapan. Rodríguez Lujan Yamileth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En México existen más de 5 millones de personas que se dedican al trabajo agrícola, según el censo de INEGI 2020, sin embargo, según el Gobierno de México, somos el séptimo país exportador de productos agrícolas al resto del mundo lo que nos genera la siguiente pregunta ¿Qué alimentos quedan para nuestras comunidades? Como lo sabemos cada estado de la republica cuenta con sus terrenos en donde cultivan algunos frutos que son originarios de las regiones y que con ayuda de la experiencia y los cuidados es bien sabido que se han podido generar productos de excelente calidad pero realmente el futuro de esos productos en su mayoría es terminar en manos y mesas de familias extranjeras y aquí en México la calidad siempre es colocada en tiendas o supermercados con un costo elevado y que no siempre está al alcance de todas las familias. Es por esta razón que se encuentra con el problema de que las comunidades productoras terminan consumiendo el producto que sobra o el producto que posee algún defecto lo cual no siempre garantiza una alimentación sana y de calidad por esta razón se debe encontrar una manera de garantizar un producto de calidad a las primeras comunidades de atención prioritaria, para que así todos consumamos un producto de excelente calidad, mismo como el que se exporta o el que se distribuye en los supermercados más reconocidos del país y por ello hacemos de referencia el primer momento de la cadena de suministros en la industria alimentaria.



METODOLOGÍA

Considerando que ésta es una investigación en su mayoría documental está centrada en la cadena de suministro de productos perecederos en la industria alimentaria mexicana, con un enfoque en la inocuidad y seguridad alimentaria. Se analizan y proponen mejoras a las normativas generales y específicas, particularmente la Norma Oficial Mexicana NOM-251-SSA1-2009 e ISO 22000, que aborda la higiene y calidad de los alimentos, bebidas y suplementos alimenticios. Dada la creciente población y la evolución global, es fundamental garantizar la seguridad y salud de los alimentos para el consumo humano. En México, la Secretaría de Salud a través de la Comisión Federal para la Protección contra Riesgos Sanitarios (COFEPRIS) y la Dirección General de Epidemiología (DGE) son las instituciones encargadas de monitorear y reportar la incidencia de enfermedades transmitidas por alimentos por lo que se pide la intervención puntual de los diferentes órdenes de gobierno en el ámbito de su incumbencia para generar la normativa necesaria que garantice alimentos de calidad.  El mercado agrícola en México es amplio y tiene un gran potencial para competir a nivel nacional e internacional, sin embargo, se detectan limitaciones en la propia industria local en todos sus ámbitos ya que no existe garantía para un consumo local inmediato y el mejor producto se considera calidad de exportación, se cuenta con poca información sobre empresas con certificaciones de normas y sistemas de gestión de calidad y de manera general quienes se dedican a este ramo ya que no es suficiente la información que proporciona el INEGI. La propuesta se orienta a incentivar y apoyar a las empresas que aún no cuentan con regulaciones, animándolas a acercarse a las autoridades correspondientes para mejorar la calidad de sus productos y garantizar su inocuidad. La prevalencia de enfermedades transmitidas por alimentos, como la salmonela y la E. coli, representa un desafío para la salud pública, y se necesita un seguimiento continuo a través de sistemas de vigilancia sanitaria. Se enfatiza la importancia de evaluar las de higiene en todas las etapas del proceso de producción, desde la selección de materias primas, almacenamiento, hasta la distribución, considerando la reciente pandemia vivida por COVID SARS-CoV 19. Una de las pretensiones es hacer evidente que el uso de la cadena en frio está alejado de una realidad económica para la mayoría de los productores y se debe tomar estrategia para la adecuación de transporte de menor tamaño en zonas serranas como la planta procesadora de alimentos de San Joaquín, así como la consideración de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje.


CONCLUSIONES

La cadena de suministro de productos perecederos en la industria alimentaria mexicana es fundamental para asegurar la inocuidad de los alimentos garantizando productos de calidad, la investigación ofrece una visión integral de la situación actual y propone acciones para mejorar la calidad y seguridad alimentaria, garantizando un consumo de calidad en México. Se propone una lista de verificación general para evaluar el cumplimiento de los estándares de calidad en la industria alimentaria. Establecer programas de capacitación certificada para garantizar el cumplimiento de estándares de calidad y normativo de manera local con la intervención de las instituciones como Universidades Públicas y privadas, así como del TecNM. Se plantea el uso de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje donde dejamos propuestas amigables al medio ambiente en base a la NOM-002-SSA1-1993. Se realizó un ejemplo de análisis de ruta con plataformas de la CST del INEGI y software libre para facilitar el análisis de costos y planteamiento de rutas para productores de menos poder económico. Esta investigación multidisciplinaria permite tener nuevos enfoques sobre la problemática de atención prioritaria atendiendo los objetivos de la agenda 2030 hambre cero, fin de la pobreza, salud y bienestar desde la perspectiva de la cadena de suministro de la industria alimentaría de los productos perecederos que lo limitamos a frutas y verduras en general en nuestro país. Refrendamos el compromiso con las causas sociales por lo que esta investigación hace una invitación a continuar con la participación activa de las diferentes instituciones públicas y privadas de Educación Superior para propuesta de las normativas necesarias que permitan garantizar “La soberanía alimentaria participando activamente en los temas legislativos en esta área".
de la Cruz Vazquez Diana Laura, Instituto Tecnológico de Chilpancingo
Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo

EXPLORANDO LA VIOLENCIA DE GÉNERO EN LOS ÁMBITOS ESCOLAR, LABORAL Y COMUNITARIO: UN ENFOQUE INTEGRADO MEDIANTE MINERÍA DE DATOS Y KDD


EXPLORANDO LA VIOLENCIA DE GÉNERO EN LOS ÁMBITOS ESCOLAR, LABORAL Y COMUNITARIO: UN ENFOQUE INTEGRADO MEDIANTE MINERÍA DE DATOS Y KDD

de la Cruz Vazquez Diana Laura, Instituto Tecnológico de Chilpancingo. Garibay Salgado Cesar Isaias, Instituto Tecnológico de Chilpancingo. Gonzalez Barragan Carlos Alexander, Instituto Tecnológico de Chilpancingo. Hipolito Gatica Kevin Osvaldo, Instituto Tecnológico de Chilpancingo. Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La violencia de género es un fenómeno global que afecta a mujeres y niñas en diversos contextos, comprometiendo su seguridad, bienestar y desarrollo integral. Si bien se han realizado esfuerzos significativos para abordar este problema, aún persisten desafíos importantes en la compresión de sus manifestaciones en diferentes ámbitos, como el escolar, laboral y comunitario. México presenta antecedentes significativos en violencia de género que lamentablemente continúan presentes en la vida cotidiana de la mayoría de las mujeres, lo que constituye una seria problemática social. Esta violencia se manifiesta en diversas formas, tales como violencia doméstica, acoso callejero, discriminación laboral, explotación sexual, feminicidios y trata de personas. En la actualidad, se cuenta con técnicas y tecnologías avanzadas que pueden aplicarse en el ámbito de la minería de datos. La pregunta surge sobre si es posible utilizar estas herramientas para encontrar patrones que identifiquen las principales características que resultan en violencia de género.



METODOLOGÍA

El tipo de investigación es descriptivo, debido a que busca determinar las variables comunes en la población con violencia de género e intrafamiliar, tomando como referencia los datos recolectados en la encuesta Nacional sobre la Dinámica de las Relaciones en los Hogares 2021 (INEGI), y aplicando técnicas de minería de datos, para generar modelos predictivos y descriptivos, aplicando la metodología KDD (Descubrimiento de conocimiento en bases de datos), utilizando como herramienta tecnológica WEKA, la cual genera los modelos y sus métricas de evaluación, para determinar cuál es el mejor modelo, y tomarlo como referencia para la toma de decisiones.


CONCLUSIONES

El uso de técnicas de minería de datos en el estudio de la violencia en México es inestimable para comprender patrones y factores de riesgo, facilitando la toma de decisiones informadas. El análisis de datos del INEGI sobre violencia de género en diferentes ámbitos muestra características específicas, destacando la importancia de abordarla de manera contextualizada y adaptar estrategias de prevención. Durante la investigación se presentaron los siguientes desafíos, durante la aplicación de los algoritmos J48 y Naive Bayes a un conjunto de datos optimizado utilizando WEKA. Se llevaron a cabo varios pasos de pre procesamiento para abordar errores e inconsistencias en los datos: • Identificación correcta de Clases: Asegurar la asignación correcta de clases y sus variables relacionadas para permitir una predicción precisa. • Renombrar Variables: Mejorar los nombres de las variables para una mejor comprensión y claridad. • Optimizar Variables: Agrupar variables comunes para mejorar la identificación y el análisis. • Resolver Incoherencias: Abordar discrepancias entre las respuestas a diferentes preguntas para refinar el conjunto de datos. • Crear Conjuntos de Datos Únicos: Generar conjuntos de datos individuales para cada clase para identificar variables no reconocidas por el conjunto de datos principal y posteriormente eliminar las variables no relacionadas. Los análisis descriptivos y predictivos permiten identificar variables relevantes y generar modelos para predecir y prevenir la violencia. La combinación de enfoques cuantitativos y cualitativos ofrece nuevas herramientas para abordar la problemática y tomar decisiones más efectivas. En general, esto contribuye a una mejor comprensión de la violencia y a promover medidas más adecuadas para enfrentarla. Mediante el análisis descriptivo y predictivo, se logró identificar variables relevantes y generar modelos que permiten predecir y prevenir la violencia. Sin embargo, es crucial considerar las implicaciones éticas y legales en la utilización de datos personales y garantizar la protección de la privacidad.
de la Rosa Gonzalez José Alberto, Universidad Autónoma de Occidente
Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

PROYECTO ROBOTICA APLICADA


PROYECTO ROBOTICA APLICADA

de la Rosa Gonzalez José Alberto, Universidad Autónoma de Occidente. Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Para este Verano Científico se realizo un proyecto donde combinamos la programación, la robótica, la educación y el reciclado, así nació el proyecto robótica aplicada. Se uso material reciclado para la elaboración de los proyectos. Por otro lado, se dejo preparada la aplicación de los proyectos a niveles educativos diferentes a través de secuencias didácticas que se desarrollaron, esto para fomentar la robótica entre los jóvenes y al mismo tiempo se adquieren conocimientos de otras materias. Estamos seguros que la investigación cumple un rol muy importante en el desarrollo de proyectos profesionales, por lo que se necesita que los jóvenes empiecen a generar proyectos desde edades tempranas.



METODOLOGÍA

En el proyecto de robótica aplicada fue posible aprender a reciclar, armar robots y aplicarlos al área educativa. A lo largo de la duración del verano científico se logró satisfactoriamente el desarrollo de varios proyectos, se trabajo en equipo para conocer y compartir conocimientos. Dentro de los proyectos se hizo una Prótesis de mano como herramienta en la robótica educativa, en el cual se habla de cómo este robot, elaborado con materiales reciclados puede ayudarnos en la enseñanza de una materia escolar de nivel medio superior como lo puede ser la de Anatomía, y logrando la obtención de conocimientos por parte del alumno, tanto de esta materia como de robótica. Como segundo proyecto se elaboró una simulación en TinkerCad a raíz de un taller de la misma plataforma que se nos brindó por parte de nuestros asesores. Este proyecto fue libre y se presentó en clase de igual manera que el resto de los proyectos. El tercer proyecto consistió en el Control de giro de motores, utilizando los materiales que pudimos conseguir en casa, reciclados y de fácil acceso económico; el cuarto proyecto, fue consecuente a este, ya que se basó en la aplicación de este robot dentro de la robótica educativa mediante la creación formal de una secuencia didáctica que pudiera ser fácilmente aplicada.


CONCLUSIONES

Como resultado de este proyecto, se logró la creación de distintos robots a partir de material reciclado, la documentación de estos y secuencias didácticas que permiten o faciliten el desarrollo de estos robots dentro de la robótica educativa a distintos niveles escolares. Se tuvo como contexto el de la robótica educativa y los pasos para su correcta aplicación dentro de la educación, los cuales son: Diseñar, Construir, Programar, Probar y Documentar; así como también el cuidado al medio ambiente, y la investigación. Fue muy significativo este verano ya que pudimos ver que la robótica y la programación tienen un sentido más que solo hacer un robot o un programa
de la Torre Lopez Edith Aurora, Universidad Autónoma de Chiapas
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

ÁNALISIS DE PROPIEDADES ELECTROQUÍMICAS EN CONCRETO CON FIBRAS DE COCO, DESPUÉS DE UN AÑO DE SU ELABORACIÓN


ÁNALISIS DE PROPIEDADES ELECTROQUÍMICAS EN CONCRETO CON FIBRAS DE COCO, DESPUÉS DE UN AÑO DE SU ELABORACIÓN

de la Torre Lopez Edith Aurora, Universidad Autónoma de Chiapas. Soberanes Ruiz Mariana Jaqueline, Universidad Politécnica de Atlautla. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El Concreto es una mezcla de piedras, arena, agua y cemento que al solidificarse constituye uno de los materiales de construcción más resistente que junto al acero se convierten en una mezcla ultra resistente elaborada a base de concreto y acero. Esto quiere decir que el cemento es reforzado con componentes metálicos en forma de armadura de barras o pequeñas fibras. Actualmente es de los más utilizados en la ingeniería civil. El concreto reforzado con varillas de acero es uno de los materiales de construcción más usado en todo el mundo, sin embargo, presentan el inconveniente de ser susceptibles a fallar por corrosión. El problema de la degradación de las estructuras de concreto debido a procesos de corrosión es serio y de implicaciones económicas mayores. La habilidad para evaluar la corrosión de las varillas de refuerzo en estructuras y poder estimar la vida en servicio remanente es tema de estudios en muchas partes del mundo.  los grandes avances tecnológicos mundiales, sin ser entendido completamente, debido principalmente a la complejidad del proceso de corrosión en sí mismo. Para tratar de establecer las bases que rigen al fenómeno de la corrosión, se presentan temas fundamentales que permitirán al lector comprender el fenómeno de la corrosión. El concreto tiene ciertas características: es relativamente resistente en compresión, pero débil en tensión y tiende a ser frágil. La debilidad en tensión puede ser superada por el uso de refuerzo convencional de varilla y, en cierta medida, por la inclusión de un volumen suficiente de ciertas fibras.



METODOLOGÍA

La investigación se llevó a cabo en la ciudad de Campeche, Campeche, en esta zona el tipo de agregado que se utiliza es el triturado de roca para el agregado grueso y polvo de roca para el agregado fino, ambos de roca caliza. y la fibra de coco se obtiene como residuo de los frutos cocoteros, estas fibras se extraen de manera manual. Es una materia prima muy interesante, ya que tiene la ventaja de ser abundante, disponible, renovable y barato. Los restos de frutos cocoteros se obtuvieron de un negocio ubicado en el mercado municipal de Campeche.  El uso de fibras en mezclas de concreto es con la finalidad de aumentar ciertas propiedades mecánicas, y así disminuir el agrietamiento, fisuras y agregar capacidad de carga posterior a su agrietamiento. En busca de utilizar alguna fibra natural como material alternativo. Para la realización de esta investigación se utilizaron cilindros de concreto de hace un año que contienen distintas proporciones de fibra de coco, para lo cual se realizaron 3 mezclas. Un concreto convencional o de referencia (M1), un concreto con 0.5% de fibra de coco respecto al cemento utilizado (M2) y un concreto con 1.0% de fibra de coco respecto al cemento utilizado (M3), para analizar y comparar los resultados después de un año de ser coladas. Al recibir los cilindros y revisar su estado, estos se encontraban en buenas condiciones a la vista y pudieron correrse las pruebas electroquímicas sin ningún problema. Así pues, las prácticas realizadas fueron la de Impedancia, Resistencia de polarización línea (LRP) y la resistividad de cada una de estas muestras.   La electroquímica se define como: la rama de la química que estudia la relación entre las corrientes eléctricas y las reacciones químicas, y de la conversión de la energía química en eléctrica y viceversa. Como presentación de resultados, la resistividad puede ser un indicador del fraguado, del grado de saturación del hormigón y por ello del grado de curado y de la impermeabilidad o resistencia al ingreso de sustancias agresivas en el hormigón. Los resultados fueron obtenidos con la ecuación: p=2π(a)(R)(b) De las M1 varian de D1=82.72Ω,D2=43.98Ω,D3=48.17Ω,M2 de D1=80.11Ω,D2=35.08Ω,D3=47.12Ω,y para las M3 D1=62.30Ω,D2=39.79Ω,D3=50.78Ω. La impedancia y el LRP. La impedancia es una medida que engloba tanto la resistencia como la reactancia en un circuito de corriente alterna, y es fundamental en el análisis y diseño de circuitos eléctricos y electrónicos. Los resultados arrojados de la impedancia para la (M1), en cuanto a los diagramas de Bode, mostraron que en la gráfica (M1-D1) cuya frecuencia comienza a descender para posteriormente comenzar a ascender en manera recta y lineal hasta llegar a IZ| ohms, por la teoría proporcionada se concluye muestran un comportamiento tendiente a la actividad, y para (M1-D2) la gráfica la frecuencia comienza a ascender y arriba de 100 se mantiene constante hasta llegar a  IZ| ohms, con tendencia a difusión. Para los diagramas de Nyquist M1-D1 presento un proceso de corrosión por difusión debido a que el comportamiento fue ascendente y para la muestra M1-D2 su comportamiento fue de transferencia de carga en las regiones más bajas y en las regiones más altas presento un comportamiento por difusión Para las gráficas de LRP todas comienzan desde la parte inferior izquierda (catódica) y comienzan a ascender de manera parabólica, con un incremento de corriente.    


CONCLUSIONES

Las pruebas electroquimicas arrojaron datos muy diversos debido a su proceso de elaboración un mal varillado, colado y se le puede atribuir un gran índice de porosidad en el concreto de manera interna. Se observó que la resistividad disminuyó con la cantidad de fibra adicionada. El seguimiento en el tiempo no es un se muestra como un factor que afecte hacia un mejor resultado para estos cilindros adicionados con fibra de coco Aprendizaje Final. Agradezcemos el conocimiento brindado, puesto que pudimos aprender a colar y varillar esto aprendido tanto en laboratorio de CICORR, como en la visita técnica a la concretera, aprendimos a obtener gráficas de nyquist,  bode y los LRP, también a sacar potencias, resistividad y resistencias, enetre muchas otras cosas, pero esto es lo que más pusimos en práctica.
de Lima Mar Juan Carlos, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Gloria Saab Rincon, Universidad Nacional Autónoma de México

CONSTRUCCIóN DE UNA BIBLIOTECA DE MUTANTES DEL CITOCROMO P450BM3 PARA HIDROXILAR áCIDO P-CUMáRICO


CONSTRUCCIóN DE UNA BIBLIOTECA DE MUTANTES DEL CITOCROMO P450BM3 PARA HIDROXILAR áCIDO P-CUMáRICO

de Lima Mar Juan Carlos, Benemérita Universidad Autónoma de Puebla. Valencia Cruz Laura Belem, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Gloria Saab Rincon, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El ácido cafeico es un compuesto con aplicaciones en la industria farmacéutica y de alimentos, por sus propiedades antioxidantes, antitumorales y antiinflamatorias. Actualmente, se obtiene mediante fuentes vegetales, principalmente de hojas y granos de café, sin embargo, los rendimientos son bajos y el proceso es costoso. Por lo que se han generado alternativas para su producción empleando procesos biotecnológicos que resulten más baratos y eficiente. Para ello, se recurre a la ingeniería de enzimas para la obtención de ácido cafeico a partir de ácido p-cumárico mediante una reacción de hidroxilación mediada por el citocromo P450 de Bacillus Megaterium. El objetivo de este proyecto es realizar el tamizaje de una librería de mutantes previamente construida del citrocromo P450 de Bacillus Megaterium que use ácido p-cumárico como sustrato para la conversión a ácido cafeico. Este proyecto se aplica directamente al objetivo 9: “Industria, Innovación e Infraestructura” de la Agenda 2030 para el Desarrollo Sostenible, al fomentar la innovación e industrialización sostenible, además de cumplir con varios principios de la química verde al emplear catalizadores selectivos y generar productos químicos menos tóxicos, entre otros.



METODOLOGÍA

Se transformaron células quimiocompetentes de la cepa BL21 de E. coli con 4 plásmidos diferentes: librería de mutantes, enzima silvestre (WT por sus siglas en inglés wild type), vector vacío y vector de resistencia a ampicilina[G1] [Aa2] [Aa3] . Para ello, se colocaron 1.5 µL de cada plásmido en viales con células Ca-competentes previamente preparadas de E. coli y se incubó en hielo por 30 minutos. Luego, se realizó un choque térmico a 42°C por 90 segundos y se recolocaron en hielo por otros 2 minutos. Posteriormente se adicionó medio LB y se incubó por 1 hora a 37°C con agitación. Al final se vertieron de 75 a 150 µL de cultivo en placas petri con agar LB-kanamicina y LB-ampicilina, dependiendo de la resistencia que le provea el respectivo vector, y se incubó toda la noche a 37°C. Se inocularon colonias individuales por separado en cajas de 96 pozos con 1 mL de medio LB-Km y se dejaron crecer al menos 12 h a 37°C con agitación, dejando pozos para los controles, enzima silvestre (WT), vector vacío y vector ampicilina bien ubicados. Al día siguiente se transfirieron 50 µL de precultivo a cajas nuevas con 900 µL de medio TB-kanamicina y, se incubaron de 4 a 5 h hasta obtener una densidad óptica a 600 nm de entre 0.6 a 0.7 medidos con un espectrofotómetro. Cumplido esto se adicionaron 50 µL de IPTG  5 mM para inducir la sobreexpresión de proteína y se incubaron a 30°C durante 24 h con agitación. Para preservar las cepas del precultivo se obtuvieron los pellets centrifugando a 3500 rpm de 30 a 40 minutos y se congelaron a - 4°C. Las cajas del cultivo inducido se centrifugaron por 30 min a 3500 rpm a 4°C, se descartó el sobrenadante y los pellets obtenidos se congelaron por al menos 8 h. Después, se resuspendieron en 500 µL de buffer de lisis en un baño de hielo y posteriormente se incubaron por 1 h a 37°C con agitación. Finalmente, se centrifugaron a 1500 rpm a 4°C por 12 min. En los ensayos de actividad enzimática se transfirieron 30 µL del lisado celular a placas de microtitulación, junto con buffer KPi - ácido p-cumárico 0.8 mM y se incubaron por 5 min a temperatura ambiente. Se adicionaron 50 µL de NADPH 2.8 mM e inmediatamente se midió la actividad enzimática monitoreando la absorbancia a 340 nm por 15 min.Después de la lectura se guardaron las placas en ausencia de luz y a temperatura ambiente por al menos 12 h. Se construyó una curva estándar de ácido cafeico de 0.04 a 0.4 mM agregando los mismos componentes del ensayo de actividad. En nuevas placas de microtitulación se transfirió 20 µL provenientes del ensayo de actividad enzimática y 200 µL del complejo de ferrozina/Fe(III)  para dejar reposar 30 minutos. Pasado este tiempo, se midió la absorbancia a 562 nm para detectar variantes productoras de ácido cafeico de alto o bajo rendimiento con respecto a la WT y al vector vacío. Esta metodología se repitió 5 veces, comprendiendo el análisis de 960 variantes individuales, logrando identificar y seleccionar 6 candidatas, de las cuales seleccionamos 3 variantes de alto rendimiento y 3 de bajo rendimiento para analizar sus posibles productos de reacción mediante ensayos de TLC. El ensayo de TLC se realizó tomando el total de los pozos correspondientes a las variantes de las placas del ensayo de actividad en tubos eppendorf de 1.5 mL, se concentraron en el equipo eppendorf vacufuge durante 30 min a 60°C. Una vez disminuido su volumen a la mitad se cargaron 5 µL en una cromatoplaca de sílica-gel en carriles individuales junto a controles wild type, vector vacío y ácido cafeico 0.16 mM. Se aislò el plásmido de las 6 variantes seleccionadas, el cual de manera individual fue sometido a un segundo tamizaje aplicando el procedimiento anterior. Se comprobó que el plásmido aislado contenía el gen de interés, para lo cual se hicieron digestiones con las enzimas NcoI y SacI específicas del vector y el gen. Los productos se corrieron en una cámara de electroforesis por 30 min a 90 volts para después visualizarse en el fotodocumentador Al final, se mandaron a secuenciar los plásmidos de las 6 variantes seleccionadas para identificar los cambios en las posiciones de aminoácidos implicados en las características observadas.  


CONCLUSIONES

Durante la estancia de verano en el Instituto de Biotecnología de la UNAM-campus Morelos, se aprendieron satisfactoriamente conocimientos teóricos y prácticos de técnicas de tamizaje de variantes como parte de los estudios de evolución dirigida del citocromo P450BM3 para hidroxilar ácido p-cumárico. Debido al tiempo empleado, no es posible analizar completamente una librería e identificar variantes con potencial producción de ácido cafeico, sin embargo, nuestras variantes seleccionadas muestran mutaciones correlacionadas con las características que observamos y que pueden ayudar al rediseño y tamizaje de librerías de variantes.
de Luna Garcia Naomi Janette, Universidad de Guadalajara
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS DE SULFURO DE CADMIO


SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS DE SULFURO DE CADMIO

de Luna Garcia Naomi Janette, Universidad de Guadalajara. Rico Muñiz Jesus Misael, Universidad de Guadalajara. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las celdas solares son dispositivos cuya función es convertir la energía solar en energía eléctrica. Los paneles solares comerciales consisten en celdas de silicio en diferentes presentaciones: monocristalino, policristalino y amorfo. Su costo de producción es alto y su eficiencia (porcentaje de energía solar que es convertida en energía eléctrica) es deficiente, siendo necesaria la instalación de una gran cantidad de paneles para la producción de relativamente pequeñas cantidades de energía electrica. Existen distintas variables que influyen en la eficiencia de los paneles solares como la cantidad de luz reflejada en la superficie del panel, la intensidad del sol, el ambiente, la localización del panel y los materiales con los que están constituidos. A pesar de que actualmente los paneles más comunes son los de silicio, se están desarrollando nuevas tecnologías en las que se emplean otros materiales (semiconductores) con el fin de obtener una eficiencia energética mayor y así reducir la cantidad de paneles necesarios para la producción de energía eléctrica. En este trabajo de investigación se estudió el sulfuro de cadmio como posible aplicación de material ventana en paneles solares. El sulfuro de cadmio es un semiconductor de tipo n, es decir, posee electrones extras en su estructura cristalina lo que puede ayudar a facilitar el flujo de electrones en un panel solar al recibir la radiación solar.



METODOLOGÍA

Se realizó la síntesis y caracterización de películas delgadas de sulfuro de cadmio (CdS) mediante el método de deposición por baño químico (CBD). El proceso consiste en mezclar disoluciones acuosas en un vaso de precipitado en baño “maría” a altas temperaturas. La síntesis se desarrolló de la siguiente manera: ● Se realizaron cuatro soluciones que fueron mezcladas en el siguiente orden: a) CdCl2 b) NH4OH c) KOH d) (Cs(NH2)2 Se mezclaron en un vaso de precipitado con agua, a baño maría, cuando el agua alcanzó la temperatura de 75°C. Para las soluciones se utilizaron: cloruro de cadmio (CdCl2), hidróxido de amonio (NH4OH), hidróxido de potasio(KOH) y tiourea (CS(NH2)2). ● Posteriormente se colocaron 6 sustratos de vidrio y de vidrio con una delgada película de FTO dentro del vaso con la mezcla y se extrajo un vidrio cada 15 minutos, de manera que la primera muestra se extrajo a los 15 min., la segunda a los 30 y así sucesivamente hasta extraer las 6 muestras. ● Una vez concluido el tiempo de reacción, los sustratos se limpiaron con ácido clorhídrico para evitar interferencias en la caracterización. Las películas depositadas en los sustratos de vidrio se caracterizaron con espectroscopia UV-vis en el rango de longitud de onda 200 a 800 nm. Se obtuvo la gráfica de transmitancia del material, la cual fue utilizada para calcular el Eg del semiconductor mediante el método de Tauc plot. Para la caracterización electroquímica se usaron las películas depositadas en FTO y se caracterizaron con un potenciostato. Se realizaron los ensayos de OCV (Potencial de circuito abierto), de PEIS (Espectroscopia de impedancia electroquímica) y una curva de cronoamperometría para determinar las propiedades electroquímicas del sulfuro de cadmio.


CONCLUSIONES

Mediante las mediciones en el Uv-Vis de las películas, se obtuvieron gráficos de transmitancia en los que el punto de absorción fue en una longitud de onda de aproximadamente 550 nm. Al someterlo al análisis de Tauc ploc, para obtener los valores de Eg de cada muestra, se obtuvieron para los tiempos 15, 30, 45, 60, 75 y 90 min, valores de 2.29, 2.34. 2.31, 2.32, 2.34, 2.31 eV. Los resultados de la espectroscopia electroquímica nos demuestran que al contacto con la radiación solar, el material es capaz de producir una corriente eléctrica: Se obtuvieron dos curvas de nyquist; una pertenecía a la muestra siendo irradiada con radiación solar con intensidad de un sol y la otra cuerva pertenece a la muestra en oscuridad total. Mediante la comparación de las curvas encontramos que la muestra irradiada con 1 sol mostró menor resistividad que la muestra en completa oscuridad. Según la gráfica obtenida del ensayo de cronoamperometría, al recibir la radiación solar se registran valores de aproximadamente 0.020 I/mA y al cambiar a un entorno sin radiación el valor era igual a 0. En base a los resultados obtenidos en la caracterización del CdS podemos concluir que es un material fotosensible por lo que sí es posible su aplicación en la fabricación de celdas solares. Esperamos que en un futuro, con la investigación de otros materiales en conjunto con el CdS , obtener paneles solares con una mayor eficiencia en la generación de energía eléctrica a partir de radiación solar así como en la optimización de laproducción de estos de manera que se incremente la eficiencia y reduzca el costo para obtener una mejor relación costo-beneficio.
de Robles Ramírez Miguel Israel, Instituto Tecnológico de Tepic
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS


FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS

de Robles Ramírez Miguel Israel, Instituto Tecnológico de Tepic. Gutiérrez Delgado Valeria Dinora, Instituto Tecnológico de Tepic. López Ramos Víctor Daniel, Instituto Tecnológico de Tepic. Medina Rodríguez Sebastián Jazael, Instituto Tecnológico de Tepic. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El "Framing" se refiere a la manera en que los medios de comunicación, a través de sus elecciones lingüísticas y visuales, dan forma a la cobertura de eventos y situaciones específicas. Varias disciplinas contribuyeron en la conformación de lo que hoy se conoce como teoría del Framing: la psicología, la sociología, los estudios sobre los movimientos sociales y la comunicación, por mencionar las áreas más sobresalientes. Al seleccionar ciertas palabras, imágenes o enfoques para presentar una noticia, los medios pueden influir en cómo las personas entienden y reaccionan a esa información. El problema planteado en la investigación es cómo se puede utilizar el "Framing" como una herramienta analítica para examinar cómo los medios de comunicación presentan las noticias y cómo esto afecta la percepción del público. Al abordar este problema de investigación, se busca comprender mejor cómo el "Framing" puede ser una herramienta útil para analizar y desentrañar los mecanismos detrás de la presentación de las noticias, y cómo esto afecta la comprensión del público sobre los acontecimientos y temas importantes en la sociedad. Además, este enfoque también puede tener implicaciones para la ética periodística y el papel de los medios de comunicación en la formación de opiniones y actitudes en la sociedad. 



METODOLOGÍA

Para lograrlo, se desarrolló una metodología que consistió en dos pasos fundamentales. Primero, se creó un conjunto de palabras o términos que representan los diferentes marcos temáticos que podrían estar presentes en los artículos de noticias. Este conjunto de palabras se conoce como "vocabulario de marcos temáticos". Se elaboró una lista de tópicos en el que se especifica a detalle cómo se evalúa cada criterio de la noticia, como tal la temática del estudio, cuyas opciones de encuadre son las siguientes:   1 = Economic, 2 = Capacity and resources, 3 = Morality, 4 = Fairness and equality, 5 = Legality, constitutionality and jurisprudence, 6 = Policy prescription and evaluation, 7= Crime and punishment, 8 = Security and defense, 9 = Health and safety, 10 = Quality of life, 11 = Cultural identity, 12 = Public opinión, 13 = Political, 14 = External regulation and reputation, 15 = Other. También se tomaron en cuenta tópicos de tonos en el que esté la noticia, cuyas opciones son las siguientes: Tono Neutral, Tono Positivo, Tono Negativo. Por otro lado, se debía especificar Autor, Fecha y Titulo (siempre y cuando la página de donde fue extraída la noticia contara con estos parámetros), por último, es necesario especificar el tópico general en el que se basaba la noticia. Cada noticia debe ser etiquetada mínimo 2 veces para que exista una mejor coherencia al especificar cada tópico.  Luego, se aplicaron diversas técnicas de clasificación, las cuales permitieron etiquetar automáticamente los marcos temáticos en los artículos de noticias basándose en el vocabulario creado previamente. Estas técnicas de clasificación mostraron resultados prometedores, ya que indicaron la posibilidad de mejorar el rendimiento general del sistema de predicción. 


CONCLUSIONES

Durante la estancia de verano, en su mayoría las noticias que fueron analizadas se enfocan en la observación de situaciones reales en casos concretos, tienen un enfoque más práctico y menos teórico. Nos permitió comprender como los medios de comunicación influyen en la percepción y la interpretación de la información por parte del público. Al desarrollar esta habilidad, podemos ser más conscientes de cómo la información es presentada y, en última instancia, tomar decisiones más informadas y responsables. En esta investigación, se aplicaron lenguajes de programación como Python, técnicas de procesamiento de lenguaje natural y algoritmos de inteligencia artificial para entrenar una herramienta llamada Label Box (la cual es completamente gratuita y sencilla de entender) la cual nos ayudó para analizar noticias basada en el concepto de "Framing". Python proporcionó una plataforma flexible y eficiente para manipular y analizar grandes conjuntos de datos de noticias, mientras que las técnicas de procesamiento de lenguaje natural permitieron extraer y comprender la información textual de manera automatizada. La inteligencia artificial se utilizó para entrenar modelos capaces de identificar patrones de "Framing" en las noticias y clasificar los diferentes marcos utilizados. El resultado de la investigación se materializó en una exposición y resumen sobre el entrenamiento del "Framing" desarrollado y su aplicación en el análisis de noticias. La exposición incluyó ejemplos prácticos de noticias analizadas, mostrando cómo la herramienta identificó y categorizó los marcos utilizados por los medios. Además, se presentaron gráficos y visualizaciones para ilustrar las tendencias de "Framing" y su distribución en las noticias. El resumen proporcionó una síntesis de los hallazgos clave, destacando la importancia de esta herramienta para comprender cómo los medios influyen en la percepción pública sobre temas importantes.
Delgado Álvarez Luis Mauricio, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín

EXTRACCIóN Y APROVECHAMIENTO DEL MUCíLAGO DEL NOPAL Y DE LA MISMA PLANTA


EXTRACCIóN Y APROVECHAMIENTO DEL MUCíLAGO DEL NOPAL Y DE LA MISMA PLANTA

Delgado Álvarez Luis Mauricio, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

El poco aprovechamiento de los residuos agroindustriales en el mundo provoca que se genere un gran desperdicio de materia orgánica que pudiese ser utilizada para diversas aplicaciones con base a la obtención de biomateriales. En Sonsón, Colombia, se tiene una gran generación de nopal que se cultiva para cosecha del fruto que la planta arroja. Sin embargo, existe una situación poco favorable ya que únicamente se aprovecha el fruto y no toda la planta, la cual es aprovechable. Además, se generan residuos orgánicos, con los cuales se busca generar diversos biomateriales que puedan ser aprovechables para diversas aplicaciones. En este trabajo, se busca utilizar de una manera eficiente y en alto porcentaje la planta de nopal cultivado en Sonsón, Colombia, buscando aplicaciones en la industria del diseño de espacios o en la arquitectura.



METODOLOGÍA

En esta estadía de investigación se ha trabajado en base a la utilización del nopal, mediante el planteamiento de dos objetivos base. El primero, es identificar y utilizar un proceso de extracción de mucílago del nopal, para así, lograr estimar la eficiencia de obtención de este y contar con esos datos cómo base. El proceso se llevó a cabo con herramientas con las que se contaban; consistió en utilizar 1 kilogramo de nopal, picarlo en trozos pequeños (1 cm x 1 cm aprox.), colocar sobre los trozos 2% de NaCl y mezclar uniformemente durante 10-15 minutos, para posteriormente dejar reposar un día sobre un escurridor y así obtener el mucílago. Este proceso se repitió con otras dos diferentes concentraciones de NaCl (0.5% y 5%) para observar diferencias que se presentaron en las propiedades del mucílago y las cantidades extraídas del mismo. Cabe recalcar que, con la realización de estos ensayos, se promediaron cantidades y así llegar al resultado esperado, el cual era establecer una cantidad base promedio de mucílago obtenido X Kg de nopal. Por otro lado, se está aprovechando el mucílago que se ha obtenido en los diferentes ensayos para buscar obtener películas solidificadas de este biomaterial que puedan ser utilizables. El proceso es mediante un método de baño María en el cual se sumerge el recipiente con cierta cantidad de mucílago (se trabajó con 100 ml) a una temperatura constante de 85°C-90°C, mientras se mezclan pequeños porcentajes de glicerina (2%) y vinagre (5%), posteriormente dejar reposar para su enfriamiento y así observar si logra solidificar. Por otra parte, en busca del cumplimiento del objetivo en el diseño de espacios/ arquitectura, se plantea la opción de generar una pintura a base de nopal mediante el siguiente proceso: Pelar los nopales en trozos pequeños (quita espinas) y coloca en una cubeta con dos litros de agua. Deja reposar toda la noche para que se libere la baba. Después del tiempo de espera, machaca con un palo los fragmentos de nopal, como si quisiera hacer un macerado. Cuela para separar el líquido de los sólidos (es útil cualquier colador de cocina de trama no tan pequeña). En un bote o cubeta grande, deposita los otros dos litros de agua y añade tanto la cal como la sal. Mezcla hasta que se hayan incorporado y disuelto por completo. Agregar el agua en la que se obtuvo la baba del nopal y agite de nuevo. Si vas a aplicar color, es el momento de agregar el pigmento vegetal. Dejar reposar 8 a 12 horas para que el producto esté en condiciones de ser utilizado. Además, se está buscando generar un aglomerado de materia orgánica mediante diversos procesos físicos y mecánicos, cómo lo son: mezcla, prensado, secado, etc. Buscando obtener una solidificación y unificación de materiales orgánicos (nopal, cascaras, pegamento orgánico, etc.) para lograr la aglomeración necesaria y que pueda ser aplicable, aún se experimenta en para lograr el objetivo.


CONCLUSIONES

En el apartado de la extracción de mucílago, con la utilización del 5% de NaCl la cantidad que se obtuvo fue de un total de 551 ml, es decir, aproximadamente el porcentaje de obtención de este es de un 50%- 55% de la masa total del nopal (manejando 1 kg cómo base), pero con un alto nivel de NaCl, lo cual es poco favorable dentro de las propiedades. En el ensayo con 0.5% de NaCl se obtuvieron 258 ml de mucílago y, por último, utilizando el 2% de NaCl se obtuvieron 382 ml. Después de realizar dichos procedimientos se llegó a la conclusión de que la mejor opción es utilizar el 2% de NaCl, debido a la buena cantidad de mucílago que se puede obtener, pero además del bajo porcentaje de concentración de NaCl en la materia extraída. Con dicho mucílago obtenido, se está trabajando en la creación de películas de bioplástico con las tres concentraciones de NaCl (0.5%, 2% y 5%), ya se llevó a cabo el ensayo con 0.5% de NaCl y no funcionó debido a la alta concentración de NaCl, por ende, se está trabajando con 0.5% y posteriormente con 2% para observar si se logra solidificar la película y lograr obtener el biomaterial (todo este proceso es mediante la utilización del baño maría).  El segundo objetivo, se centra en la utilización del nopal en el campo de diseño de espacios desde el punto de vista arquitectónico, aquí se está trabajando en la obtención de una pintura vegetal a base de la utilización del nopal y mucílago, la cual puede utilizarse para revestimientos arquitectónicos debido a la alta adherencia que la baba de nopal provee, aún no se tienen resultados pero se espera sea funcional y aprovechable, en caso de que no sea así, se sigue buscando otras ideas para llevar a cabo el objetivo y cumplirlo cómo por ejemplo, la generación de la lámina de aglomerados orgánicos, teniendo cómo base el nopal, esperando obtener una buena solidificación que sea aplicable en este ámbito arquitectónico.  
Delgado Garcia Elvia Guadalupe, Instituto Tecnológico Superior de Xalapa
Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ANáLISIS DEL ESFUERZO AUTOMOTRIZ MEDIANTE DATOS OBD2 CON TéCNICAS DE INTELIGENCIA ARTIFICIAL


ANáLISIS DEL ESFUERZO AUTOMOTRIZ MEDIANTE DATOS OBD2 CON TéCNICAS DE INTELIGENCIA ARTIFICIAL

Alcaraz Londoño Luisa María, Universidad Autónoma Latinoamericana. Delgado Garcia Elvia Guadalupe, Instituto Tecnológico Superior de Xalapa. Suárez Rojas Santiago, Universidad Autónoma Latinoamericana. Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el principal transporte para el ser humano es el automóvil, por muchas razones, por ejemplo, según el barómetro de seguridad Vial y Movilidad 2022 de Michelin, más del 50 porciento de la población utiliza un vehiculo para trasladarse, muchas personas se sienten con mayor confianza al tener su propio auto, aumentando la comodidad, seguridad y la capacidad de carga que pudieran tener. Asi mismo, tomando datos del INEGI, los vehículos registrados en circulación en el 2019 fueron, 49,869,688 a nivel nacional y para el 2020 fueron, 53,115,396 autos, aumentando considerablemente. Sin embargo, uno de los pricipales problemas por la alta demanda de carros, es el trafico, la vihabilidad en malas condiciones, y en especial el mantenimiento del mismo, el cual debe estar en optimas condiciones para evitar daños en su infraestructura. Dicho esto, una de las innovaciones para el sistema automotriz ha sido la incorporación de los sitemas OBD2 (On Board Diagnostic - Second Generation) el cual su objetivo principal es detectar las fallas en el sistema de inyección y contrarrestar las emisiones que se provocan en la combustión. En la búsqueda continua por mejorar la experiencia de conducción y garantizar la seguridad vial, la incorporación de tecnologías inteligentes se ha vuelto indispensable. En este contexto, los sistemas OBD2 han demostrado ser una de las innovaciones más significativas en el mundo automotriz. Sin embargo, ¿y si pudiéramos llevar esta tecnología un paso más allá? ¿Y si pudiéramos utilizar los datos recopilados por el OBD2 para medir el estrés del automóvil mientras se desplaza por las calles y carreteras?  



METODOLOGÍA

Se estableció el diseño del estudio como un enfoque experimental utilizando datos recopilados de un OBD2 instalado en un automóvil en movimiento. Asi mismo, al tener una base de datos muy extensa, en la cual se recabaron 43 trayectorias, las cuales representan 21 días, se manejarón entre 3,000 a 5,000 datos por trayecto, por lo cual este preprocesamiento incluyó la normalización de los datos y la eliminación de valores atípicos o registros incompletos que pudieran afectar la precisión de la red.  El nivel de estrés se podrá calcular con el algoritmo que se empleara en MATLAB, esté será entrenado con diferentes metodos, esto con el fin, de minimizar el grado de error, en sus resultados y comparar las salidas posibles con cada método. Ahora bien, es necesario una función de activación para la neurona, la cual se calcula el estado de actividad de una neurona; transformando la entrada global (menos el umbral) en un valor (estado) de activación, cuyo rango normalmente va de (0 a 1) o de (-1 a 1). Esto es así, porque una neurona puede estar totalmente inactiva (0 o -1) o activa (1). Despúes se pasa a definir la función de entrenamiento, hay que recordar que en total fueron catorce tipos diferentes que se establecieron, por lo cual, se intentó realizar un algoritmo general y que lo unico que variará fuera la indicación del entrenamiento, en este caso, se inicio por el modo CGF, gradiente conjugado de Fletcher - Powell y se termino en el modo GDA, gradiente descendiente con aprendizaje adaptativo, los tiempos de entrenamiento fueron:    Los modelos de entrenamiento de gradiente descendente y secante de un paso, tuvieron un tiempo estimado de aprendizaje al rededor de 40 minutos por cada uno, dando un total de 2.6 horas. Los modelos de entrenamiento de gradiente conjugado, retropropagación resiliente y BFGS quasi - Newton, tuvieron un estimado de 30 minutos por cada uno, dando un total de 3 horas. Los modelos de entrenamiento Levenberg - Marquardt y Regularización Bayesiana, tuvieron un tiempo estimado de aprendizaje al rededor de 15 minutos por cada uno, dando un total de 30 minutos. Con esto se estima que el promedio de tiempo que tomó entrenarlo con los diferentes métodos y demás, fue de 5 horas con 36 minutos. Por ejemplo con el entrenamiento gradiente descendiente con aprendizaje adaptativo (Figura 8), el mejor rendimiento de entrenamiento fue en la epoca 48,750 de 50,000 a ejecutar, con un error de 0.061913, manteniendo su promedio de error de -1 a 0. En total se obtuvo que la mayoria de los días fueron con estrés MODERADO, teniendo solo 7 días con estrés LIGERO y 3 días con estrés NULO.    


CONCLUSIONES

Con base en los resultados obtenidos en esta investigación, se ha logrado demostrar que es posible medir el nivel de estrés de un automóvil mediante el análisis de datos recopilados a través de un OBD2 instalado en el vehículo. A través del diseño y entrenamiento de una red neuronal utilizando diferentes métodos de optimización, se ha desarrollado un algoritmo que puede determinar con precisión el nivel de estrés del automóvil durante una ruta específica. La arquitectura de la red neuronal utilizada, con sus funciones de activación intercaladas y una función de activación final "purelin", ha demostrado ser eficaz para clasificar y normalizar los datos de entrada. Los entrenamientos realizados han permitido evaluar diferentes técnicas y métodos de optimización, identificando que la Regularización Bayesiana se presenta como el entrenamiento más efectivo, tanto en términos de tiempo de ejecución como de precisión en sus resultados. Estos resultados tienen implicaciones significativas en diversas áreas, como la industria automotriz y la seguridad vial. La implementación de este algoritmo podría ser utilizada para monitorear vehículos en tiempo real y brindar diagnósticos precisos durante el mantenimiento o en situaciones de garantía. Además, el sistema podría ser aplicado para detectar comportamientos peligrosos o conducción bajo influencia de alcohol, lo que contribuiría a reducir accidentes de tráfico y mejorar la seguridad vial.
Delgado Guerra Angel, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Luz María Rodríguez Vidal, Instituto Tecnológico Superior de Irapuato

ANáLISIS PREDICTIVO MEDIANTE ALGORITMOS DE INTELIGENCIA ARTIFICIAL EN UNA ARQUITECTURA IOT APLICADA A LOS AEROPUERTOS PúBLICOS


ANáLISIS PREDICTIVO MEDIANTE ALGORITMOS DE INTELIGENCIA ARTIFICIAL EN UNA ARQUITECTURA IOT APLICADA A LOS AEROPUERTOS PúBLICOS

Delgado Guerra Angel, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Luz María Rodríguez Vidal, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Desarrollar un dispositivo inteligente, que permita informar al personal del aeropuerto, sobre todos aquellos factores medio ambientales que afecten el ambiente interno en los lugares transitados por los pasajeros. 



METODOLOGÍA

La metodología empleada se basó en una metodología cualitativa que se estableció con los siguientes pasos:   1.-Investigación: Se desarrollo una investigación que permitiera recopilar información a través de revistas, foros, comentarios, valoraciones entre otros. Con la finalidad de obtener reseñas que permitan conocer el impacto que causa los aeropuertos en las personas cuando estos tienden a fallar y no ofrecen un servicio de calidad.   2.-Diseño: Se creo y diseño el dispositivo inteligente en base a las necesidades necesarias que la investigación arrojo para mejorar la calidad de vida en los aeropuertos.   3.-Codificación: Se diseño el código del dispositivo para la recopilación de información sobre el comportamiento medio ambiental dentro de las estaciones del aeropuerto.   4.- Pruebas: Se probaron los dispositivos inteligentes en un área pequeña para verificar el funcionamiento de este.


CONCLUSIONES

La investigación recabada llevó al diseño de un prototipo inteligente que permite medir variables medio ambientales, que mejoran las condiciones del clima dentro de las terminales para la detección de cambios de temperatura en zonas concurridas, por lo que es probable detectar zonas que no se estén ventilando correctamente por fallos en los conductos de ventilación que van desde fugas, hasta el desgaste de los motores en los aires acondicionados los cuales requieran un mantenimiento completo para su correcto funcionamiento. Esta prevención de fallos lleva a tener un cliente satisfecho por la calidad de servicio que ofrece el aeropuerto al interior de la terminal.
Delgado Torres Juan Carlos, Universidad Autónoma de Baja California
Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

METODOLOGíA PARA EL EMPLEO DE CENIZA VOLCáNICA EN SUSTRATO PARA LA GERMINACIóN DE SEMILLAS DE CILANTRO


METODOLOGíA PARA EL EMPLEO DE CENIZA VOLCáNICA EN SUSTRATO PARA LA GERMINACIóN DE SEMILLAS DE CILANTRO

Bautista Meneses Natalia, Instituto Tecnológico de Pachuca. Delgado Torres Juan Carlos, Universidad Autónoma de Baja California. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con los reportes del Cenapred, en mayo del 2022 se tuvieron 802 exhalaciones, 80 minutos de tremor y 0 explosiones, mientras que 2023 los números incrementaron a 4 013, a 21 364 y a 127, respectivamente. Dichas explosiones emitieron columnas de gases y ceniza, la que posteriormente llegó a distintos municipios cercanos al volcán. En diversos medios de comunicación se informó que en  San Pedro Cholula se recogieron 900 toneladas de ceniza (Sol de Puebla, 2023). Así mismo, hubo menciones sobre la disposición final de este residuo, que sería en bancos de tiro, parques y jardines.  Se ha dicho antes que la presencia de ceniza volcánica en el suelo es benéfica. Minasny et al (2021) señalan que este compuesto proporciona nutrientes al suelo, pues contiene metales como Fe, Cu, Mg, Mn, P, Ca, Na, Si, Al y Zn. Sin embargo, es importante hacer un uso moderado de la ceniza volcánica, puesto que, al entrar en contacto con el agua, los metales pueden lixiviar y afectar cuerpos acuáticos. También es fundamental considerar que la ceniza cambia la conductividad eléctrica y el pH del suelo, el cual se recomienda se encuentre en un rango de 6.5 a 7 (Santamaría-Juárez et al., 2022). Por lo tanto, se propone el empleo de la ceniza emitida por el volcán Popocatépetl, del mes de mayo del 2023, en la preparación de sustratos que serán empleados para germinar semillas de cilantro, ya que los datos del Sistema de Información Agroalimentaria y Pesquera (SIAP) indican que el año anterior se produjeron 46 mil 747 toneladas de cilantro en Puebla, siendo proveniente de Cholula el 41%; esto con el fin de determinar cuál es la cantidad apropiada de ceniza que permita un buen desarrollo de la semilla y propicie la introducción de la mejor opción de sustrato a la industria.



METODOLOGÍA

Se investigaron los componentes comunes y beneficiosos en sustratos para plantas y se eligió la tierra, arena y aserrín. Con ellos y ceniza volcánica, se crearon 6 sustratos con diferentes concentraciones de éstos elementos y un control Sustrato 1 (S1): Tierra 60%, Arena 5%, Aserrín 5%, Ceniza 30% Sustrato 2 (S2): Tierra 60%, Arena 5%, Aserrín 10%, Ceniza 25% Sustrato 3 (S3): Tierra 60%, Arena 8%, Aserrín 12%, Ceniza 20% Sustrato 4 (S4): Tierra 60%, Arena 10%, Aserrín 15%, Ceniza 15% Sustrato 5 (S5): Tierra 60%, Arena 15%, Aserrín 15%, Ceniza 10% Sustrato 6 (S6): Tierra 60%, Arena 15%, Aserrín 20%, Ceniza 5% Control: Tierra 60% ,Arena 20%, Aserrín 20%, Ceniza 0% Se realizaron las siguientes pruebas de caracterización de suelos siguiendo el manual de laboratorio proporcionado por la universidad receptora: Densidad Aparente Densidad Real Medición de pH Conductividad eléctrica (CE) Textura de suelo Para el monitoreo de la germinación de las semillas de cilantro se mantuvieron en observación durante 20 días en lo cuales, cada día se regaban, se exponían al sol durante 1 hora. Se realizaron registros de temperatura de sustrato, número de semillas germinadas, elongación de la planta y número de hojas. Con esto se obtiene el porcentaje de supervivencia y se puede inferir cuál de los sustratos tiene el mejor porcentaje de éxito al germinar semillas.


CONCLUSIONES

En las pruebas de densidad aparente, S1 resultó ser el más denso con 1.0472 g/ml, mientras que el control fue el de menor densidad, 0.6286 g/ml, conteniendo la misma cantidad de aserrín y más arena que el S6. Por otra parte, S3 y S5 también muestran densidades por encima del promedio. La ceniza recolectada tuvo un pH de 6.79.  De acuerdo a esta propiedad se tienen dos tipos de suelo, el S1 presentó un pH de 7.78, mientras que el control y el resto de los sustratos presentan un pH entre 7.02 y 7.23. En cuanto a CE, S1 tiene 470. 67 µS/cm, el valor más alto obtenido en los 6 sustratos, y le secunda el control con 434.33  µS/cm. De este modo, se les considera suelos óptimos para varias plantas, mientras que el resto se toman como aceptables. En la prueba de textura resulto que todos los sustratos tenían en su composición un 95% o más de arena y en el triángulo de texturas todos se clasificaron en textura arenosa (A) se clasifica como textura gruesa. Con ésto se entiende que los sustratos tendrán una alta permeabilidad, mientras que la superficie específica para efectuar procesos químicos y físicos, la compacidad, la capacidad de cambio y la retención de agua son bajas; y el laboreo en suelos de textura gruesa son de dificultad  intermedia. Con el seguimiento que se hizo del desarrollo del cilantro se pudo observar que los sustratos S3 y S4 son los que tienen un mayor porcentaje de supervivencia (psv), del 70% y 60%, respectivamente; mientras que el sustrato control y el S1 tienen el psv más bajo, de tan solo el 20% . Los sustratos S3 y S5 tienen un psv del 40% y el S6 del 30%. En cuanto a la altura del tallo principal, se  alcanzó una altura promedio de 1.3 cm en S3 y de 1.44 cm en S4. Los resultados obtenidos de S3, con un 20% de ceniza en su composición, indican que fue el mejor de los sustratos preparados para la germinación de las semillas de cilantro. A dicho sustrato se le realizaron mediciones de CE y de pH en el día 20, obteniendo 91 µS/cm y 8.42, respectivamente.  REFERENCIAS Centro Nacional de Prevención de Desastres. (2022). Reporte del monitoreo del Cenapred al volcán Popocatépetl (mayo). Gobierno de México.  González-Naranjo, V., Leal, M., Lilo, J., De Bustamante, I. & Palacios-Díaz, P. (2012). Guía de caracterización edáfica para actividades de regeneración de aguas residuales en usos ambientales. Consolider Tragua. España. Sistema de Información Agropecuaria y Pesquera. (2023). Datos abiertos. Estadística de Producción Agrícola de 2022. Gobierno de México. [http://infosiap.siap.gob.mx/gobmx/datosAbiertos.php] Minasny, B., Fiantis, D., Hairiah, K., & Van Noordwijk, M. (2021). Applying volcanic ash to croplands - The untapped natural solution. Soil security, 3, 100006. https://doi.org/10.1016/j.soisec.2021.100006 Marcial, N. (2023). En San Pedro Cholula recogieron 900 toneladas de ceniza, ¿qué harán con ella? El Sol de Puebla.
Deniz Murillo Mario Alberto, Universidad de Colima
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

MODELADO DINáMICO Y CONTROL DE UN MANIPULADOR ESFéRICO DE 3 GRADOS DE LIBERTAD


MODELADO DINáMICO Y CONTROL DE UN MANIPULADOR ESFéRICO DE 3 GRADOS DE LIBERTAD

Deniz Murillo Mario Alberto, Universidad de Colima. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El objetivo del proyecto de verano de investigación fue desarrollar un simulador en MATLAB con SimScape para modelar y diseñar un brazo robótico de 3 grados de libertad del tipo esférico. El propósito era adquirir conocimientos sólidos en robótica y sistemas de control, preparándose para enfrentar desafíos tecnológicos en este campo. Se aplicaron conceptos de análisis de energías de los eslabones del manipulador y se empleó la norma euclidiana de vectores como otros conceptos para su modelado,asi como el uso de vectores para la planificación de trayectorias con polinomios de quinto orden.



METODOLOGÍA

El proyecto de verano de investigación se enfocó en el modelado dinámico y control del brazo robótico de 3 grados de libertad del tipo esférico. La metodología utilizada se detalla a continuación: Evaluación de la Planta: Se realizó una evaluación exhaustiva de la planta, analizando sus características físicas y dinámicas para entender su comportamiento y establecer una base sólida para el modelado. Uso de Observadores de Berghuis-Nijimeijer: Se emplearon observadores de Berghuis-Nijimeijer para estimar el estado del sistema y obtener información precisa sobre las variables no medibles. Esto permitió mejorar la estabilidad y el desempeño del control. Observador de Nicosia: Cuando el diferenciador numérico no fue adecuado para sistemas de primer orden, se implementó el observador de Nicosia para obtener estimaciones precisas y estables de las variables del sistema. Metodología de Euler-Lagrange: Se aplicó la metodología de Euler-Lagrange para el modelado dinámico del brazo robótico. Se consideró la cinemática directa del efecto final y los centros de masa de cada eslabón, lo que permitió realizar una cinemática por eslabón y obtener las velocidades de la cinemática para posteriormente obtener la rapidez utilizando la norma euclidiana, considerando vectores columna. Obtención de Energías Cinética y Potencial: Se calcularon las energías cinética y potencial del sistema utilizando las velocidades obtenidas en la etapa anterior. Esto proporcionó información crucial para la formulación de las ecuaciones de movimiento de Euler-Lagrange. Ecuaciones de Movimiento de Euler-Lagrange: A partir de las energías cinética y potencial, se obtuvieron las ecuaciones de movimiento de Euler-Lagrange, que describen el comportamiento dinámico del brazo robótico. Control PD+G: Se implementó un control proporcional-derivativo (PD) con compensación de gravedad para lograr un seguimiento preciso de las trayectorias deseadas en el brazo robótico. Este control permitió mejorar la estabilidad y la precisión del sistema. Planificación de Trayectorias con Polinomio de Quinto Orden: Se empleó el polinomio de quinto orden para la planificación de trayectorias, lo que permitió lograr movimientos suaves y precisos del brazo robótico durante sus tareas. Además, se diseñó el manipulador de 3 grados de libertad utilizando SolidWorks, para posteriormente importarlo a SimScape. De esta manera, se sustituyó el modelo teórico por el diseño del brazo robótico simulando su comportamiento físico de manera más realista. Esta integración del diseño en SimScape permitió validar y mejorar el rendimiento del sistema, lo que facilitó la implementación del control y la planificación de trayectorias de forma más precisa y efectiva en el brazo robótico real. Con esta metodología integral, se logró desarrollar un simulador en MATLAB con SimScape para modelar y diseñar el brazo robótico de 3 grados de libertad del tipo esférico, adquiriendo conocimientos sólidos en el modelado dinámico, control y planificación de trayectorias, lo cual preparó a los participantes para enfrentar desafíos en el campo de la robótica y sistemas de control.


CONCLUSIONES

El verano de investigación culminó con la adquisición de habilidades sólidas tanto teóricas como prácticas en el modelado, diseño y control de robots de 3 grados de libertad del tipo esférico. Los participantes del proyecto obtuvieron las capacidades necesarias para enfrentar desafíos en el ámbito de la robótica y sistemas de control, demostrando competencia en el uso de herramientas matemáticas como la metodología Euler-Lagrange. Finalmente, se logró desarrollar un simulador en MATLAB con SimScape, que permitió la realización de simulaciones y análisis para la planificación de trayectorias con polinomios de quinto orden en el brazo robótico.
Diaz Angel, Universidad de Guadalajara
Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz

CONTANDO UNA HISTORIA DE MIGRACIóN EN COLOMBIA: UNA EXPERIENCIA CON REALIDAD VIRTUAL


CONTANDO UNA HISTORIA DE MIGRACIóN EN COLOMBIA: UNA EXPERIENCIA CON REALIDAD VIRTUAL

Avila Avila Esperanza Margarita, Universidad Tecnológica de Nayarit. Diaz Angel, Universidad de Guadalajara. Zazueta Morales Kevin David, Universidad Tecnológica de Nayarit. Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

La crisis migratoria que afecta a Venezuela hacia Colombia es un fenómeno complejo que ha generado desafíos significativos en términos de un flujo migratorio descontrolado, así como importantes impactos socioeconómicos y la aparición de xenofobia y discriminación. Esta situación ha sido impulsada principalmente por la profunda crisis política, económica y social que ha experimentado Venezuela en los últimos años. Según la Organización Internacional para las Migraciones (OIM), se estima que más de 5 millones de venezolanos han abandonado su país desde aproximadamente el año 2015, siendo Colombia el país que ha recibido la mayor cantidad de migrantes venezolanos en comparación con otras naciones de América Latina y el Caribe. Por lo tanto, resulta fundamental comprender los desafíos que enfrenta Colombia y las implicaciones a corto y largo plazo de esta crisis migratoria. Es por esta razón que consideramos que el uso de tecnología de Realidad Virtual puede ser una herramienta invaluable para fomentar la empatía y sensibilización ante esta situación. La inmersión que brinda la Realidad Virtual puede ayudar a generar una mayor comprensión de la realidad de los migrantes y las dificultades que enfrentan, lo que permitirá una perspectiva más cercana y empática hacia sus circunstancias. No obstante, es importante destacar que la solución a la crisis migratoria va más allá de la empatía y la sensibilización. Se requiere una respuesta integral que incluya medidas políticas, sociales y humanitarias para abordar los retos que enfrentan tanto los migrantes como los países receptores. La cooperación internacional y el apoyo solidario son fundamentales para encontrar soluciones sostenibles a esta situación compleja.



METODOLOGÍA

Para llevar a cabo esta línea de investigación, fue necesario completar diversos cursos en la plataforma de Unity Learn, incluyendo VR Development, Roll-a-ball e Introduction to 3D Animations. Estos cursos nos proporcionaron los conocimientos y la lógica de programación necesarios para desarrollar diferentes escenas que narran la historia de una inmigrante venezolana en el puente fronterizo entre Colombia y Venezuela. Mediante la animación del Avatar, lipsync y la inclusión de objetos, creamos variaciones de las escenas con el fin de analizar cuáles generaban un mayor impacto en el usuario. En general, el proyecto consiste en un avatar que explica su razón para emigrar a Colombia, los sucesos que atravesó durante el proceso y cómo se estableció en el país vecino. Es importante mencionar que en este proyecto se abordaron temas clave como el diseño, la programación orientada a objetos, el uso de máquinas de estado y la implementación de animaciones. Este enfoque en el uso de Unity y las diferentes técnicas aplicadas permitieron crear una experiencia inmersiva y emotiva que busca generar empatía y conciencia en quienes interactúan con la historia de la inmigrante. Al combinar la tecnología de Realidad Virtual con una narrativa impactante, se logra transmitir de manera más efectiva la realidad y los desafíos que enfrentan los migrantes venezolanos al cruzar la frontera hacia Colombia.


CONCLUSIONES

En conclusión, el proyecto realizado durante el verano, que consistió en desarrollar una escena de Realidad Virtual basada en la historia de una migrante venezolana y las dificultades que enfrentó, ha sido una experiencia valiosa y enriquecedora en múltiples aspectos. A través de la creación de esta experiencia inmersiva, se logró adquirir un profundo conocimiento teórico y práctico en el desarrollo de Realidad Virtual, lo que incluyó el dominio de la lógica de programación y el diseño de escenas envolventes. Estos nuevos conocimientos representan una habilidad técnica relevante y actual, que pueden ser utilizados con aplicaciones potenciales en diversas áreas profesionales. Uno de los aspectos más significativos del proyecto fue su enfoque en contar la historia de la migrante, lo que permitió comprender de manera más cercana las dificultades y desafíos a los que se enfrentan quienes atraviesan procesos migratorios. La Realidad Virtual resultó ser una poderosa herramienta para fomentar la empatía y la sensibilización, ya que los usuarios podían prácticamente "ponerse en los zapatos" de la protagonista y experimentar de forma más íntima su realidad. Al abordar temas relacionados con la migración y la reducción de desigualdades, el proyecto contribuyó directamente al logro del Objetivo de Desarrollo Sostenible (ODS) número 10, que busca reducir las desigualdades dentro y entre países. La Realidad Virtual tiene el potencial de generar conciencia sobre los desafíos sociales y fomentar la solidaridad hacia las personas que enfrentan situaciones difíciles como las migrantes. En resumen, el proyecto de desarrollo de una escena de Realidad Virtual ha sido una experiencia enriquecedora tanto a nivel técnico como humano. Ha demostrado el poder de la tecnología para crear empatía y sensibilización en torno a temas sociales importantes, al tiempo que ha contribuido a abonar al cumplimiento del ODS de reducción de desigualdades. Este tipo de iniciativas creativas y concienciadoras son fundamentales para promover una sociedad más inclusiva y solidaria, y es una muestra del impacto positivo que puede tener la tecnología cuando se utiliza para el bienestar de la humanidad.
Díaz Barajas César, Universidad de Guadalajara
Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo

PROPUESTA DE HERRAMIENTAS PARA ESTABLECER LA CADENA DE SUMINISTRO DE RESIDUOS DE CONSTRUCCIóN EN BUCARAMANGA


PROPUESTA DE HERRAMIENTAS PARA ESTABLECER LA CADENA DE SUMINISTRO DE RESIDUOS DE CONSTRUCCIóN EN BUCARAMANGA

Díaz Barajas César, Universidad de Guadalajara. Hernández Echeverría Alejandra, Universidad de Guadalajara. Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La gestión de residuos de construcción es un desafío ambiental y económico que enfrentan muchas sociedades en la actualidad. A medida que la industria de la construcción crece y se desarrolla, la cantidad de residuos generados aumenta significativamente. Estos residuos incluyen materiales como concreto, ladrillos, madera, metal y plástico, entre otros, que resultan de la demolición, renovación y construcción de edificios e infraestructuras. El sector de la construcción contribuye a muchos de los impactos medioambientales. Según Barrientos (2016), la industria de la construcción es la principal consumidora de recursos en el mundo. Se estima que el 40% de la energía total y el 30% de emisiones de CO2 provienen de dicha industria. Veliz et al., (2022) menciona que los residuos de construcción y demolición (RCD) representan entre el 30 y 40% del total de residuos sólidos en el mundo. Además, en la última década la industria de la construcción fue responsable de la producción de más de 850 millones de toneladas de RCD al año, lo que corresponde aproximadamente al 36,4% de la producción total de residuos (Pimentel et al., 2022). También, la industria de la construcción genera la mayor proporción de emisiones de CO2 a nivel mundial, ya que el 23% del dióxido de carbono de las actividades económicas mundiales son causadas por este sector. (Luciano et al., 2022). En Colombia, grandes cantidades de residuos o escombros producto de la industria de la construcción son dispuestos en lugares inadecuados o son mal utilizados, como relleno en sitios que a futuro servirán como zonas de construcción de nuevas edificaciones, transformando estos espacios en terrenos inestables y muy difíciles de ser aprovechados (Acuña Garrido & Muñoz Yi, 2011). En Bucaramanga, al igual que en muchas otras ciudades, la generación de residuos de construcción y demolición (RCD) constituye un desafío ambiental y logístico significativo. La falta de una cadena de suministro eficiente para la gestión de estos residuos dificulta su adecuada disposición y aprovechamiento, lo que puede resultar en impactos negativos para el medio ambiente y la calidad de vida de los ciudadanos. El problema radica en la ausencia de estrategias y mecanismos efectivos para establecer una cadena de suministro de RCD en Bucaramanga. Actualmente, se observa una carencia de coordinación y colaboración entre los diferentes actores involucrados en la gestión de estos residuos, como las empresas constructoras, los proveedores de materiales, las empresas de demolición y los centros de reciclaje. Según Santos Marián et al., (2011) los residuos de construcción y demolición (RCD) generan impactos ambientales negativos en el medio inerte, biótico y humano. En el medio inerte, se observa el consumo de materias primas y energía, modificaciones geomorfológicas, contaminación de acuíferos, ríos y atmósfera. En el medio biótico, los impactos incluyen la pérdida de hábitat debido a la extracción y ocupación de suelos, así como la degradación de la calidad del suelo. En el medio humano, se destacan el ruido y las vibraciones del tráfico de vehículos pesados, la degradación paisajística en entornos naturales y urbanos, y la ocupación de suelos que podrían tener otros usos. La gestión adecuada de los RCD y la implementación de medidas sostenibles son importantes para mitigar estos impactos negativos.



METODOLOGÍA

Para este proyecto se utilizó una metodología cualitativa la cuál se dividió en 3 fases: Fase 1 Primeramente, se realizó una revisión de literatura relacionada al tema de investigación, donde se consultaron bases de datos multidisciplinarias de artículos y textos académicos. Tales como Scopus, Springer y ScienceDirect. Con la literatura revisada se recopilaron datos sobre la gestión de la cadena de suministro, los actores involucrados en la cadena de suministro de los residuos de construcción y las barreras en la gestión de RCD. Después, la información recabada fue expuesta y discutida en el aula de la Universidad de Investigación y Desarrollo. Realización de presentaciones y resúmenes de la literatura investigada. Fase 2 Establecimiento de las etapas de la cadena de suministro para la gestión de los residuos de construcción y demolición. Analizar cuáles son las etapas de una cadena de suministro y como se relaciona con la gestión de los RCD. Identificar las barreras que intervienen en la gestión de RCD. Fase 3 Planteamiento de instrumentos para establecer una cadena de suministro de los residuos de construcción y demolición. Elaboración de preguntas y planteamiento de entrevistas en formularios de Google.


CONCLUSIONES

Se identificó que los actores clave involucrados en la cadena de suministro de los RCD son las empresas de construcción, el gobierno, las compañías de recuperación de residuos, las empresas de transporte, cooperativas de recicladores, compañías de separación y operadores del vertedero. Todos los actores clave desempeñan roles cruciales para promover la sostenibilidad y la gestión eficiente de los materiales. Se estableció que las etapas de la cadena de suministro de los RCD son la generación, recolección, transporte, clasificación y separación, reciclaje, reutilización y disposición final. La cadena de suministro de RCD es importe para promover prácticas sostenibles, reducir el impacto ambiental y fomentar el reciclaje eficiente de materiales. Contribuye a la economía circular y ayuda a preservar los recursos naturales para un futuro más sostenible. Se proponen como instrumento el uso dos de encuestas, para las cuales se plantearon preguntas que permiten conocer la opinión de las empresas de construcción y de las empresas de recuperación y reciclaje para así poder establecer la cadena de suministro de los RCD en la ciudad de Bucaramanga.
Diaz Barrera Juan José, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Edith Adriana Méndez Saucedo, Instituto Tecnológico Superior de Guanajuato

DISEñO DE HORNO DE FUNDICIóN.


DISEñO DE HORNO DE FUNDICIóN.

Diaz Barrera Juan José, Instituto Tecnológico Superior de Guanajuato. Rivera Sanchez Marian Lizeth, Instituto Tecnológico de Querétaro. Asesor: Mtra. Edith Adriana Méndez Saucedo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las prácticas en la educación son muy importantes ya que permiten a los estudiantes el conocer cómo sería el ambiente de trabajo o de manera más cercana cual es el proceso industrial de algún producto. Uno de los procesos de manufactura más empleados en la industria es la fundición. Esta se encarga de llevar los metales hasta el punto de fusión, para que el metal adopte la forma deseada a través de un molde. De acuerdo con las necesidades de la institución se planea llevar a cabo la investigación y elaboración del diseño de un horno de fundición con fines educativos, para la materia de procesos de fabricación en la carrera de ingeniería industrial en el Instituto Tecnológico Superior de Guanajuato. El objetivo principal de esta investigación es diseñar un horno de fundición de acero de bajo costo, accesible y seguro para su uso en entornos educativos y de aprendizaje. Este proyecto permitirá a los estudiantes y a aquellos interesados en los procesos de fabricación involucrados en la producción de acero, adquirir una experiencia práctica y una comprensión más profunda de los principios fundamentales detrás de este proceso. Además, se pretende fomentar la creatividad y la experimentación en el ámbito de la metalurgia, abriendo las puertas a nuevas posibilidades en la formación y el desarrollo de futuros profesionales en el campo de la fabricación de acero. La investigación se centrará en el desarrollo de un horno de fundición de acero que cumpla con criterios específicos, como la capacidad de alcanzar temperaturas de fusión adecuadas y mantenerlas durante períodos prolongados, la seguridad del operador, la eficiencia energética y la facilidad de uso y mantenimiento.



METODOLOGÍA

Principalmente se realizó la definición del problema que se basa en el diseño de horno de fundición que ayudará en las prácticas de la materia de procesos de fabricación, ya que la institución busca mejorar las formas de enseñanzas en sus alumnos. Posterior a ello se llevó a cabo la revisión bibliográfica en revistas científicas, documentales, bibliotecas instituciones, páginas web y obtención de información con ayuda de profesionales en el tema de la fundición. El diseño experimental se llevó a cabo mediante la investigación de los antecedentes de diseño, como la temperatura y las variables relacionadas, así como la composición del acero, el tipo de combustible utilizado, el tiempo de fundición, materiales refractarios y el crisol. Después de esta investigación se llevó a cabo en el software de diseño Solid Works el diseño del horno de fundición con los parámetros necesarios. Una vez que se tiene el diseño del horno de fundición se procedió a realizar la simulación para entender el comportamiento de la temperatura dentro de este.


CONCLUSIONES

Durante la estancia en el verano de investigación Delfín 2023 se han logrado adquirir conocimientos teóricos sobre el tema de fundición y sobre la propiedad de los materiales, esto se ha puesto en práctica con el diseño de un horno de fundición en el software Solid Woks y la simulación de temperaturas. Se espera que este diseño sirva de práctica para los alumnos en la materia de Procesos de Fabricación.
Díaz Bonilla María Fernanda, Instituto Tecnológico de Colima
Asesor: Dra. Saira Georgina Moctezuma Gaytan, Instituto Tecnológico de Colima

PROPUESTA DE UNA ESTRATEGIA DE DIFUSION DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICOS DE LA INDUSTRIA 4.0


PROPUESTA DE UNA ESTRATEGIA DE DIFUSION DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICOS DE LA INDUSTRIA 4.0

Díaz Bonilla María Fernanda, Instituto Tecnológico de Colima. Asesor: Dra. Saira Georgina Moctezuma Gaytan, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, las instituciones públicas de nivel superior enfrentan desafíos significativos en cuanto a la difusión de su oferta educativa y servicios a través de medios digitales. La industria y educación 4.0 han traído consigo una revolución digital que ha transformado el paradigma educativo. Los estudiantes digitales buscan experiencias de aprendizaje más interactivas y personalizadas, lo que exige una adaptación efectiva por parte de las instituciones educativas. Sin embargo, a pesar de las oportunidades que ofrece la industria 4.0 en el ámbito educativo, muchas instituciones públicas de nivel superior aún no han logrado aprovechar completamente sus ventajas en la estrategia de difusión de contenido digital. Existen varios obstáculos que dificultan esta implementación. El primer problema es la falta de adaptación a las preferencias y demandas de los estudiantes digitales. Aunque la tecnología está disponible, muchas instituciones no han implementado adecuadamente herramientas como la inteligencia artificial, realidad aumentada o comunidades de práctica, que podrían mejorar la experiencia de los estudiantes y captar su atención de manera más efectiva. El segundo problema está relacionado con la competencia en el mercado educativo. La digitalización ha ampliado la oferta de educación en línea y otras alternativas, lo que compite directamente con las instituciones públicas de nivel superior. Sin una estrategia de difusión adecuada y el uso de tecnologías avanzadas, estas instituciones corren el riesgo de perder su posición competitiva y, por lo tanto, su sostenibilidad financiera. El tercer problema se centra en la optimización de recursos. Las instituciones públicas de nivel superior, en muchas ocasiones, tienen limitaciones presupuestarias, por lo que es crucial utilizar eficientemente los recursos destinados a la comunicación y difusión de la oferta educativa. El no emplear herramientas tecnológicas de la industria 4.0 de manera eficiente puede llevar a un gasto innecesario y tener menos impacto en el público objetivo. Ante estos desafíos, es esencial plantear una investigación que aborde la siguiente pregunta: ¿Cómo pueden las instituciones públicas de nivel superior aprovechar las herramientas tecnológicas de la industria 4.0? en su estrategia de difusión de contenido digital para mejorar la comunicación con los estudiantes digitales, destacar en el mercado educativo y optimizar los recursos destinados a la promoción de su oferta educativa?



METODOLOGÍA

La investigación propuesta tiene un enfoque cualitativo con un alcance correlacional. Su objetivo principal es identificar los canales de comunicación utilizados por los estudiantes para informarse sobre la oferta educativa y recopilar información relevante para la toma de decisiones en la creación de contenidos digitales y selección de herramientas eficaces de la industria 4.0. La metodología se basa en la aplicación de una encuesta digital al estudiantado del Instituto Tecnológico de Colima durante el periodo Enero - Junio 2023. Los datos recopilados se someterán a un análisis e interpretación detallados para obtener resultados significativos. Se consideraron como variables independientes los canales de comunicación y las características sociodemográficas del público objetivo. Conocer los canales más utilizados y las características de los estudiantes permitirá diseñar una estrategia de difusión efectiva y personalizada. Las variables dependientes incluyen las herramientas tecnológicas de la industria 4.0 y las estrategias de difusión de contenido digital. La implementación de tecnologías como el cloud computing y los chatbots, así como las estrategias de difusión adecuadas y aumentará el alcance de la oferta educativa.  


CONCLUSIONES

El uso de herramientas tecnológicas de la industria 4.0, empleadas en la difusión de los servicios educativos, puede optimizar los recursos disponibles de las instituciones de educación superior, ya que permiten llegar a un mayor número de usuarios de manera eficiente y efectiva, lo cual resulta especialmente relevante para las instituciones públicas, que deben hacer un uso eficiente de los recursos asignados.  La estrategia de difusión de la oferta educativa y demás servicios ofrecidos por las instituciones de educación superior es una práctica que fortalece la comunicación entre los diversos actores universitarios mejorando la escucha activa entre ellos, en ese sentido se coincide con los resultados de  Segura-Mariño (2018), que explica que las redes sociales se pueden emplear de manera estratégica en la comunicación universitaria, para mejorar y trabajar la escucha activa con la comunidad interna y externa, favoreciendo la percepción que la sociedad tiene sobre ellas, así como también favorece el incremento de estudiantes matriculados al destacar  su  presencia  respecto a otras instituciones similares con presencia en redes sociales.
Díaz Cornejo Jorge Angel, Instituto Tecnológico de Morelia
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

MLOPS (MACHINE LEARNING OPERATIONS) IMPLEMENTATION


MLOPS (MACHINE LEARNING OPERATIONS) IMPLEMENTATION

Díaz Cornejo Jorge Angel, Instituto Tecnológico de Morelia. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

El Machine Learning ha demostrado ser una herramienta para resolver una variedad de problemas en distintas áreas. Se ha vuelto crucial crear modelos precisos, así como garantizar su implementación efectiva y segura en entornos de producción a medida que aumenta la adopción del Machine Learning. Aquí es donde entra en juego MLOps (Machine Learning Operations), la disciplina que combina las mejores prácticas de desarrollo de software y DevOps con la gestión del ciclo de vida del Machine Learning. Uno de los aspectos clave del entrenamiento de un modelo de Machine Learning es el ajuste de hiperparámetros, que intenta encontrar la mejor configuración para maximizar el rendimiento del modelo para una tarea determinada. El ajuste de hiperparámetros ha sido realizado manualmente por los desarrolladores del modelo, confiando en su intuición y conocimiento para lograr resultados satisfactorios. Hoy, sin embargo, con la creciente complejidad de los modelos y la disponibilidad de datos masivos, los métodos manuales pueden no ser suficientes y, en algunos casos, incluso contraproducentes. El ajuste manual de hiperparámetros implica cambiar repetidamente los valores de hiperparámetros del modelo hasta que se logre un rendimiento aceptable en los datos de entrenamiento y validación. Sin embargo, esta práctica tiene algunas limitaciones e inconvenientes como el consumo de tiempo y recursos, no obstante, este proceso se puede automatizar y realizar de manera más eficiente con MLOPs.



METODOLOGÍA

Utilizando la plataforma Azure Machine Learning y la disciplina MLOps, se siguió la documentación proporcionada por Microsoft Azure para entender los conceptos fundamentales de la gestión del ciclo de vida del aprendizaje automático. El objetivo principal era familiarizarse con el entorno de Azure ML y aprender cómo levantar un modelo de aprendizaje automático de manera eficiente y reproducible. Posteriormente, se procedió con un proyecto sencillo en el cual se experimentó con la configuración del entorno de desarrollo en Azure ML Studio, donde se crearon los recursos necesarios, como el área de trabajo, los cuadernos Jupyter, los conjuntos de datos. En esta etapa de la metodología, se procedió a crear un proyecto de optimización de hiperparámetros utilizando Azure ML. El objetivo principal era mejorar el rendimiento del modelo de aprendizaje automático mediante la búsqueda sistemática de la combinación óptima de hiperparámetros en un modelo de ejemplo proporcionado por la documentación de Azure ML.   A consecuente se llevaron a cabo pruebas de entrenamiento de modelos en proyectos del laboratorio CV-INSID de la institución. El objetivo principal era evaluar el rendimiento de diferentes modelos de visión por computadora en un proyecto específico para la clasificación de piedras renales por medio de Machine Learning. Además, se abordó la problemática surgida por la deprecación de varias librerías utilizadas en los modelos. Esto implicó la revisión y actualización del código de los modelos para reemplazar las librerías obsoletas por versiones más recientes o alternativas compatibles. Por último, se llevó a cabo el proceso de implementación, validación y visualización de resultados de entrenamientos y optimización de hiperparámetros del proyecto anterior a Azure ML. Primero, se procedió a implementar los modelos previamente desarrollados y optimizados en el entorno de Azure, lo que incluyó la configuración y la integración.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en varios aspectos cruciales del aprendizaje automático y el desarrollo de proyectos de Machine Learning, así como la gestión e implementación de modelos de aprendizaje automático de manera confiable y eficiente (MLOPS). No obstante, durante la implementación del proyecto a Azure Machine Learning, se encontraron unos problemas de versiones del código, lo que me detuvo por unas dos semanas mientras se corregían los errores, de igual manera no se pudo ejecutar de manera exitosa en este nuevo entorno de Azure. No obstante, el proceso general para la automatización está definido, y se espera producir un documento de investigación, donde se comenten todos los resultados encontrados, así como la implementación de un nuevo modelo con las practicase de MLOPs, en este caso la optimización de hiperparámetros.
Díaz Durango Carmen Daniela, Universidad Tecnológica De Bolívar
Asesor: Mg. Blanca Judith Cristancho Pabon, Universidad de Pamplona

ENERGíAS ALTERNATIVAS Y CALIDAD DE LA ENERGíA ELéCTRICA


ENERGíAS ALTERNATIVAS Y CALIDAD DE LA ENERGíA ELéCTRICA

Díaz Durango Carmen Daniela, Universidad Tecnológica De Bolívar. Martinez Martinezz Mariana, Instituto Tecnológico de Pachuca. Asesor: Mg. Blanca Judith Cristancho Pabon, Universidad de Pamplona



PLANTEAMIENTO DEL PROBLEMA

La certificación de equipos garantiza a los consumidores que los productos cumplen con altos estándares de calidad y rendimiento, reduciendo así el riesgo de fallos y problemas a lo largo de la vida útil del sistema solar. En Colombia, la certificación de equipos solares es un requisito legal para acceder a incentivos, subsidios y programas de apoyo gubernamental relacionados con la energía solar. También es fundamental para cumplir con los requisitos de instalación establecidos por las compañías eléctricas y las normativas de construcción. La mayor problemática que se presentan en este tipo de trastornos es la certificación de cada uno de los componentes del sistema, así como el funcionamiento y el mantenimiento que integra cada sistema fotovoltaico. 



METODOLOGÍA

La metodología del proyecto constó de varias fases para el estudio de los sistemas fotovoltaicos instalados en los edificios Jorge Eliécer Gaitán y Virgilio Barco Vargas. En la primera fase, se identificaron y reconocieron los componentes de los sistemas fotovoltaicos. Para ello, se llevó a cabo una inspección de los paneles solares y de los cuartos eléctricos de ambos edificios. Posteriormente, se procedió a verificar la información técnica de los sistemas fotovoltaicos mediante la revisión de los contratos correspondientes. En esta parte, se examinó si los elementos establecidos en el contrato fueron los mismos que se instalaron. Esta información se recopiló durante semanas y se capturó en una hoja de cálculo (Excel). Algunos equipos, como los paneles, el inversor, el transformador y los gabinetes, se les añadió un plan de mantenimiento. A partir de la información obtenida, se realizaron los planos del sistema, dentro de los cuales se incluyen los diagramas unifilares, la puesta a tierra, la ubicación, los riesgos eléctricos, entre otras cosas. En esta fase, se tuvieron en cuenta las conexiones, la instalación y las características de los equipos para evaluar posibles fallas y consecuencias de los sistemas. A partir de lo anterior, establecieron precauciones y prevenciones en algunos casos. Ambos sistemas se modelaron y simularon en el programa PVsyst, teniendo en cuenta las características del edificio, de los equipos y del medio ambiente. Con esto, buscamos conocer el rendimiento del sistema en diversas condiciones. A continuación, se procedió a armar las memorias de cálculo para cada sistema. En esta etapa, se diseñaron y realizaron los cálculos y análisis requeridos por la RETIE, buscando garantizar que los equipos instalados cumplan con la normatividad y sean seguros. Además, se tuvo en cuenta la capacidad del sistema, cuánto de esto consume el edificio y cuánto puede ser inyectado a la red. Finalmente, se concluyó la recolección de todos los archivos, estableciendo las observaciones y adecuaciones que se deben hacer en ambos sistemas para lograr la certificación. En general para llevar a cabo el trámite de certificación, se aplicaron técnicas de investigación para recabar información sobre los diferentes fabricantes y modelos de paneles solares instalados, se evaluaron aspectos como la disponibilidad de conexión de los generadores, el cálculo y diseño del sistema fotovoltaico.


CONCLUSIONES

Al finalizar el proyecto, se realizó una exhaustiva revisión de los sistemas instalados en ambos edificios con el objetivo de obtener la certificación necesaria para garantizar su calidad y conformidad con los estándares requeridos. Sin embargo, se identificaron ciertas deficiencias y problemas en ambas instalaciones que impidieron obtener la certificación de conformidad RETIE en su estado actual. En el caso del edificio Virgilio Barco Vargas, bajo el contrato N° 2064, se encontraron varios aspectos que requerían atención. Se descubrió que una canaleta no tenía el certificado de conformidad RETIE, lo que representa un incumplimiento importante de las normas de seguridad. Además, se detectaron empalmes en algunos cables y las protecciones DC estaban conectadas incorrectamente, lo que podría afectar el rendimiento y la seguridad del sistema. Un aspecto preocupante fue la falta de información sobre el lugar de la puesta a tierra del sistema y sus especificaciones, lo que es fundamental para garantizar una operación segura y eficiente. Por otro lado, en el edificio Jorge Eliecer Gaitán, bajo el contrato N° 2077, también se encontraron problemas que requerían atención inmediata para obtener la certificación. Se detectó que el tablero de protecciones estaba desconectado, y en su lugar, se utilizaron protecciones de un sistema anterior, lo cual es una práctica inadecuada y poco segura. Además, se carecía de información detallada sobre las características de algunos equipos, lo que dificulta la evaluación de su conformidad con las normas. Asimismo, se constató que el certificado de conformidad RETIE de los paneles solares había vencido, lo que representa un riesgo y una limitación para la certificación general del sistema. Al igual que en el otro edificio, la falta de información sobre la puesta a tierra también fue un inconveniente en este caso. A pesar de las problemáticas identificadas en ambos edificios, el informe concluyó que era factible realizar las adecuaciones sugeridas en la documentación entregada a la universidad. Estas modificaciones son fundamentales para que en el futuro se pueda obtener la legalización y certificación de los sistemas solares. Se recomendó llevar a cabo este proceso durante el presente año para mantener la certificación de conformidad RETIE válida en algunos componentes, y así asegurar la calidad y seguridad de las instalaciones. En resumen, el proyecto de certificación de paneles solares en los edificios Virgilio Barco Vargas y Jorge Eliecer Gaitán reveló deficiencias que impidieron la obtención de la certificación en las condiciones actuales de ambos sistemas. Sin embargo, con las adecuaciones sugeridas y la revisión de todos los aspectos relevantes, es posible alcanzar en el futuro la legalización y certificación de las instalaciones, garantizando así un sistema de energía solar confiable, seguro y eficiente para ambos edificios de la Universidad de Pamplona, Norte de Santander, Colombia.
Diaz Espinoza Maximiliano, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano

ANALYZING PRODUCT RECALL MANAGEMENT USING FUZZY COGNITIVE MAPS


ANALYZING PRODUCT RECALL MANAGEMENT USING FUZZY COGNITIVE MAPS

Diaz Espinoza Maximiliano, Tecnológico de Estudios Superiores de Tianguistenco. Solorzano Sharon, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

A pesar de los esfuerzos realizados por las empresas para garantizar la calidad y seguridad de sus productos, los casos de product recall siguen siendo una preocupación constante en el mercado actual. Estas situaciones pueden surgir debido a diversos factores, como fallas en el diseño o la fabricación, problemas con los materiales utilizados, falta de cumplimiento de regulaciones o incluso cambios en las normativas que exigen estándares más estrictos. La naturaleza compleja e impredecible de estos eventos dificulta su manejo adecuado. En la actualidad, los enfoques tradicionales para el análisis de product recall se basan principalmente en métodos cuantitativos y cualitativos rígidos, que no siempre capturan la incertidumbre, ambigüedad y subjetividad asociadas con las percepciones y decisiones humanas. Esto puede llevar a una comprensión limitada de cómo los diferentes grupos de interés reaccionan ante un retiro de producto y cómo esta percepción influye en la magnitud del impacto en la empresa y la confianza del consumidor. Por lo tanto, el problema principal que se abordará en esta investigación es: ¿Cómo mejorar el análisis del product recall para comprender de manera más precisa y completa las percepciones y decisiones de los consumidores, la industria y otros actores clave, utilizando mapas cognitivos difusos como una herramienta para representar la incertidumbre y la subjetividad asociada a estas situaciones?



METODOLOGÍA

La metodología utilizada para analizar las variables de control de calidad del proceso mediante mapas cognitivos consta de cinco etapas (Fig. 2). En la primera etapa, se definen las variables del modelo, considerando las variables de proceso y variables de salida frecuentemente monitorizadas por un programa estadístico de control de calidad. En la segunda etapa, se recogen datos sobre el comportamiento de las variables del proceso y se lleva a cabo un análisis de correlación para determinar la relación causal. La matriz de correlación obtenida se convierte en las matrices de adyacencia como entradas del modelo.  En el tercer paso, se elabora el mapa cognitivo difuso de los datos recolectados en el análisis de la retirada del producto del mercado en partes diversas de motocicletas. Las variables del modelo se agrupan en un mapa y se vinculan mediante arcos con los valores de la matriz de adyacencia. En el cuarto paso, se evalúa el comportamiento dinámico real del modelo se evalúa realizando el proceso de inferencia, aplicando (1) y (2). Por último, en el quinto paso, se realiza el análisis de convergencia de FCM, clasificando las variables de proceso que afectan a la variable de respuesta según el valor final de sus vectores  


CONCLUSIONES

Para la aplicación del modelo se realizó el análisis con una base de datos obtenida en dos años y medio (29 meses) de trabajo en una empresa ensambladora de motocicletas por fallas en el ensamblaje de piezas. Las variables de proceso son el costo unitario total del carenaje (C1), el costo unitario total del chasis (C2), el costo unitario total de frenos (C3), el costo unitario total de guayas (C4), el costo unitario total del motor (C5), el costo unitario total de piezas generales (C6), el costo unitario total de las ruedas (C7), el costo unitario total del sistema eléctrico (C8) y el costo unitario total de la suspensión (C9). La variable de salida corresponde al costo total (Y). Todas las variables de proceso y la característica de calidad se miden en USD. Al retirar productos defectuosos de manera oportuna y precisa, se puede reducir el impacto negativo en los consumidores. Esto incluye posibles riesgos para la salud, insatisfacción del cliente y daño a la reputación de la marca. La utilización de mapas cognitivos difusos ayuda a identificar rápidamente los productos afectados y tomar medidas correctivas, no obstante, los mapas cognitivos difusos permiten asignar de manera eficiente los recursos disponibles para la retirada de productos defectuosos. Al comprender mejor los riesgos y la magnitud de los problemas, se puede planificar y ejecutar la retirada de manera más efectiva, minimizando costos y maximizando los resultados. La utilización de mapas cognitivos difusos en el proceso de retirada de productos defectuosos puede ofrecer beneficios significativos. Estos mapas permiten analizar y representar de manera más completa y comprensible la información subjetiva y difusa involucrada en la decisión de retirada. Así, se facilita la identificación de las áreas críticas, priorización de acciones y estimación de riesgos de una manera más efectiva, lo que contribuye a una gestión más eficiente y segura del proceso de retirada del producto defectuoso. Sin embargo, es importante destacar que el éxito de este enfoque dependerá en gran medida de la calidad de los datos y la experiencia en la construcción y el mismo análisis de los mapas cognitivos difusos aplicando correctamente la metodología. .  
Diaz Fermin Karina, Universidad Mexiquense del Bicentenario
Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México

EL PROCESAMIENTO DEL LENGUAJE NATURAL SOBRE LA LITERATURA, EL ANáLISIS DE LAS PALABRAS


EL PROCESAMIENTO DEL LENGUAJE NATURAL SOBRE LA LITERATURA, EL ANáLISIS DE LAS PALABRAS

Diaz Fermin Karina, Universidad Mexiquense del Bicentenario. Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los libros que los jóvenes leen suelen ser novelas de romance, ciencia ficción, aventura, terror o libros de autoayuda que se desarrollan en un ambiente donde se promueve la violencia, el acoso sexual, la discriminación, el bullying entre otros temas, que, en lugar de fomentar una educación más completa, valores y principios que creen ciudadanos con conciencia, responsabilidad y ética, lo que se está forjando en los jóvenes es todo lo contrario, por lo que la problemática radica en el hecho de no estar al tanto de lo que los jóvenes leen y por ende la perspectiva que los jóvenes van adoptando no es la correcta, puesto que tratan de imitar lo que sus novelas favoritas o personajes favoritas realizan.



METODOLOGÍA

Dentro de la metodología se implementa el sistema de componentes del procesamiento de lenguaje natural, anteriormente descrito, para abordar la problemática de este proyecto y encontrar una solución. Como primer punto se ingresa a Google Colab para comenzar a programar, dentro de este se abre un cuaderno y se conecta con Drive, que es la fuente de donde se obtienen las reseñas de los libros que serán analizados. Posteriormente, se manda a traer de Drive el archivo en donde se encuentra almacenada la reseña del libro, recordar que el lenguaje de programación que utiliza Google Colab es Python, así mismo, se lee e imprime el archivo. Una vez concluida esta parte, se inicia el procesamiento de texto, el cual consiste en la eliminación de caracteres no necesarios en el texto, para esto se utilizan expresiones regulares y librerías como re, que permiten este proceso. Aunque del texto ya se han eliminado caracteres innecesarios, aún hace falta deshacerse de las palabras vacías, por lo tanto, es lo que se procede a realizar. Posteriormente se deben de estandarizar palabras que normalmente son abreviadas por los autores y así mismo eliminar los ruidos, que son los guiones medios o dos puntos a fin de ir limpiando el texto y que pueda ser analizado correctamente. Antes de pasar a la identificación de es necesario quitar los acentos y convertir el texto en minúsculas para que sea más factible la identificación de las palabras. Finalmente, se llega al punto de la identificación de palabras que denoten violencia, acoso sexual, discriminación o bullying dentro de las reseñas de los libros, para lo cual se crea un código que identifique palabras relacionadas y las muestre conforme a su categorización, en caso de que haya palabras que se repitan más de una vez, solo se mostrara una vez, para evitar confusiones y con la finalidad de que el resultado sea preciso. El hecho de poder identificar estas palabras es precisamente para visualizar el tipo de contenido que manejan los libros que los jóvenes leen.


CONCLUSIONES

La creación del programa que detecta las palabras que denotan violencia, acoso sexual y discriminación cumple con su objetivo y permite analizar las reseñas de los libros e identificar el contenido que maneja cada ejemplar, a fin de indagar sobre lo que los jóvenes leen normalmente y tomar las medidas necesarias, para evitar que la formación de los jóvenes se vea influenciada por personajes ficticios que no tienen valores ni principios y al contrario, hacen ver normal vicios como fumar, drogarse, violentar a las personas y que con el tiempo no van forjando buenos ciudadanos. La implementación de este programa beneficiaría tanto a los profesores, padres de familia y a los mismos jóvenes para detectar el contenido que maneja cada libro.
Díaz Ibarra Jatsiry Citlally, Instituto Tecnológico de Tepic
Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer

MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS


MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS

Díaz Ibarra Jatsiry Citlally, Instituto Tecnológico de Tepic. Gutiérrez Cervantes Silvia Marlene, Instituto Tecnológico Superior de Irapuato. Herrera Diaz Ailed Lourdes, Instituto Tecnológico de Tepic. Juárez Ochoa Carmen Andrea, Instituto Tecnológico Superior de Irapuato. Mancilla Flores Lizeth Berenice, Universidad de Guadalajara. Ramírez Ulloa Abraxis Baruch, Instituto Tecnológico de Tepic. Savalza Castillo Karla Veronica, Universidad Autónoma de Nayarit. Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer



PLANTEAMIENTO DEL PROBLEMA

En la actualidad Colombia está enfrentando diversos retos a nivel del comercio internacional debido a las diferentes fuerzas que trae la globalización y que han llegado para transformar como se producen, los diferentes productos servicios que necesitan los consumidores, de igual manera, representa una oportunidad para que las empresas nacionales desarrollen estrategias con el propósito de lograr mayor productividad y competitividad en un mercado compuesto por clientes mucho más exigentes en cuanto a sus preferencias y necesidades. La globalización es parte esencial cuando se habla de competencia y actualización de metodologías, debido a que las empresas nacionales tienen la posibilidad de renovar sus procesos con el fin de automatizarlos como lo hacen algunas  empresas extranjeras, aunque se debe destacar que la entrada de nuevas tecnologías no se debe relacionar con la salida de capital humano.  La reingeniería de procesos está relacionada con la reducción de costos y aumento de utilidades, pero no con el recorte de personal como la gente lo supone. Las empresas en Colombia tienen tiene solo una opción en su planeamiento estratégico: es involucrase decididamente en procesos de transformación tecnológica con el fin de lograr estándares mundiales de alto nivel con el fin de lograr su sostenibilidad en el tiempo.



METODOLOGÍA

Tener casos de éxito en la adaptación a las megatendencias en el sector empresarial es fundamental, por lo que cuando se realizó una visita pedagógica  en la empresa Cohan: (Cooperativa de Hospitales de Antioquia), donde se pudo observar cómo se desarrolló un proyecto de automatización en sus procesos de venta, el personal directivo logró la implementación de almacenes verticales automatizados  para la optimización de procesos de picking y dicha implementación fue exitosa tanto así que sus ventas y tiempos de entrega mejoraron drásticamente. Antes la entrega de un pedido podía durar hasta 8 días para llegar al cliente final, ahora se entrega en 24 horas y lo más importante de todo, no salió ningún auxiliar de sus operaciones lo que la hacen un ejemplo a seguir de muchas empresas Colombianas de su sector ya que, tomaron las megatendencias a su favor y decidieron adaptarse a por medio de la tecnología. Como se ha dado a conocer, los recursos son siempre escasos y por ello es necesario invertir en aquellos proyectos que le den a la empresa la mayor rentabilidad posible tal como lo hizo la empresa Cohan, la tecnología en sí misma no es la solución, pero haciendo una planeación adecuada, la tecnología agrega valor, ayuda a que nuestras operaciones sean más eficientes, eviten errores y reduce los costos operativos y tiempos logísticos, estos elementos hacen que un proyecto sea rentable. En este caso, debemos estar plenamente convencidos de la relación entre la inversión y el sistema de almacenamiento que necesitamos. También, visitamos una de la empresa más representativas de la industria del Café en Colombia, Colcafé; esta es la primera empresa colombiana de café en exportar café en  diferentes presentaciones. Esta empresa en su proceso implementa un software con el cual se escanea el código de barras que está colocado en el pallet con la carga de mercancía, al momento de escanearlo arroja una ficha técnica, donde se especifica el historial del producto, es decir, detallando datos importantes como si será exportado o será distribuido a nivel nacional, y en caso de ser exportación nos indica el país de destino.


CONCLUSIONES

Con base en la información proporcionada, es importante destacar que las megatendencias globales tienen un impacto significativo en la eficiencia logística de las empresas colombianas. Las megatendencias son fuerzas transformadoras a gran escala que afectan a nivel mundial y que generan cambios importantes en la sociedad, la economía y la tecnología. Cada una de las empresas que se visitaron y evaluaron, implementan de forma distinta las megatendencias, sin embargo, todas lo realizan con la misma finalidad que es eficientizar y optimizar sus procesos. Algunas de las megatendencias globales relevantes para la eficiencia logística en Colombia incluyen la globalización, los cambios demográficos, la variabilidad y cambio climático, la escasez de recursos, la hiperconectividad, el traslado de los ejes del poder, y la urbanización. Estas tendencias han dado lugar a desafíos y oportunidades para las empresas que operan en el país, especialmente en el ámbito logístico. En conclusión, las megatendencias globales están transformando la forma en que las empresas colombianas abordan la eficiencia logística. Aquellas que logren adaptarse y aprovechar las oportunidades que estas tendencias ofrecen, a través de la implementación de tecnologías avanzadas, prácticas sostenibles y estrategias innovadoras, estarán en una mejor posición para mantenerse competitivas y satisfacer las demandas cambiantes de un mercado globalizado y en constante evolución. La colaboración entre el sector público y privado también es esencial para superar los desafíos logísticos y mejorar la infraestructura, lo que contribuirá en última instancia al crecimiento económico y desarrollo sostenible del país.
Díaz López Javier Ignacio, Universidad de Guadalajara
Asesor: Dr. Erick Axel Padilla García, Universidad Politécnica de Atlacomulco

PRóTESIS MECATRóNICA


PRóTESIS MECATRóNICA

Díaz López Javier Ignacio, Universidad de Guadalajara. Moreno Bautista Natalie Xiomara, Universidad de Guadalajara. Segura Gallegos Luis Arturo, Universidad de Guadalajara. Asesor: Dr. Erick Axel Padilla García, Universidad Politécnica de Atlacomulco



PLANTEAMIENTO DEL PROBLEMA

Una amputación es la separación o corte de un miembro o una sección del cuerpo de un ser vivo a través de una cirugía quirúrgica. De acuerdo con la Academia Nacional de Medicina de México (ANMM), en nuestro país se efectúan aproximadamente 75 amputaciones diarias; es decir más de 25 mil personas al año sufren la escisión de alguna de sus extremidades. La pérdida de un miembro generalmente tiene un impacto psicológico en las personas, así como social, pues al faltarles un miembro se consideran incapaces de realizar ciertas actividades y/o trabajos robustos, creando así un incremento en el porcentaje de desempleados. Una prótesis reemplaza al miembro perdido de forma artificial, mejorando así la comodidad, la estabilidad y permitiendo el desempeño de varias actividades al usuario. El objetivo de la realización de las prótesis es poder proporcionar al usuario una solución para los problemas que la pérdida del miembro puede provocar y el diseño de la misma se debe adaptar a las necesidades de cada paciente. En este caso se planteó la problemática de un paciente con una amputación de tipo transradial con ambos impactos post-amputación y se trabajó con la finalidad de ofrecerle al usuario una calidad de vida lo más parecida a la que tenía antes de la pérdida del miembro.



METODOLOGÍA

Para el desarrollo del proyecto se utilizó la metodología científica llamada diseño mecatrónica secuencial/iterativo. Se basa en obtener las necesidades del paciente para posteriormente realizar propuestas del sistema físico, las cuales pueden ser: mecánica, eléctrica, de sensores, electrónica y/o de instrumentación. Cuando se pasa a la fase de pruebas se evalúa el desempeño del control, del GUI, del software y de las señales que retroalimentan al sistema de control (señales feedback). Si el resultado de la fase de pruebas es satisfactorio el diseño se da por terminado, de lo contario, se realizará una nueva iteración; es decir, comenzar a revisar nuevamente las necesidades del paciente, luego realizar modificaciones al sistema físico y finalmente las modificaciones al desempeño. Este proceso se repetirá las veces que sea necesario hasta lograr un sistema satisfactorio. Se propusieron dos modelos de prótesis con la finalidad de que cada uno solucione las dos problemáticas post-amputación que se generan. El primer modelo propuesto es una mano con dedos articulados, esto con la finalidad de satisfacer de alguna forma el vacío psicológico del usuario por la falta del miembro y lograr la sensación de normalidad que la depresión puedo minimizar. Sin embargo, este tipo de diseños tienen un enfoque principalmente estético, por lo que cuentan con motores pequeños que no permiten el desempeño de actividades o trabajos más robustos o que requieran de mayor fuerza que se presentan en su día a día, como lo sería cargar la bolsa del súper. Es por ello que nuestro segundo modelo propone una garra motorizada que proporcione al usuario la facilidad de sostener y/o empujar elementos pesados. Para el diseño ambos modelos de prótesis se utilizó el método anteriormente mencionado, dentro del cual dividimos la realización del proyecto en dos fases: Diseño del artefacto físico y evaluación del desempeño del mismo. Para la primera fase se subdivide en 3 etapas: Planificación: En esta etapa se definió el propósito que tendría que cumplir cada modelo. Análisis y diseño: En esta etapa se evalúa la necesidad del usuario para definir el nivel electrónico que tendrán los modelos, es decir si requería un nivel meramente electromecánico o si era conveniente el diseño de un modelo biónico. Después del análisis, vienen las propuestas, se propone primeramente un diseño mecánico, posteriormente se consideran los actuadores convenientes, así como los sensores. El diseño de las partes de la prótesis se realizó en programas de diseño 3D como fueron SolidWorks para el diseño de la garra que requería mayor precisión en la geometría y Fusión 360 para diseños más orgánicos como la mano articulada. La impresión de las partes se realizó con ayuda de una impresora 3D con un filamento de materia PLA y para las partes flexibles de las articulaciones de la mano fue con un filamento de tipo TPU. Implementación: En esta etapa se ejecutó de forma física todo el diseño teórico previo y se incluyó el circuito eléctrico. Para el circuito de la mano se requirió un arduino nano y 5 servomotores (uno por dedo), y para la garra se utilizó un sistema de engranajes que eran empujados por un motor MG995. Para la segunda fase se subdivide en 2 etapas: Pruebas: En esta etapa se realizaron diversas pruebas con el artefacto en el usuario para lograr los ajustes necesarios en las propuestas de control, el cual fue un control de tipo PID así que solo se tuvo que ajustar las ganancias del mismo. Evaluación y revisión: En este caso quien midió la factibilidad fue el paciente y en los casos de no satisfacerla se revisó y modificó el diseño, después se volvió a realizar las pruebas pertinentes para la nueva evaluación. Terminamos de iterar hasta que el producto se consideró útil para el paciente.


CONCLUSIONES

Se logró adquirir conocimientos teóricos sobre las amputaciones, las prótesis y sensores biológicos, además del conocimiento práctico del proceso de diseño rústico y digital de una prótesis con el uso software para amputaciones de tipo transradial. También se adquirieron habilidades de investigación basándonos en el método secuencial iterativo, con el que se pudo establecer un plan de trabajo eficiente, sin embargo, por limitaciones de algunos recursos por la ubicación geográfica de la estancia, nos retrasó el conseguir los materiales pertinentes y no se logró llegar a la etapa de implementación de un control con sensores bilógicos quedando así una prótesis mecatrónica en lugar de la prótesis biónica planeada.
Diaz Manzano Miguel Angel, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara

DETECCIóN DE ENFERMEDADES EN LA VEGETACIóN USANDO RASPBERRY PI


DETECCIóN DE ENFERMEDADES EN LA VEGETACIóN USANDO RASPBERRY PI

Diaz Manzano Miguel Angel, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Por el momento, se a pasado por alto en la mayor parte de la población la importancia y la difícil forma de saber acerca de la salud de la vegetación, ya sea por que lo que consiste en que viene desde la propagación de plagas hasta el peligro que puede representar lo que conlleva que un árbol esté en decadencia de su salud, ya que es difícil de saber esto sin contar con algún equipo especializado para la detección temprana de enfermedades, o bien sin contar con la experiencia de identificarlos de manera autónoma. Gracias a las herramientas con las que contamos hoy en día se puede llevar a cabo este proceso, utilizando una Raspberry Pi, y teniendo alguna imagen con un filtro de infrarrojo cercano para posteriormente se le aplicara un filtro NDVI (Índice de Vegetación de Diferencia Normalizada), para que al finalizar nos arrojará el nivel de salud que presenta nuestra imagen antes tomada ya sea a una planta o a un árbol. Generando un código de colores indicando la longitud de onda en la que se encuentra.



METODOLOGÍA

Se tendrá que instalar primeramente python 3 con los siguientes comandos: sudo apt install python3 idle3 En este proyecto s eocuparan distintas librerias entre de ellas OPENCV la cual se puede instalar gracias a una pagina en donde nos puede proporcionar el comando solicitado [7].: sudo pip3 install -U numpy sudo apt install libatlas-base-dev sudo apt install libdatrie1  La transformación de una imagen NDVI a menudo resulta difícil para los humanos debido a la sutileza de los tonos de gris. Para mejorar la visualización, se aplica un proceso de mapeo de color que asigna colores específicos a diferentes rangos de brillo. En este caso, la imagen se convierte utilizando el mapa de colores Fastie, que transforma píxeles oscuros en blancos y desplaza gradualmente los colores hacia el espectro para píxeles más brillantes. Como resultado, los píxeles grises oscuros se vuelven azules y los píxeles brillantes se tornan rojos, logrando una representación visual más distintiva y comprensible. Este proceso se ilustra en cinco etapas, desde la imagen original hasta la imagen final en colores . Se descarga el mapa de colores fastiecm.py. y se guarde en el mismo lugar del codigo. Se importa en nuestro código las librerías y el mapa de colores. Se determinan los rangos de colores en el sistema HSV que se quieren detectar en la imagen. Debido a que una imagen de una cámara digital, que también mostró luz infrarroja, se vería un poco extraña para el ojo humano, se les agregaron filtros especiales para que la luz infrarroja no pueda alcanzar el sensor, las imagenes seran tomadas propiamente tomadas desde el Module Camera PiNoir. Esta imagen se tendra que estar ya descargada en nuestra carpeta donde se encuentre nuestro codigo y se mandara a llamar al código con la ruta de esta. Se declara una funcion para ajustar el tamaño de la imagen deseada a la vez que se muestra al usuario la imagen original. Ahora debe configurar el brillo máximo y el brillo mínimo en la nueva imagen que va a crear. El color más brillante que puede tener un píxel es 255, y el más bajo es 0, posterior se deben realizar algunos cálculos para cambiar todos los píxeles de la imagen, de modo que la imagen tenga el rango completo de contrastes de 0a 255. Se creara una nueva función para el cálculo del ndvi, para manipular selectivamente los píxeles rojos y azules en una imagen, es necesario descomponerla en sus tres canales individuales: uno para el rojo (R), otro para el verde (G) y uno más para el azul (B). Esta separación permite un control más preciso sobre los componentes de color específicos en la imagen. Para proceder, se combinan y almacenan los canales rojo y azul como "bottom". Luego, al canal azul se le resta el canal rojo (considerando que el rojo representa plantas enfermas o ausentes), y el resultado se divide por el valor almacenado en "bottom". Se toma precaución para evitar divisiones por cero, ya que esta situación causaría un error en el proceso debido a que la división por cero no está definida. Si examina su imagen NDVI, es probable que la encuentre bastante oscura, aunque podría contener áreas con píxeles más brillantes. Para mejorar aún más la imagen, se puede aplicar la función "contrast_stretch". La imagen actual, guardada como "ndvi_contrasted", no es apta para el mapeo de colores debido a que los valores en la matriz de numpy son decimales (floats). Se requiere convertir todos estos valores a números enteros (integers) en el rango de 0 a 255. Afortunadamente, la biblioteca numpy puede realizar esta conversión automáticamente. Después de esto, la imagen puede ser mapeada en colores utilizando la biblioteca cv2 y luego guardada como un nuevo archivo el cual es llamado 'color_mapped_image.png Con esto tendremos ya la imagen final, pero ahora se le agregaran algunos complementos. Primeramente se detectarán los colores presentes en la imagen, gracias al rango de valores de los colores anteriormente declarados. Esto nos ayudará a distinguir los diferentes tipos de colores que se encuentran en la imagen. Posteriormente se realiza el conteo de las veces que se repite un color en la imagen, gracias a la herramienta contornos de OPENCV, logrando asi sacar solo el porcentaje de en este caso el color Amarillo, Rojo y Verde, siendo asi de gran ayuda al no tomar en cuenta los demas colores presentes en la imagen. Ya una vez obteniendo el porcentaje de el color que más se repite y ver a qué color corresponde este,, tomar asi una decisión de si el árbol se encuentra en riesgo o no, por ejemplo aca se uso en un máximo de 15% del arbol este dañado. Por último se creará un recuadro de información en el cual se mostrará en la imagen final en el que se muestre el porcentaje de cada color presente en la imagen. Se muestra la imagen final.


CONCLUSIONES

La importancia que le damos a este tipo de temas es muy mínimo, y no es algo que deberíamos hacer la vista gorda por que como ya sabemos, el impacto que tiene en nuestra vida diaria es muy notable, con lo que se quiere lograr que este sistema es poder prevenir que llegue a pasar algún incidente o poder llevar un control de calidad de la vegetación, esto aumentando claramente la eficacia el funcionamiento de este, y automatizando de forma que esté conectado a un Module Camera PiNoir.
Diaz Mascareño Alfonso Arturo, Universidad Autónoma de Occidente
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

AGENTE VIAJERO Y ALGORITMO GENéTICO EN PYTHON: UN ENFOQUE EFICIENTE PARA RESOLVER UN DESAFIANTE PROBLEMA DE OPTIMIZACIóN


AGENTE VIAJERO Y ALGORITMO GENéTICO EN PYTHON: UN ENFOQUE EFICIENTE PARA RESOLVER UN DESAFIANTE PROBLEMA DE OPTIMIZACIóN

Diaz Mascareño Alfonso Arturo, Universidad Autónoma de Occidente. Guadarrama Flores Lucero, Universidad Mexiquense del Bicentenario. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El Agente Viajero presenta una complejidad computacional alta debido a su naturaleza combinatoria, lo que dificulta encontrar la solución optima para un gran número de ciudades. El problema del agente viajero es un desafío clásico de optimización combinatoria que busca encontrar la ruta mas corta que un agente debe tomar para visitar una serie de ciudades y regresar a su punto de partida, esta problemática es conocida por ser NP-duro, lo que significa que no existe una solución algorítmica eficiente para resolverlo en tiempo polinómico, sin embargo, los algoritmos genéticos, inspirados en la evolución biológica, han demostrado ser una poderosa técnica para abordar este tipo de problemas. Diversos algoritmos han sido propuestos para resolver este problema, y uno de los mas prometedores es el Algoritmo Genético (AG), este enfoque se inspira en la evolución biológica y utiliza operadores genéticos como selección, cruce y mutación para generar una población candidatas y mejorarlas progresivamente a lo largo de las generaciones.



METODOLOGÍA

Durante la estancia del Verano Delfín, se diseño e implemento un algoritmo genético en el lenguaje de programación Python para resolver instancias del problema del Agente Viajero. La metodología utilizada se dividió en las siguientes etapas: 1).- Representación del cromosoma: Se utilizo una representación basada en permutaciones, donde cada individuo en la población es una posible ruta del agente viajero. 2).- Inicialización de la población: Se genero una población inicial aleatoria de individuos que representan diferentes rutas. 3).- Evaluación de la aptitud (fitness): Se calculo la distancia total de cada ruta en la población utilizando una función de costo, que mide la longitud del recorrido. 4).- Selección de padres: Se implementaron técnicas de selección, como la ruleta o el torneo, para elegir a los mejores individuos que actuaran como padres para la siguiente generación. 5).- Operadores genéticos: Se aplicaron los operadores de cruce y mutación para generar nuevos individuos en la población. 6).- Elitismo: Se conservaron las mejores soluciones de cada generación para garantizar la convergencia hacia mejores resultados. 7).- Criterio de parada: Se estableció un criterio de parada basado en un número máximo de generaciones o en la convergencia hacia una solución satisfactoria. La metodología propuesta demostró ser efectiva en la resolución del problema del agente viajero, obteniendo soluciones cercanas al optimo para diversas instancias del problema. La combinación de la representación del cromosoma, la selección adecuada de operadores genéticos y la aplicación de elitismo permitió una búsqueda eficiente y convergencia hacia soluciones de alta calidad. Se realizaron pruebas exhaustivas y se ajustaron parámetros para optimizar el rendimiento del algoritmo.


CONCLUSIONES

La investigación realizada durante la estancia del verano Delfín ha demostrado que el uso del Algoritmo Genético en Python es una opción prometedora para abordar el problema del Agente Viajero. Los resultados obtenidos muestran que, si bien el algoritmo puede encontrar soluciones cercanas a la optima en instancias pequeñas, su eficiencia disminuye a medida que el número de ciudades aumenta. La principal ventaja del enfoque genético es su capacidad para explorar diferentes soluciones y encontrar soluciones aceptables en un tiempo razonable, sin embargo, al enfrentar instancias grandes del problema, el algoritmo puede requerir un tiempo considerable para encontrar soluciones de calidad. Para mejorar aun mas la eficiencia del algoritmo, seria conveniente investigar e implementar técnicas avanzadas, como el uso de operadores genéticos adaptativos o la hibridación con otros métodos de optimización, además, se sugiere realizar experimentos comparativos con otros enfoques de la literatura para evaluar la competitividad del Algoritmo Genético en instancias de mayor tamaño. En conclusión, la investigación llevada a cabo en la estancia del verano Delfín ha sido un punto de partida solido para explorar la aplicabilidad del Algoritmo Genético en Python para resolver el problema del Agente Viajero, los resultados obtenidos sientan las bases para futuras investigaciones que puedan enriquecer y perfeccionar este enfoque, brindando soluciones eficientes y efectivas para problemas de optimización en la vida real.
Diaz Peche Bella Maria, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
Asesor: Mg. Fredy Cuervo Lara, Universidad Cooperativa de Colombia

RETOS QUE ENFRENTAN LAS CIUDADES PERUANAS Y COLOMBIANAS PARA LLEGAR A SER CIUDADES INTELIGENTES


RETOS QUE ENFRENTAN LAS CIUDADES PERUANAS Y COLOMBIANAS PARA LLEGAR A SER CIUDADES INTELIGENTES

Diaz Peche Bella Maria, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas. Asesor: Mg. Fredy Cuervo Lara, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Una ciudad inteligente es aquella que usa la tecnología para innovar y desarrollarse a fin de mejorar la calidad de vida de sus ciudadanos. Favorece la creación de servicios públicos de calidad, eficientes, que permiten identificar fácilmente las necesidades locales y generar soluciones eficaces. El transporte de una ciudad inteligente se caracteriza por ser eficaz, multimodal, seguro, asequible a su público usuario y comprometido con la disminución de emisiones. Una ciudad inteligente es la ciudad sostenible, inclusiva, segura y resiliente tal como la describe el Objetivo de Desarrollo Sustentable (ODS) 11 de la Organización de las Naciones Unidas (ONU). Entonces, ¿Cuáles son los retos que enfrentan las ciudades peruanas y colombianas para llegar a ser ciudades inteligentes? Haciendo un énfasis en el transporte público de ciudades del tercer mundo como Santa Marta (Colombia) y Chachapoyas (Perú), se evidencian problemáticas como el uso 100% de Diesel en sus unidades de transporte, una infraestructura vial deficiente, carencia de información en tiempo real y prevalencia de recaudo manual de tarifas.



METODOLOGÍA

Se realizó un muestreo por conveniencia, no probabilístico; considerando nuestras ciudades locales, Santa Marta y Chachapoyas, donde se ha tenido la oportunidad de hacer uso del transporte público y experimentar las ventajas y desventajas del mismo. Asimismo, se tiene como variables de estudio la movilidad urbana actual y el transporte sostenible. Para la recolección de datos, se consideró la lectura de


CONCLUSIONES

Se necesita renovar y actualizar las unidades del transporte público de Santa Marta y Chachapoyas. Se debe implementar, renovar y dar mantenimiento a la infraestructura de las vías principales de las ciudades para convertir el sistema de transporte de calidad, agradable y eco amigable. Las ciudades peruanas y colombianas tienen el reto de acelerar el uso de la tecnología en sus sistemas de transporte para volverlos eficaces y sostenibles. Se debe incentivar el uso de los medios de transporte no motorizados sin promover el desorden y usar nuestros conocimientos tecnológicos para optimizar nuestro sistema de transporte.
Diaz Rivera Asaf, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

IMPLEMENTACIóN DE PLATAFORMA WEB PARA PROMOVER ATRACTIVOS TURíSTICOS DEL MUNICIPIO DE ELOTA EN EL ESTADO DE SINALOA


IMPLEMENTACIóN DE PLATAFORMA WEB PARA PROMOVER ATRACTIVOS TURíSTICOS DEL MUNICIPIO DE ELOTA EN EL ESTADO DE SINALOA

Diaz Rivera Asaf, Tecnológico de Estudios Superiores de Jocotitlán. Enrique Becerril Jennifer, Tecnológico de Estudios Superiores de Jocotitlán. Hermenegildo Adrián Berenice, Tecnológico de Estudios Superiores de Jocotitlán. Mejía Lozada Izael, Instituto Tecnológico de Pachuca. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

El municipio de Elota, ubicado en el estado de Sinaloa, se enfrenta a desafíos significativos a pesar del constante crecimiento del turismo en la región. Aunque este sector ha experimentado un aumento, Elota aún no ha logrado posicionarse como uno de los destinos más reconocidos y visitados en el área turística que abarca la región. Esta falta de reconocimiento se debe en gran parte a la popularidad dominante de Mazatlán, que se considera el principal lugar para visitar en Sinaloa. En consecuencia, los municipios vecinos, incluido Elota, se han visto relegados a una baja actividad turística. Es importante destacar que Elota cuenta con lugares únicos, como el monumento de la Cruz del perdón, la Playa Ceuta, entre otros, que lo distinguen y lo convierten en un destino especial. Considerando lo anterior, surge una necesidad apremiante de resaltar tanto Elota como otras áreas turísticas en la región. Esto no solo ayudaría a incrementar el número de visitantes, sino que también permitiría un mayor crecimiento en las comunidades locales, mejorando aspectos económicos, sociales y culturales. Es esencial que se promueva la diversificación turística y se ponga en relieve la singularidad de Elota y sus maravillas, para que los turistas puedan explorar y disfrutar de todas las ofertas que la región de Sinaloa tiene para ofrecer más allá de Mazatlán. En consecuencia, permitirá la apertura de grandes oportunidades para el desarrollo integral de las comunidades locales, fomentando un turismo más equitativo y sostenible en toda la región.



METODOLOGÍA

Durante el desarrollo del sitio web turístico, se utilizó una metodología basada en prototipos que comprende ocho fases. Este enfoque permite generar versiones preliminares del sitio y obtener comentarios del cliente de forma iterativa, asegurando que el sitio cumpla con sus requisitos y expectativas. Además, el proyecto fue llevado a cabo de manera colaborativa con alumnos del ámbito turístico, quienes proporcionaron el material informativo para el sitio web. En el primer paso se identificó el problema que enfrenta el municipio de Elota para posicionarse como destino turístico a causa de la popularidad de Mazatlán en la región. Esto ha llevado a una actividad turística limitada en Elota y otros municipios cercanos, a pesar de contar con atractivos lugares. Es esencial promover el reconocimiento de Elota mediante un sitio web, lo que no solo aumentaría el número de visitantes, sino también beneficiaría a las comunidades locales en aspectos económicos, sociales y culturales. Después de identificar el problema, se elaboraron una serie de requerimientos con el propósito de impulsar el reconocimiento del municipio mediante la creación de un sitio web interactivo que motive a los turistas a visitarlo. Para lograr esto, el sitio web debe contar con un diseño atractivo que incluya una experiencia de visita virtual mediante representaciones de imágenes 360 y modelos 3D de los principales lugares de interés turístico. Se procedió a la construcción del prototipo, que comprendió dos etapas. En la primera etapa, se diseñó el sitio web utilizando el framework Figma para establecer su estructura y seleccionar las herramientas necesarias. Se eligió Vue.js para la interfaz y A-Frame para las escenas 3D con modelos creados en Blender de los lugares turísticos. En la segunda etapa, se inició la construcción del sitio web siguiendo el diseño previo, utilizando las herramientas mencionadas. El prototipo del sitio web entra en una etapa de evaluación, en la cual se verifica que el sitio cumpla con los requerimientos establecidos. Después de completar la evaluación, se lleva a cabo un análisis del feedback proporcionado por el cliente, con el fin de identificar posibles áreas de mejora y determinar la incorporación de nuevas funcionalidades, en caso de ser necesario. Tras la evaluación, en las etapas de modificación y pruebas se llevó a cabo un análisis e implementación de las posibles funcionalidades que podrían agregarse al sitio web, siempre y cuando fueran necesarias. En caso de no añadir nuevas funcionalidades se efectuaron mejoras al prototipo en las diferentes áreas que conforman el sitio web. Las mejoras se centraron en aspectos gráficos, como el modelado de estructuras, texturas y escalas, así como en depurar la información presentada en cada sección del sitio. Además, se trabajó en la optimización de objetos y videos dentro del entorno del sitio web. En todas las fases del desarrollo del sitio web, se registró detalladamente el proceso utilizado para crear cada uno de los elementos que conforman el sitio. Esto se hizo con el propósito de contar con información precisa y clara sobre el proceso seguido, lo que será de gran utilidad en las etapas posteriores del desarrollo. Finalmente, se dio por concluido el desarrollo del sitio web, asegurándose de que cumpliera con todos los requerimientos establecidos desde el inicio y verificando que estuviera libre de errores.  Una vez hecho esto a futuro se buscará que el sitio web sea alojado en un servidor público o privado para que los usuarios puedan acceder a este desde cualquier dispositivo con conexión a internet.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos en desarrollo web y realidad virtual, utilizando frameworks como Vue.js y A-Frame para diseñar un sitio web turístico que promueva la actividad turística del municipio de Elota, Sinaloa. El sitio ofrece una experiencia interactiva de visita virtual con imágenes 360 y modelos 3D de lugares de interés. Se utilizó una estructura de página de tipo SPA para cargar elementos sin recargar la página, también se implementaron herramientas adicionales para mejorar la carga de elementos, especialmente los modelos 3D, con planes de futuras mejoras. El desarrollo del sitio alcanzo un 80%, con planes para agregar una sección de administración y una sección de reseñas sobre el municipio.
Diaz Suárez Adriana Isabel, Fundación Universitaria Compensar
Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales

DISEñO DE UN MICROSITIO WEB PARA EL PROGRAMA DE ENVEJECIMIENTO SALUDABLE


DISEñO DE UN MICROSITIO WEB PARA EL PROGRAMA DE ENVEJECIMIENTO SALUDABLE

Diaz Suárez Adriana Isabel, Fundación Universitaria Compensar. Giraldo García Thomas, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Realizar un micrositio Web para el programa de envejecimiento saludable que siga los lineamientos generales de la página oficial de la Universidad Autónoma de Manizales para mostrar de manera organizada la información general del programa.



METODOLOGÍA

Se usó como metodología de desarrollo de software Kanban, pues permite por un lado organizar de manera rápida y ordenada las tareas que se van a realizar y, por otro lado, debido al corto tiempo de entrega era el más óptimo para el desarrollo del micrositio.


CONCLUSIONES

Para realizar el micrositio fue necesaria una labor investigativa, pues también se colaboró de manera constante con el levantamiento de bases de datos, lo que también implicaba hablar con docentes de diversas áreas para organizar los artículos e información relevante para el programa de envejecimiento saludable. Ello nos ayudó a llevar de manera clara, la información que sería relevante para mostrar, a quienes iría dirigida y con base en ello realizar un diseño el cual fuese aprobado por los miembros del programa. Adicionalmente fue necesario utilizar la metodología Kanban para realizar la entrega teniendo en cuenta el tiempo establecido.    
Dominguez Aceves Diego, Universidad Mexiquense del Bicentenario
Asesor: Dr. Cruz Ernesto Aguilar Rodríguez, Instituto Tecnológico Superior de Los Reyes

GESTIóN Y OPTIMIZACIóN DEL AMBIENTE DE INVERNADEROS DE BAJA Y MEDIA TECNOLOGíA MEDIANTE CFD


GESTIóN Y OPTIMIZACIóN DEL AMBIENTE DE INVERNADEROS DE BAJA Y MEDIA TECNOLOGíA MEDIANTE CFD

Dominguez Aceves Diego, Universidad Mexiquense del Bicentenario. Torres Rangel Mayra, Instituto Tecnológico Superior de Los Reyes. Asesor: Dr. Cruz Ernesto Aguilar Rodríguez, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

En el Instituto Tecnológico Superior de Los Reyes, se encuentran dos invernaderos ubicados en una zona baja, cercana a una cama de lombricomposta y una casa de hongos. Además, en la parte superior de la ladera se encuentran los cubículos de los docentes y un laboratorio de agrobiotecnología. El viento y la temperatura son factores ambientales críticos en el desarrollo de las plantas dentro de los invernaderos, ya que afectan directamente al crecimiento, la salud y la producción de los cultivos. Sin embargo, la presencia de estructuras como la cama de lombricomposta y la casa de hongos puede alterar las condiciones microclimáticas en la zona, generando efectos que podrían ser beneficiosos o perjudiciales para las plantas. Por tal motivo, el objetivo de este estudio es analizar la influencia de la ubicación geográfica y la presencia de la cama de lombricomposta y la casa de hongos en la velocidad del viento y la temperatura en ambos invernaderos mediante CFD.  



METODOLOGÍA

Como primer paso se procedió a instalar sensores de temperatura, humedad relativa al interior del invernadero y al exterior una estación meteorológica que registra datos de velocidad del viento, temperatura, humedad relativa y precipitación. Los sensores registraron información cada 5. Posteriormente, se llevó a cabo la recopilación de datos mediante la medición y registro de las variables ambientales durante un periodo significativo, con el propósito de obtener una muestra representativa de las condiciones ambientales en los invernaderos, misma que sería utilizada como condición de entrada de mi modelo computacional. La simulación mediante CFD consistió en la creación de un modelo que representara los invernaderos las condiciones ambientales de los invernaderos analizados. Se definieron las condiciones iniciales y límites del modelo, incluyendo las características de los cultivos, las fuentes de calor, las ventilaciones y los materiales de construcción del invernadero. Posteriormente, se ejecutó la simulación CFD para analizar la distribución del flujo de aire y la temperatura dentro de los invernaderos. Se evaluaron los datos simulados para identificar áreas de mejora en la gestión del ambiente dentro de los invernaderos. Basándose en los resultados obtenidos, se propusieron medidas y ajustes para mejorar el ambiente y optimizar el rendimiento de los cultivos.


CONCLUSIONES

Los resultados presentados reflejan las condiciones actuales de los invernaderos . En cuanto a la temperatura, se observa un aumento moderado debido a la presencia de una ladera cercana que actúa como una barrera natural, limitando la tasa de ventilación y ocasionando un aumento en la temperatura en el interior de los invernaderos. Además, se ha notado una significativa reducción en la velocidad del viento en determinadas áreas. Este fenómeno se ve favorecido por la ubicación del sitio, que se caracteriza por una menor velocidad promedio del viento. Estos hallazgos respaldan la información obtenida por los sensores, demostrando la importancia de la simulación CFD dado que representan de manera visual en 3D el problema que se tiene actualmente en los invernaderos por su ubicación y posición, generando oportunidades para la y su contribución en el análisis de la optimización de los invernaderos y para lograr un rendimiento óptimo de los cultivos. por tal motivo, es importante considerar estos resultados en el diseño y operación de los invernaderos, ya que una adecuada circulación del aire y la regulación térmica son aspectos cruciales para el crecimiento y desarrollo óptimo de las plantas cultivadas.  
Dominguez Herrera Denilson de Jesus, Instituto Tecnológico de Tepic
Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar

PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER


PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER

Dominguez Herrera Denilson de Jesus, Instituto Tecnológico de Tepic. Duran Sanchez Juan Manuel, Instituto Tecnológico de Tepic. Marmolejo Sandoval Estefanía, Instituto Tecnológico de Tepic. Montoya Valdez Edwin Ramón, Instituto Tecnológico de Tepic. Pacheco Rosales Victor Manuel, Instituto Tecnológico de Tepic. Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

En la era digital, las redes sociales se han convertido en un espacio de interacción y expresión para millones de personas en todo el mundo. Sin embargo, junto con la libertad de comunicación y la facilidad de compartir ideas, también ha surgido un lado oscuro marcado por el anonimato y la impunidad. Específicamente, las redes sociales, con políticas menos restrictivas, como Twitter, han demostrado ser un terreno fértil para la propagación de mensajes ofensivos y discriminatorios, especialmente hacia la comunidad LGBTQ. La comunidad LGBTQ ha luchado históricamente por la igualdad de derechos y el reconocimiento de su identidad y orientación sexual en muchas sociedades. A pesar de los avances en los últimos años, persisten actitudes intolerantes y homofóbicas que encuentran su refugio en el entorno virtual. Las personas con prejuicios hacia esta comunidad suelen utilizar un lenguaje común caracterizado por palabras ofensivas y despectivas para expresar su discriminación y hostilidad. El impacto social y emocional del discurso de odio dirigido a personas LGBTQ es considerable. La exposición constante a mensajes discriminatorios puede provocar un daño emocional significativo, reforzar la invisibilidad y estigmatización de la comunidad y, en casos extremos, contribuir a la pérdida de autoestima y calidad de vida de las personas afectadas. Por lo tanto, es crucial implementar medidas efectivas para salvaguardar la integridad y el bienestar de la comunidad LGBTQ y de todos los usuarios de las redes sociales.  



METODOLOGÍA

1.- Descripción de los datos El conjunto de datos de PAN 2021 para perfilar a quienes difunden discurso de odio en Twitter se compone de 200 tweets por autor en formato XML, cada uno con un identificador de autor único. Este conjunto de datos incluye textos en español e inglés. 2.- Integración Se utilizan modelos de incrustación de sílabas fonéticas y fonemas para la transformación de caracteres fonéticos, entrenados con los corpus CESSESP para español y BROWN para inglés. Se extraen frases de estos corpus para generar vectores de palabras. Luego se extraen sílabas de cada palabra del vector y se transforman en su representación fonética IPA mediante la función transliterate de Epitran. Para las incrustaciones de fonemas, se realiza la representación fonética IPA de cada carácter de la palabra utilizando la función trans_list de Epitran. En cuanto a las características léxicas, el sentimiento inicial del mensaje se determina mediante SenticNet 5, que analiza expresiones de varias palabras relacionadas con conceptos emocionales. Se determinan otras características léxicas siguiendo métodos descritos en otras fuentes. 3.- Transformación de datos En este proceso, se concatenan los tweets de cada usuario para generar un único documento por perfil. Luego se limpian los textos, sustituyendo hashtags, menciones, URLs y emojis por las palabras "hashtag", "mention", "URL" y "emoji" respectivamente. Se eliminan caracteres especiales, signos de puntuación (excepto punto y coma), paréntesis y números. Luego se identifican y cuentan palabras globalmente reetiquetadas. Finalmente, el conjunto de datos se divide en un 70% para entrenamiento y un 30% para pruebas. 4.- Extracción de Caracteristicas Esta fase se enfoca en la extracción de características léxicas y fonéticas. La extracción de características léxicas involucra el análisis del uso de palabras, hashtags, menciones, URLs, emojis, la polaridad, el uso frecuente de partes del discurso y palabras odiosas. Por otro lado, la extracción de características fonéticas se divide en tres tareas: sílabas fonéticas, frecuencias fonéticas y fonemas. En relación a las sílabas fonéticas, se carga en memoria las sílabas fonéticas entrenadas. Luego, se extraen las frases de cada mensaje y las palabras de cada frase. A continuación, se obtienen las sílabas de cada palabra y se codifican en IPA. Usando el modelo de sílabas fonéticas incrustadas, se obtiene el vector de características de cada sílaba. Finalmente, se promedian los vectores de características en un único vector. 5.- Ajustes En la fase de configuración, se ajustan los parámetros de hardware de la máquina, como procesadores e hilos, y se pueden configurar diferentes escenarios para el uso de clasificadores. El sistema puede ajustarse para almacenar vectores de palabras y clasificadores. Durante todos los experimentos, se utilizó el 70% de los datos para el entrenamiento y el 30% restante para las pruebas. Basándose en trabajos previos realizados en el PAN, se examinaron varios clasificadores como la Regresión Logística (LR), Bosques Aleatorios (RF), Árbol de Decisión (DT), Bagging (BG), Gradient Boosting (GB) y AdaBoost (AB).      


CONCLUSIONES

En conclusión, este proyecto de investigación se centró en abordar el problema de la homofobia y el discurso de odio hacia la comunidad LGBT+ en las redes sociales, particularmente en Twitter. La detección automática de perfiles que propagan mensajes ofensivos es una tarea crucial para promover un entorno en línea más inclusivo y seguro. Para lograr este objetivo, se emplearon técnicas de procesamiento del lenguaje natural y aprendizaje automático, como el uso de características léxicas y fonéticas específicas. Estas técnicas permitieron analizar y recopilar una muestra representativa de mensajes con contenido homofóbico y entrenar un modelo capaz de identificar con una efectividad del 70% si un mensaje es homofóbico o no. Sin embargo, al ser un trabajo extenso aún no se cuenta con los modelos completamente entrenados, y por lo tanto no se puede mostrar un resultado enteramente certero por el momento. Pero es importante resaltar que estos hallazgos pueden ser de gran utilidad para las plataformas de redes sociales y la comunidad en general, ya que permiten identificar y enfrentar de manera más eficiente los discursos de odio en línea.  
Domínguez Llanez Miguel, Instituto Tecnológico de Sonora
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

DISEñO DE PROTOTIPO MECATRóNICO PARA AUTOMATIZACIóN DE MéTODO SILAR.


DISEñO DE PROTOTIPO MECATRóNICO PARA AUTOMATIZACIóN DE MéTODO SILAR.

Domínguez Llanez Miguel, Instituto Tecnológico de Sonora. Monroy Casillas Jessica Vanessa, Universidad de Guadalajara. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la investigación de creación de películas para celdas fotovoltaicas observamos que existen diferentes métodos con los que se pueden obtener, aunque algunos requieren de altas o de bajas temperaturas, de presiones diferentes a la atmosférica y de tiempos de reacción diferentes. Por estas razones nos enfocamos en el método Silar, que fue descrito por Nicolau en 1985, y ha sido comúnmente utilizado para el crecimiento de películas delgadas en diversos substratos. Es un método conveniente y es posible utilizar diversos agentes purificantes; sin necesidad de vacío y a temperatura ambiente, condiciones en que se pueden obtener películas de buena calidad y homogeneidad. Además, permite controlar a merced el espesor de dicha película en un rango amplio únicamente variando la cantidad de ciclos de inmersión. Esta última característica, que vista simplemente, representa una ventaja, en procesos que requieren de un gran número de ciclos para alcanzar un espesor determinado puede representar una dificultad por el tiempo requerido en el proceso.



METODOLOGÍA

Para la creación del sistema Silar se dividió el trabajo en dos partes, una de las cuales se enfocó en el diseño mecánico donde se utilizaron herramientas de software e impresión 3D. En la segunda parte se desarrolló el software para el movimiento del sistema y también basado en el uso de elementos electrónicos como sensores y motores a paso. Para el control de los motores a pasos y el uso de sensores infrarrojos se utilizó una tarjeta programable la cual fue un Arduino Mega por la familiaridad y herramientas ya existentes, en la creación del programa de software se utilizó una librería que permitía el control de velocidad, aceleración, cantidad de pasos y la ubicación; el uso de los sensores se limitó únicamente para cerciorar la posición del recorrido producido por el motor. Para la parte mecánica del proyecto se utilizó el software de diseño SolidWorks. El prototipo consta de 19 piezas, 7 de ellas iguales. Todas fueron diseñadas individualmente en el software ya mencionado y posteriormente ensambladas para formar un mecanismo tipo brazo cuidando las proporciones y funcionalidades requeridas. Sumado a las piezas impresas en 3D, se requiere tornillería, tuercas y baleros, éstos de origen comercial.


CONCLUSIONES

El desarrollo e investigación en el campo de la ingeniería de materiales es fundamental para la creación de nuevas tecnologías, ya que se conocerán sus propiedades y como usarlas a nuestro favor; nuestro enfoque en este proyecto es automatizar el método SILAR que facilitara el proceso de creación de películas semiconductoras. La necesidad de la automatización viene dada por el objetivo de cualquier proyecto: eficiencia y productividad. Cualquier proceso de automatización consta de procesos que se desarrollan por sí mismos sin la necesidad de realizar controles manuales. Esto supone grandes ventajas para todos: la no interrupción de los procesos productivos. Como menciona Ogata (1998) el control automático ha desempeñado una función vital en el avance de la ingeniería y la ciencia. Debido a que los avances en la teoría y la práctica del control automático aportan los medios para obtener un desempeño óptimo de los sistemas dinámicos, mejorar la productividad, aligerar la carga de muchas operaciones manuales repetitivas y rutinarias, así como de otras actividades, todos los ingenieros y científicos deben tener un buen conocimiento de este campo. (Ogata, 1998).
Domínguez López Yareli Dolores, Instituto Tecnológico de Pachuca
Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana

EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA ADMINISTRATIVA DE LA EMPRESA FUSSIÓN S.A.S. EN PERÍODO 2023-2


EVALUACIÓN HIGIÉNICA INDUSTRIAL DE ILUMINACIÓN EN EL ÁREA ADMINISTRATIVA DE LA EMPRESA FUSSIÓN S.A.S. EN PERÍODO 2023-2

Baños Mendoza Francisco Adrian, Instituto Tecnológico de Pachuca. Blancarte Gamiño Fabian Joel, Instituto Tecnológico Superior de Guanajuato. Domínguez López Yareli Dolores, Instituto Tecnológico de Pachuca. Asesor: Mg. York Eliecer Casalins Maza, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

La comodidad visual es crucial, ya que una iluminación deficiente puede dificultar la identificación de objetos o riesgos asociados a las tareas realizadas en una jornada laboral, lo que aumenta el riesgo de accidentes. Sin embargo, las organizaciones deben realizar evaluaciones periódicas de las condiciones de trabajo, especialmente en cuanto a condiciones ambientales como el ruido, los niveles de iluminación y la temperatura, ya que pueden afectar la salud de los trabajadores a largo plazo. Es importante destacar que el sentido de la vista es fundamental para recibir información del entorno, por lo que la iluminación juega un papel crucial en cualquier tarea realizada durante la jornada laboral. Aunque el ojo humano puede adaptarse a diferentes condiciones de iluminación, incluso cuando no son las óptimas, esto puede generar fatiga visual y disminuir el rendimiento, aumentando la probabilidad de cometer errores e involucrarse en accidentes.



METODOLOGÍA

DISEÑO METODOLÓGICO TIPO DE ESTUDIO El presente trabajo, es desarrollado en el marco de un estudio de tipo cuantitativo; teniendo en cuenta que se evaluará una estrategia de investigación centrada en cuantificar la recopilación y el análisis de datos del área administrativa en la empresa FUSSION S.A.S. de la ciudad de Barranquilla, describiendo la características de las condiciones del lugar tales como: el material, color, textura, y estado de paredes, techo, piso, superficie de trabajo, ventanas, equipos; además se llevarán a cabo las mediciones de iluminación y el análisis de sus respectivos resultados numéricos. MÉTODO DE ESTUDIO Este trabajo se direcciona con un enfoque inductivo, teniendo en cuenta características que permitirán identificar variables y aspectos específicos, de esa forma se darán a conocer las condiciones higiénicas de iluminación en el área administrativa de la empresa FUSSION S.A.S. en el periodo 2023-2 con el fin de mejorar la productividad permitiendo conocer si el área de trabajo a evaluar cumple con los niveles permisibles establecido por la normativa legal vigente para la prevención de accidentes y enfermedades en los trabajadores expuestos.   TÉCNICAS E INSTRUMENTOS DE RECOLECCIÓN DE LA INFORMACIÓN. Cuestionario y encuesta: realizada a los trabajadores del área a evaluar, con el fin de conocer y analizar la percepción que tienen sobre las condiciones de iluminación en su puesto de trabajo y la presencia de molestias visuales relacionadas con la misma. Esta encuesta se estructura por dos bloques los cuales se se describen de la siguiente manera; la primera parte narra la descripción con la intención que se realiza la encuesta y la segunda parte se  inicia una serie de seis preguntas que responderán con sinceridad a los trabajadores seleccionando entre las opciones múltiples y una pregunta abierta, cada una de las respuestas se analizada y graficada con respecto a los resultados finales, concluyendo las condiciones de iluminación en el puesto de trabajo. (Anexo E).  Método de la constante del salón: método utilizado para calcular puntos a medir en el área administrativa de la empresa plástica FUSSION S.A.S. el cual proporcionó las fórmulas idóneas para realizar el estudio de medición.


CONCLUSIONES

Resultados DETERMINACIÓN DE LAS VARIABLES Y ASPECTOS QUE INCIDEN EN LAS CONDICIONES DE ILUMINACIÓN DEL ÁREA ADMINISTRATIVA DE LA EMPRESA PLÁSTICA FUSSION S.A.S. Para determinar las condiciones de iluminación del área administrativa se utilizó el método de la constante del salón (K) en la que se identifican variables como altura (H), largo (L) y ancho (A) del área a evaluar.  Se tomó la constante (K) para el establecimiento e identificación de los puntos a medir del área administrativa de la empresa plástica FUSSION S.A.S. En la fórmula utilizada se obtuvo el siguiente resultado (K = 1.195); el cual fue usado para definir el número de puntos a tomar para realizar la medición; el valor resultante fue 9 puntos, como se muestra en la siguiente tabla (Tabla 1). Evaluación diagnóstica de condiciones de iluminación en el área de trabajo. Para determinar las condiciones de iluminación del área administrativa se utilizó el formato de evaluación diagnóstica de condiciones de iluminación en el área de trabajo (ver anexo E), el cual permite identificar aspectos como Características del Área, describiendo las condiciones de la superficie Material, Color, Textura, y Estado de: Paredes, Techo, Piso, Superficie De Trabajo, Ventanas Y Equipos Conclusión En conclusión, la iluminación adecuada en un área administrativa es fundamental para crear un entorno de trabajo cómodo, productivo y visualmente atractivo. La iluminación no solo mejora la visibilidad y reduce la fatiga visual, sino que también contribuye al ambiente general y la estética de la oficina. La luz LED, con diferentes temperaturas de color según el espacio, puede mejorar la concentración y la relajación en áreas específicas. En resumen, invertir en la mejora de la iluminación en el área administrativa de INDUSTRIAS PLÁSTICAS FUSSION S.A.S. no solo cumplirá con la legislación vigente, sino que también promoverá un espacio de trabajo más saludable y productivo para los empleados, lo que a su vez contribuirá al éxito y crecimiento de la empresa.
Dominguez Mondragon Maria Belen, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington

PROPUESTA DE UN PROTOTIPO FUNCIONAL QUE POR MEDIO DE UNA APLICACIóN MóVIL PERMITA EL APROVECHAMIENTO DE AGUAS PLUVIALES MEDIANTE UN ECOMURO, PARA HABITANTES VULNERABLES DE LA ZONA ANDINA DE COLOMBIA.


PROPUESTA DE UN PROTOTIPO FUNCIONAL QUE POR MEDIO DE UNA APLICACIóN MóVIL PERMITA EL APROVECHAMIENTO DE AGUAS PLUVIALES MEDIANTE UN ECOMURO, PARA HABITANTES VULNERABLES DE LA ZONA ANDINA DE COLOMBIA.

Dominguez Mondragon Maria Belen, Tecnológico de Estudios Superiores de Jocotitlán. Ortega Ramírez Eduardo Daniel, Instituto Tecnológico Superior de Irapuato. Rodriguez Hurtado Diego Andres, Universidad de Pamplona. Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

La pluviosidad encontrada en Colombia es alta comparada con otros países esto dado por la gran cantidad de vegetación que se encuentra en el lugar además de estar rodeado por dos océanos, la cantidad de lluvia va desde los 1000 mm de lluvia en los lugares más áridos, hasta llegar a los 12,700 mm en las locaciones con más lluvia (Jaramillo Robledo & Chaves Córdoba, 2000), Este líquido es útil para satisfacer la demanda dada la gran cantidad de precipitación que se da en el país, cómo lo es también el uso de aguas pluviales la cual es una buena alternativa, según los datos dados según el Ministerio de Ambiente y Desarrollo sostenible la precipitación en la zona Andina va en descenso, pero se mantiene dentro del promedio (MinAmbiente, 2020) y la cual no es aprovechada por gran parte de  la población Colombiana, ya que el país cuenta con abundantes recursos, lo que lleva a las personas a mantenerse en un estado de confort, por lo que no se preocupan y no ponen en uso estos sistemas de almacenamiento de aguas pluviales (BAUTISTA ARÉVALO & SÁNCHEZ SÁNCHEZ, 2018). La zona Andina por su impacto poblacional, político, administrativo y económico y por contar con ejes de circulación y transporte; se constituye en el territorio que más población migrante atrae por motivos relacionados con desplazamiento forzado, motivos laborales, entre otros; esta  población llega especialmente a las capitales departamentales y en particular a las grandes ciudades como Bogotá, Distrito capital de Medellín, Cali y Bucaramanga. Muchas de las personas que son desplazadas por algunos de los motivos mencionados anteriormente  no cuentan con recursos económicos que les permitan llegar a las ciudades y pagar un arriendo, se ven forzados a ubicarse en las zonas más extramurales de estas ciudades,  construyen sus casas de forma empírica, con madera y zinc.  Al estar ubicadas en estas zonas que son consideradas zonas de alto riesgo, no cuentan en su gran mayoría con servicios públicos mínimos vitales que le permitan tener una mejor calidad de vida. El almacenamiento de aguas pluviales para esta zona se puede realizar por medio de un contenedor hecho a base de botellas plásticas tipo PET (lo cual permitiría extender la vida de este producto y desacelerar su transición a basura) lo que dará segundo uso a estas y así ayudar a reducir el impacto ambiental de estas, en la zona andina ha ido aumentando por el rápido crecimiento en la producción y uso del plástico, combinado con los modelos económicos lineales que no tienen en cuenta las externalidades como lo son los residuos; esta agua recolectada ayudará a la población de la región andina ubicada en las zonas más deprimidas por medio de la aplicación móvil poder saber cuántos litros de agua tiene y cómo la podría usar mejor de acuerdo con sus necesidades más apremiantes.



METODOLOGÍA

Se inicio haciendo la búsqueda en la base de datos académicas para buscar trabajos académicos relevantes relacionados a la problemática, se dio lectura de artículos académicos y manuales especializados. Esto para tener los fundamentos necesarios para diseñar el prototipo funcional del ecomuro, sabiendo que este ya existía y lo que se hizo fue hacer una mejora implementando los sensores con IOT, es decir con una aplicación móvil, siendo un gran reto debido que se tenia que innovar considerando que esta no existía.


CONCLUSIONES

Luego de una extensa investigación, nos encontramos varios referentes con respecto al funcionamiento de ecomuros, cualidades, mejoras inclusive aditamentos, pero no fue posible rastrear o encontrar un referente que estuviera interesado en unir el internet de las cosas con un ecomuro, dándonos una línea completamente nueva para nuestra investigación y siendo un gran reto. No bastaba con solo darle inteligencia o conectar el internet al ecomuro, debíamos conseguir una mejora que, de valor, una que ayude a que más personas se quieran unir a nuestra apuesta y que una vez decidan probarlo puedan cambiar sus hábitos arraigados por años. La aplicación que puede ser utilizada en Cualquier tipo de teléfono, de cualquier tipo de gama (desde la gama baja, hasta gama alta), permite al usuario conocer el estado actual del llenado del muro, conocer este porcentaje de agua y para que pudiese utilizarlo, y sobre todo cuanto le habría costado adquirir esta agua del servicio público o adquirirla de alguna manera dándonos su respectivo ahorro representado. Por ende la implementación del proyecto del ecomuro aporta una gestión a la economía del hogar de las familias más vulnerables de la Zona Andina, este proyecto se llevó a cabo con el intercambio culturas entre los estudiantes colombianos y los mexicanos, dándonos una perspectiva diferente funcionando ambas culturas para dar un resultado fructífero para beneficio de la población con el uso apropiado de los ODS, estos nos permitieron tener un conocimiento más amplio y apropiado para el uso de estos, mencionando que se presentaron diferentes retos, sin embargo, se cumplieron obteniendo el resultado esperado a lo largo del desarrollo de este.  
Dominguez Olmedo Arturo, Instituto Tecnológico de Pachuca
Asesor: Dr. Jaime Aguilar .zambrano, Pontificia Universidad Javeriana

SISTEMA INCENTIVO RESPIRATORIO PARA FISIOTERAPIA REMOTA DE PACIENTES CON SECUELA COVID-19


SISTEMA INCENTIVO RESPIRATORIO PARA FISIOTERAPIA REMOTA DE PACIENTES CON SECUELA COVID-19

Dominguez Olmedo Arturo, Instituto Tecnológico de Pachuca. Gómez Correa Edith Alejandra, Universidad de Guadalajara. Mejía Medina Malinche, Instituto Politécnico Nacional. Navarro Torres Andres, Universidad de Guadalajara. Asesor: Dr. Jaime Aguilar .zambrano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

En un contexto postpandemia donde el 12% de las personas afectadas por el virus COVID-19 necesitaría terapia respiratoria nos encontramos con que el dispositivo más utilizado, el Triflo, tenía limitaciones tanto para el fisioterapeuta, aportando poca información sobre el progreso, como para el paciente, despertando poco interés y convirtiendo la rehabilitación en un proceso tedioso y poco atractivo. Identificando esta problemática se llegó a la pregunta ¿de qué forma puede mejorarse este sistema? ¿cómo sería un dispositivo diseñado pensando en el paciente y el fisioterapeuta? UBICU es un sistema incentivo respiratorio para fisioterapia remota para pacientes con secuelas de COVID-19, aunque es útil en la rehabilitación de otras patologías respiratorias. El sistema busca la reexpansión pulmonar mediante la medición del volumen inspirado durante la respiración, incentivado por un videojuego interactivo. El proyecto, liderado por el Dr. Jaime Aguilar Zambrano, se conforma de un equipo interdisciplinario de ingenieros en sistemas, ingenieros electrónicos, ingenieros biomédicos, diseñadores industriales, diseñadores gráficos, y fisioterapeutas, estos últimos de vital importancia en las pruebas clínicas realizadas.



METODOLOGÍA

Después de años de desarrollo, actualmente el proyecto de encuentra en una etapa de pruebas finales, que incluyen un estudio clínico y el licenciamiento para su producción y venta. A pesar de esto, seguían existiendo áreas de mejora, tales como el acople y envolvente del dispositivo, el enriquecimiento de este mediante la inclusión de variables como saturación de oxígeno, así como proveer una opción de monitoreo con videojuego atractivo para el paciente, además de buscar ampliar su uso mediante un sistema de espirometría. Estas tareas se asignaron a los participantes del programa delfín de acuerdo a sus habilidades y áreas de conocimiento. Como trabajo en conjunto se apoyó en la manufactura y ensamble de equipos para el uso en pruebas clínicas con fisioterapeutas y pacientes. Para la implementación y desarrollo aplicados al diseño se realizaron imágenes y video de apoyo con una representación fotorrealista mediante el uso de un modelo 3D con el propósito de explorar el producto mediante la explotación y enfoque a diversas partes del dispositivo. De igual manera se buscó generar propuestas de diseño para el envolvente para un dispositivo placa orificio donde se contiene la placa, componentes electrónicos y batería. Respecto al sistema de monitoreo, se realizó una interfaz gráfica y dinámica. Mediante el diseño de un videojuego sencillo, el software recibe e interpreta datos de flujo, los cuales se ven reflejados en la mecánica de tres monos que suben cada uno una palmera, simulando la mecánica del TriFlow. Se implementan los scripts de cada mono donde se reciben los datos, es decir, se añade una lógica para que los monos suban las palmeras. Para la dinámica de los monos se implementan fórmulas utilizando flujos limites inferiores y superiores, así como la posición de cada mono. Se buscó añadir una nueva variable al equipo mediante el diseño de un oxímetro. Primeramente se realizaron simulaciones de diferentes propuestas de circuitos electrónicos, escogiéndose el que mejor se adecuaba a las necesidades del proyecto: la posibilidad de monitorear los BPM y la oxigenación del paciente al utilizar el dispositivo. Se realizó el diseño de la PCB para su integración a la electrónica actual. La implementación de un sistema de medición inspiración-espiración se trabajó con el objetivo de ampliar los parámetros caracterizables durante la rehabilitación y ampliar los campos de aplicación del dispositivo. Posterior a la propuesta de diferentes versiones del tubo placa orificio, se imprimió en resina el primer prototipo. Las primeras pruebas consistieron en verificar la medición bidireccional del flujo y modificar el software para la adquisición de los datos de espiración.


CONCLUSIONES

En el área de diseño, se realizaron implementaciones que incluyeron propuestas para el cierre del dispositivo, mejora y desarrollo de apoyos visuales como imágenes y videos. También se ajustó el diseño de un instrumento de medida, la placa orificio, que se imprimió usando resina para realizar pruebas. Se abordaron aspectos ergonómicos relacionados con la manipulación del dispositivo y el almacenamiento de sus componentes. Se desarrolló un sistema de seguimiento de la inspiración respiratoria utilizando herramientas informáticas como Unity. Esta implementación brinda una representación visual sencilla y atractiva de las variaciones de flujo y la elección de los flujos límites. Se diseñó un circuito simulado con las especificaciones necesarias, junto con una placa de montaje superficial. Los filtrajes se probaron por separado en un circuito físico, confirmándose su funcionamiento. La simulación, documentación y especificación de los componentes facilitan la implementación completa del circuito en físico y su posterior integración al dispositivo incentivo respiratorio. Por último, utilizando el primer prototipo, se verifico funcionamiento del instrumento placa orificio y el sensor diferencial para determinación del flujo. Además, se ajustó el software para medición de flujo inspiratorio y espiración.
Domínguez Ortiz Jenny Carolina, Corporación Universitaria Minuto de Dios
Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan

PROPUESTA DE IMPLEMENTACIóN MODELO DE COBERTURA DE CONJUNTOS PARA LA EMPRESA DE TRANSPORTES TRANSCALIMA SA.


PROPUESTA DE IMPLEMENTACIóN MODELO DE COBERTURA DE CONJUNTOS PARA LA EMPRESA DE TRANSPORTES TRANSCALIMA SA.

Domínguez Ortiz Jenny Carolina, Corporación Universitaria Minuto de Dios. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

A lo largo del tiempo las organizaciones se ven sujetas a una serie de problemáticas de optimización y toma de decisiones, lo cual desencadena factores negativos en la línea de producción como lo puede ser la ineficiencia, altos costos, baja calidad del producto o servicio, pérdida de competitividad e incumplimiento de pedidos, por lo cual es de gran importancia implementar herramientas o estrategias que permitan encontrar soluciones eficientes y flexibles a diferentes contextos.



METODOLOGÍA

Inicialmente se realiza una propuesta de implementación de un modelo de cobertura de conjuntos para la empresa de transportes Transcalima SA la cual está ubicada en Colombia, departamento del Valle del Cauca, Municipio de Calima el Darién, para ello inicialmente se identifica la problemática, se realiza recopilación de la información, se definen los conjuntos, subconjuntos y puntos a cubrir.


CONCLUSIONES

A lo largo del verano se logro adquirir conocimiento enfocado en la optimización de procesos teniendo en cuenta problemáticas reales de nuestro entorno, así mismo fue un espacio en el que se fomento la investigación y aprendizaje de los modelos de cobertura de conjuntos.
Domínguez Pérez Elias Francisco, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Leonel González Vidales, Instituto Tecnológico de Ciudad Altamirano

DESARROLLO DE UNA API CON LARAVEL PARA UN SISTEMA DE ACUICULTURA.


DESARROLLO DE UNA API CON LARAVEL PARA UN SISTEMA DE ACUICULTURA.

Domínguez Pérez Elias Francisco, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Leonel González Vidales, Instituto Tecnológico de Ciudad Altamirano



PLANTEAMIENTO DEL PROBLEMA

El sistema de acuicultura requiere una API que permita gestionar y almacenar datos críticos relacionados con la producción, monitoreo y control de los cultivos acuícolas. La API debe asegurar la autenticación de los usuarios, garantizar la confidencialidad de la información y ofrecer endpoints eficientes para acceder a los datos registrados. Por ello, hemos decidido utilizar Laravel como el framework de desarrollo debido a su idoneidad para proyectos complejos y la facilidad de implementar funcionalidades adicionales en el futuro. El problema radica en la falta de una API personalizada y segura que satisfaga plenamente las necesidades específicas del sistema de acuicultura. Si no se sigue una metodología adecuada, el desarrollo podría ser lento y propenso a vulnerabilidades de seguridad. Por tanto, es esencial plantear una metodología sólida que asegure el éxito del proyecto y cumpla con los requerimientos establecidos. El problema radica en la falta de una API personalizada y segura que satisfaga plenamente las necesidades específicas del sistema de acuicultura. Si no se sigue una metodología adecuada, el desarrollo podría ser lento y propenso a vulnerabilidades de seguridad. Por tanto, es esencial plantear una metodología sólida que asegure el éxito del proyecto y cumpla con los requerimientos establecidos.



METODOLOGÍA

El desarrollo de la API para el sistema de acuicultura se lleva a cabo utilizando una metodología ágil e iterativa, adaptada a las necesidades específicas del proyecto. La metodología propuesta comprende las siguientes etapas: Análisis de Requisitos y Objetivos: Realizamos un análisis detallado de los requisitos específicos del sistema de acuicultura y establecemos los objetivos claros que la API debe cumplir. Investigación y Familiarización con Laravel: Profundizamos en el conocimiento de Laravel y su estructura de directorios para garantizar un desarrollo eficiente. Configuración del Entorno de Desarrollo: Configuramos el entorno de desarrollo local con PHP, Laravel y otras dependencias necesarias para el desarrollo de la API. Implementación de la Funcionalidad de Registro de Usuarios: Desarrollamos la funcionalidad para el registro de usuarios, incluida la autenticación y la generación de tokens de acceso. Diseño y Desarrollo de la Base de Datos: Diseñamos la estructura de la base de datos para la API y creamos las migraciones y modelos necesarios en Laravel. Implementación de Funcionalidades Específicas del Sistema de Acuicultura: Desarrollamos las API endpoints para el registro y obtención de datos relacionados con la producción y monitoreo de los cultivos acuícolas. Pruebas y Depuración: Realizamos pruebas unitarias e integradas para asegurar el correcto funcionamiento de la API y corregimos posibles errores o fallos. Optimización y Seguridad: Optimizamos el rendimiento de la API e implementamos medidas de seguridad para proteger la información sensible. Despliegue y Pruebas Finales: Preparamos el entorno de producción para el despliegue de la API y realizamos pruebas finales para garantizar su correcto funcionamiento.


CONCLUSIONES

El desarrollo de la API para el sistema de acuicultura ha sido completado con éxito. La funcionalidad de registro de usuarios, autenticación y generación de tokens ha sido implementada y probada satisfactoriamente en el entorno local. La API resultante es una herramienta confiable y segura que cumple con los requerimientos específicos del sistema de acuicultura. La funcionalidad para el registro y obtención de datos relacionados con la producción y monitoreo de los cultivos acuícolas ha sido implementada de manera eficiente y segura. La metodología ágil adoptada ha permitido una mayor flexibilidad y adaptabilidad en el desarrollo, lo que ha facilitado la incorporación de mejoras y ajustes durante el proceso. La API está lista para su despliegue en el entorno de producción y se espera que contribuya significativamente a optimizar los procesos de producción y control en el sector de la acuicultura.
Domínguez Pérez Stefani, Instituto Tecnológico del Altiplano de Tlaxcala
Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo

DESARROLLO DE UN ESTUDIO HACCP EN LA INDUSTRIA REFRESQUERA


DESARROLLO DE UN ESTUDIO HACCP EN LA INDUSTRIA REFRESQUERA

Domínguez Pérez Stefani, Instituto Tecnológico del Altiplano de Tlaxcala. Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

Según la OMS (2020) estima que cada año enferman en el mundo unos 600 millones de personas —casi 1 de cada 10 habitantes— por ingerir alimentos contaminados y que 420 000 mueren por esta misma causa, debido a estos datos se da mucha importancia a la seguridad alimentaria ya que impacta positivamente al reducir el riesgo de enfermedades transmitidas por alimentos (ETA) y esto es debido a que la sociedad exige cada vez más, ya que no está dispuesta a caer en una epidemia y esto resulta positivo para ambas partes empresa- consumidor, puesto que la empresa reduce temas económicos debido a demandas de la población por productos contaminados o por pérdidas financieras debido a las fallas que se pueden generar dentro del proceso.



METODOLOGÍA

La metodología utilizada ha sido la cualitativa en donde primero se hizo la búsqueda de definiciones dentro de documentación bibliográfica  para darle paso  al tema principal HACCP (Análisis de Peligros y Puntos Críticos de Control) en donde para comenzar a generarlo se utilizaron los siguientes 7 principios claves: 1.- Identificar los peligros potenciales, 2.- Evaluar la gravedad de cada peligro,3.- Identificar los puntos críticos de control, 4.-Establecer límites críticos,5.- Implementar procedimientos de monitoreo, 6.- Establecer acciones correctivas, 7. Implementar un sistema de registro y documentación; de esta manera nos aseguraremos de que se cumplan todos los requisitos del HACCP para facilitar la revisión y mejora del sistema.


CONCLUSIONES

Dentro de la industria refresquera se examinó el desarrollo, implementación y eficacia del sistema HACCP, en la prevención de riesgos y garantía de la inocuidad alimentaria en donde se evaluaron los procedimientos de control de peligros, registros y capacitación del personal, en el que los resultados muestran que la implementación adecuada del sistema HACCP, se asocia a una reducción significativa de los riesgos alimentarios, una mejora en la seguridad y calidad de los alimentos. Estos hallazgos respaldan la importancia de adoptar el sistema HACCP como una herramienta efectiva para garantizar la seguridad alimentaria en la industria en la mejora continua de los procesos alimentarios. 
Dominguez Valencia Abril Yunuen, Universidad Tecnologica de León
Asesor: Mtro. Héctor Daniel Núñez Cuevas, Universidad Tecnologica de León

DESARROLLO DE HERRAMIENTAS PARA EL ENTRENAMIENTO EN AUTOMATIZACIóN DE PROCESOS


DESARROLLO DE HERRAMIENTAS PARA EL ENTRENAMIENTO EN AUTOMATIZACIóN DE PROCESOS

Casique Alvarez Alejandra, Universidad Tecnologica de León. Dominguez Valencia Abril Yunuen, Universidad Tecnologica de León. Gonzalez Marín Juan Daniel, Universidad Tecnologica de León. Olguin Garcia Andrea, Universidad Tecnologica de León. Asesor: Mtro. Héctor Daniel Núñez Cuevas, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La automatización de procesos industriales es la integración de diferentes tecnologías como: diseño de maquinaria, equipo electrónico, software y hardware computacional, que sean capaces de llevar todo tipo de procesos de producción, selección y control de manera autónoma; es decir, que haga mínima la participación del personal. La necesidad de diseñar equipo para el entrenamiento en el tema de automatización de procesos se origina desde el momento en que se requiere aprender a utilizar los diferentes elementos que pueden conformar un sistema automatizado especialmente para el alumnado de la carrera de ingeniería en sistemas productivos; el alumnado que toma esta materia comprende los conceptos teóricos y prácticos en la utilización del software especializado en los temas de automatización tales como el uso de simuladores como Fluid-SIM, el cual tiene como objetivos crear, simular, y aprender a realizar la conexión de circuitos electroneumáticos, electrohidráulicos, digitales y electrónicos. Sin embargo, al momento de realizar las conexiones en la parte práctica de la asignatura, el uso constante y los errores propios del proceso de aprendizaje, causan el deterioro apresurado de los equipos y debido al control y flujo de recurso económico, se ha complicado la adquisición del material necesario para cubrir los requerimientos de la asignatura. Durante algunos cuatrimestres se ha intentado costear un panel de entrenamiento para que el alumnado pueda aplicar de la mejor manera los conocimientos teóricos obtenidos durante la materia de automatización, lamentablemente, a pesar de tener diferentes cotizaciones de la celda de entrenamiento no ha sido posible obtenerla, pues no se cuenta con los recursos económicos necesarios, ya que estos equipos tienen un costo elevado. Por lo anteriormente mencionado surge la alternativa de diseñar y posteriormente fabricar un panel de entrenamiento o celda de entrenamiento, con el equipo necesario que esté al alcance de las posibilidades económicas de la universidad esperando una reducción de costos de al menos un 30% del costo de una celda comercial.



METODOLOGÍA

Detección de las necesidades de las hojas de asignatura de la materia de Automatización de procesos. Definición de la hipótesis a demostrar con el proyecto mediante una lluvia de ideas del equipo de investigación. Planeación las actividades a realizar mediante un diagrama de Gantt. Determinación los roles de cada integrante del equipo destacando las habilidades de cada uno. Diseño del boceto conceptual del panel de entrenamiento. Práctica con equipo de neumática, electroneumática y PLC. Elaboración del diseño de la estación en SolidWorks. Listado de los insumos requeridos para el proyecto. Cotización con proveedores de la región los materiales necesarios para el montaje de la celda. Elección de los proveedores que mejor se adapten a las necesidades del proyecto.


CONCLUSIONES

Durante la estancia de verano, se logró adquirir conocimientos teóricos para la comprensión de la materia de automatización, así como prácticos para el uso correcto de los equipos como lo son las válvulas, electroválvulas, cilindros de efecto simple y doble efecto, módulos de relevadores y fuentes de voltaje. Aplicando dichos conocimientos en el diseño de la celda de entrenamiento que cumpla con los requerimientos para permitir al alumnado obtener el conocimiento necesario en el área de automatización, sin embargo, dicha celda no será fabricada en este periodo debido al tiempo requerido para ello y los recursos económicos necesarios. Es importante mencionar que la hipótesis planteada en un inicio se cumple pues la inversión total proyectada para la fabricación de la celda o módulo de entrenamiento para la fabricación se presupuesta alrededor de los MX$90,000 Incluyendo el gasto estimado del tablero de control de la celda, mientras que la compra de una celda didáctica de manufactura, de los fabricantes más populares el precio ronda entre los $300,000. - a $500,000. - pesos mexicanos, siendo que la inversión para la fabricación de la celda diseñada en este proyecto representa un 22.5% del precio de la celda comercial, sin embargo, también es importante identificar las ventajas y desventajas que brinda este proyecto ante la adquisición de una celda de automatización comercial. Ventajas de la fabricación de una celda de automatización: Reducción de costos de adquisición. Facilidad de modificaciones y adecuaciones de acuerdo a las necesidades. Comprensión plena del funcionamiento de la celda de manufactura por parte de los diseñadores alumnos. La misma fabricación de la celda crea un conocimiento relacionado a la materia de Automatización de Procesos Libertad de diseño y equipo modular para posteriores actualizaciones o mejoras. Elección de tamaño según necesidades. Posible inclusión de materias relacionadas con el estudio de métodos. Desventajas de la fabricación de una celda de automatización: El tiempo para manufacturarla. El interés del alumnado para aprender sobre esta y poder fabricarla. La obtención de cada uno de los equipos y materiales necesarios. El tiempo de espera para la obtención de cada equipo. Posibles fallos por la fabricación de la celda debido al proceso natural de aprendizaje. Ventajas de la compra de una celda comercial: Una celda comercial es comprada y entregada sin necesidad de fabricación o modificación personal. No hay preocupación y dificultad por el diseño y obtención de los equipos. Vienen con manuales de uso y soporte técnico Tienen garantía por fallas o daños de fábrica. Desventajas de la compra de una celda comercial: El costo de adquisición es muy elevado. El diseño, funciones y finalidad de la celda no pueden ser modificados. Las refacciones solo se pueden obtener con la empresa donde se compra la celda. El mantenimiento debe ser especializado.
Duarte Hernández Daniel, Universidad Tecnologica de León
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.


FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.

Aguirre Mena Federico de Jesus, Universidad Tecnologica de León. Castellanos Luevano Oswaldo, Universidad Tecnologica de León. Cruz Ramirez Oscar Mauricio, Universidad Tecnologica de León. Duarte Hernández Daniel, Universidad Tecnologica de León. Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Perez Soto Jose Saul, Universidad Tecnologica de León. Rodríguez Galaviz Brian Axel, Universidad Tecnologica de León. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proyecto reforzará la interacción con diferentes periféricos y dispositivos, como el módulo de biometría de huella digital, el módulo GPS y el sensor de carga de la batería. También se reforzará el diseño y montaje de un circuito adecuado para conectar y gestionar estos componentes.  



METODOLOGÍA

El objetivo de este proyecto es integrar una serie de sensores en un vehículo eléctrico para mejorar la seguridad y funcionalidad del mismo. Los sensores que se utilizarán son: Sensor de biometría de huella digital: Este sensor se aseguró para autenticar al conductor y permitir el acceso al vehículo. La huella digital del conductor se almacenará en una base de datos y se comparará con la huella digital escaneada para conceder o denegar el acceso. Posicionamiento global GPS: Se implementará un módulo GPS para obtener la ubicación precisa del vehículo. Esto permitirá realizar funciones como seguimiento en tiempo real, registro de trayectos y localización en caso de robo o emergencia. Sensor de estado de carga de batería: Para garantizar la eficiencia y seguridad del vehículo eléctrico, se obtendrá un sensor para medir el nivel de carga de la batería. Esto permitirá al conductor tener una estimación precisa del alcance del vehículo antes de necesitar una recarga. El microcontrolador ATMega328P será el cerebro del sistema, encargado de procesar los datos de los sensores y controlar las diferentes funciones del vehículo. Para lograrlo, se programará el microcontrolador en lenguaje C o algún lenguaje de programación compatible.


CONCLUSIONES

Al finalizar el proyecto, se tendrá un vehículo eléctrico más seguro y funcional, con capacidades avanzadas de autenticación, localización y supervisión del estado de la batería. Esto contribuirá a mejorar la experiencia del usuario y fomentará el uso de vehículos eléctricos como una opción de movilidad más sostenible.
Duarte Vazquez Heber Alfredo, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

ESTRATEGIAS DE LA CADENA DE ABASTECIMIENTO DE PRODUCTOS LáCTEOS EN TIENDAS DE ABARROTES EN IRAPUATO GTO.


ESTRATEGIAS DE LA CADENA DE ABASTECIMIENTO DE PRODUCTOS LáCTEOS EN TIENDAS DE ABARROTES EN IRAPUATO GTO.

Duarte Vazquez Heber Alfredo, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Considerando el desperdicio de alimentos a nivel tanto global como nacional es necesario analizar si existe relación entre el desperdicio y los pequeños comercios como lo son las tiendas de abarrotes ya que por la existencia de diferentes competencias con mayor capacidad de alcance de ventas las tiendas de abarrotes pueden tener mermas de alimentos como lo pueden ser los productos lácteos. En el municipio de Irapuato en el sector lácteo se presenta el problema de que a las tiendas de abarrotes les distribuyen fechas cortas de los yogurts ya que la fechas largas son para otros municipios o para la exportación, las fechas cortas son la mejor opción para distribuir en las tiendas de abarrotes por lo cual, es importante analizar cuáles son las estrategias de la cadena de abastecimiento para las tiendas de abarrotes ya que un manejo ineficaz puede producir mermas de productos así que empresas como danone tienen que realizar logística inversa de los productos para realizar el proceso y de esta forma reutilizar el envase y destruir los productos.



METODOLOGÍA

Para el levantamiento de información se tomó en cuenta la zona norte Irapuato en donde se realizarán entrevistas en las tiendas de abarrotes o minoristas en las colonias Juárez, Bernardo Cobos, Santa Fe, El Cobano y Fovissste. De acuerdo con el INEGI en estas colonias existen un total de 55 tiendas. Para realizar las entrevistas se utilizo una formula para sacar la muestra de la población de las 55 tiendas.  Una vez realizado los cálculos pertinentes se encontró que la muestra del universo de las tiendas de abarrotes es de un total de 32 tiendas a las cuales se les realizara la encuesta definida en el instrumento de medición en donde se analizaran las siguientes variables.


CONCLUSIONES

El desperdicio de alimentos lácteos en las colonias de la zona norte de Irapuato con una muestra de 32 tiendas tienen un promedio de 2.28 litros de desperdicio en Yogurt a la semana como primer acercamiento al desperdicio de alimentos se puede concluir que es necesario analizar más factores para determinar si el desperdicio de lácteos es significativo pero puede ser la antesala para analizar el desperdicio de alimentos de cualquier tipo en el municipio de Irapuato ya que de acuerdo con la investigación solo dos tiendas utilizan un sistema de información. Además es necesario analizar más variables en las tiendas de abarrotes como lo pueden ser Edad de los tenderos ya que al memento de realizar la encuesta la mayoría de las personas eran de la tercera edad y si es su principal fuente de ingresos esto ya que al realizar las entrevistas se encontraron varias tiendas cerradas y eso podría afectar a las ventas y al desperdicio de alimentos, también otro de los factores que se deberían analizar seria la cadena en frio de los proveedores ya que de acuerdo con las retroalimentaciones de los tenderos algunos productos llegaban inservibles o ya caducados de la misma ya que la investigación de campo se realizó en el verano y en época de canícula que son los días con mayor temperatura del año puede que los números de desperdicios de lácteos sea mayor a otra temporada del año además de encontrar la temporada en donde se produce un mayor consumo de estos productos.
Duran Cejudo Carlos Omar, Instituto Tecnológico Superior de Xalapa
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

PROTOTIPO IOT PARA EL MONITOREO Y CONTROL REMOTO DE VARIABLES ELéCTRICAS EN ASPERSORES DE AGUA UTILIZADOS EN SECTOR MINERO PARA LA DISMINUCIóN DE POLUCIóN.


PROTOTIPO IOT PARA EL MONITOREO Y CONTROL REMOTO DE VARIABLES ELéCTRICAS EN ASPERSORES DE AGUA UTILIZADOS EN SECTOR MINERO PARA LA DISMINUCIóN DE POLUCIóN.

Duran Cejudo Carlos Omar, Instituto Tecnológico Superior de Xalapa. Guexpal Tepox Adrián, Instituto Tecnológico Superior de Xalapa. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Las actividades de la industria minera en Colombia (principalmente en la extracción de carbón) generan un impacto negativo relacionado con la contaminación del aire a partir de las partículas liberadas a la atmósfera, cuya toxicidad depende del tamaño de las mismas, y de varios factores, tales como su naturaleza química, presencia de metales/metaloides traza, entre los cuales son comunes el plomo, cadmio, níquel, mercurio y arsénico, entre otros [1]. Atendiendo esta problemática desde el punto de vista tecnológico se colocaron distintos aspersores capaces de rociar agua alrededor del área donde esta actividad se lleva a cabo y lograr que las partículas no se esparzan por el aire. Al día de hoy esto ocurre de manera relativamente eficiente, ya que el accionamiento de estos dispositivos se lleva a cabo de forma manual. Lo que se busca es mejorar el proceso para que se lleve a cabo de manera automática al hacer el accionamiento desde un software capaz de realizar la acción. El desarrollo del prototipo descrito es una combinación efectiva entre hardware existente programable con tecnología LoRaWAN y una ejecución efectiva de esta misma. Cuidando los aspectos anteriores se pretende hacer una optimización de recursos, tareas e impactos en el ambiente y en la sociedad; logrando que la contaminación disminuya a través de un uso totalmente eficiente del internet de las cosas.



METODOLOGÍA

Se utilizo el DLOS8 Outdoor LoRaWAN como dispositivo gateway, dicho dispositivo esta conectado por medio de WiFi. Partiendo de ello, esté genera automáticamente una red WiFi; la contraseña ocupada para realizar la conexión es una genérica por parte del fabricante, en nuestro caso es Dragino. Por ende, la contraseña a ocupar fue dragino+dragino; para la configuración por medio de WiFi se realiza por medio de navegador entrando a la dirección IP 10.130.1.1 La interfaz de inicio de sesión del DLOS8 pide una cuenta para ingresar y poder realizar las configuraciones correspondientes, dichas credenciales son User Name: root; Password: Dragino El Gateway se conecta a una red de internet para poder tener comunicación con LoraWAN y así poder registrarse a la página de TTN (The Things Network), al momento de tener la conexión con una red de internet éste genera que el led de estado cambia a un verde estático. Gateway La creación del gateway en el servidor de TTN, empieza por la obtención de su ID desde su interfaz local, el cual se encuentra en el apartado de LoRaWAN. La página de TTN nos permitirá ingresar ese ID para enlazarlo a su servidor, por lo cual se ingresa con una cuenta previamente registrada que tenga las características idóneas para la implementación del prototipo. Una parte muy importante dentro de la página TTN es la elección del Cluster Picker, ya que tanto como el gateway y el dispositivo final (Controlador I/O) correspondan a una dirección de servidor de puerta de enlace específica, dicha información se encuentra en las páginas de los proveedores, en nuestro caso práctico ambos son Australia 1 (au1.cloud.thethings.network) La dirección del servidor de puerta de enlace debe coincidir con la configuración de la puerta de enlace; de lo contrario, tendrá problema para que el nodo final se una a la red. En la interfaz local del gateway se realizan ajustes en el plan de frecuencia del DLOS8 para que coincida con el nodo final que usamos, para que reciba los paquetes LoRaWAN del sensor LoRaWAN. Controlador I/O LoRaWAN Agregar un dispositivo final LoRaWAN a una red LoRaWAN nos permite observar los datos del sitio web de TTN. Partiendo desde la pestaña de aplicaciones de la página principal de TTN, en la cual se crea una nueva aplicación la cual solicitara datos de identificación únicamente. Al tener la aplicación creada, se prosigue a la creación del dispositivo final, para poder crearlo de forma correcta se necesitan las credenciales correspondientes, dicha información debe encontrarse dentro de la caja donde se encuentre el dispositivo, en la investigación se ocupó el LT-22222-L IO Controller; dentro de la caja donde se encuentra el dispositivo debe tener esta informacion: •    DEV EUI: código de identificación único para un dispositivo en particular. •    APP EUI: código de identificación para una aplicación definida en TTN v3. •    APP KEY: clave única para asegurar las comunicaciones con un dispositivo en particular. Algunas credenciales e información importante se pueden obtener por medio de comandos AT, dicha comunicación para ingresar dichos comandos es por medio de un conversor USB a TTL y por medio de la consola del software Serial Port Utility. Al tener toda la información necesaria del dispositivo para su registro en la página TTN, podemos encontrar diferentes apartados los cuales permiten el monitore de las señales TX y RX, las cuales nos indican el envió y la recepción de datos que se realiza entre el gateway y el dispositivo final cada determinado tiempo, cabe aclarar que ese intervalo de tiempo de igual forma puede ser manipulado por medio de los comandos AT. Finalmente, el apartado de Payload formatters enviar cargas significativas para el encendido o apagado de las E/S que contiene el controlador LT-22222-L IO Controller, en nuestro caso practico la carga se escribe en formato hexadecimal en el subapartado de Downlink, dicha carga fue la siguiente 03 00 00 en el FPort 2, para así encender una salida de relevador.


CONCLUSIONES

Una vez realizadas las pruebas anteriores se obtiene un ecosistema digital amigable entre el usuario y los diferentes componentes utilizados con la tecnología del internet de las cosas. Esta combinación de recursos permite un mejor manejo del controlador LT-222222-L el cual una vez programado y listo para usarse a un efector final podrá llevar a cabo tareas como encendido y apagado del dispositivo a conectar, monitorear diferentes variables que puedan llegar a ocuparse y por supuesto como resultado: automatizar procesos que anteriormente se llevaban de manera manual.
Duran Nava Paola Yareni, Universidad Autónoma del Estado de México
Asesor: Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional

ACONDICIONADOR TéRMICO SOLAR HíBRIDO CON IMPACTO SOSTENIBLE


ACONDICIONADOR TéRMICO SOLAR HíBRIDO CON IMPACTO SOSTENIBLE

Duran Nava Paola Yareni, Universidad Autónoma del Estado de México. Asesor: Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En este reporte se presenta el avance del proyecto multidisciplinario Acondicionador térmico solar híbrido con impacto sostenible desarrollado en el periodo en el verano junio-julio del 2023. El proyecto ha sido desarrollado por estudiantes de verano de cuatro unidades académicas diferentes, Módulo V Evaluación de la sustentabilidaddel acondicionador térmico solar híbrido, en el tema de impacto al medio ambiente de los acondicionadores térmicos solares. La contribución se está proponiendo a través de evaluación del impacto ambiental, social, y una propuesta de plan de negocio que apoyará la monetización (impacto económico) del desarrollo tecnológico. Tomando de estas propuestas en consideración para satisfacer las necesidades y la aceptación de la sociedad como factor decisivo. En este primer año se desarrolló la metodología para evaluar la parte social; estudio de mercado y el estudio de impacto social. En los años posteriores teniendo datos reales de los materiales utilizados se desarrollará la parte que comprende los relacionado con el medioambiente, como; estudio de impacto ambiental, vida útil, origen de materias primas, análisis de residuos, etc. En la parte final del último año, se pretende realizar la parte del estudio económico-financiero, con los tres ejes se podrá integrar la evaluación de la sustentabilidad del proyecto en desarrollo.



METODOLOGÍA

La metodología de Análisis de ciclo de vida (ACV) se considera como una de lasherramientas más desarrolladas para evaluar el desempeño medioambiental de sistemas de distintas gamas y áreas (Arena et al. 2003), ya que permite evaluar, desde una perspectiva global, todos los impactos ambientales que ocasiona la gestión y creación de componentes tecnológicos, facilitando la comparación entre distintas alternativas de tratamiento.  De acuerdo con la Norma ISO 14040 el Análisis de Ciclo de Vida es una técnica para determinar los aspectos ambientales e impactos potenciales asociados a un producto: compilando un inventario de las entradas y salidas relevantes del sistema, evaluando los impactos ambientales potenciales asociados a esas entradas y salidas, e interpretando los resultados de las fases de inventario e impacto en relación con los objetivos del estudio. El desarrollo de la metodología se planteó en realizar una búsqueda bibliográfica relacionada con la energía solar y la evaluación de impacto ambiental, donde se compararon los sistemas con similitudes a lo que se pretende realizar, tal es el ejemplo del Aire acondicionado térmico 100% híbrido con energía solar por DS Nueva Energía (Zhejiang DongShuoNew Energy Co., Ltd).


CONCLUSIONES

Se concluye que dentro del sistema Aireacondicionado térmico 100% híbrido con energía solar por DS Nueva Energía (Zhejiang DongShuoNew Energy Co., Ltd) las entradas, procesos y salidas son pocas y se generan a largo plazo, como es el caso de las entradas, donde solo son los materiales usados en primera instancia para la construcción del sistema, mientras que en los procesos, al no necesitar el uso de recursos naturales no renovables son de bajo impacto, y finalmente, en el caso de las salidas que aparecen después de un largo uso, y solo generaría un residuo que se puede dividir en sus componentes para otro uso y un menor impacto. Lo que lleva a que esta tecnología avanzada sea unejemplo de un buen recurso generado a partir de energías renovables para ahorrar dinero en las facturas de energía, reducir la huella de carbono y el impacto ambiental, así como mejorar la comodidad, llegando a una solución innovadora y sostenible para hogares, comercios e industrias.
Duran Partida Jose Jhovany, Universidad Autónoma de Sinaloa
Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

ENSEñANZA DE IDIOMAS POR MEDIO DE BOTS INTERACTIVOS.


ENSEñANZA DE IDIOMAS POR MEDIO DE BOTS INTERACTIVOS.

Duran Partida Jose Jhovany, Universidad Autónoma de Sinaloa. Witron Coronado Jose Juan, Universidad Autónoma de Sinaloa. Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El constante crecimiento de las tecnologías, además de muchos beneficios ha traído con ella bastantes mitos, específicamente hablando sobre la inteligencia artificial hay demasiados sobre esta misma, tanto positivos como negativos.   Otro de los puntos a tocar es el bajo porcentaje de hablantes de inglés en México comparado con los más de mil millones de hablantes en el mundo, todo esto pese a compartir frontera con Estados Unidos   El objetivo de este proyecto es la enseñanza de idiomas de personas no hablantes de inglés, por medio del desarrollo de bots en WhatsApp.



METODOLOGÍA

En el desarrollo de este proyecto es fundamental conocer las bases del lenguaje de programación a utilizar, una vez se tienen sentadas las bases para la utilización del mismo, posteriormente se pretende comenzar a buscar las librerías necesarias para el desarrollo del proyecto.   Una vez se tiene ubicada la librería a utilizar, es necesario adaptarse a la misma. Razón por la que también es necesario un estudio previo de los métodos propios de la misma, así como la realización de diferentes pruebas para ver el alcance de la misma.   Tener una base de datos estable es fundamental para el desarrollo del proyecto. Haciendo el análisis del alcance y de la escalabilidad del proyecto, se llegó a la decisión sobre qué base de datos utilizar, la cual debe de estar preparada para los futuros avances que se tendrán en el desarrollo.   El análisis y desarrollo de flujos de la conversación son la ruta crítica del proyecto, de modo que es la parte donde todas las piezas de la instigación encajan, una vez se tiene el análisis, lo primordial es hacer la conexión con la base de datos, para posteriormente, agregar los mismos datos a los flujos de la conversación.   La parte de la optimización y pruebas es importante, una vez terminada la parte del desarrollo, se debe de preparar el programa para llevarlo a producción con el menor número de fallos posibles.   Una vez se tienen las pruebas unitarias y de integración, se procede a realizar las pruebas con usuarios reales, donde se nos dieron sugerencias, así como la detección de algunos fallos, los cuales fueron arreglados, dando una segunda fase de pruebas con usuarios reales, las cuales tuvieron resultados bastante positivos a favor del proyecto, lo cual nos permitió llevar el proyecto a fase de producción.


CONCLUSIONES

El desarrollo de este proyecto nos permitió tener una visión más amplia conforme a la administración de proyectos de software, ya que si no se tiene un análisis previo, no se tiene la dirección que llevará el proyecto, así como el gran aprendizaje por parte de la logica de programacion, el como realizar las pruebas en un proyecto y el cómo pasar un proyecto a la fase de producción por medio de contenedores que albergan el proyecto.
Duran Sanchez Juan Manuel, Instituto Tecnológico de Tepic
Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar

PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER


PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER

Dominguez Herrera Denilson de Jesus, Instituto Tecnológico de Tepic. Duran Sanchez Juan Manuel, Instituto Tecnológico de Tepic. Marmolejo Sandoval Estefanía, Instituto Tecnológico de Tepic. Montoya Valdez Edwin Ramón, Instituto Tecnológico de Tepic. Pacheco Rosales Victor Manuel, Instituto Tecnológico de Tepic. Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

En la era digital, las redes sociales se han convertido en un espacio de interacción y expresión para millones de personas en todo el mundo. Sin embargo, junto con la libertad de comunicación y la facilidad de compartir ideas, también ha surgido un lado oscuro marcado por el anonimato y la impunidad. Específicamente, las redes sociales, con políticas menos restrictivas, como Twitter, han demostrado ser un terreno fértil para la propagación de mensajes ofensivos y discriminatorios, especialmente hacia la comunidad LGBTQ. La comunidad LGBTQ ha luchado históricamente por la igualdad de derechos y el reconocimiento de su identidad y orientación sexual en muchas sociedades. A pesar de los avances en los últimos años, persisten actitudes intolerantes y homofóbicas que encuentran su refugio en el entorno virtual. Las personas con prejuicios hacia esta comunidad suelen utilizar un lenguaje común caracterizado por palabras ofensivas y despectivas para expresar su discriminación y hostilidad. El impacto social y emocional del discurso de odio dirigido a personas LGBTQ es considerable. La exposición constante a mensajes discriminatorios puede provocar un daño emocional significativo, reforzar la invisibilidad y estigmatización de la comunidad y, en casos extremos, contribuir a la pérdida de autoestima y calidad de vida de las personas afectadas. Por lo tanto, es crucial implementar medidas efectivas para salvaguardar la integridad y el bienestar de la comunidad LGBTQ y de todos los usuarios de las redes sociales.  



METODOLOGÍA

1.- Descripción de los datos El conjunto de datos de PAN 2021 para perfilar a quienes difunden discurso de odio en Twitter se compone de 200 tweets por autor en formato XML, cada uno con un identificador de autor único. Este conjunto de datos incluye textos en español e inglés. 2.- Integración Se utilizan modelos de incrustación de sílabas fonéticas y fonemas para la transformación de caracteres fonéticos, entrenados con los corpus CESSESP para español y BROWN para inglés. Se extraen frases de estos corpus para generar vectores de palabras. Luego se extraen sílabas de cada palabra del vector y se transforman en su representación fonética IPA mediante la función transliterate de Epitran. Para las incrustaciones de fonemas, se realiza la representación fonética IPA de cada carácter de la palabra utilizando la función trans_list de Epitran. En cuanto a las características léxicas, el sentimiento inicial del mensaje se determina mediante SenticNet 5, que analiza expresiones de varias palabras relacionadas con conceptos emocionales. Se determinan otras características léxicas siguiendo métodos descritos en otras fuentes. 3.- Transformación de datos En este proceso, se concatenan los tweets de cada usuario para generar un único documento por perfil. Luego se limpian los textos, sustituyendo hashtags, menciones, URLs y emojis por las palabras "hashtag", "mention", "URL" y "emoji" respectivamente. Se eliminan caracteres especiales, signos de puntuación (excepto punto y coma), paréntesis y números. Luego se identifican y cuentan palabras globalmente reetiquetadas. Finalmente, el conjunto de datos se divide en un 70% para entrenamiento y un 30% para pruebas. 4.- Extracción de Caracteristicas Esta fase se enfoca en la extracción de características léxicas y fonéticas. La extracción de características léxicas involucra el análisis del uso de palabras, hashtags, menciones, URLs, emojis, la polaridad, el uso frecuente de partes del discurso y palabras odiosas. Por otro lado, la extracción de características fonéticas se divide en tres tareas: sílabas fonéticas, frecuencias fonéticas y fonemas. En relación a las sílabas fonéticas, se carga en memoria las sílabas fonéticas entrenadas. Luego, se extraen las frases de cada mensaje y las palabras de cada frase. A continuación, se obtienen las sílabas de cada palabra y se codifican en IPA. Usando el modelo de sílabas fonéticas incrustadas, se obtiene el vector de características de cada sílaba. Finalmente, se promedian los vectores de características en un único vector. 5.- Ajustes En la fase de configuración, se ajustan los parámetros de hardware de la máquina, como procesadores e hilos, y se pueden configurar diferentes escenarios para el uso de clasificadores. El sistema puede ajustarse para almacenar vectores de palabras y clasificadores. Durante todos los experimentos, se utilizó el 70% de los datos para el entrenamiento y el 30% restante para las pruebas. Basándose en trabajos previos realizados en el PAN, se examinaron varios clasificadores como la Regresión Logística (LR), Bosques Aleatorios (RF), Árbol de Decisión (DT), Bagging (BG), Gradient Boosting (GB) y AdaBoost (AB).      


CONCLUSIONES

En conclusión, este proyecto de investigación se centró en abordar el problema de la homofobia y el discurso de odio hacia la comunidad LGBT+ en las redes sociales, particularmente en Twitter. La detección automática de perfiles que propagan mensajes ofensivos es una tarea crucial para promover un entorno en línea más inclusivo y seguro. Para lograr este objetivo, se emplearon técnicas de procesamiento del lenguaje natural y aprendizaje automático, como el uso de características léxicas y fonéticas específicas. Estas técnicas permitieron analizar y recopilar una muestra representativa de mensajes con contenido homofóbico y entrenar un modelo capaz de identificar con una efectividad del 70% si un mensaje es homofóbico o no. Sin embargo, al ser un trabajo extenso aún no se cuenta con los modelos completamente entrenados, y por lo tanto no se puede mostrar un resultado enteramente certero por el momento. Pero es importante resaltar que estos hallazgos pueden ser de gran utilidad para las plataformas de redes sociales y la comunidad en general, ya que permiten identificar y enfrentar de manera más eficiente los discursos de odio en línea.  
Echeverri Tamayo Esteban, Institución Universitaria Digital de Antioquia
Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo

ELEMENTO CONSTRUCTIVO UTILIZANDO BAGAZO DE MAGUEY: BASES PARA LA SUSTENTABILIDAD DE LA CADENA DE VALOR


ELEMENTO CONSTRUCTIVO UTILIZANDO BAGAZO DE MAGUEY: BASES PARA LA SUSTENTABILIDAD DE LA CADENA DE VALOR

Echeverri Tamayo Esteban, Institución Universitaria Digital de Antioquia. Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo



PLANTEAMIENTO DEL PROBLEMA

En el estado de Michoacán se produce una gran cantidad de tequila para el consumo interno como para la exportación. La elaboración de esta bebida alcohólica deja como subproducto un bagazo, el cual es una fuente de contaminación ambiental por sus fibras y lixiviados. Se proponer hacer de este elemento considerado como un desperdicio, un elemento constructivo para viviendas rurales.



METODOLOGÍA

Usando el H111A se encontrara conductividad térmica del bagazo. Una vez hallada se estudiara su factibilidad para hacer casas, comparado el tiempo que tarda para que toda su superficie esta a la misma temperatura a la que fue expuesta una de sus caras. La temperatura de prueba tendrá que ser diferente a la temperatura ambiente para poder notar el cambio. Este proceso se repite con ladrillos comerciales, esperando que el tiempo que tarda el ladrillo de agave se similar o mayor que en los ladrillos comerciales


CONCLUSIONES

Aunque el ladrillo de agave no presenta una conductividad tan baja como la del ladrillo de cemento o el ladrillo rojo, es factible construir con este material porque su conductividad térmica no está alejada de los otros materiales a Los ladrillos de agave son más económicos de hacer que los otros ladrillos a los que fue comparado, porque se elavodora con un residuo, no necesita ser cocido y se puede fabricar en el mismo sitio de construcción
Elias Valdez Iurhitsi, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Dunstano del Puerto Flores, Universidad de Guadalajara

IDENTIFICACIóN EXPERIMENTAL DE UN SISTEMA DE SEGUNDO ORDEN SUBAMORTIGUADO MEDIANTE LA PLATAFORMA DSPACE


IDENTIFICACIóN EXPERIMENTAL DE UN SISTEMA DE SEGUNDO ORDEN SUBAMORTIGUADO MEDIANTE LA PLATAFORMA DSPACE

Elias Valdez Iurhitsi, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Dunstano del Puerto Flores, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente los convertidores CD-CD conmutados son sistemas electrónicos de potencia muy utilizados en computadoras o adaptadores de dispositivos debido a su alta eficiencia y tamaño reducido. En el contexto de energías renovables, los convertidores buck se utilizan comúnmente en sistemas de energía solar y eólica para ajustar la tensión generada por los paneles fotovoltaicos o los aerogeneradores para posteriormente almacenar la energía en baterías o alimentar dispositivos que requieran otro nivel de voltaje. Es por esto que resulta fundamental su comprensión para su uso diario y para poder implementar un control a este tipo de sistemas se tiene que conocer su función de transferencia, que muchas veces se puede obtener a partir de sus componentes y el conocimiento de su funcionamiento, sin embargo, muchas veces no se tiene disponible este información o se desconoce. Por lo tanto, en este verano delfín se ha buscado plantear la función de transferencia de un convertidor Buck comercial en base a la identificación paramétrica del sistema, excitando la entrada con una señal conocida para después hacer un análisis gráfico de las curvas obtenidas a la salida.



METODOLOGÍA

Para poder obtener las curvas de respuesta y mandar la señal PWM al Buck se utilizó la tarjeta CLP1104 con plataforma de prototipado rápido dSPACE DS1104. En primera estancia se preparó el espacio de trabajo, alimentando con una fuente CD de 60V al Buck y conectando a la salida una carga de 50Ω y un módulo de sensor de voltaje cuya medición iría directamente a la entrada ADC de la tarjeta. Por medio de la librería RTI1104 incorporada a MATLAB/Simulink, se realizó un programa capaz de obtener la señal medida a través de la dSPACE, compensar con ganancias la atenuación provocada por el modulo de medición y la tarjeta, para finalmente sacarla por una salida DAC y observarla con un osciloscopio. Posteriormente se realizó un programa en ControlDesk donde se variarían los valores del ciclo de trabajo del PWM desde 0.1 hasta 0.9 en intervalos de 0.1, para finalmente obtener las curvas de salida. Una vez obtenidas las ocho curvas de respuesta, a cada una de ellas se les obtuvo los parámetros característicos de un sistema de segundo orden subamortiguado, midiendo la respuesta de estado estable y(∞), el máximo pico de sobreimpulso en porcentaje (MP) y el tiempo pico (Tp) para después calcular el factor de amortiguamiento (ζ) y frecuencia natural del sistema ( wn), valores que permitirían obtener la función de transferencia del sistema.


CONCLUSIONES

Se buscó obtener una función de transferencia promedio del sistema en base a todos los parámetros obtenidos, sin embargo, al evaluar su respuesta al step no se obtuvo ninguna curva similar a la que originalmente se obtuvo del sistema. Al final, únicamente se obtuvo una función de transferencia particular que coincidió con la curva de respuesta del sistema ante el cambio de ciclo de trabajo de 0.1 a 0.2. Esta función de transferencia tuvo los siguientes parámetros medidos y calculados: y(∞)= 1.011804 MP= 0.51215 Tp= 0.0001376 ζ= 0.208320228  wn= 23349.23 Y su función de transferencia fue la siguiente:           5.516e08 -------------------------------- s2 + 9728 s + 5.452e08
Elizalde Olivares Alma Paulina, Universidad de Guadalajara
Asesor: Dra. Andrea Guadalupe Martínez López, Universidad Veracruzana

SíNTESIS DE TIO2 POR MéTODO DE ELECTROSPINNING PARA EL ESTUDIO DE DEGRADACIóN DE AZUL DE METILENO


SíNTESIS DE TIO2 POR MéTODO DE ELECTROSPINNING PARA EL ESTUDIO DE DEGRADACIóN DE AZUL DE METILENO

Elizalde Olivares Alma Paulina, Universidad de Guadalajara. Asesor: Dra. Andrea Guadalupe Martínez López, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

Debido al incremento poblacional y al desarrollo industrial del último siglo, se ha vuelto imprescindible la investigación y obtención de nuevos materiales que cuenten con propiedades que favorezcan a la solución problemas energéticos y ambientales con ayuda del avance tecnológico. Esto debido al incremento de los desechos que generan las zonas urbanas e industriales con diferentes niveles de contaminación, dándole un mal manejo a los desechos, causando cambios y problemas al agua, suelo y/o aire. Por lo que los contaminantes de relevancia a lo largo de esta investigación son químicos y biológicos, como lo son los colorantes u otro tipo de contaminantes microbianos, generados durante actividades industriales o cotidianas, que pueden incorporarse en el agua y, por ende, afectar a la población de manera directa o indirecta.



METODOLOGÍA

2.1 Preparación de las nanofibras de TiO2. El proceso de síntesis fue llevado a cabo en el Centro MICRONA. Se utilizó tetrabutil titanato (Ti(OBu)4), polivinilpirrolidona (PVP) (Mn= 1,300,000),  Pluronic 123 (P123) (Mn= 5,800) y etanol (99.45%) adquiridos de la empresa Sigma-Aldrich. Además de ácido acético (99.7%) de la empresa J.T.Baker. Se prepararon dos soluciones diferentes para obtener el producto final TiO2. La primera solución consistió en agregar 7.5 mL de etanol, 0.25 g de surfactante P123 y 0.45 g de PVP, que después se agitó durante 6 horas. Para la segunda solución con Ti(OBu)4, se incorporaron 3 mL de etanol, 3 mL de ácido acético y 1.5 mL de Ti(OBu)4. Esta solución se vertió lentamente en la primera solución mientras se agitaba magnéticamente durante 30 minutos a temperatura ambiente. Una vez que pasó el tiempo requerido y se obtuvo una solución viscosa, se depositó a una jeringa y se conectó a la fuente de voltaje del equipo Fluidnatek® LE-100 ubicado en el centro MICRONA, específicamente en el Laboratorio de Microfabricación y Diseño de Dispositivos Avanzados (LaMDDA). Se aplicó un potencial eléctrico de 23kV, con una distancia de 15 cm entre la aguja y el colector.  El producto resultante se calcinó a una temperatura de 450°C durante 3 horas para eliminar el PVP/P123 y obtener el TiO2 final. Finalmente, la muestra obtenida se molió suavemente usando un mortero de ágata. 2.2 Experimentos de degradación Los nanohilos fueron sometidos a un proceso de deposición durante un proceso de 3 horas, tras lo cual se recolectó una cantidad de TiO2 calcinado de 15 g aproximadamente. Posteriormente, se procedió a pesar cuatro muestras, dos de ellas con un peso de 2 g y otras dos con un peso de 4 g, siendo cada una de ellas cubiertas con Parafilm. La experimentación fue dividida en un lapso de dos días, en los cuales se llevó a cabo el mismo procedimiento con las muestras. Se tomaron dos vasos con pesos de 2 g y 4 g, respectivamente. Se preparó una solución utilizando 100 mL de agua destilada junto con 2 g de azul de metileno, la cual se mantuvo en constante agitación para asegurar la completa disolución del azul de metileno. Una vez que la solución alcanzó una concentración de 20 ppm, se agregaron 20 mL de dicha solución a cada vaso. Seguido de eso, se procedió a agitar las muestras durante 20 minutos con el fin de lograr una dispersión homogénea de las partículas en el medio líquido, incluyendo un vaso adicional designado como blanco, el cual contenía el azul de metileno sin ningún precursor. Acto seguido, las muestras fueron sometidas a la exposición solar en una habitación cerrada para controlar la humedad, temperatura y reducir la evaporación del medio líquido. Además, las tres muestras fueron selladas con Parafilm para evitar fugas. Las muestras fueron colocadas de tal manera que, sin importar la posición del sol, recibieran radiación UV para comenzar con el proceso de degradación del azul de metileno. Se realizaron mediciones en intervalos de 30 minutos durante un lapso de 6 horas por medio del UV-Vis para registrar el efecto fotocatalítico del TiO2. Como se planteó, las mediciones fueron llevadas a cabo por medio del equipo Nano-Drop 2000. Para ellos se vertieron 680 microlitros de solución de azul de metileno en una celda de cuarzo. Como se mencionó previamente, los experimentos se realizaron en un lapso de dos días, y cada día presentaba diferentes condiciones climáticas externas diferentes. Por lo que posteriormente, se analizarán las diferencias que pudieran surgir debido a estas condiciones. Durante las mediciones con espectrofotometría UV-Vis en ambos días, se buscó evaluar el decremento en el pico de absorbancia de las tres muestras. Para esto, se determinó la máxima absorbancia en cada muestra y se realizó una estimación del decremento en cada vaso en función de cada medición.


CONCLUSIONES

Los resultados obtenidos mediante este método de síntesis fueron favorables y, si se prologara el tiempo de investigación, podrían ser objeto de un estudio más profundo. Por lo que sería necesario realizar el análisis y caracterización por otro medio de las muestras de TiO2 para estudiar y comprender de mejor manera los cambios observados. A simple vista, las muestras no presentaron cambios significativos notables, pero al analizarlas mediante el equipo de UV-Vis, se notó una disminución notable en el pico de emisión de luz. Se podría esperar que, si las muestras fueran expuestas a los rayos ultravioleta de la luz solar durante varios días consecutivos, se pudiese observar una mayor disolución del azul de metileno. En conclusión, este método de síntesis es sumamente interesante y aprendí además otras aplicaciones de estos en diversas áreas. Sin embargo, en caso de repetir el experimento, sería recomendable emplear otro método de caracterización para analizar adecuadamente la estructura de los hilos. Esto permitiría plantear nuevas posibilidades de estudio del efecto fotocatalitico con otros colorantes y analizar los resultados de su degradación de manera precisa.
Enrique Becerril Jennifer, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

IMPLEMENTACIóN DE PLATAFORMA WEB PARA PROMOVER ATRACTIVOS TURíSTICOS DEL MUNICIPIO DE ELOTA EN EL ESTADO DE SINALOA


IMPLEMENTACIóN DE PLATAFORMA WEB PARA PROMOVER ATRACTIVOS TURíSTICOS DEL MUNICIPIO DE ELOTA EN EL ESTADO DE SINALOA

Diaz Rivera Asaf, Tecnológico de Estudios Superiores de Jocotitlán. Enrique Becerril Jennifer, Tecnológico de Estudios Superiores de Jocotitlán. Hermenegildo Adrián Berenice, Tecnológico de Estudios Superiores de Jocotitlán. Mejía Lozada Izael, Instituto Tecnológico de Pachuca. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

El municipio de Elota, ubicado en el estado de Sinaloa, se enfrenta a desafíos significativos a pesar del constante crecimiento del turismo en la región. Aunque este sector ha experimentado un aumento, Elota aún no ha logrado posicionarse como uno de los destinos más reconocidos y visitados en el área turística que abarca la región. Esta falta de reconocimiento se debe en gran parte a la popularidad dominante de Mazatlán, que se considera el principal lugar para visitar en Sinaloa. En consecuencia, los municipios vecinos, incluido Elota, se han visto relegados a una baja actividad turística. Es importante destacar que Elota cuenta con lugares únicos, como el monumento de la Cruz del perdón, la Playa Ceuta, entre otros, que lo distinguen y lo convierten en un destino especial. Considerando lo anterior, surge una necesidad apremiante de resaltar tanto Elota como otras áreas turísticas en la región. Esto no solo ayudaría a incrementar el número de visitantes, sino que también permitiría un mayor crecimiento en las comunidades locales, mejorando aspectos económicos, sociales y culturales. Es esencial que se promueva la diversificación turística y se ponga en relieve la singularidad de Elota y sus maravillas, para que los turistas puedan explorar y disfrutar de todas las ofertas que la región de Sinaloa tiene para ofrecer más allá de Mazatlán. En consecuencia, permitirá la apertura de grandes oportunidades para el desarrollo integral de las comunidades locales, fomentando un turismo más equitativo y sostenible en toda la región.



METODOLOGÍA

Durante el desarrollo del sitio web turístico, se utilizó una metodología basada en prototipos que comprende ocho fases. Este enfoque permite generar versiones preliminares del sitio y obtener comentarios del cliente de forma iterativa, asegurando que el sitio cumpla con sus requisitos y expectativas. Además, el proyecto fue llevado a cabo de manera colaborativa con alumnos del ámbito turístico, quienes proporcionaron el material informativo para el sitio web. En el primer paso se identificó el problema que enfrenta el municipio de Elota para posicionarse como destino turístico a causa de la popularidad de Mazatlán en la región. Esto ha llevado a una actividad turística limitada en Elota y otros municipios cercanos, a pesar de contar con atractivos lugares. Es esencial promover el reconocimiento de Elota mediante un sitio web, lo que no solo aumentaría el número de visitantes, sino también beneficiaría a las comunidades locales en aspectos económicos, sociales y culturales. Después de identificar el problema, se elaboraron una serie de requerimientos con el propósito de impulsar el reconocimiento del municipio mediante la creación de un sitio web interactivo que motive a los turistas a visitarlo. Para lograr esto, el sitio web debe contar con un diseño atractivo que incluya una experiencia de visita virtual mediante representaciones de imágenes 360 y modelos 3D de los principales lugares de interés turístico. Se procedió a la construcción del prototipo, que comprendió dos etapas. En la primera etapa, se diseñó el sitio web utilizando el framework Figma para establecer su estructura y seleccionar las herramientas necesarias. Se eligió Vue.js para la interfaz y A-Frame para las escenas 3D con modelos creados en Blender de los lugares turísticos. En la segunda etapa, se inició la construcción del sitio web siguiendo el diseño previo, utilizando las herramientas mencionadas. El prototipo del sitio web entra en una etapa de evaluación, en la cual se verifica que el sitio cumpla con los requerimientos establecidos. Después de completar la evaluación, se lleva a cabo un análisis del feedback proporcionado por el cliente, con el fin de identificar posibles áreas de mejora y determinar la incorporación de nuevas funcionalidades, en caso de ser necesario. Tras la evaluación, en las etapas de modificación y pruebas se llevó a cabo un análisis e implementación de las posibles funcionalidades que podrían agregarse al sitio web, siempre y cuando fueran necesarias. En caso de no añadir nuevas funcionalidades se efectuaron mejoras al prototipo en las diferentes áreas que conforman el sitio web. Las mejoras se centraron en aspectos gráficos, como el modelado de estructuras, texturas y escalas, así como en depurar la información presentada en cada sección del sitio. Además, se trabajó en la optimización de objetos y videos dentro del entorno del sitio web. En todas las fases del desarrollo del sitio web, se registró detalladamente el proceso utilizado para crear cada uno de los elementos que conforman el sitio. Esto se hizo con el propósito de contar con información precisa y clara sobre el proceso seguido, lo que será de gran utilidad en las etapas posteriores del desarrollo. Finalmente, se dio por concluido el desarrollo del sitio web, asegurándose de que cumpliera con todos los requerimientos establecidos desde el inicio y verificando que estuviera libre de errores.  Una vez hecho esto a futuro se buscará que el sitio web sea alojado en un servidor público o privado para que los usuarios puedan acceder a este desde cualquier dispositivo con conexión a internet.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos en desarrollo web y realidad virtual, utilizando frameworks como Vue.js y A-Frame para diseñar un sitio web turístico que promueva la actividad turística del municipio de Elota, Sinaloa. El sitio ofrece una experiencia interactiva de visita virtual con imágenes 360 y modelos 3D de lugares de interés. Se utilizó una estructura de página de tipo SPA para cargar elementos sin recargar la página, también se implementaron herramientas adicionales para mejorar la carga de elementos, especialmente los modelos 3D, con planes de futuras mejoras. El desarrollo del sitio alcanzo un 80%, con planes para agregar una sección de administración y una sección de reseñas sobre el municipio.
Enriquez Gonzalez Sergio Martin, Universidad Politécnica de Victoria
Asesor: Dr. Enrique Rocha Rangel, Universidad Politécnica de Victoria

BIOMATERIAL A BASE DE HIDROXIAPATITA REFORZADO CON NANOPARTíCULAS DE TITANIO


BIOMATERIAL A BASE DE HIDROXIAPATITA REFORZADO CON NANOPARTíCULAS DE TITANIO

Enriquez Gonzalez Sergio Martin, Universidad Politécnica de Victoria. Asesor: Dr. Enrique Rocha Rangel, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

La hidroxiapatita es un biomaterial natural o sintético con propiedades únicas que lo diferencian de otros materiales, ya que puede interactuar con tejidos vivos de forma inmediata sin generar respuestas inmunes negativas en el organismo. Actualmente, su estudio ha tenido un gran impacto debido a que representa el 99% del calcio corporal y se utiliza principalmente en prótesis dentales, implantes orbitarios, medicina estética, entre otras aplicaciones. Sin embargo, su fabricación de manera sintética presenta propiedades mecánicas bajas, lo que la vuelve frágil y vulnerable a esfuerzos. Para superar este inconveniente, se ha propuesto el dopaje de nanopartículas de titanio debido a su biocompatibilidad y excelentes propiedades mecánicas. Esta mejora en las propiedades mecánicas permitirá un mejor desempeño de la hidroxiapatita en sus aplicaciones.



METODOLOGÍA

El proceso comienza con una meticulosa mezcla de los polvos de hidroxiapatita y titanio, asegurando obtener una composición homogénea que permita controlar las propiedades finales de la pieza. Una vez mezclados, los polvos son colocados en un dado con la forma deseada y sometidos a altas presiones uniaxiales, mediante prensas hidráulicas o mecánicas. Esta etapa de compactación es crucial para comprimir los polvos y dar forma al componente final. Posteriormente, las preformas compactadas se introducen en un horno, donde son sometidas a altas temperaturas en un ambiente controlado, generalmente en atmósfera protectora o bajo vacío. Durante la sinterización, las partículas de los polvos se unen por difusión en estado sólido, lo que conduce a la formación de una pieza sólida y coherente. Durante este proceso, las partículas individuales se fusionan, y los poros creados durante la compactación disminuyen, aumentando significativamente la densidad de la pieza.


CONCLUSIONES

La hidroxiapatita, un biomaterial natural o sintético, se refuerza con nanopartículas de titanio para mejorar sus propiedades mecánicas en aplicaciones médicas y odontológicas. El resultado es un biomaterial de alto rendimiento y biocompatibilidad.   La corrosión del material presenta un potencial de corrosión cercano al -0.9 V y corriente de corrosión con un valor (aproximado de manera rápida) de 4.6 microamperes. Dentro de los resultados esperados, buscamos obtener los valores de la resistencia a la compresion, una informacion mas precisa de la prueba de conductividad.  
Escamilla Angulo Dulce María, Universidad de Guadalajara
Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara

DEGRADACIóN DE NAPROXENO USANDO TIO2 DOPADO CON DIFERENTES PORCENTAJES DE HIERRO.


DEGRADACIóN DE NAPROXENO USANDO TIO2 DOPADO CON DIFERENTES PORCENTAJES DE HIERRO.

Escamilla Angulo Dulce María, Universidad de Guadalajara. Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El agua es un recurso indispensable para la vida humana y los ecosistemas en los que habitamos, gracias al desarrollo urbano se ha deteriorado de manera significativa. Los productos derivados de fármacos no eran clasificados como contaminantes pero a partir de las últimas décadas es cuando se comienza a cuantificar la acumulación de ellos en el medio acuoso. Gracias a algunas técnicas como la cromatografía acoplada a la espectrometría es que se pudo detectar que los fármacos catalogados como analgésicos o antiinflamatorios son los que presentan concentraciones más altas en el agua. El naproxeno es un fármaco que no necesita una prescripción médica para adquirirlo y actualmente es uno de los contaminantes más frecuentes por su constante descarga. Los procesos de oxidación avanzada han demostrado ser eficientes para la degradación de muchos contaminantes contenidos en el agua. La fotocatálisis es un proceso de oxidación en el que se absorbe energía UV por medio de un foto catalizador, en esta técnica se excita comúnmente un semiconductor en presencia de oxígeno y agua. La finalidad de este proceso es crear grupos hidroxilos, los cuales son altamente reactivos con la mayoría de semiconductores. El dióxido de titanio (TiO2) es un semiconductor muy estudiado por sus propiedades fotocatalíticas y presenta la habilidad de ser modificado. Habitualmente se recurre a nanomateriales para hacer que la carga sea transferida entre el semiconductor y la solución acuosa. La síntesis de nanomaterales se realiza por el proceso de sol-gel.



METODOLOGÍA

Preparación del catalizador. Los nanomateriales fueron sintetizados por medio del método sol-gel, en el que se agregó butóxido de titanio y nitrato de hierro (a excepción del primer material) a una solución de extracto, a cada material se le agregó un porcentaje del nitrato, 0.1%, 0.3%, 0.5%, 1%, 3% y 5% respectivamente. Después de haber dejado la síntesis en un sistema que favoreciera este proceso retiramos los matraces donde se encuentra nuestro gel al término de dieciocho horas, y procedemos a secar en un horno para luego pasar a calcinar nuestro material, en el proceso del calcinado es muy importante aseguramos que este incremente dos grados Celsius por cada minuto y que al llegar a los quinientos grados este mismo se apague. Al finalizar el calcinado se utiliza un mortero para tratar de que nuestras partículas queden del menor tamaño posible y lo guardamos en un recipiente etiquetado. Solución de naproxeno Para poder realizar los cálculos correspondientes a la cinética de nuestra reacción necesitamos calcular una curva de calibración, para ello agregamos 0.0030 gramos de naproxeno a un litro de agua purificada y con la ayudad de una pipeta separamos 10 ml, 20 ml, 30 ml, 40 ml y así sucesivamente hasta llegar hasta los 90 ml, aforando cada muestra hasta los 100 ml. Se procede a tomar una pequeña cantidad de cada muestra y lo analizamos en un espectrofotómetro Shimadzu 2600 UV-Vis a una longitud de onda de 230 nm, longitud de onda máxima para el fármaco utilizado. Seguido de esto medimos la absorbancia y con ello realizamos los cálculos para crear nuestra curva y con ello la ecuación de la recta. Muestreo Para comprobar que nuestro nanomaterial degradara significativamente el contaminante que elegimos se recreó la solución madre de la que obtuvimos nuestra curva de calibración, pero a diferencia de antes dejamos airear la solución por aproximadamente dos horas, esto con la finalidad de crear grupos hidroxilo y que nuestra reacción sea más eficiente, una vez que tenemos nuestra solución aireada se toman 300 ml y se le agregan 0.1 gramos del material sintetizado. Se coloca una mosquita en la solución y nos aseguramos que se agite de forma adecuada, cuando nuestro sistema se encuentre montado y con aireación constante procedemos a muestrear cada 30 minutos. Todos los muestreos se hacen con ayuda de la luz UV, a excepción del primero, y este se realiza con la ayuda de un filtro y una jeringa sin punta. Al haber realizado y leído todas las muestras en el espectrofotómetro encontramos la peculiaridad de que la reacción dejaba de degradar después de 2 horas de que comenzara, es por ello que se realizó un segundo intento en donde los intervalos iniciaron con 30 minutos en donde se excluyó el uso de luz UV, 10 muestreos donde la diferencia de cada uno fue de un minuto, 2 intervalos de 10 minutos para así llegar a la hora de nuestra reacción y finalmente se implementaron intervalos de 15 minutos hasta que se llegó a las 2 horas de degradación. La degradación se realizó en una caja donde no se filtrara la luz natural, esto con la intención de estudiar solamente el comportamiento de nuestro experimento cuando sólo se utiliza la luz UV o en su defecto se utiliza completa oscuridad.  


CONCLUSIONES

A pesar que el primer muestreo se realizó a los 30 minutos, se omitió este dato dentro de la gráfica de degradación debido que la reacción fotocatalítica comienza después de este intervalo. Esto se realizó con la finalidad de tener mejor visibilidad de la cinética de nuestro experimento. Para tener una mejor visión del comportamiento de nuestros materiales se realizaron dos gráficos, uno de la cinética de reacción y el otro de la concentración de naproxeno. Con estos datos pudimos observar que efectivamente existe una degradación de nuestro contaminante, esto se debe en gran parte a que el dióxido de titanio es un semiconductor que bajo la luz UV tiene la capacidad de generar agentes oxidantes capaces de descomponer la mayoría de contaminantes orgánicos. De igual forma se concluye que la reacción de fotocatálisis llega a su equilibrio antes de los 20 minutos, habiendo degradado así la mayor parte del contaminante. Finalmente se observa que a medida que el porcentaje de hierro en el dióxido de titanio aumenta la cinética se ajustará mejor a la de segundo orden (a excepción del primer porcentaje).
Escobedo de la Cruz Glorialicia, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PIRóLISIS DE MEZQUITE Y COCO A TRAVéS DE CONCENTRACIóN SOLAR


PIRóLISIS DE MEZQUITE Y COCO A TRAVéS DE CONCENTRACIóN SOLAR

Escobedo de la Cruz Glorialicia, Universidad de Sonora. Guerrero Palomares Lessly Yadira, Universidad Estatal de Sonora. Nolasco Martinez Jose Uriel, Benemérita Universidad Autónoma de Puebla. Zumaya Mercado Ciara Gabriella, Universidad de Guadalajara. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La producción de carbón vegetal se lleva a cabo a través de calentar la madera a altas temperaturas con una presencia mínima de oxígeno, cuyo resultado es un material combustible, poroso y con alto contenido en carbono que se aprovecha, mayoritariamente, como combustible, no solo de uso doméstico. A diferencia de la leña, el carbón tiene un mayor poder calorífico, no libera casi nada más que dióxido de carbono; ya que al combinarse el carbón del elemento con el oxígeno del entorno se forma esa reacción química. Sin embargo, su proceso de producción sigue siendo perjudicial hacia el ambiente, por lo que en este proyecto de investigación se busca obtener el mismo resultado mediante un proceso renovable en donde se aproveche la radiación solar en forma de energía solar térmica por concentración solar fototérmica para llevar a cabo la pirolisis de madera de mezquite y sustrato de coco. OBJETIVO  Obtener carbón vegetal mediante un proceso renovable, en este caso energía termosolar por concentración solar fototérmica, cumpliendo con el proceso de pirolisis para materia prima de madera de mezquite y sustrato de coco.



METODOLOGÍA

El proceso de pirólisis es la degradación térmica de una sustancia en ausencia de oxígeno, por lo que dichas sustancias se descomponen mediante calor, sin que se produzcan las reacciones de combustión. Para la obtención del carbón vegetal de coco y de mezquite se plantea el uso de tecnologías de energía solar. Las características básicas para realizar el proceso:  El único oxígeno presente es el contenido en el residuo a tratar. Las temperaturas de trabajo son inferiores a las de la gasificación, oscilando entre 400 °C, 600 ºC y 800 °C en las pruebas realizadas.   Uso de un reactor fijo de acero inoxidable.  Fuente de energía a través de concentración solar fototérmica. La energía que se utilizó para el proceso de la pirolisis es a base de la concentración solar fototérmica, por lo que se considera como un intercambiador de calor que transforma en energía solar a energía térmica a través de una concentración óptica. En la plataforma solar de Hermosillo se cuentan con varios tipos de concentración solar, pero para esta investigación se eligió enfocarse en un horno solar.  El sol es una fuente de energía distante que nos brinda radiación, dicha energía es la que utiliza el helióstato para reflejarla en el espejo parabólico de concentración. Una vez que la radiación es dirigida al concentrador estas son redirigidas hacia el foco de la parábola que en este caso es la posición o es la distancia a la que se encuentra nuestro reactor. Este factor es importante para saber la intensidad de radiación que va a recibir el reactor. En este caso para nuestra muestra se colocó a una distancia de 1.5 m del concentrador.  El análisis que se busca con el proceso de la pirolisis con la concentración solar a través de las distintas pruebas realizadas es ver el comportamiento de acuerdo con las tres temperaturas máximas que se consideraron y compararlos con los resultados obtenidos de cada muestra. A su vez también analizar el porcentaje de fracción volumétrica.  Como resultado del proceso se obtiene:  1. Gas, cuyos componentes básicos son CO, CO2, H2, CH4 y compuestos más volátiles procedentes del cracking de las moléculas orgánicas, así mismo con los ya existentes en los residuos. 2. Residuo líquido, compuesto básicamente por hidrocarburos de cadenas largas como alquitranes, aceites, fenoles, ceras formados al condensar a temperatura ambiente.  3. Residuo sólido, compuesto por todos aquellos materiales no combustibles, los cuales o bien no han sido transformados o proceden de una condensación molecular con un alto contenido en carbón, metales pesados y otros componentes inertes de los residuos.


CONCLUSIONES

A lo largo de nuestra estancia de verano se presentó un descubrimiento principal en la Plataforma Solar de Hermosillo que nos permitió obtener una aplicación de la energía termosolar en el proceso de pirolisis de mezquite y de coco, el cual nos ayudó a determinar las temperaturas y las tasas óptimas de calor a partir de la calidad química del carbón que se obtuvo, ya que según las diferentes variables de temperatura que manejamos se obtuvo una respuesta óptima en la liberación de gases (Metano, Monóxido de Carbono e Hidrogeno). Sin embargo, esta aplicación se obtuvo a base de la concentración solar que nos permitió aplicar metodologías novedosas y utilizar dispositivos especializados que son únicos en su tipo.
Escobedo Rocha Ramon Alejandro, Universidad Autónoma de Tamaulipas
Asesor: Dr. José Hugo Barrón Zambrano, Universidad Autónoma de Tamaulipas

PROTOTIPO DE VEHíCULO AUTóNOMO UTILIZANDO KIT EDUCATIVO DE ROBOTICA


PROTOTIPO DE VEHíCULO AUTóNOMO UTILIZANDO KIT EDUCATIVO DE ROBOTICA

Escobedo Rocha Ramon Alejandro, Universidad Autónoma de Tamaulipas. Medellin Calderon Alfredo Enrique, Universidad Autónoma de Tamaulipas. Asesor: Dr. José Hugo Barrón Zambrano, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Este proyecto utiliza como base el funcionamiento de vehículos autonomos, realizando sus funciones con kits educativos, los cuales son accesibles para todo el publico y permite que se empiece a trabajar en problematicas con soluciones limitadas por los kits, pero a la vez funcionando como prototipos a mejorar y funcionando como proyectos a futuro. Este vehículo trata de localizarce en un plano, teniendo como ubicación cualquier punto del mapa de manera aleatoria, a su vez, simula la recolección de pasajeros y simula la entrega de los mismos en puntos especificos, dependiendo la etiqueta del pasajero.



METODOLOGÍA

En referencia al hardware se hará uso del kit educativo de LEGO Mindstorms EV3, utilizando MicroPython para la programación de nuestros dispositivos, con la implementación de dos bricks para nuestro robot, comunicados por Bluetooth mediante los métodos del módulo. El primer brick funciona como servidor y cuenta con los siguientes dispositivos En cuanto a sensores: 3 sensores de color. 1 sensor infrarrojo. En cuanto a actuadores: 3 servomotores grandes. 1 servomotor mediano. El segundo brick funciona como cliente y cuenta con los siguientes dispositivos. En cuanto a sensores: 1 sensor infrarrojo. 1 sensor de color. 1 sensor ultrasónico No cuenta con actuadores. Lo primero que se realizo es buscar la forma de ubicar el vehículo, el cual utiliza los sensores de colores para detectar dentro del plano los colores que tienen como objetivo simular paredes, asi como los colores que simulan puertas de entrada, al igual que el color que simula el lugar donde se encuentran los pasajeros a recoger. Utilizando esto, el robot se ubica haciendo uso de giros dependiendo el color que detecta. Para la recolección del pasajero, utiliza los sensores de color para avanzar de forma recta, asi como sensores infrarrojos para detectar el pasajero, los cuales estan ubicados a cierta altura, ya que dependiendo el tamaño del pasajero se clasifica como niño u adulto. Una vez que obtiene al pasajero, con un sensor de color que tiene en la parte frontal, detecta el color del pasajero, el cual le indica el lugar a donde se debe de llevar dependiendo su clasificación. Para realizar la entrega del pasajero, se realiza una matriz la cual cuenta con la ubicación actual del vehículo y se actualiza conforme recorre la ruta calculada al lugar del mapa. De la misma forma utiliza una matriz para regresar al punto de recoleccion de pasajeros.


CONCLUSIONES

En cuanto a los resultados que se obtuvieron, hasta el momento, el vehículo es capaz de ubicarse iniciando en un lugar aleatorio del plano, asi como tambien es capaz de recolectar y reconocer el tipo de pasajero. La parte de la entrega del pasajero, aun se esta trabajando, para realizar la matriz y la forma de actualizar la ubicacion al ir recorriendo el plano y cambiando de posición en la matriz.
Eslava Perez Diana Areli, Universidad Tecnológica de Xicotepec de Juárez
Asesor: M.C. José Antonio Cárdenas Valderrama, Universidad Tecnológica de Xicotepec de Juárez

CONTROL DIGITAL MEDIANTE LABVIEW


CONTROL DIGITAL MEDIANTE LABVIEW

Eslava Perez Diana Areli, Universidad Tecnológica de Xicotepec de Juárez. Asesor: M.C. José Antonio Cárdenas Valderrama, Universidad Tecnológica de Xicotepec de Juárez



PLANTEAMIENTO DEL PROBLEMA

El objetivo fundamental de un sistema de control es conseguir que el sistema funcione de una manera específica, deseada y omitiendo la intervención humana. El proceso o sistema que se quiere controlar recibe una serie de entradas, las procesa y genera una serie de salidas, estas salidas son medidas por un sistema de control que decide qué entradas aplicar al sistema para llegar a las especificaciones prediseñadas. El proyecto tiene como objetivo diseñar un sistema de control digital a un motor, con la finalidad de monitorear y controlar la velocidad y la posición.



METODOLOGÍA

Primeramente se adquirió el movimiento del motor y se generaron las señales digitales para controlar la dirección del motor, así como el ciclo de trabajo. En seguida, se elaboró el instrumento virtual. En la teoría de control, se utilizan funciones de transferencia para caracterizar las relaciones de entrada y salida del sistema, por lo que el siguiente paso fue hallar la función de transferencia del motor, después de hallar los valores de la función de transferencia, se diseñó un controlador PID que cumpliera con nuestras expectativas, un controlador PID es un mecanismo de control por realimentación que calcula el error entre un valor medido y un valor deseado, el algoritmo del control PID consiste en tres parámetros: el proporcional, el integral y el derivativo. El valor proporcional depende del error actual, el integral depende de los errores pasados y el derivativo es una predicción de los errores futuros. Ajustando estas tres variables en el algoritmo del control del PID, el controlador puede proveer una acción de control diseñada para los requerimientos del proceso específico. Finalmente se logró controlar y monitorear a través de gráficas la velocidad, donde se aplicó un filtro para obtener mejores resultados. Por otro lado, también se logró monitorear y controlar la posición del motor. El proyecto seguirá en desarrollo con la finalidad de integrar la velocidad y el posicionamiento en un mismo sistema de control.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de los  sistemas de control, funciones de transferencia, instrumentación virtual, programación y de filtros, a pesar de cumplir con el objetivo principal, el proyecto seguirá en desarrollo, para buscar mejoras y una posible aplicación en exoesqueleto de mano para ayudar a la rehabilitación de pacientes con lesiones.
Espejo Mercado Alicia Dayana, Universidad Autónoma de Baja California
Asesor: Dr. Juan Felipe Soriano Peña, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO DEL MECANISMO PRINCIPAL DE UN ROBOT AUTóNOMO DEDICADO A LA RECOLECCIóN DE MUESTRAS ACUOSAS PARA SU ANáLISIS Y DETERMINACIóN DEL ESTADO Y CALIDAD DE LAS MISMAS


DISEñO DEL MECANISMO PRINCIPAL DE UN ROBOT AUTóNOMO DEDICADO A LA RECOLECCIóN DE MUESTRAS ACUOSAS PARA SU ANáLISIS Y DETERMINACIóN DEL ESTADO Y CALIDAD DE LAS MISMAS

Espejo Mercado Alicia Dayana, Universidad Autónoma de Baja California. Asesor: Dr. Juan Felipe Soriano Peña, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

México, un país con una rica biodiversidad y cautivadores paisajes, ha sido escenario de numerosos desastres naturales a lo largo de su historia. Estos eventos, como terremotos, huracanes, erupciones volcánicas e inundaciones, han tenido un impacto devastador tanto en el entorno como en la población. Además de las pérdidas humanas y materiales, uno de los efectos más preocupantes de estos fenómenos es la contaminación de las fuentes de agua potable. Los desastres naturales, especialmente las inundaciones, pueden arrastrar diversos contaminantes hacia los cuerpos de agua cercanos. Estos contaminantes incluyen productos químicos tóxicos, desechos industriales y residuos humanos. Como resultado, la población que depende de estas fuentes para el consumo y el riego se enfrenta a serios problemas de salud. Además, la vida acuática y los ecosistemas también se ven afectados negativamente. Algunos ejemplos de estos casos incluyen el huracán Willa en 2018, que contaminó las fuentes de agua en los estados de Nayarit y Sinaloa con aguas residuales y desechos; el terremoto de Puebla en 2017, que dañó la infraestructura de agua y alcantarillado, resultando en la contaminación de fuentes de agua con aguas residuales; y el huracán Delta en 2020, que afectó la Península de Yucatán, provocando inundaciones y contaminando las fuentes de agua. Además de estos desastres, hubo otras inundaciones en los estados de Tabasco y Chiapas en 2021 y 2020, respectivamente, que contaminaron las fuentes de agua con aguas residuales, desechos y productos químicos, generando problemas de salud y escasez de agua potable en las regiones afectadas. Otro caso significativo fue el derrame de sulfato de cobre en Sonora en 2014, donde una mina de cobre liberó grandes cantidades de este contaminante en el Río Sonora, afectando a más de 20,000 personas y causando daños ambientales. Ante estos desastres, se ha establecido un protocolo para examinar las fuentes de agua potable lo antes posible y evitar que se suministre agua contaminada a las comunidades. Esto implica la recolección de muestras de agua mediante el muestreo, lo que puede exponer al personal a riesgos adicionales en lugares donde han ocurrido desastres naturales. Formulación del problema  Es fundamental implementar estrategias de recuperación sostenibles, con el fin de minimizar los impactos y proteger los recursos naturales de México, mientras que se elimina el riesgo de seguridad para las personas capacitadas para realizar los muestreos para el análisis de fuentes de agua potable con el objetivo de que el agua que se surta a las comunidades cumpla con las normas de calidad establecidad   Objetivo general Diseñar el mecanismo principal de un robot autónomo dedicado a la recolección de muestras acuosas para su análisis y determinación del estado y calidad de las mismas. Objetivos específicos Realizar una valoración crítica del estado del arte en la construcción de robot autónomos de pequeñas y medianas dimensiones. Desarrollar una metodología de trabajo para el diseño y  construcción de un robot autónomo dedicado a la recolección de muestras acuosas para el análisis de su estado y calidad. Diseñar un robot autónomo para la recolección de muestras acuosas y su análisis, garantizando que cumpla con las principales funciones de desplazamiento, funcionalidad y desempeño en el terreno de trabajo.



METODOLOGÍA

El diseño se realizó de acuerdo con el modelo del proceso de diseño de French, por lo que la estaba inicial del diseño parte de la correcta definición del problema a través de la identificación de necesidades y restricciones del dispositivo. Para ello, se realiza una investigación documental donde se busca información relevante que permita crear listas de necesidades, medidas y especificaciones que deba cumplir diseño.  Una vez que la información fue recopilada y procesada, se discutieron las opciones para posteriormente elegir las más factibles. Para obtener las especificaciones, fue necesario evaluar los requerimientos y qué condiciones se necesitan para cada uno , determinando aspectos esenciales como el tamaño, las funciones, la geometría y las condiciones del entorno de trabajo. A partir de esto, se establecieron los puntos clave para crear la lista de necesidades. Una vez que fueron definidas las funciones y sus relaciones, se construyó una matriz morfológica donde se compararon los diferentes criterios de solución con cada función del diagrama. Las combinaciones de funciones permitieron generar estructuras de trabajo o conceptos de solución para el problema. Utilizando criterios extraídos de las especificaciones iniciales y asignando valores de calificación, se seleccionó el concepto de solución que mejor se ajustaba a cada estructura, considerando estos criterios. De esta manera, se determinó el criterio final ponderando la escala establecida para la opción más viable que resolverá los problemas iniciales. De esta forma, se llega a la solución más adecuada de acuerdo con los criterios elegidos para alcanzar los objetivos planteados inicialmente.


CONCLUSIONES

Los resultados obtenidos durante este proyecto fueron: La elaboración de un estado del arte que permitió la valoración crítica de distintas fuentes de información como tesis, investigaciones y reportes técnicos aterrizados en el campo de robots de pequeñas dimensiones con misiones relacionadas en otros lugares del mundo. Aplicar la metodología para el diseño mecánico que permitió que cada uno de los mecanismos del prototipo funcione de manera óptima pasando por una selección entre distintas configuraciones para cumplir los objetivos y misión del robot. El diseño de un robot de pequeñas dimensiones capaz de recolectar, almacenar y transportar muestras de agua para un análisis posterior dentro de un laboratorio, representado en planos 2D, como en modelado CAD.
Espinosa Casillas Diego, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dra. Anahi Jobeth Borras Enríquez, Tecnológico de Estudios Superiores de San Felipe del Progreso

EVALUACIóN DE PRODUCCIóN DE ENERGíA A PARTIR DE CELDAS DE COMBUSTIBLE MICROBIANAS Y BIOELECTRODOS


EVALUACIóN DE PRODUCCIóN DE ENERGíA A PARTIR DE CELDAS DE COMBUSTIBLE MICROBIANAS Y BIOELECTRODOS

Espinosa Casillas Diego, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dra. Anahi Jobeth Borras Enríquez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la generación de energía eléctrica se ve afectada debido a la gran demanda que se vive debido a la sobrepoblación actual en el mundo es por ello que se necesitan buscar nuevas alternativas para ayudar a satisfacer la demanda energética por lo que las energías renovables son una gran alternativa para ello, dentro de las energías renovables podemos encontrar a las celdas de combustible microbiana (CCM) que son dispositivos electroquímicos que utilizan microorganismos para convertir la energía química de los sustratos orgánicos en energía eléctrica. Estas celdas representan una prometedora tecnología para la generación de energía sostenible, ya que ofrecen ventajas como la utilización de materiales renovables y la capacidad de tratar residuos orgánicos, generar electricidad y pueden eliminar los residuos lo que nos permite reducir el impacto ambiental asociado con su disposición inadecuada.En la actualidad la generación de energía eléctrica se ve afectada debido a la gran demanda que se vive debido a la sobrepoblación actual en el mundo es por ello que se necesitan buscar nuevas alternativas para ayudar a satisfacer la demanda energética por lo que las energías renovables son una gran alternativa para ello, dentro de las energías renovables podemos encontrar a las celdas de combustible microbiana (CCM) que son dispositivos electroquímicos que utilizan microorganismos para convertir la energía química de los sustratos orgánicos en energía eléctrica. Estas celdas representan una prometedora tecnología para la generación de energía sostenible, ya que ofrecen ventajas como la utilización de materiales renovables y la capacidad de tratar residuos orgánicos, generar electricidad y pueden eliminar los residuos lo que nos permite reducir el impacto ambiental asociado con su disposición inadecuada.En la actualidad la generación de energía eléctrica se ve afectada debido a la gran demanda que se vive debido a la sobrepoblación actual en el mundo es por ello que se necesitan buscar nuevas alternativas para ayudar a satisfacer la demanda energética por lo que las energías renovables son una gran alternativa para ello, dentro de las energías renovables podemos encontrar a las celdas de combustible microbiana (CCM) que son dispositivos electroquímicos que utilizan microorganismos para convertir la energía química de los sustratos orgánicos en energía eléctrica. Estas celdas representan una prometedora tecnología para la generación de energía sostenible, ya que ofrecen ventajas como la utilización de materiales renovables y la capacidad de tratar residuos orgánicos, generar electricidad y pueden eliminar los residuos lo que nos permite reducir el impacto ambiental asociado con su disposición inadecuada.



METODOLOGÍA

Metodología Elaboración de las celdas de combustible microbiana. Los materiales a utilizar serán botes reciclados de 500 ml, tubos de pvc,alambres de cobre , el uso de sensores de temperatura, voltaje y corriente los cuales serán conectados a un Arduino y a una tarjeta de adquisición de datos así como se le agregaran a 3 celdas de combustible luz para así comparar si afecta la luz. Programación para monitoreo de celdas de combustible Se elaborará un programa en el cual se estará monitoreando las celdas de combustible microbiana. Obtención de consorcio microbiano de lodos activados de Planta de tratamiento de Aguas residuales de la calidad Se realizó la solicitud para la obtención de lodos activados de la planta de tratamiento de aguas residuales del municipio de Atlacomulco, Estado de México.  Se obtuvieron 200 ml de Lodos activados, mismas que se tomaron con todo el material esterilizado, así como vez obtenida la muestra de lodos activados, esta se traslado al laboratorio de Bioenergía, en un sistema cerrado y en refrigeración. Obtención de concentrado de consorcio microbiano de lodos activados Una vez obtenido los lodos activados se procedió a preparar Caldo Nutritivo, con la finalidad de generar una fase de adaptación del consorcio microbiano, se realizaron 6 activaciones en matraces de 500 ml agregando 5 ml de lodos activados a cada uno, los cuales se incubarán durante 24 hrs a una temperatura de 35°C, para generar biomasa celular misma que al concluir las 24 horas, fue introducida en tubos falcon estériles de 50 ml y se realizó la centrifugación a 4000 rpm a 4°C por 15 minutos, esperando obtener 1 gr de biomasa celular. Colocación de agar en tubos de pvc Se genera el agar que va dentro del tubo de pvc que conecta nuestras celdas de combustible microbiana en un matraz de 500 ml se agrego agua destilada y 10 gr de agar. Elaboración de licuado de frutas y verduras Se realizaron un mix de frutas y verduras para iniciar con el arranque de la CCM. Análisis de resultados Se monitorea durante 20 días voltaje y corriente.


CONCLUSIONES

En las mediciones que se obtuvieron durante los días de seguimiento se pudieron encontrar que el voltaje mas alto obtenido fue de .8 mientras que el voltaje menor obtenido fue de 0.2  en el sistema ocp,se pudo observar que las resistencias de 10 kΩ y 1 MΩ fueron los mejores mientras que con los sensores de voltaje e intensidad el mayor fue de 1.02mv y corriente .64ma
Espinosa Esquivel Karina, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología

MEJORA DE LA SEGURIDAD EN LA MEDICACIóN MEDIANTE UNA APLICACIóN ACCESIBLE


MEJORA DE LA SEGURIDAD EN LA MEDICACIóN MEDIANTE UNA APLICACIóN ACCESIBLE

Espinosa Esquivel Karina, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La seguridad en la atención médica es un tema de preocupación a nivel global. A pesar de los esfuerzos realizados para mejorarla, persisten factores de riesgo graves relacionados con la mala medicación. Durante el proceso de administración de medicamentos, desde la prescripción hasta el seguimiento del tratamiento, diversos errores pueden surgir, poniendo en peligro la salud y bienestar de los pacientes. En este contexto, es fundamental abordar los desafíos asociados con la errónea administración de medicamentos y mejorar las prácticas y sistemas existentes. La prescripción médica es una etapa crítica donde cualquier margen de error debe ser evitado, ya que puede tener consecuencias significativas a largo plazo para la salud del paciente. La falta de comprensión entre el paciente y el médico puede conducir a problemas en la prescripción, mientras que una transcripción inadecuada de la receta puede resultar en dosis incorrectas o efectos adversos no advertidos. Asimismo, la dispensación de medicamentos puede estar sujeta a errores de gestión o entrega, lo que aumenta aún más el riesgo para el paciente. Por último, la administración y seguimiento inadecuados por parte del paciente pueden afectar negativamente la efectividad del tratamiento y los resultados de salud esperados. Con el fin de salvaguardar la seguridad del paciente y mejorar la calidad de la atención médica, es imperativo desarrollar una propuesta integral que aborde todos los aspectos del proceso de medicación. Desde la prescripción hasta la administración y seguimiento del tratamiento, se deben implementar medidas efectivas para prevenir errores y mejorar la comunicación entre los profesionales de la salud y los pacientes. El objetivo de esta investigación es desarrollar una propuesta innovadora y eficiente que contribuya a detener la errónea administración de medicamentos.



METODOLOGÍA

Para abordar los desafíos relacionados con la medicación, se propone el desarrollo de una aplicación accesible que funcione como una herramienta preventiva para mejorar la seguridad en la salud de los pacientes.                   La metodología propuesta para la creación de esta aplicación es la siguiente: a) Investigación y Análisis: Realizar un estudio exhaustivo de las problemáticas y errores comunes en la medicación. Investigar las prácticas recomendadas por la OMS y otras instituciones de salud para mejorar la administración de medicamentos. b) Desarrollo de la Aplicación: Diseñar y desarrollar una aplicación de fácil acceso y uso para dispositivos móviles. La aplicación contendrá las siguientes funcionalidades: Compartir información gubernamental relevante sobre temas de salud, enfermedades, alarmas sanitarias y reportar medicamentos sospechosos. Proporcionar información preventiva sobre medicamentos sospechos antes de su consumo. Ofrecer acceso a datos seguros sobre medicamentos, incluyendo sustancias permitidas según la edad, generalidades, efectos adversos, precauciones y otros datos relevantes. Generar alarmas y recordatorios para la toma adecuada de los medicamentos recetados. c) Pruebas y Validación: Realizar pruebas exhaustivas para asegurar la precisión y funcionalidad de la aplicación.  


CONCLUSIONES

Las conclusiones obtenidas a partir de este trabajo resaltan el papel fundamental que desempeña la búsqueda de información en el ámbito de la medicina, impulsando una nueva etapa de crecimiento e innovación tecnológica. En la era tecnológica actual, este avance representa un servicio vital que garantiza la salud y bienestar de las personas al momento de adquirir, desear o poseer algún medicamento, ya sea de venta libre o con receta, asegurando así su estado adecuado. Este enfoque en la utilización de tecnologías de búsqueda de información se traduce en beneficios significativos para los pacientes y profesionales de la salud, permitiendo una toma de decisiones informada y precisa. Al facilitar el acceso a información confiable y actualizada sobre medicamentos, se minimiza el riesgo de errores en la selección, dosificación y administración de fármacos, lo que a su vez contribuye a la mejora de la calidad de atención médica y la prevención de posibles complicaciones. Además, esta evolución tecnológica en el ámbito de la medicina abre nuevas posibilidades para el desarrollo de aplicaciones y plataformas que ofrecen recursos y asesoramiento personalizado a los pacientes. Estas herramientas promueven la autonomía del individuo en su cuidado de salud y fomentan una participación activa en la toma de decisiones relacionadas con su tratamiento.
Espinosa Gonzalez Oscar Guillermo, Universidad de la Guajira
Asesor: Dr. Jorge Bedolla Hernández, Instituto Tecnológico de Apizaco

CARACTERIZACION DE UN SISTEMA DE MICROGENERACION CON RUEDA DE ADHESION


CARACTERIZACION DE UN SISTEMA DE MICROGENERACION CON RUEDA DE ADHESION

Espinosa Gonzalez Oscar Guillermo, Universidad de la Guajira. Asesor: Dr. Jorge Bedolla Hernández, Instituto Tecnológico de Apizaco



PLANTEAMIENTO DEL PROBLEMA

A pesar de las ventajas teóricas de la micro generación mediante calderas a vapor, existen desafíos técnicos, económicos y medioambientales que obstaculizan su implementación eficaz y generalizada. Los siguientes problemas clave están asociados con esta tecnología: Eficiencia térmica, Las calderas a vapor a menudo presentan eficiencias térmicas variables durante el proceso de conversión de calor en energía mecánica y eléctrica. Las pérdidas térmicas y mecánicas pueden tener un impacto significativo en la eficiencia global del sistema de micro generación. Selección de Combustibles: La elección de los combustibles utilizados en las calderas a vapor es crítica para su rendimiento y sostenibilidad. La disponibilidad, el costo y las implicaciones ambientales de los combustibles seleccionados deben ser considerados cuidadosamente. Diseño y Escalabilidad: Diseñar y dimensionar adecuadamente el sistema de micro generación basado en calderas a vapor es un desafío. La selección del tamaño óptimo de la caldera y la configuración del sistema es crucial para garantizar la eficiencia y la rentabilidad. Mantenimiento y Operación: Las calderas a vapor requieren mantenimiento y operación regulares para asegurar un rendimiento óptimo y prolongar su vida útil. Los costos asociados con el mantenimiento y la formación de personal son factores importantes en la viabilidad del sistema.



METODOLOGÍA

En la fase inaugural de esta investigación, se realizó un minucioso y detallado análisis de diversas alternativas de fluidos de trabajo disponibles. El objetivo primordial consistió en establecer relaciones y contrastes de relevancia entre los fluidos, considerando sus propiedades y aplicaciones en sistemas de micro generación. De este manera, el proceso de caracterización del fluido de trabajo se despliega a través de un enfoque metódico y sistemático, destinado a comprender y evaluar de manera integral las propiedades y atributos del agua como elemento central en sistemas de micro generación. Se procede a identificar y determinar las propiedades esenciales del agua que son de relevancia primordial en sistemas de micro generación. Esto incluye la medición de propiedades físicas como densidad, viscosidad, conductividad térmica, capacidad calorífica y coeficientes de transferencia de calor. Asimismo, se cuantifican propiedades termodinámicas críticas como la entalpía, entropía y temperatura crítica. Con la caracterización realizada a este fluido se buscó realizar un análisis profundo del comportamiento térmico y termodinámico del agua. De manera que se identificando las respuestas ante cambios de temperatura y presión, se pueda explorar sus puntos críticos, fases de transición y capacidades de almacenamiento y transferencia de calor.  Un enfoque clave de esta investigación se dirigió hacia el mantenimiento efectivo del sistema. Para ello, se llevó a cabo un examen minucioso del sistema de micro generación, abarcando sus condiciones de uso y las condiciones ambientales exteriores. A través de exámenes visuales, se buscó detectar posibles defectos, fallas mecánicas o problemas visibles en el sistema. Como resultado de este análisis, se desarrolló un plan de mantenimiento sólido sujeto a cambios. Este plan incluyó la creación de un registro para cada componente del sistema, estableciendo sus características de uso y definiendo tareas de mantenimiento principales para mantener así su funcionamiento prolongado. Para dar continuidad al proceso investigativo, se estableció un modelo de experimentación. Como parte de esta etapa, efectuando una caracterización exhaustiva de las propiedades mecánicas del fluido mientras circula a través de las tuberías hasta llegar a la rueda de adhesión. Este estudio arroja luz sobre la eficiencia y seguridad del uso del agua como fluido de trabajo en sistemas de micro generación con calderas a vapor. El mantenimiento riguroso y el monitoreo constante resultan esenciales para mantener el sistema en un estado óptimo de funcionamiento. La caracterización detallada del fluido, junto con el modelo de experimentación establecido, proporciono una base para comprender y dar paso a optimizar su comportamiento en este contexto. Los resultados obtenidos sientan las bases para futuras investigaciones, las cuales podrían enfocarse en la mejora continua de sistemas de micro generación con caldera y su aplicación.


CONCLUSIONES

En el transcurso de esta investigación, La pasantía representó una valiosa oportunidad para sumergirse en la aplicación práctica de los conceptos teóricos estudiados. A lo largo de este período, se pudo experimentar de primera mano la operación y funcionamiento de sistemas de micro generación con vapor. Esta interacción enriquecedora proporcionó perspectivas únicas y prácticas, agregando capas de comprensión a los conceptos teóricos previamente adquiridos. La realización de tareas diversas, desde el diseño experimental hasta el análisis de resultados, generó un repertorio diverso de habilidades y destrezas que complementan la formación académica. La cual se ha llevado a cabo un análisis profundo y sistemático mediante un modelo experimental diseñado para desentrañar las complejidades inherentes a los sistemas de micro generación con vapor. Dos aspectos esenciales han sido meticulosamente abordados: la relación entre el fluido remanente y la cantidad de poder calorífico administrado, y el minucioso análisis de la mecánica del fluido a través del empleo de un caudalímetro. Nuestro enfoque en la relación entre el fluido restante y el poder calorífico suministrado ha revelado una conexión intrincada entre estos dos parámetros cruciales. Este hallazgo no solo ilustra la eficiencia de la transferencia de energía térmica en el sistema de micro generación, sino que también sirve como punto de partida para optimizaciones futuras.
Espinosa López Alondra Yazmín, Universidad Tecnologica de León
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

PROCESO DE ELECTROCOAGULACIÓN PARA REMOCIÓN DE GLIFOSATO COMERCIAL EN AGUA CON ELECTRODOS DE ALUMINIO Y HIERRO


PROCESO DE ELECTROCOAGULACIÓN PARA REMOCIÓN DE GLIFOSATO COMERCIAL EN AGUA CON ELECTRODOS DE ALUMINIO Y HIERRO

Espinosa López Alondra Yazmín, Universidad Tecnologica de León. Gomez Hurtado Elvira Berenice, Universidad Tecnologica de León. Valdivia Moreno Oscar Emmanuel, Universidad Tecnologica de León. Zacariaz Martínez Sandra Teresa Giuliani, Universidad Tecnologica de León. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

En los ultimos años, han aumentado los problemas derivados del uso agroindustrial del herbicida glifosato, debido a que puede filtrarse en diferentes medios naturales, como los mantos acuiferos, causando daños al medio ambiente y a la salud de los seres humanos. El presente proyecto contribuye a atender dicho problema utilizando la electrocoagulación como medio de remoción del glifosato. 



METODOLOGÍA

Se realizaron experimentos a nivel laboratorio y se encontraron los parámetros adecuados para alcanzar altos niveles de remoción de una solución sintética con una concentración de 270 mg/L de glifosato. Se estudio el efecto de la variación del factor densidad de corriente  con los valores de 2.5 mA/cm2, 5.5 mA/cm2, 7.5 mA/cm2, 0.3 g/L de Cloruro de sodio, electrodos de aluminio y hierro  y tiempos de electrolisis de 20, 40, 60, 80 y 100 minutos.


CONCLUSIONES

Los resultados de la eliminación de glifosato se evaluaron de modo indirecto, a través de la demanda química de oxigeno (DQO). La remoción máxima obtenida de la electrocoagulación con electrodos de aluminio  fue de 48,75%, mientras que con electrodos de  hierro se obtuvo una remoción de 20%; en ambos casos con una densidad de corriente de 7.5 mA/cm2
Espinosa Reyes Antonio Zaid, Instituto Politécnico Nacional
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

ROBUSTEZ ADVERSARIA PARA LA CLASIFICACIóN DE IMáGENES


ROBUSTEZ ADVERSARIA PARA LA CLASIFICACIóN DE IMáGENES

Espinosa Reyes Antonio Zaid, Instituto Politécnico Nacional. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las aplicaciones de la Inteligencia Artificial (AI) han incrementado en las tareas que día a día se relacionan con el ser humano y en los desarrollos tecnológicos de los objetos que nos rodean día a día, como lo puede ser la adquisición de datos biométricos para realizar transacciones bancarias, adquisición de los rasgos fisiológicos para la adquisición de documentos, industria con implementación de AI para el mejoramiento y rendimiento de producción o la visión computacional en los autos autónomos, entre otras aplicaciones. Las NNs son modelos expresivos que se han entrenado para lograr tarea no solo de visión computacional, también de reconocimiento de voz y clasificación de imágenes, aprenden mediante un conjunto de datos en la entrada de la red y proporcionan resultados que han sido procesados a través de las capas de entrenamiento con las que están constituidas las redes neuronales artificiales.  Las redes que han sido entrenadas para el reconocimiento de imágenes y asignarle una etiqueta, se puede obtener un reconocimiento erróneo por parte de la NNs al sufrir ataques mediante la adición intencional de una pequeña perturbación en la imagen, puede se no perceptible para el ojo humano, esto genera vulnerabilidad en la red, está vulnerabilidad que sufre el modelo se denomina "Ataque Adversario" Clasificación de Ataques Adversarios Generalizando, los ataques se dividen en 2 categorías: Ataque por Evasión: Mediante inferencia se ataca el modelo. Ataque por Envenenamiento: Ataca el modelo por el entrenamiento. Ataque por Evasión Se ataca un modelo que ya ha sido entrenado, añadiendo ruido a una imagen o sonido para producir predicciones erróneas, el ruido utilizado es conocido como Perturbación Adversarial. Las imágenes creadas por los ataques de evasión son llamadas extit{Ejemplos Adversarios. Los ataques por evasión se divide en: Caja Blanca: Ataque que se realiza cuando se tiene accesibilidad al modelo y hace ataque más fuertes. Caja Negra: El ataque se realiza sin tener información del modelo, solo se utiliza la estructura del modelo o los resultados que proporciona la red. Ataque por Envenenamiento Es un ataque que engaña el aprendizaje del modelo mediante la alteración del conjunto de datos mediante el degradamiento del rendimiento y envenenando los datos de entrenamiento.  



METODOLOGÍA

Debido a los diversos métodos de ataques que puede sufrir una red neuronal se procede a realizarse la siguiente pregunta: ¿Es posible entrenar una red neuronal para disuadir los ataque adversarios? El Entrenamiento Adversario es un método donde se perturban las entradas del modelo para que la NNs pueda ser entrenada con ejemplos adversarios para que el modelo sea una red robusta para la fácil interpretación de imágenes envenenadas Anteriormente se describierón los métodos de Caja Blanca y Caja Negra, se utilizará un método de cada ataque, afectando la red y posteriormente se hará el entrenamiento adversario con cada uno de los ataques para visualizar el comportamiento, rendimiento, veracidad y perdida en cada entrenamiento. A continuación se describe el método de caja blanca a usar y porteriormente el de caja negra. Método de Signo de Gradiente Rápido (FSGM)   Técnica que utiliza los gradientes de la NNs para poder introducir perturbaciones a la imagen de entrada, se centra en los gradientes de perdida para generar una nueva imagen y maximizar la función de perdida en un solo paso, el método se describe con la siguiente ecuación:     x_{adc} = x + epsilon cdot sign( abla _x J( heta , x, y)) donde: x_adv: Imagen Adversaria. x: Imagen de Entrada. y: Entrada de la etiqueta original. epsilon: Multiplicador de pequeñas perturbaciones. heta: Parámetros del modelo. J: Pérdida Mediante la contribución de perdida en cada píxel representado por el gradiente, se puede agregar la perturbación a la imagen, con el objetivo de engañar a la NNs ya entrenada. Descenso de Gradiente Proyectado (PGD) PGD es una versión iterativa de FGSM, maximizando la función de perdida en cada paso, haciendo un método estable y eficiente, se describe con la siguiente ecuación: x_{i+1} = x_i +alpha cdot abla _x L( heta, x, y) Donde: i: Pasos. alpha: tamaño de pasos. L: Perdida de entropía cruzada El ataque cuenta con restricciones en las perturbaciones,establecidas por la norma $L_2$ y $L_{infty}$,expresan la métrica de distancia óptima para la tarea de clasificación de imágenes.     


CONCLUSIONES

Ya implementado el Entrenamiento Adversaio con los ataque FGSM y PGD se obtuvieron diferentes datos de precisión y perdida, mediante un entrenamiento de 60 épocas y diferentes experimentos de ataques a la NNs entrenada con PGD.  Para el entrenamiento con ataques FGSM de utilizo un ataque de epsilon = 8/255 obteniendo un precisión del 87\% las perdidas capturadas y representadas en la Figura: se puede apreciar que las perdidas del conjunto de datos de entrenamiento y el conjunto de datos de prueba están muy cercanas a las perdidas del conjunto de datos de entrenamiento natural. Mientras que el Entrenamiento Adversario realizado con el ataque PGD con una perturbación de epsilon=8/255, un tamaño de paso $alpha = 3/255$ con 3 pasos, obteniendo una precisión del modelo del 83\%, en la Figura ef{fig:labelll} se puede apreciar el comportamiento de perdida al etiquetar el conjunto de datos de entrenamiento y de prueba, el cual contiene un comportamiento similar al del entrenamiento natural. Los siguientes resultados abrieron campo para poder entrenar una red neuronal con un conjunto de datos de seis tipos de piedras renales, realizando una NNs robusta para el reconocimiento y etiquetado de las piedras con una alta veracidad, se entrenará la red con ambos ataques para tener un modelo seguro.
Espinosa Vazquez Rogelio, Universidad de Colima
Asesor: Dr. Juan Anzurez Marin, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN CONTROLADOR Y OBSERVADOR PARA UN MODELO LINEAL DE UN SISTEMA DE NIVEL DE LíQUIDO DE DOS TANQUES INTERCONECTADOS.


DISEñO E IMPLEMENTACIóN DE UN CONTROLADOR Y OBSERVADOR PARA UN MODELO LINEAL DE UN SISTEMA DE NIVEL DE LíQUIDO DE DOS TANQUES INTERCONECTADOS.

Espinosa Vazquez Rogelio, Universidad de Colima. Asesor: Dr. Juan Anzurez Marin, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En este proyecto, el objetivo es diseñar, simular y aplicar un controlador para lograr el control de un sistema de 2 tanques de nivel de líquidos interconectados ubicados en el edificio de posgrado de la Universidad Michoacana de San Nicolás de Hidalgo. Estos tanques son medidos mediante 2 sensores ultrasónicos que miden la altura de los líquidos. La regulación del nivel de los tanques se lleva a cabo mediante una bomba que suministra el flujo de agua, y se cuenta con 2 electroválvulas para permitir la salida del fluido. Es posible diseñar e implementar un controlador/observador para estimar con precisión el estado completo del sistema, incluyendo las variables de nivel de los tanques. Esto permitirá tomar decisiones en tiempo real. El controlador observador se diseñará utilizando las ecuaciones de estado del sistema y aprovechando las mediciones disponibles de los sensores para calcular estimaciones en tiempo real de los niveles de los tanques. Estas estimaciones serán fundamentales para mantener los niveles de altura de los líquidos en los valores deseados.



METODOLOGÍA

Se van a utilizar 2 electroválvulas las cuales nos van a permitir regular y controlar la salida de flujo de cada uno de los estanques, ya sea incrementando su apertura o disminuyendo su apertura. Para la medición o estimación de las alturas, se van a utilizar 2 sensores ultrasónicos ubicados en la parte superior de cada uno de los tanques, el cual va a enviar señales a una tarjeta de adquisición de datos y por consecuente ser enviados a Matlab. La tarjeta que se usará para la adquisición de datos y poder llevar la comunicación entre el controlador diseñado en Matlab y la parte física será una placa de Arduino UNO. para comenzar con el desarrollo de este problema primero debemos definir nuestro sistema el cual es el siguiente: A=[-0.0025 -3.9920 0 0; 0 -0.0217 0 0; 0.0025 3.9920 -0.0023 -4.1595;0 0 0 -0.0217]; B=[0 0;1.93621165174587e-06 0; 0 0; 0 1.85821111352655e-06]; C=[1 0 0 0; 0 0 1 0]; En el desarrollo de este problema realizamos 2 métodos diferentes para obtener las ganancias tanto del observador y del controlador, esto debido a que con el método de asignación de polos las ganancias que obtuvimos no eran muy eficaces en la práctica, por consecuente se optó por usar el método de LMI (Linear Matrix Inequality), con el cual las ganancias obtenidas nos dieron un mejor resultado. Ganancias con método de LMI (Linear Matrix Inequality) Para este método usamos el apoyo del software de Matlab el cual nos permitió realizar más rápido los cálculos para poder obtener las ganancias de nuestro controlador y observador. K= 1.0e+03* -0.0165    2.9564    0.0082      -0.7995  -0.0097 -0.5916   -0.002295   0.330585 L= 0.9715   -4.0995   -0.0048   -0.0993 0.0030    3.9948    0.9742   -4.2635 Diseño de controlador y simulación: Dentro de Simulink diseñamos y construimos nuestro controlador ya con las ganancias que hemos estado obteniendo mediante los diferentes cálculos, para poderlo simular. Añadimos las ganancias obtenidas por el cálculo de las LMI a nuestro sistema y procedemos a realizar la simulación, por medio de un scope podemos observar nuestros estados y nuestros estados estimados. Obtenemos en la gráfica un resultado positivo ya que podemos apreciar que después de un determinado periodo de tiempo se estabiliza nuestro sistema y el observador sigue perfectamente al estado. comunicación con parte física: Para que el controlador pueda funcionar necesitamos realizar una conexión entre el controlador y el sistema físico, lo cual con la tarjeta de adquisición de datos que en este caso estamos usando un Arduino UNO, nos va a permitir la comunicación de entre ambas partes, y de este modo que nos permita recibir las señales de los sensores al controlador y que las electroválvulas puedan recibir la señal que manda el controlador para poder controlar la apertura de las válvulas Con esta sección de recepción de datos nos permite recibir los datos que provienen del sistema físico y que son interpretados por el Arduino UNO, que en este caso son las alturas del nivel de líquidos que son medidas con los sensores ultrasónicos que se encuentra arriba de cada estanque. Después de recibir las alturas, entran a nuestro controlador que tenemos el cual es parecido al que realizamos simulado como ya lo mencionamos anteriormente en el documento y las salidas del sistema pasan a la sección de comunicación con Arduino. Finalmente, las salidas del controlador pasan a la sección de comunicación con Arduino, en la cual se van a enviar las señales que mediante Arduino y van a permitir controlar la apertura de las electroválvulas y poder controlar el flujo de salida de los tanques. Y para poder realizar un control manual durante la fase de prueba, se diseñó este pequeño tablero que nos permite controlar las electroválvulas y la bomba que suministra el agua manualmente esto con el fin de dar una pequeña comodidad al realizar las pruebas correspondientes.


CONCLUSIONES

Para finalizar se enciende todo los componentes de la parte física del sistema, se ejecuta el controlador y se empieza a trabajar el controlador mandando señales que determina si la electroválvula debe estar cerrada o abierta, todo en basé a la señal de entrada que manda los sensores ultrasónicos. Después de dejar un lapso de tiempo ejecutándose el controlador se estabilizo en las medidas deseadas que habíamos seleccionado, el tanque 1 con una altura deseada de 38 centímetros y el tanque 2 con una altura de 35 centímetros. Se muestra una gráfica que nos muestra el trayecto del nivel de líquido de cada uno de los tanques hasta llegar a las alturas deseadas en cada uno de ellos. Al analizar las gráficas respecto al tiempo determinamos que el sistema tarda aproximadamente 20 minutos en estabilizarse a las alturas que nosotros deseábamos. En ambas líneas se puede apreciar que parten desde 0, esto es debido a que cuando nosotros iniciamos la prueba, los tanque se encontraban vacíos. la línea de color verde representa la altura del tanque 1 que después de los 20 minutos oscila muy poco entre los 38 centímetros y la línea color roja representa la altura del tanque 2 que dé misma manera al mismo lapso de tiempo oscila muy poco entre los 35 centímetros que deseamos.
Espitia Alcalá Paula Alejandra, Universidad Simón Bolivar
Asesor: Dra. Santos Adriana Martel Estrada, Universidad Autónoma de Ciudad Juárez

APLICACIóN DE BIOSENSORES BASADOS EN CARBONO: NANODIAMANTES


APLICACIóN DE BIOSENSORES BASADOS EN CARBONO: NANODIAMANTES

Espitia Alcalá Paula Alejandra, Universidad Simón Bolivar. Asesor: Dra. Santos Adriana Martel Estrada, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Los biosensores son ampliamente utilizados en áreas multidisciplinarias, en donde su principal función es la detección y monitoreo de elementos específicos. Su importancia radica en la alta capacidad de ser incorporados en avances recientes, para trabajos de investigación y su utilización en la medicina, debido a que facilitan diagnósticos mediante la medición de biomarcadores.



METODOLOGÍA

En la presente investigación se recopilo información de 30 publicaciones, incluyendo revistas y libros desde el año 2011 a 2023 encontrados en bases de datos como Google Scholar, ScienceDirect y Scopus, con el fin de analizar las características generales de los biosensores de nanodiamantes, propiedades y aplicaciones de los mismos en investigaciones previas. Se enfatizó la búsqueda en aplicaciones biomédicas de distintas moléculas de nanodiamantes.


CONCLUSIONES

Según la información recopilada, se determinó que las partículas de nanodiamantes ofrecen propiedades como la dureza y un módulo de Young superior a 1.220 GPa.   Además de demostrar biocompatibilidad, propiedades ópticas y fluorescencia, alta conductividad térmica y resistividad eléctrica, estabilidad química y resistencia del mismo en entornos agresivos.  Todo lo anterior, posiciona al nanodiamante como un material versátil y prometedor para aplicaciones biomédicas, gracias a su alto nivel de adaptación y funcionalización de acuerdo con sus necesidades de aplicación.                     Se pudo establecer que los nanodiamantes, gracias a su biocompatibilidad son un recurso valioso para aquellas aplicaciones que involucran el contacto directo con células del cuerpo humano y diferentes tejidos.  Actualmente se siguen realizando trabajos de investigación relacionados a su uso, para explorar y ampliar sus potenciales en las distintas aplicaciones.
Esquivel Aguilar Ricardo, Instituto Politécnico Nacional
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO DE CONCRETO HIDRáULICO DOPADO CON FIBRAS DE POLIPROPILENO EN FUNCIóN AL ESTUDIO DEL MóDULO DE ELASTICIDAD ESTáTICO; CASO DE ESTRUCTURAS.


DISEñO DE CONCRETO HIDRáULICO DOPADO CON FIBRAS DE POLIPROPILENO EN FUNCIóN AL ESTUDIO DEL MóDULO DE ELASTICIDAD ESTáTICO; CASO DE ESTRUCTURAS.

Esquivel Aguilar Ricardo, Instituto Politécnico Nacional. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El módulo de elasticidad estático (módulo de Young) es una propiedad mecánica que describe la relación del esfuerzo y la deformación unitaria, el cual refleja la habilidad de un material para deformarse y recuperar la forma original. Considerando que en el análisis y diseño de estructuras de concreto es un parámetro relacionado a la resistencia de compresión y tensión, siendo el diseño mecánico del momento de inercia está gobernado por la geometría. El concreto hidráulico es uno de los materiales más usados en los elementos estructurales, debido a su fácil preparación, la capacidad de adquirir formas y bajo precio que puede presentar a comparación de otros materiales de construcción, además, una de sus características principales es su alta resistencia y durabilidad. Por lo que el diseño es muy importante en parámetros específicos que son función de las solicitaciones y las prestaciones de este, al modificar la matriz a través de los laboratorios de materiales.  



METODOLOGÍA

Para el diseño se analizó la materia prima: cemento, geo-materiales finos y gruesos, adiciones, refuerzos, durabilidad con la relación A/C en peso, diseño del esfuerzo. Con datos de los geo-materiales se elige el diseño, se elaboran los especímenes en condiciones de laboratorio, se descimbra, cura, se realizan primero las NDT y posteriormente las pruebas destructivas. Como parte del trabajo se efectúan ecuaciones de correlación y de estadística simple. Los resultados se comparan con los obtenidos en otras publicaciones y finalmente se contrastan con las normas vigentes. El presente trabajo de investigación va encaminado al análisis de resultados de 12 especímenes de concreto preparados en el laboratorio de materiales de la facultad de ingeniería civil, considerando que al momento de realizar las pruebas los especímenes fueron separados debido a su forma geométrica (cilindros y prismas rectangulares) y al uso de adición de fibras de polipropileno. En la preparación de la mezcla se utilizaron bases cilíndricas de 10 cm de diámetro x 20 cm altura, y bases prismáticas de 15.cm de ancho x 15.cm de largo x 60 cm de altura, con un periodo de secado de 24 hrs. Para el proceso de curado, el cual es de suma importancia por las fases que se desarrollan durante este tiempo después del  secado se dejan por un periodo de 7 días para las muestras que no contiene fibras y de 6 días para las muestras que si lo contienen. Cada ejemplar se clasificó en dos secciones, como se muestra a continuación.   Con adición de fibras de polipropileno. Sin adición de fibras.  Algo en tener en cuenta es la preparación inicial del concreto hidráulico, ya que anteriormente se tuvo que realizar un estudio de la cantidad de material que se tendría que ocupar, asi mismo, el método usado fue ACI, debido a la precisión que ofrece este método. Al obtener los resultados y confirmar que el método ACI se usó correctamente se procede a determinar el peso total de cada material, correspondiendo con un total de 18 cilindros y 6 vigas, añadiendo un +20% de desperdicio. Aclarado ese punto, el peso del cemento es de 44.280 kg, arena de 77.735 kg, grava de 127.58 kg y agua de 41.822 kg. Para finalmente realizar dos mezclas y en una agregar las fibras de polipropileno que tendrá un peso de 0.09 kg. Como parte final del trabajo, se llevan 12 ejemplares para realizar las pruebas en la máquina para ensayos a tensión y a compresión. Obteniendo los siguientes resultados en esfuerzos máximos de compresión: para cilindros con adición de fibras se obtuvo un promedio de , en cilindros sin modificar el promedio es de , para vigas sin modificar el promedio es de  y para vigas con fibras el resultado es de . Finalmente se puede observar que los ensayos con adición de fibras pueden soportar esfuerzos de compresión más altos a comparación con los otros ejemplares.


CONCLUSIONES

En el transcurso de mi estancia de verano cumplí con el objetivo de adquirir los conocimientos teóricos y prácticos acerca de las propiedades mecánicas que caracterizan al concreto hidráulico y su aplicación a los elementos estructurales, a través de los ensayos de laboratorio. Cabe mencionar que en el trabajo descrito se logra identificar las reacciones de cada ejemplar mediante gráficos, en el que se determina que los especímenes con fibras de polipropileno tienen una resistencia en sujeción a su compresión y tensión, en comparación con los ejemplares que no cuentan con fibras, es por ello por lo que el uso las fibras son una solución a estructuras que desean adquirir una mayor resistencia en cuanto a su deformación
Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Esquivel Rangel Jared Alejandro, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre

ANALíTICA DE DATOS EN VOLUMEN DIARIO DE VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.


ANALíTICA DE DATOS EN VOLUMEN DIARIO DE VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.

Esquivel Rangel Jared Alejandro, Instituto Tecnológico Superior de Irapuato. Rodríguez Gloria Francisco Javier, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Medir el impacto de volumen diario en el transporte de carga en mercancía del sector alimenticio dentro del corredor logístico de la calle 13 con esto se pretende establecer un indicador con más eficiencia en el estudio para la toma de decisiones.



METODOLOGÍA

• Revisión de la literatura de alrededor de 10 a 15 artículos en idiomas como en inglés y español para la elaboración de la ficha metodológica. • Estructuración de base de datos obtenidos de fuentes secundarias de las páginas oficiales de movilidad y transporte de la ciudad de Bogotá, con alrededor de 55,520 datos obtenidos. • Analítica e interpretación de los datos recopilados (Power BI).


CONCLUSIONES

Dados los resultados de la investigación se puede concluir que el nivel de tráfico de vehículos de carga tiene exceso durante todas horas del día, conforme a la revisión de literatura se pueden implementar mejores prácticas logísticas, como el establecer un horario fijo para que los vehículos de carga puedan circular, así como cargar y descargar las mercancías pertinentes que se distribuyen a lo largo de este importante corredor vial de la ciudad de Bogotá.  
Estrada Garcia Christopher Jair, Instituto Tecnológico de Tepic
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

DESARROLLO DE UN MODELO DE PREDICCIóN PARA ENFERMEDADES CARDIOVASCULARES UTILIZANDO TéCNICAS DE MACHINE LEARNING


DESARROLLO DE UN MODELO DE PREDICCIóN PARA ENFERMEDADES CARDIOVASCULARES UTILIZANDO TéCNICAS DE MACHINE LEARNING

Estrada Garcia Christopher Jair, Instituto Tecnológico de Tepic. Lupian Ibarra Aldo, Universidad de Guadalajara. Ramos Rivera Andres Sebastian, Instituto Tecnológico de Tepic. Rivera Basulto Alberto Dair, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El problema de las enfermedades cardiovasculares es una preocupación de salud pública a nivel mundial debido a su alta incidencia y consecuencias graves para la salud de las personas. Las enfermedades cardiovasculares, también conocidas como enfermedades del corazón, afectan a los vasos sanguíneos y al corazón, y pueden incluir condiciones como la enfermedad coronaria, el infarto de miocardio, la insuficiencia cardíaca, el accidente cerebrovascular y otras enfermedades relacionadas. La evidencia del problema de las enfermedades cardiovasculares está respaldada por numerosos estudios epidemiológicos y datos recopilados por organizaciones de salud a nivel mundial. Según la Organización Mundial de la Salud (OMS), las enfermedades cardiovasculares son la principal causa de muerte en todo el mundo. Se estima que cada año, alrededor de 17.9 millones de personas mueren debido a enfermedades cardiovasculares, lo que representa aproximadamente el 31% de todas las muertes a nivel global. Además, se estima que más del 80% de estas muertes ocurren en países de ingresos bajos y medianos, lo que indica una marcada desigualdad en el acceso a la atención y la prevención. Si el problema de las enfermedades cardiovasculares no es intervenido de manera efectiva, se espera que la carga de la enfermedad siga aumentando en las próximas décadas. Con el envejecimiento de la población y el aumento de factores de riesgo como la obesidad, el sedentarismo, el tabaquismo y la dieta poco saludable, se prevé que el número de casos y la mortalidad por enfermedades cardiovasculares continúen en aumento. Esto tendrá un impacto significativo en la calidad de vida de las personas y aumentará la presión sobre los sistemas de salud en todo el mundo. El proyecto de análisis de datos que se realizó, puede tener un papel importante en el control y mejora del pronóstico de las enfermedades cardiovasculares. Al aplicar técnicas de inteligencia artificial y aprendizaje automático en el conjunto de datos de las enfermedades cardiovasculares, se pueden identificar patrones y factores de riesgo asociados con mayor precisión y rapidez. Estos modelos predictivos pueden ayudar a predecir qué grupos de personas tienen mayor riesgo de desarrollar enfermedades cardiovasculares y permitir una intervención temprana y personalizada. Además, puede proporcionar información valiosa para diseñar estrategias de prevención y control más efectivas. Al comprender mejor los factores de riesgo y los determinantes de las enfermedades cardiovasculares, las autoridades de salud pueden implementar políticas y programas de prevención más específicos y dirigidos. Esto puede incluir campañas de concientización sobre la importancia de la actividad física, una dieta saludable y el control del tabaquismo, así como la mejora del acceso a la atención médica y la detección temprana de factores de riesgo.



METODOLOGÍA

Universo y Muestra: La investigación incluyó personas de Suiza, Hungría y Estados Unidos (Cleveland) sometidas a evaluaciones médicas sobre enfermedades cardiovasculares. Se utilizó una muestra representativa de Suiza, Hungría y Estados Unidos debido a restricciones de recursos y tiempo, generalizando los resultados al universo de estas poblaciones con precauciones. Tipo de Investigación: El enfoque de la investigación es de tipo mixto, con un alcance exploratorio y descriptivo. Fuentes primarias y secundarias: La fuente primaria es el conjunto de datos de Kaggle, como fuente secundaria se tienen los diferentes documentos consultados relacionadas con las diferentes fases de la metodología CRISP-DM. Metodología de desarrollo:  Se emplearon las siguientes metodologías y algoritmos para la investigación y análisis de datos: CRISP-DM (Cross Industry Process Model for Data Mining), MLP, DTC con Log Loss, Regresión logística, DTC con entropía.


CONCLUSIONES

La investigación de análisis de datos aplicada a las enfermedades cardiovasculares muestra el impacto que el análisis de datos puede tener en la comprensión de fenómenos complejos y la mejora de procesos. Esta disciplina puede ayudar a los profesionales de la salud a identificar factores de riesgo, analizar tendencias epidemiológicas y desarrollar modelos predictivos para la prevención temprana y la atención personalizada del paciente. En resumen, el análisis de datos es una herramienta poderosa que promueve la detección temprana e implementación de estrategias de prevención y tratamiento más efectivas, lo que ayudará a mejorar la calidad de vida de las personas y reducir la carga de estas enfermedades en la sociedad. RESULTADOS Debido a que la muestra de nuestros resultados es más gráfica, el formato que nos brinda delfín para explicarlos no nos permite agregar las tablas y gráficas de los resultados, sin embargo, obtuvimos resultados satisfactorios en los cuales nuestros modelos de Machine Learning nos daban aproximaciones muy cercanas a 0.90 en nuestra escala normalizada (0.84 y en algunos casos 0.83) lo que son muy buenos datos, pero pueden mejorar ya que estamos hablando de un modelo de predicción de problemas cardiovasculares y necesitamos los rangos más altos que se puedan obtener dado que es un modelo de prevención y entre más acertado sea, más posibilidades de salvar una vida se pueden lograr. 
Estrada González Samantha, Universidad de Guadalajara
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

MEDICIóN DEL NIVEL DE CUMPLIMIENTO DE LA NOM-030-STPS, EN LAS PYMES DE BALANCáN TABASCO


MEDICIóN DEL NIVEL DE CUMPLIMIENTO DE LA NOM-030-STPS, EN LAS PYMES DE BALANCáN TABASCO

Coronado Ocaño Stefany Lizeth, Servicio Nacional de Aprendizaje SENA - Regional Risaralda. Estrada González Samantha, Universidad de Guadalajara. Ferruzca Velazquez Yosseline Jackeline, Instituto Tecnológico de Querétaro. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con el libro de seguridad y salud industrial en el trabajo en el 2017 se ha registrado que en Tabasco cuentan 202,673 trabajadores que cuentan con seguro de riesgos, y los casos registrados son de 4,198 que equivale al 2.1% de riesgos que trabajos, así mismo el porcentajes de accidentes de trabajo y en trayecto en las mujeres es de 25.2% y en hombres de 74.8%, en defunciones por accidentes las mujeres tienen un porcentaje de 7.7% y los hombre de 92.3%, en enfermedades de trabajo las mujeres un 11,1% y los hombres de 88,9%. No cuenta con un registro sobre las empresas que no cumplen con la seguridad industrial, pero se considera importante fomentar una colaboración más activa entre trabajadores y patrones, a nivel corporativo y está ligado a construir activamente mejoras entre trabajadores y empleadores en seguridad y salud en el trabajo en conjunto de la normativa de nuestro país lo contempla como una obligación empleados, formar e integrar comités de seguridad y salud en el lugar de trabajo.



METODOLOGÍA

La metodología empleada fue cualitativa y cuantitativa, ya que se utilizó a la lo largo del proyecto la recopilación de datos de diversidad fuentes como libros, artículos y tesis, además de la realización de checklist creado a partir de la NOM-030-STPS, la cuál se aplicó a 66 PYMES de Balancán Tabasco, y con los datos obtenidos se realizó un análisis estadístico.


CONCLUSIONES

De acuerdo con los datos obtenidos en la investigación se puede determinar que el número de lesiones y enfermedades laborales si se pueden prevenir mediante la aplicación de un programa de higiene y seguridad en el trabajo en las PYMES de Balancán, ya que la NOM-030-STPS, es la que por objetivo establecer las funciones y actividades que deberán realizar los servicios preventivos de Seguridad y Salud en el Trabajo para prevenir accidentes y enfermedades de trabajo, por lo cual ante la aplicación de un programa de higiene y seguridad en el trabajo se reducirán considerablemente los accidentes y enfermedades de trabajo. La facilitación de la implementación de la NOM-030-STPS-2009, es muy sencilla aunque por falta de desinterés y desinformación de las MIPYMES en Balancán no las aplican.
Estrada Ramírez Eva Jimena, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Mg. Sofía Brisseth de Jesús Sulbaran Siado, Corporación Universitaria Reformada

ANáLISIS DE LA ECONOMíA CIRCULAR EN MéXICO Y COLOMBIA


ANáLISIS DE LA ECONOMíA CIRCULAR EN MéXICO Y COLOMBIA

Estrada Ramírez Eva Jimena, Tecnológico de Estudios Superiores de Tianguistenco. Zatarain Zavala Paola Lizbeth, Instituto Tecnológico de Tepic. Asesor: Mg. Sofía Brisseth de Jesús Sulbaran Siado, Corporación Universitaria Reformada



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la economía circular ha tenido relevancia en América Latina debido al incremento en la generación de residuos causados por diferentes factores dentro de los cuales encontramos el crecimiento poblacional y el desarrollo económico mundial, esto provoca que la producción y consumo de bienes o servicios aumente significativamente causando una sobre explotación sobre los recursos naturales y desequilibrios ecosistémicos. Este modelo es planificado de diferente manera en cada país, y según su gobernanza e instituciones que estén basadas en políticas fundamentales para la transición hacía la economía circular, depende el éxito del cumplimiento de los ODS, por ello ¿Cuál es el avance y aporte en términos de la economía circular en Colombia y México?.



METODOLOGÍA

La presente investigación es de tipo cualitativa, en la cual se realizó una búsqueda de información de forma lineal en documentos públicos de ambos países, revisión sistemática de las políticas públicas y marco normativo, artículos científicos y bases de datos para poder responder el planteamiento del problema. La economía circular es un enfoque económico que busca reducir la dependencia de los recursos naturales finitos, maximizar el valor y su utilidad a lo largo de su ciclo de vida, minimizando la generación de residuos y la extracción de los recursos naturales. El principal aporte diferenciador del modelo de economía circular es su carácter sistémico y holístico para impulsar la transformación de los sistemas productivos, de esquemas lineales hacia modelos circulares (Sandoval-García., 2022). En el marco normativo de Colombia, la transición hacia un modelo de negocios circular, ha tomado carácter desde la promulgación de la Estrategia Nacional de Economía Circular (ENEC), la cual tiene como objetivo principal promover la transición hacia un modelo económico más sostenible y circular en el país. El gobierno de México ha comenzado a impulsar políticas y estrategias para fomentar la economía circular. Por ejemplo, se está incentivando a la aprobación de la Ley General de Economía Circular; busca contrarrestar la generación excesiva de residuos y promover el reciclaje, rediseño y reutilización de los mismos (Instituto Belisario Domínguez del Senado de la República, 2021). Mientras tanto, en México cada municipio y entidad tiene sus propias características en torno a la generación y manejo de sus residuos, por ello, existen diferentes Planes Estatales para la Prevención y Gestión Integral de Residuos (De Diputados et al., 2003). Además, existen varios esquemas de recolección y reciclaje, que han impulsado la sociedad y sectores industriales específicos, como los residuos de envases de plástico, papel, cartón y residuos electrónicos. En Colombia, gran parte de la actividad de reciclaje todavía se lleva a cabo en el sector informal, es decir, recolectan, clasifican y venden materiales reciclables de manera independiente, sin una vinculación formal a empresas o programas de reciclaje, pero en algunos lugares, los recicladores han sido reconocidos legalmente y se les ha obtenido ciertos derechos y beneficios a través de políticas de inclusión social para su formalización (López, L. K. R, 2015)


CONCLUSIONES

Tanto en Colombia como México están trabajando para promover la economía circular como una estrategia para abordar los desafíos ambientales y sociales relacionados con la gestión de residuos y el uso de recursos. Aunque ambos países han avanzado en la implementación de políticas y programas, todavía hay oportunidades para mejorar y fortalecer sus enfoques hacia una economía más circular y sostenible. Además, ambos países se enfrentan al reto de mejorar las condiciones de los recicladores informales y promover una gestión más inclusiva y sostenible de los residuos. La formalización, el reconocimiento legal y la promoción de la economía circular son algunas estrategias clave para mejorar la situación de recicladores en Colombia y México.
Estrada Villanueva María Cruz, Instituto Tecnológico de Querétaro
Asesor: Dra. Irma Martínez Carrillo, Universidad Autónoma del Estado de México

DISEÑO Y CONSTRUCCIÓN DE UN COLORÍMETRO PARA RECONOCER LOS PATRONES DE COLOR EN ESCALA RGB EN UNA PRENDA DE VESTIR


DISEÑO Y CONSTRUCCIÓN DE UN COLORÍMETRO PARA RECONOCER LOS PATRONES DE COLOR EN ESCALA RGB EN UNA PRENDA DE VESTIR

Estrada Villanueva María Cruz, Instituto Tecnológico de Querétaro. López Reséndiz Andrea, Instituto Tecnológico de Querétaro. Asesor: Dra. Irma Martínez Carrillo, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La calidad de los productos es un factor sumamente importante que se debe considerar dentro del mecanismo de producción para agregar mayor valor al producto final, uno de los problemas más comunes en las industrias textiles y/o maquiladoras es la incorrecta coloración en las prendas, lo que causa que la calidad del producto decaiga y por lo tanto el rendimiento de la industria también. La problemática de las tonalidades comienza desde el proceso de teñido, donde en ocasiones sucede que la tonalidad de la tela varia debido distintos factores, como la humedad, la luz, el material y el mismo proceso, ocasionando que en los lotes exista discrepancia de tonalidades y con ese defecto sean enviados a las maquiladoras para su ensamble y obtención de prendas terminadas. La percepción del color en los humanos solo se encuentra dentro del espectro visible por lo que no es posible distinguir a simple vista aquellas tonalidades que son sumamente parecidas, pasando desapercibido los estándares de calidad requeridos por el cliente convirtiéndole en un factor sumamente importante para obtención de prendas con tonalidades distintas, lo que conlleva a obtener productos defectuosos o de mala calidad y por consiguiente permite que la productividad de la empresa disminuya generando pérdidas importantes en la rentabilidad.



METODOLOGÍA

La obtención de un dispositivo sistemático permite facilitar las tareas y obtener un grado de calidad y fiabilidad más significativo, además ayuda a la disminución de tareas y eleva la rentabilidad. Para cumplir con los estándares de calidad requeridos por el cliente, es necesario desarrollar un dispositivo que permita conocer las tonalidades de las telas, de modo que sean clasificadas correctamente y se encuentren dentro del rango de tolerancia. El color para R. Jiménez (2015) es la separación de la luz en sus diversos componentes, lo que en realidad es una ilusión óptica. El color es producido por tres elementos importantes, la luz, un objeto que lo refleja y el aparato visual compuesto de ojos y cerebro que interpreta la información de la luz reflejada, conocidos como colores primarios al rojo, verde y azul, formando la base del colorímetro RGB. Para el desarrollo de las pruebas fue necesario implementar un sistema de circuitos en un dispositivo de Arduino, el cual fue pieza clave para el desarrollo del colorímetro. La automatización del dispositivo analiza a través de una cámara la tonalidad de la tela y los datos obtenidos los refleja utilizando notación numérica. El dispositivo contiene un circuito autónomo que funciona a través de diversos componentes, se realizó a base de una cámara cerrada con la finalidad de regular la entrada de luz al momento de realizar las pruebas, los elementos que permiten facilitar su uso se colocaron de manera estratégica fuera de la carcasa, de modo que sea más sencillo su manejo. Para el correcto uso del dispositivo es necesario tener un fondo color negro o antirreflejante y colocar la boquilla de la cámara en pos de la tela evitando la entrada de luz al momento de realizar la prueba. Las pruebas elaboradas se realizaron en playeras M/C de costados color azul 100% algodón tejido de punto de 3 cortes diferentes. Las muestras fueros escogidas aleatoriamente para identificar la tonalidad de las piezas ya ensambladas y terminadas. El orden de las pruebas se realizó teniendo como base la parte delantera de la camisa, consecutivamente se tomó la muestra del hombro derecho, hombro izquierdo, espalda y por último el cuello, considerando que el margen de tolerancia era de 5 puntos. Las pruebas se realizaron en prendas terminadas con el fin de identificar la autenticidad del lote, puesto que con anterioridad se habían detectado complicaciones en el área de calidad por prendas con discrepancia en las partes cortadas.   De acuerdo con los datos obtenidos, se pudo analizar que las prendas tienen variaciones sumamente ligeras, de modo que a simple vista no se distinguen. Con forme a las tolerancias marcadas ninguna prenda estuvo fuera del rango de aceptación, la variación máxima fue de 3 puntos por lo tanto se considera como prendas premium. Es importante considerar que la parte frontal de la camisa es la base de todo el cuerpo, considerando este parámetro se puedo observar que las diferencias de tonos fueron mínimas a comparación de está, por lo tanto, se concluye que los cortes son muy parecidos y que no hay peligro de salirse de los límites de aceptación para la calidad, aunque se aconseja que no se debe de dar por hecho que todo el lote será así, por lo tanto, las revisiones tendrán que ser periódicas.


CONCLUSIONES

La importancia del control de calidad es inmensa en las industrias, por lo que es necesario el desarrollo de dispositivos tecnológicos que permitan facilitar el uso de tareas durante el proceso de producción. A lo largo del curso de verano Delfín fue posible desarrollar un dispositivo que permite medir la tonalidad a través del modelo RGB, se comprobó su funcionalidad en camisas 100% algodón llegando a la conclusión que es un artefacto funcional y con múltiples beneficios. El impacto de este dispositivo y su versatilidad permite ser utilizado en diversas áreas como en monitoreos, tintorerías, la industria automovilística para el pintado de los autos o directamente en la industria de las pinturas y barnices.
Estrada Zavala Ruth, Universidad Politécnica de Atlautla
Asesor: Dr. Pablo Velarde Alvarado, Universidad Autónoma de Nayarit

DETECCIóN DE BOTNETS MEDIANTE TéCNICAS DE APRENDIZAJE AUTOMáTICO


DETECCIóN DE BOTNETS MEDIANTE TéCNICAS DE APRENDIZAJE AUTOMáTICO

Estrada Zavala Ruth, Universidad Politécnica de Atlautla. Rosas Padilla Carolina, Universidad Politécnica de Atlautla. Asesor: Dr. Pablo Velarde Alvarado, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Las Botnets son redes de computadoras comprometidas y controladas por ciberdelincuentes para llevar a cabo actividades maliciosas, como ataques DDoS, robo de información o distribución de malware. Estas redes generalmente consisten en dispositivos infectados, conocidos como "bots" o "zombies", que operan de manera coordinada bajo el control del operador de la Botnet sin el conocimiento de los usuarios afectados. La detección de Botnets implica el monitoreo y análisis de patrones de tráfico de red, comportamientos anómalos de dispositivos y actividades sospechosas en sistemas. Se utilizan técnicas como análisis de firmas, aprendizaje automático y detección de anomalías para identificar y mitigar la presencia de estas redes de computadoras comprometidas y controladas por ciberdelincuentes. El análisis de firmas se basa en identificar patrones específicos y características únicas asociadas con Botnets conocidas. Estas firmas son comparadas con el tráfico de red en busca de coincidencias, lo que permite detectar la presencia de una Botnet conocida. El aprendizaje automático se emplea para entrenar modelos con datos de tráfico de red histórico etiquetado como Botnet o no Botnet. El modelo aprende a reconocer patrones y características asociadas a Botnets. Luego, se utiliza para clasificar nuevos datos y detectar posibles Botnets desconocidas basadas en similitudes con el comportamiento aprendido. La detección de anomalías busca comportamientos inusuales y desviaciones de patrones normales en el tráfico de red. Las Botnets a menudo generan patrones de tráfico diferentes a los usuarios legítimos, lo que permite detectar actividades sospechosas y posibles Botnets.



METODOLOGÍA

La detección de botnets con técnicas de aprendizaje automático es una de las estrategias más efectivas y utilizadas en la actualidad debido a su capacidad para analizar grandes volúmenes de datos y aprender patrones complejos. Algunos métodos comunes son clasificación con regresión logística, SVM, Random Forest o Redes Neuronales. Para el caso se utilizo el método de clasificación con regresión logística que consiste en modelar la relación entre una variable dependiente categórica binaria como "sí" o "no", "verdadero" o "falso", etc. Y una o más variables independientes (características). Utiliza la función logística (también conocida como función sigmoide) para estimar la probabilidad de que una observación pertenezca a una de las dos clases. El proceso de regresión logística implica los siguientes pasos: Asignación de valores: Se asignan valores numéricos a las variables categóricas (por ejemplo, 0 y 1) para que puedan ser utilizadas en el algoritmo. Construcción del modelo: Se ajusta una función logística a los datos de entrenamiento para encontrar los coeficientes que mejor se ajusten al modelo. Cálculo de la probabilidad: Se utiliza la función logística para calcular la probabilidad de que una observación pertenezca a una clase particular. Umbral de decisión: Se define un umbral (generalmente 0.5) para clasificar las probabilidades calculadas en una de las dos clases. Predicción: Se realiza la predicción, asignando a cada observación la clase correspondiente según el umbral de decisión. La regresión logística, como algoritmo de aprendizaje supervisado, no tiene métodos específicos incorporados para la selección de características. Sin embargo, se pueden aplicar técnicas de selección de características independientes a los datos antes de utilizar la regresión logística. Algunos de los métodos comunes de selección de características que se pueden utilizar junto con la regresión logística son: Métodos basados en filtros: Estos métodos, como la prueba F o la correlación, evalúan la relevancia de cada característica individualmente y clasifican las características según su capacidad para discriminar entre las clases. Métodos de envoltura: Se pueden utilizar técnicas de envoltura, como la selección hacia adelante o la selección hacia atrás, para evaluar diferentes subconjuntos de características y seleccionar el mejor conjunto en función del rendimiento del modelo de regresión logística. Regularización L1 (Lasso): La regresión logística con regularización L1 puede ayudar a seleccionar automáticamente características importantes, ya que la regularización penaliza los coeficientes menos relevantes, reduciendo su impacto en el modelo. Selección de características basada en importancia: Después de ajustar la regresión logística al conjunto de datos, se pueden evaluar los coeficientes de las características para identificar aquellas con mayor importancia en el modelo.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos sobre las técnicas de aprendizaje automático para la detección de botnets, en especifico el método con regresión logística, centrando en la selección de características en la cual se aplico el método basado en filtros, método de envoltura y los métodos embebidos, para hacer una comparativa del comportamiento del modelo. Se logró la obtención correcta de los resultados de cada modelo en una forma austera.
Federico Gutiérrez Diego, Universidad de Sonora
Asesor: Dr. Natalia Betancur Granados, Corporación Universitaria Minuto de Dios

ESTUDIO SOBRE LA SíNTESIS DE TITANATO DE BARIO Y SU CARACTERIZACIóN POR MEDIO DE ESPECTROSCOPíA.


ESTUDIO SOBRE LA SíNTESIS DE TITANATO DE BARIO Y SU CARACTERIZACIóN POR MEDIO DE ESPECTROSCOPíA.

Federico Gutiérrez Diego, Universidad de Sonora. Asesor: Dr. Natalia Betancur Granados, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

Se sabe que la síntesis de materiales es un campo interdisciplinario que a través de la manipulación y combinación de elementos y compuestos buscan obtener materiales con propiedades mejoradas. Y con respecto a mi área de especialización, la síntesis por estado sólido, esta es una rama que utiliza reacciones químicas en condiciones sólidas para el mismo objetivo. Esta rama se aplica ampliamente en diversas áreas como la electrónica, mecánica, medicina y nanotecnología. Existen diferentes métodos de síntesis por estado sólido. Un desafío clave en la síntesis de materiales es el control de la composición, estructura y morfología del material, donde posteriormente se realiza una caracterización mediante técnicas como difracción de rayos X, espectroscopia Raman y microscopía electrónica. ¿Qué es una caracterización? La caracterización de materiales es un conjunto de técnicas y métodos utilizados para estudiar y analizar las propiedades y estructuras de materiales. Este proceso va a ser muy fundamental en esta investigación, ya que permite comprender las características físicas, químicas y mecánicas, así como el comportamiento en diferentes condiciones de un material sintetizado. Esta investigación se enfoca en un compuesto llamado Titanato de Bario, un material cerámico ferroeléctrico ampliamente utilizado. Se estudiarán sus propiedades, estructura y comportamiento con y sin dopaje para comprender los fundamentos teóricos de la síntesis por estado sólido. Se ha pensado por mucho años que los materiales con propiedades eléctricas abundantes no pueden alcanzar un mayor rendimiento en sus aplicaciones (no pueden ser mejorados), y mucho menos en un campo donde involucre la salud humana. Por lo tanto, es mi trabajo poder aprender a caracterizar este material, el Titanato de Bario, para descubrir su gama de propiedades como las eléctricas tan interesantes que tiene y comprobar que por medio de una adición de impurezas al mismo, es decir, doparlo con una sustancia, pueda mejorar sus propiedades eléctricas y mejor aún, poder garantizar que este material sí es compatible en el campo de la salud.



METODOLOGÍA

Cabe destacar que la investigación se realizó en modalidad virtual. La metodología es la siguiente: Revisión bibliográfica: Se realizará una exhaustiva revisión bibliográfica para obtener información relevante sobre el Titanato de Bario, sus propiedades. Diseño experimental: Se definirá el diseño experimental para la síntesis del Titanato de Bario. Síntesis del Titanato de Bario: Se analizará la síntesis del Titanato de Bario dopado (por óxidos de Indio y Tantalio) y no dopado. Caracterización por espectroscopía: Por medio de resultados ya publicados, se utilizarán diversas técnicas de espectroscopía, como la espectroscopia Raman, la infrarroja (FTIR), espectroscopia, la de difracción de rayos X y la dieléctrica para caracterizar el Titanato de Bario dopado y no dopado. Análisis microestructural: Se utilizarán de la bibliografía imágenes de microscopía electrónica de barrido (SEM) para estudiar la morfología y la microestructura de las muestras. Análisis de resultados: Se analizará e investigará en la bibliografía la caracterización del material sin dopaje y se hará una comparación con una interpretación de autoría con gráficos de espectroscopía otorgados por la investigadora del compuesto con dopaje. Conclusiones y discusión: Se presentarán las conclusiones basadas en los resultados investigados y se discutirá la relevancia de los hallazgos en el contexto del estudio como la importancia de la caracterización de los materiales. De igual manera, de explicará un modelo de Titanato de Bario dopado capaz de recuperar tejidos corporales, como óseos o musculares, esto, para concluir con una investigación capaz de incentivar un mundo sostenible a través de los años. Referencias Bibliográficas: Se incluirán las respectivas referencias bibliográficas.


CONCLUSIONES

Mediante la caracterización por espectroscopía del Titanato de Bario dopado y no dopado sintretizados, se comprobó que efectivamente el dopaje de Indio y Tantalio tuvo éxito al mejorar las propiedades dieléctricas y ferroeléctricas del Titanato de Bario por su altísima permitividad relativa (constante dieléctrica) a una temperatura mucho menor a la de un pico de permitividad relativa de un Titanato de Bario sin dopar. De tal manera que, el Titanato de Bario dopado es capaz de almacenar mucha más carga eléctrica de manera eficiente y resistir el flujo de corriente a una temperatura más habitual. Se puede decir que el dopaje le brindó mejores características ferroeléctricas al Titanato de Bario. Como se comentó en el planteamiento del problema, se iba a demostrar que el Titanato de Bario sí es compatible en el campo de la salud. Y, efectivamente, mediante un dopaje con cualquier tipo de Gel (para mejoras mecánicas como la elasticidad), el Titanato de Bario dopado puede funcionar como un dispositivo poroso capaz de cultivar células regenerativas dentro del mismo y sensar por medio de su propiedad piezoeléctrica (genera un campo eléctrico mediante la aplicación de una presión) el comportamiento celular del tejido al que esté adaptado. Es decir, se comprobó que este material tiene gran biocompatibilidad, de tal manera que le proporciona capacidades para cultivar células y recuperar tejidos óseos o musculares. En conclusión, la síntesis de materiales es un área fascinante de investigación que busca crear nuevos materiales con propiedades personalizadas para satisfacer las demandas de la sociedad y abrir la puerta a nuevas posibilidades tecnológicas. Y, con respecto a la síntesis de materiales por estado sólido, pude comprender que realmente esta rama puede contribuir a campos como la electrónica, la energía renovable, la medicina, y muchos otros, garantizando nuevas formas de mantener un desarrollo sostenible.
Fernández Bejarano Francisco Javier, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISPOSITIVO DE SEGURIDAD PARA ENVASES DE VIDRIO.


DISPOSITIVO DE SEGURIDAD PARA ENVASES DE VIDRIO.

Fernández Bejarano Francisco Javier, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

El comercio de bebidas alcohólicas adulteradas representa una problemática significativa en Colombia, que afecta la salud, la seguridad del consumidor y la integridad de la industria. Esta práctica ilegal involucra la manipulación de envases y modificación de licores, aguardientes, destilados, ron, vodka y otras bebidas populares con el fin de reducir costos y maximizar ganancias, poniendo en peligro la vida de los consumidores. Los esfuerzos realizados por las autoridades colombianas para combatir este problema han tenido buenos resultados, sin embargo, siguen siendo una amenaza persistente y desafiante ya que las redes de adulteración son cada vez más sofisticadas, lo que dificulta su identificación y desmantelamiento. El Syctrace es una herramienta digital que busca disminuir el consumo ilegal de alcohol en todo el territorio colombiano. Se trata de un sistema integral de información ligado a un código único en cada estampilla, esto permite consultar información de procedencia y legalidad, sin embargo, pueden existir falsificaciones de esta estampilla por lo cual se ha tomado la decisión de diseñar un mecanismo que tenga la capacidad de quebrar una sección del fondo de la botella de manera controlada, evitando el uso del envase de vidrio, una vez se ha terminado el líquido legítimo y así poder acabar con la cadena de adulteración de bebidas que tienen como actividad principal el relleno de los envases vacíos.  



METODOLOGÍA

Para elaborar el diseño del dispositivo de seguridad para los envases de vidrio fue necesario realizar una investigación previa de las características del vidrio y del diseño de las botellas, esto con la finalidad de conocer e identificar con mayor facilidad principales problemáticas al trabajar con vidrio. En primer lugar, visualice el diseño y tratar de aterrizarlo para detectar cuestiones a mejorar, ya que para generar una falla controlada en un vidrio debemos tomar en cuenta varios aspectos, por ejemplo, el área superficial, el espesor del cristal y la geometría a trabajar. Se utilizó el software de diseño SolidWorks para modelar cada una de las piezas del dispositivo, por lo cual tuve la oportunidad de ir resolviendo problemas que se presentaban sobre la marcha. El dispositivo de seguridad que se ha diseñado consta de dos partes fundamentales, el mecanismo y en encapsulado de cristal. El dispositivo es un mecanismo de tornillo que en uno de sus extremos tiene una punta y del otro lado un accionador el cual esta roscado en una base que se instalará en el fondo de la botella en una cavidad generada por una matriz. El encapsulado es la geometría generada por la matriz al fabricar la botella, es una cavidad donde se incrustará el dispositivo para generar una falla controlada y segura para el usuario. Se realizaron adaptaciones al dispositivo con la finalidad de hacerlo seguro para el usuario, al punzón se le modificó la punta, haciéndola plana y se decidió agregar una incrustación de cerámica para crear un cizallamiento en la superficie interna del encapsulado. Al encapsulado se le modificó la geometría donde se busca generar la falla, esto debido a que la fabrica no puede trabajar con espesores de vidrio menores a 2 milímetros por lo tanto se llego a un acuerdo de crear una geometría cónica buscando adelgazar esta sección por efecto de la gravedad al fabricar la botella. Una vez realizados los diseños se procede a realizar un ensamble de todos los componentes para finalmente realizar una simulación para observar los esfuerzos y factor de seguridad del dispositivo.


CONCLUSIONES

Se logró cumplir con el objetivo de diseñar un dispositivo para evitar la adulteración de botellas, sin embargo, al tratarse de un tema tan complejo y estar trabajando con vidrio, el cual es un material con un grado complejo de manipulación, el proyecto seguirá en estado de ejecución buscando realizar pruebas físicas para determinar si el dispositivo es seguro para el usuario. Puedo concluir que los conocimientos adquiridos durante este verano fortalecerán mis habilidades como ingeniero mecánico, en temas de diseño y de ingeniería de materiales.
Fernández Castillo Andrea, Instituto Tecnológico de Tepic
Asesor: Mtra. Ariadna Leecet González Solís, Benemérita Universidad Autónoma de Puebla

CARACTERIZACIóN Y CATALOGACIóN DEL PATRIMONIO INMUEBLE PARA SU PROTECCIóN


CARACTERIZACIóN Y CATALOGACIóN DEL PATRIMONIO INMUEBLE PARA SU PROTECCIóN

Fernández Castillo Andrea, Instituto Tecnológico de Tepic. Asesor: Mtra. Ariadna Leecet González Solís, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

México es un país con una rica y diversa historia cultural, plasmada en el patrimonio inmueble que se encuentra a lo largo y ancho de su territorio. Estas construcciones, monumentos y sitios arqueológicos no solo son testimonios tangibles del pasado, sino que también representan la identidad y el legado de las civilizaciones que han dejado su huella en esta tierra. Sin embargo, el patrimonio cultural inmueble en México se enfrenta a diversos desafíos que amenazan su preservación y conservación para las generaciones futuras. La falta de conciencia sobre su valor histórico y cultural, el deterioro causado por el paso del tiempo y las inclemencias, las alteraciones realizadas por desconocimiento, la urbanización descontrolada y los fenómenos naturales son solo algunos de los factores que ponen en peligro estos bienes. Dentro de este ejercicio de investigación se examinó la importancia de la caracterización y catalogación del patrimonio cultural inmueble en México y su relevancia para garantizar su protección y salvaguardia. También, se entendió cómo los esfuerzos de identificación, valoración y registro de estos bienes culturales juegan un papel fundamental en la conservación de nuestra herencia histórica y enriquecen nuestra comprensión del pasado.



METODOLOGÍA

La primera etapa fue la revisión bibliográfica en materia de patrimonio cultural, catalogación y caracterización del mismo, con la finalidad de tener un panorama más amplio sobre el tema a trabajar. Asimismo, se elaboraron fíchas de síntesis de los textos, donde se retomó información sobre las características que determinan y clasifican el patrimonio, las definiciones de registro, inventario y catálogo, así como las acciones necesarias para llevarlos a cabo. Posteriormente se hizo un análisis comparativo de instrumentos de catalogación a nivel nacional y a través del llenado de una tabla, se identificaron los elementos o apartados necesarios para llevar a cabo el registro de un bien inmueble con carácter patrimonial. Una vez realizada la tabla comparativa se contó con el conocimiento necesario para diseñar una ficha de catalogación propia, en la que se incluyeron datos como la ubicación del inmueble, la descripción arquitectónica, la descripción de los materiales y el sistema constructivo, los antecedentes históricos, las características sociales y el estado de conservación del edificio a registrar. Con la ficha de registro diseñada, se eligió un caso de estudio, tomando en consideración que no fuera un inmueble de grandes dimensiones para facilitar el registro y levantamiento; así como, que fuera un edificio de carácter patrimonial que no  haya sido estudiado a profundidad previamente. El inmueble seleccionado fue la Iglesia del Convento de la Limpia y Pura Concepción de María, ubicada en Jala, Nayarit. A continuación se recabó información relevante previo a realizar el registro del edificio. Asimismo, se solicitó el permiso a los responsables de la iglesia para poder programar una visita de campo y llevar a cabo el registro y levantamiento, proceso que se realizó de manera meticulosa y precisa. Respecto al levantamiento, este se hizo con la ayuda de una cinta métrica y un dispositivo móvil, de la siguiente manera: Medición de diagonales, esta información es importante ya que la mayoría de los edificios antiguos tienden a no ser figuras completamente regulares, por lo que al realizar esta medición y combinarla con trigonometría es posible obtener los ángulos de los muros que conforman los espacios del edificio. Medición lineal a cinta corrida de todos los apoyos verticales y vanos, siempre tomando en cuenta el mismo vértice de origen para mayor precisión. Medición de la altura del edificio y de todos los vanos de las puertas y ventanas. Respecto al registro, se tomaron algunas anotaciones sobre lo que se observaba dentro del inmueble, el deterioro que este tenía, el cual se trata de cualquier efecto producido por algún agente de la naturaleza, como micro y macro flora, de igual manera cualquier efecto que el tiempo haya tenido sobre el edificio se considera como deterioro. De igual forma, se analizó cualquier signo de alteración presente, entendiendo este concepto como la intervención del ser humano dentro del inmueble. Ya que se obtuvieron todos los datos mencionados, se llenó la ficha de catalogación previamente diseñana y se elaboró el levantamiento del inmueble. Finalmente, se realizó la redacción de la información obtenida en el registro y levantamiento, en dicho texto se incluyeron todos los apartados considerados en el diseño de la ficha, no obstante, esta fue una buena forma de incorporar un poco más de información para completar algunos de los apartados, lo cual no se podía hacer en la ficha sin que esta se viera sobrecargada de información.


CONCLUSIONES

Durante esta estancia de verano  se pudo reflexionar sobre el papel que desempeña la sociedad en general, los expertos en patrimonio cultural, las instituciones gubernamentales y las comunidades locales en la promoción y preservación de nuestro legado arquitectónico y cultural.  Por último, considero que al elaborar el registro del edificio se me dio la oportunidad  de conocer la historia detrás de su construcción, así como también el contexto histórico en el que se encontraba el pueblo. Creo que por medio de esta investigación logre reconocer el valor patrimonial que el inmueble tenía, pues ahora se más de su origen y siento cierta conexión hacia él. El edificio tiene un gran potencial, es realmente bello, es por eso que opino que cuenta con un gran valor,  tanto arquitectónico como histórico y es por esta razón que se tiene que intervenir inmediatamente para evitar algún grado de deterioro mayor al que ya tiene. En general, creo que es por esto que se realizan los registros, pues es cuando realmente prestas atención a toda la belleza y la historia que  hay detrás de ciertos inmuebles y es cuando se crea un sentimiento de responsabilidad  por conservarlo para las generaciones futuras.
Fernandez Hernández Juan Joel, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco

MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL


MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL

Fernandez Hernández Juan Joel, Instituto Tecnológico Superior de Ciudad Serdán. López Aguado Ana Isabel, Instituto Politécnico Nacional. Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

Actualmente la maquinaria y equipos son necesarios para todos los procesos industriales, hospitales, hoteles y cualquier tipo de empresa pública o privada, debido a ello, el mantenimiento es una parte esencial para un buen desempeño. Todo producto tiene una vida útil, las máquinas están compuestas por piezas que van sufriendo un deterioro; el mantenimiento tiene el objetivo de prolongar su vida útil y al mismo tiempo lograr un funcionamiento óptimo de las instalaciones industriales, trayendo consigo beneficios tales como: seguridad del operario, reducción de costos, disminución de pérdidas y mejora de la calidad.   Los principales tipos de mantenimiento son: mantenimiento correctivo, preventivo y predictivo, el primero corrige las averías una vez que son evidentes, mientras que el segundo establece plazos de tiempo para hacer intervenciones en la máquina, sin embargo, ambos tienen como problemática un aumento en los costos, es por ello que el predictivo realiza monitoreo de condición a la máquina sin necesidad de detenerla, logrando predecir futuras fallas. En la Universidad Tecnológica de Tecamachalco (UTTECAM) se cuenta con diversas máquinas, equipos y sistemas industriales y por lo anteriormente mencionado, es que en este verano de investigación se estudiaron las técnicas del mantenimiento predictivo y se aplicaron en las instalaciones de la UTTECAM.



METODOLOGÍA

Se tomaron cursos de preparación para complementar el conocimiento sobre el mantenimiento predictivo, en el primer curso realizamos cordones de soldadura para unir piezas. Después se aprendió sobre la producción de energías renovables, realizamos cálculos y empleamos el equipo necesario para la instalación de paneles fotovoltaicos y calentadores solares, finalmente se vieron los procesos y las máquinas empleadas en la inyección de plásticos y se conocieron las instalaciones, principalmente las instalaciones de procesos de alimentos. Paralelamente se vieron las técnicas de mantenimiento predictivo, primero se estudió la inspección visual, dicha técnica permite detectar defectos superficiales usando solo la visión y herramientas como el boroscopio, con lo aprendido se hicieron pequeños ensayos de análisis en herramientas y utensilios de los laboratorios de mantenimiento. Posteriormente se usaron líquidos penetrantes. Cabe hacer mención que para cada técnica existen normas ASTM, ISO, NOM u otras que sirven como guía para la aplicación y para la evaluación de los resultados. Para este caso es la familia de normas ASTM E 165, la cual fue explorada para la correcta ejecución de los ensayos realizados en las piezas soldadas durante el primer curso, en dichas piezas se lograron identificar los defectos en la soldadura. Partículas magnéticas fue la técnica posteriormente abordada, se estudió la norma NOM-020-STPS-2011 y después de conocer el yugo electromagnético procedimos a realizar ensayos en la soldadura de estructuras metálicas del laboratorio de mantenimiento, con esto observamos fisuras superficiales y subsuperficiales y pudimos definir su nivel de riesgo. Después se estudió la técnica de termografía infrarroja, estudiamos los principios de funcionamiento y operación de la cámara termográfica, que mide la radiación infrarroja emitida por un cuerpo, se estudió las configuraciones de visualización y el correcto uso e interpretación de este, para ello se realizaron pruebas en diferentes equipos y materiales de la UTTECAM. Se estudió el análisis de vibraciones, primero se abordó la teoría sobre los espectros de vibraciones, a los cuales se les aplicaba la transformada de Fourier, con ello se lograron identificar las frecuencias fundamentales y habiendo conocido el equipo y estudiado la norma NOM-024-STPS-2001, se procedió a realizar lecturas en las maquinas industriales de la UTTECAM, en las cuales se identificaron los componentes relevantes en el espectro de vibraciones, así como el estado general de la máquina. La recolección de datos se realizó con el analizador de vibraciones ADASH VA3PRO.  Se utilizó la lámpara estroboscópica para poder detectar las RPM de los motores de las máquinas estudiadas que no tenían placa de datos, ya que éste era un dato necesario para realizar el análisis de vibraciones. También se utilizó el equipo para realizar balanceos dinámicos, con apoyo del tacógrafo y el acelerómetro incluidos. Finalmente se abordaron técnicas de manera teórica; el ultrasonido nos permite detectar anomalías en maquinaria antes de que sean evidentes, como pequeñas fugas o fisuras, se consultó la norma ASTM E 114-10, diferentes equipos, proveedores, y los principios de funcionamiento. Se abordó el análisis de lubricantes, se conocieron los diferentes equipos y técnicas que existen según el tipo de contaminante en el lubricante, desde contador de partículas hasta espectrometría de infrarrojos. De igual forma estudio la técnica de emisiones acústicas, la cual permite localizar fugas, grietas o fallas en equipo a presión o maquinaria. Por último, se estudiaron las pruebas hidrostáticas, enfatizando que todos los equipos sometidos a presión deben ser inspeccionados y deben aprobar las normas vigentes.  Se revisaron diversas normas, como la NOM-020-STPS-2011.  Para conocer la ejecución analizamos estudios que realizan proveedores de tanques a presión.


CONCLUSIONES

De los estudios aplicados a las máquinas se concluye que, en el compresor, torno y taladro una intervención es innecesaria, ya que operan de manera intermitente y no son utilizados para trabajo de precisión, además, se logró comprobar que mientras más alejado se encuentre el sensor del motor habrá un mayor rango de error. La correcta implementación de las técnicas del mantenimiento predictivo son una inversión estratégica para la industria que busca alcanzar un alto nivel de confiabilidad y rendimiento en sus activos. La combinación de estas técnicas ofrece una visión integral del estado de los equipos, permitiendo una gestión eficiente y un mejor aprovechamiento de los recursos, lo que conlleva a un sector industrial más competitivo y sostenible.
Fernández León Ana Karen, Instituto Politécnico Nacional
Asesor: Dra. Paulina Arellanes Lozada, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DE INHIBIDORES DE CORROSIóN DEL ACERO APLICADOS EN LA INDUSTRIA PETROLERA.


EVALUACIóN DE INHIBIDORES DE CORROSIóN DEL ACERO APLICADOS EN LA INDUSTRIA PETROLERA.

Fernández León Ana Karen, Instituto Politécnico Nacional. Juárez Verdugo Juan Luis, Universidad Autónoma de Sinaloa. Asesor: Dra. Paulina Arellanes Lozada, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La corrosión genera grandes daños a la infraestructura de la industria del petróleo, ocasionando posibles accidentes y la necesidad de estar revisando y corrigiendo este problema. Los costos aproximados a la reparación y corrección rondan los miles de millones de dólares al año. El uso de inhibidores es una de las soluciones más sencillas de aplicar, con tan solo aplicar el aditivo al fluido hará que la corrosión disminuya, al estar buscando compuestos de derivados orgánicos hace que sea de más fácil obtención y a contribuir a no contaminar el medio ambiente mediante extracción de minerales u otros métodos. El objetivo de disminuir la velocidad de corrosión es lo que se está tratando de lograr para ahorrar muchos recursos y así poder destinarlos a otras áreas o al desarrollo de nuevas tecnologías por lo que en este verano se estudia la capacidad de inhibición del compuesto extraído de la ruda a distintas concentraciones.



METODOLOGÍA

Se preparó salmuera sintética para simular las propiedades naturales de la industria petrolera. Esta salmuera se preparó con una concentración en peso aproximada al 89.89% de agua destilada, 9.62% de cloruro de sodio (NaCl), 0.305% de cloruro de calcio (CaCl2), y 0.186% de cloruro de magnesio hexahidratado (MgCl2 · 6H2O). Se utilizaron probetas previamente lijadas con lijas de agua de tamaño de grano 600 y 1200 hasta tener un área uniforme libre de óxido, corrosión u otro tipo de contaminantes. Posteriormente se agregaron 100 mL de esta salmuera y se burbujeó durante 15 minutos con nitrógeno para expulsar todo el oxígeno remanente en la celda. Posteriormente se pesaron 0.4 mg de sulfito de sodio (Na2SO3), 353 mg de sulfuro de sodio nona hidratado (Na2S · 9H2O), y 170 mg de ácido acético (CH3COOH). Una vez acabados los 15 minutos, se prepara ácido sulfhídrico in situ. Primeramente, se agregó el sulfito de sodio para remover cualquier traza de oxígeno, seguido se añadió el sulfuro de sodio y el ácido acético en conjunto y se permitió disolver el sulfuro de sodio. Una vez disuelto, se le agregaron el electrodo de referencia (Ag/AgCl) y el contraelectrodo. Para las pruebas con el inhibidor, se preparó una solución a una concentración de 1000 ppm del inhibidor en isopropanol (C3H8O). Seguidamente se hicieron varias pruebas a diferentes concentraciones del inhibidor, empezando desde 150 ppm hasta 25 ppm con una diferencia de 25 ppm entre cada prueba.


CONCLUSIONES

Durante la estancia de verano se pudieron recabar distintos conocimientos teóricos y prácticos acerca de la corrosión y las distintas técnicas utilizadas para medir y hacer procedimientos pertinentes. Se pudieron obtener resultados esperables, los cuales, mediante el aumento de la concentración del inhibidor se aprecia como la velocidad de corrosión baja. Para la muestra 1, la concentración de 125 ppm fue la de mayor eficiencia con 99.09%, mientras que para la muestra 2, la concentración de 150 ppm fue la de mayor eficiencia con 98.67%. aun así, se tuvo un poco de error entre concentraciones, se deben hacer más pruebas para que la reproducibilidad sea mayor y tener más confianza en los datos.
Fernández Murillo Juan Carlos, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESOS DEL AREA DE REDES DE DRENAJE Y ALCANTARILLADO EN LA ADMINISTRACIÓN DE AGUA POTABLE EN CAPASU.


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESOS DEL AREA DE REDES DE DRENAJE Y ALCANTARILLADO EN LA ADMINISTRACIÓN DE AGUA POTABLE EN CAPASU.

Fernández Murillo Juan Carlos, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo tiene como objetivo establecer los estándares de trabajo en el área de redes de drenaje y alcantarillado dentro de CAPASU, con un enfoque basado en la metodología Lean Service y la metodología DMAIC, buscando mejorar la satisfacción de los usuarios,  realizando un muestreo de trabajo con el cual se evaluó la productividad, se propusieron mejoras como la estandarización de procesos, planeación previa de actividades, establecimiento de rutas críticas, medición del cumplimiento de protocolos y prácticas y la creación de un área enfocada en seguridad e higiene.



METODOLOGÍA

El presente trabajo nos permitirá conocer más sobre la metodología Lean Service y el enfoque DMAIC (Definir, Medir, Analizar, Mejorar, Controlar) en el área de red de drenaje y alcantarillado de un organismo público de agua potable. Ante la identificación de deficiencias en la organización, planificación de labores y falta de control y estandarización de procesos, se tomó la decisión de implementar un enfoque sistemático y efectivo para lograr mejoras significativas en la eficiencia y seguridad del área. La metodología Lean Service se enfoca en eliminar desperdicios, optimizar procesos y mejorar la satisfacción del cliente, mientras que el enfoque DMAIC proporciona una estructura para identificar y resolver problemas de manera sistemática. La combinación de estas dos metodologías ha permitido abordar los desafíos específicos que enfrenta el área de red de drenaje y alcantarillado, buscando alcanzar una mayor productividad y garantizar la seguridad y bienestar de los trabajadores.


CONCLUSIONES

Después de las propuestas de mejora:   Estandarización de procesos: Se han establecido procedimientos claros y detallados para cada tarea en el área de red de drenaje y alcantarillado. Los trabajadores siguen los mismos pasos y prácticas, lo que ha mejorado la uniformidad y eficiencia en el desempeño de sus funciones.   Planeación previa de la jornada de actividades del día: Los trabajadores cuentan con un plan claro de sus actividades diarias. Esto ha permitido una mejor organización del trabajo, reducción de tiempos muertos y una mayor productividad en general.   Se espera que el tiempo de salida de los vehículos ronde entre 8:00 am y 8:30 am.   Establecimiento de rutas críticas en los recorridos hacia el lugar de trabajo: Se han identificado y establecido rutas críticas para que los trabajadores lleguen de manera más rápida y segura a sus lugares de trabajo. Los tiempos de traslado se han reducido significativamente, lo que ha permitido un inicio más temprano de las actividades.   Medición del porcentaje de cumplimiento de los protocolos y prácticas: Se ha implementado un sistema de medición y seguimiento del cumplimiento de los protocolos y prácticas de seguridad e higiene. El personal está más consciente de la importancia de seguir las normas establecidas y se ha mejorado el nivel de adherencia a las prácticas seguras.   Replantear perfil de puesto / creación de un área enfocada en seguridad e higiene: Se ha ajustado el perfil de puesto para enfocarse más en la seguridad e higiene en el área de red de drenaje y alcantarillado. Se ha creado un área dedicada exclusivamente a la seguridad y bienestar del personal, lo que ha mejorado la cultura de seguridad en toda la organización.
Fernández Orozco Irving, Instituto Tecnológico de Morelia
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

IMPLEMENTACIÓN DE CONTROL AUTOMÁTICO POR MEDIO DE CUATERNIONES APLICADOS A DRONES


IMPLEMENTACIÓN DE CONTROL AUTOMÁTICO POR MEDIO DE CUATERNIONES APLICADOS A DRONES

Fernández Orozco Irving, Instituto Tecnológico de Morelia. Paniagua Hernández Emmanuel, Instituto Tecnológico de Morelia. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de control de vuelo despiertan un gran interés debido a su gran complejidad de poder generar un vehículo aéreo totalmente autónomo siendo uno de los objetivos principales eliminar la necesidad de un piloto calificado para el manejo de este tipo de vehículos y a su vez la creación de una técnica de vuelo capaz de facilitar el vuelo y las aplicaciones de estos mismos. Han existido diversos controladores de vuelo, pero siempre coincide en que sufren con el bloqueo del cardán, el cual consiste en la pérdida de un grado de libertad, que ocurre cuando los ejes de dos de los tres rotores se colocan en paralelo imposibilitando el movimiento rápido del dron para la ejecución de las ordenes que se le programen a su vez que bloquea el sistema de rotación de los motores.



METODOLOGÍA

Por medio del hardware Pixhawk 2.4.8 que es una controladora de vuelo que funciona con el software PX4 o Ardupilot, donde es software libre para controlar cualquier tipo de multi-rotores o drones, por lo tanto, nos da la posibilidad de configurar cualquier tipo de Firmware para que funcione de la manera que se desee. Para la creación del firmware programado a las necesidades requeridas, es necesario trabajar con Matlab para todos los cálculos matemáticos, a su vez, de una creación de base de datos para guardar dichos resultados de los cálculos hechos en el software. Después se pasa a la simulación del sistema hecho con ayuda de un subsistema de Matlab llamado Simulink, donde se crea con ayuda de toolchains  y nuevos bloques de construcción que se pueden descargar por medio de internet y que sean compatibles con el hardware que se está trabajando en este caso con la Pixhawk. Una vez hecho todas las instalaciones necesarias y todos los prerrequisitos para el uso de este software y hardware se proceden a su construcción y a su guardado en una memoria MicroSD; y para que este sistema sea posible su ejecución se usó el software QGroundControl, que realiza la configuración de la UAV que se usará, así como la herramienta que ayuda a al hardware al leer el sistema creado. Finalmente se arma el dron, (en este caso, un quadrotor) que se usará para la prueba del software hecho poniendo sus necesarios sensores en este caso, el GPS, buzzer y motores sin escobillas, así como muchos repuestos ya que las pruebas nunca salen como se tiene en la teoría y aparte se necesita controlar todo mediante un control PID. Cabe destacar que dentro del laboratorio existe el material y las piezas requeridas para armar distintos tipos de multi-rotores, en dicho caso se armaron desde quadcópteros, hexacópteros tanto de pequeñas como de grandes dimensiones, y, por último, un octacóptero, todos estos en una configuración de plus (‘+’).


CONCLUSIONES

Se observó que el código de MATLAB puede construirse en la Pixhawk siempre que se usen las versiones en donde se realizó el programa para tener un correcto funcionamiento con los drivers en la computadora, además de que existen varios programas de prueba para poner en vuelo al drone, ya sea una prueba de altura, de sensores o en completo con los demás componentes del drone. Además de conocer los alcances que tiene el Simulink como herramienta para programar vuelos en este tipo de tarjetas a las necesidades que se requieran ya sean recreativos o con fines de investigación como lo es en este caso. Sin embargo, se recomienda que para un mejor funcionamiento y tener pruebas de vuelos más actualizadas, es necesario pasar todos los programas de MATLAB a una versión más reciente como la 2023a, debido a la mayor existencia de controladores y, sobre todo, soluciones dadas en foros y páginas web más actualizadas y eficaces; además del uso de controladores Pixhawk más recientes para evitar problemas de funcionamiento por el tiempo de uso, y de drivers actualizados en la computadora. Respecto a la Pixhawk se observó que es un controlador con grandes alcances puesto que se puede implementar tanto en drones multi-rotores, de ala fija o mixtas gracias al uso de softwares como el QGroundControl y Mission Planner, además de simplificar las conexiones entre esta y los demás elementos que son los motores con sus Controladores Electrónicos de Velocidad (ESC’s), el receptor RC, el GPS, entre otros, simplificando el armado de un drone a comparación de usar un controlador de vuelo convencional. Por último, se puede mencionar que el QGroundControl puede corregir problemas de drivers y funcionamiento de la Pixhawk cuando entra en un error, o mejorar el desempeño de esta cuando sea requerido, por lo que lo convierte en un programa muy recomendado para las pruebas de vuelo con una misión de vuelo hecha en MATLAB; mientras Mission Planner se recomienda para planes de vuelo ya definidas en el mercado o en internet. Cabe destacar que en ambos softwares se puede programar el tipo de drone a implementarse, ya sea por el número de hélices que tendrá, y también si tendrá una configuración plus (‘+’), equis (‘x’), u otra, ya que de esto afectará el comportamiento que tendrán los motores al mover el drone. Agradeciendo la oportunidad de implementar estas misiones en los drones, y el armado de estos y las pruebas de vuelo que se llevaron a cabo, se adquirió una gran experiencia en el mundo de los drones dentro de la investigación que jamás se había visto durante la carrera en persona.
Ferruzca Velazquez Yosseline Jackeline, Instituto Tecnológico de Querétaro
Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos

MEDICIóN DEL NIVEL DE CUMPLIMIENTO DE LA NOM-030-STPS, EN LAS PYMES DE BALANCáN TABASCO


MEDICIóN DEL NIVEL DE CUMPLIMIENTO DE LA NOM-030-STPS, EN LAS PYMES DE BALANCáN TABASCO

Coronado Ocaño Stefany Lizeth, Servicio Nacional de Aprendizaje SENA - Regional Risaralda. Estrada González Samantha, Universidad de Guadalajara. Ferruzca Velazquez Yosseline Jackeline, Instituto Tecnológico de Querétaro. Asesor: Mtra. Rosa Eva Arcos Juarez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con el libro de seguridad y salud industrial en el trabajo en el 2017 se ha registrado que en Tabasco cuentan 202,673 trabajadores que cuentan con seguro de riesgos, y los casos registrados son de 4,198 que equivale al 2.1% de riesgos que trabajos, así mismo el porcentajes de accidentes de trabajo y en trayecto en las mujeres es de 25.2% y en hombres de 74.8%, en defunciones por accidentes las mujeres tienen un porcentaje de 7.7% y los hombre de 92.3%, en enfermedades de trabajo las mujeres un 11,1% y los hombres de 88,9%. No cuenta con un registro sobre las empresas que no cumplen con la seguridad industrial, pero se considera importante fomentar una colaboración más activa entre trabajadores y patrones, a nivel corporativo y está ligado a construir activamente mejoras entre trabajadores y empleadores en seguridad y salud en el trabajo en conjunto de la normativa de nuestro país lo contempla como una obligación empleados, formar e integrar comités de seguridad y salud en el lugar de trabajo.



METODOLOGÍA

La metodología empleada fue cualitativa y cuantitativa, ya que se utilizó a la lo largo del proyecto la recopilación de datos de diversidad fuentes como libros, artículos y tesis, además de la realización de checklist creado a partir de la NOM-030-STPS, la cuál se aplicó a 66 PYMES de Balancán Tabasco, y con los datos obtenidos se realizó un análisis estadístico.


CONCLUSIONES

De acuerdo con los datos obtenidos en la investigación se puede determinar que el número de lesiones y enfermedades laborales si se pueden prevenir mediante la aplicación de un programa de higiene y seguridad en el trabajo en las PYMES de Balancán, ya que la NOM-030-STPS, es la que por objetivo establecer las funciones y actividades que deberán realizar los servicios preventivos de Seguridad y Salud en el Trabajo para prevenir accidentes y enfermedades de trabajo, por lo cual ante la aplicación de un programa de higiene y seguridad en el trabajo se reducirán considerablemente los accidentes y enfermedades de trabajo. La facilitación de la implementación de la NOM-030-STPS-2009, es muy sencilla aunque por falta de desinterés y desinformación de las MIPYMES en Balancán no las aplican.
Fierro Monroy Isaac Antonio, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero

DESARROLLO DE MODELOS DE MACHINE LEARNING PARA CLASIFICACIóN DE IMáGENES DEL ALFABETO DACTILOLóGICO (LSM)


DESARROLLO DE MODELOS DE MACHINE LEARNING PARA CLASIFICACIóN DE IMáGENES DEL ALFABETO DACTILOLóGICO (LSM)

Fierro Monroy Isaac Antonio, Instituto Tecnológico de Chilpancingo. Perea Valdez Leonardo Alberto, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

El alfabeto Dactilológico, también conocido como Lenguaje de Señas Mexicana (LSM), se compone de diferentes gestos y posiciones de las manos ya que es un sistema de comunicación utilizado por personas sordomudas. Uno de los principales obstáculos para superar los desafíos de LSM radica en la falta de datos e investigaciones disponibles. El Instituto Nacional de Estadística y Geografía de México (INEGI) recopila datos sobre varios aspectos de la población, pero lamentablemente falta información específica sobre la comunidad LSM. Esta escasez de datos es la barrera de comunicación que enfrentan los individuos oyentes que no conocen la LSM y los individuos sordos que utilizan la LSM como su lengua primaria o única . Esta barrera comunicativa plantea retos para la comunicación esencial y puede resultar en dificultades en la vida diaria, interacciones sociales, entornos laborales y entornos educativos para individuos con discapacidades auditivas. Se hace hincapié en la necesidad de dispositivos de ayuda, sistemas de reconocimiento automático de la lengua de señas y otras tecnologías para facilitar una comunicación eficaz entre las personas sordas y oyentes.



METODOLOGÍA

Lo que se propuso para el desarrollo de modelos de aprendizaje personalizados mediante diferentes tecnologías para obtener un grado de reconocimiento aceptable capaz de captar en tiempo real y diferido las señas realizadas por una persona y mostrar su significado correspondiente, en base al Alfabeto dactilológico en la Lengua de Señas Mexicana (LSM). Por lo tanto, se decidió utilizar una base de datos multimedia propia para el almacenamiento de medios y ponerlos a disposición para el desarrollo del modelo propuesto. Dentro de los materiales y procesos se clasificaron de la siguiente manera: Adquisición De Datos: En este trabajo se ignoraron las señas que involucran movimiento, solo se tuvieron en cuenta 21 letras seleccionadas que corresponden a señas estáticas ['a','b','c','d','e','f','g','h','i','l','m','n','o','p','r','s','t','u','v','w','y']. La recolección se obtuvo por medio de imágenes que se realizó en 2 fases: A) Se grabaron 21 videos con una duración de 30 por letra. De c/u de los 7 voluntarios. B) Se recolectaron las imágenes extraídas a partir de cada video correspondiente de las letras a utilizar. Cabo a recalcar que solamente se obtuvo la región de la mano con la ayuda de MediaPipe Hands ya que Los videos fueron grabados con un enfoque desde la cintura hacia la cabeza. Creación Del Dataset: En esta sección, se creó un dataset para la detección de las señas fijas del Alfabeto dactilológico en la Lengua de Señas Mexicana (LSM). El dataset se construyó con un total de 31,500 imágenes en 21 clases que c/u de las clases le correspondió una cantidad de 1500 imágenes. Se consideró que 31,500 imágenes son para el entrenamiento y 500 extras de c/u de las clases para validar. Recopilación Y Preparación De Datos: Este conjunto de datos contiene las imágenes etiquetadas que se obtuvieron de las manos de los 7 voluntarios a partir de videos con una duración de 30 por cada letra en diferentes condiciones de iluminación y fondos. Se realizó un proceso de captura de fotogramas, lo cual, en este proceso, el video se descompone en una secuencia de imágenes fijas para aumentar el número de datos las imágenes y su redimensión de la imagen a 200x200 pixeles. Proceso De Entrenamiento:  Yolo: El modelo seleccionado fue el YOLOv5 (You Only Look Once). Este es un sistema de código abierto para la detección de objetos en tiempo real pre-entrenado con el dataset COCO, el cual hace uso de una única red neuronal convolucional (CNN) para detectar objetos en imágenes.  Teachable Machine: Esta plataforma es una herramienta web creada por Google que permite la creación de modelos de aprendizaje automático de forma rápida y fácil sin la necesidad de saber programar.  


CONCLUSIONES

Este resumen muestra un potencial para detectar los gestos de las manos de la Lengua de Señas Mexicana usando Reconocimiento automático de imágenes. implementamos una metodología que recopila, preprocesa y reconoce las imágenes de los personajes utilizando técnicas visión artificial El sistema propuesto con arquitectura de yoloV5 (CNN) logra una precisión del 46.76% y en la plataforma Teachable Machine logra una precisión del 25.43% con el conjunto de imágenes de Prueba de las 21 letras propuestas usando un conjunto de 50 imágenes desequilibradas y/o imágenes aceptables por clase. Ya que tenemos una diferencia del 50% de precisión aproximado dentro de sus propios modelos. Así que tenemos un Rendimiento a favor de la arquitectura de YoloV5. Ya que los modelos son capaces de reconocer señas fijas en base al entrenamiento realizado respecto a las características de la mano.
Figueroa Ruiz Pedro, Instituto Tecnológico de Tepic
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

PREDICCIóN DE NEUMONíAS CON MACHINE LEARNING Y DATOS DEMOGRáFICOS


PREDICCIóN DE NEUMONíAS CON MACHINE LEARNING Y DATOS DEMOGRáFICOS

Figueroa Ruiz Pedro, Instituto Tecnológico de Tepic. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el contexto internacional, diversas líneas de investigación han explorado el impacto en la salud y la calidad del aire. Algunos países han llevado a cabo estudios similares enfocados en el análisis de datos demográficos y su relación con enfermedades respiratorias, como la neumonía. Estos proyectos han buscado identificar patrones y factores de riesgo asociados con la aparición de enfermedades respiratorias, con el objetivo de mejorar la detección temprana y las estrategias preventivas. En esta investigación, se emplearon técnicas científicas y métodos de machine learning para entrenar el modelo predictivo. Se trabajó con datos públicos de defunciones del DGIS para establecer una correlación entre datos demográficos y el riesgo de contraer neumonía. Al analizar la información a nivel espacio-temporal, se buscó identificar áreas con mayor susceptibilidad a la enfermedad y proporcionar una base para implementar acciones preventivas focalizadas. El proyecto se basó en la implementación de machine learning con Python para desarrollar un modelo predictivo. Se emplearon datos públicos de defunciones del DGIS para entrenar el modelo y predecir la probabilidad de contraer neumonía según datos demográficos. El proceso incluyó técnicas científicas para pre-procesar los datos y seleccionar características relevantes. Se utilizaron algoritmos de machine learning supervisado, por clasificación,  y se superaron desafíos como el manejo de datos faltantes y la optimización de hiper-parámetros. Los hallazgos clave del proyecto fueron la identificación de características demográficas relacionadas con el riesgo de neumonía y el desarrollo de un modelo predictivo capaz de clasificar a las personas en categorías de alto y bajo riesgo.  



METODOLOGÍA

La metodología utilizada en este proyecto supervisado de clasificación multiclase para predecir diferentes tipos de neumonías involucró los siguientes pasos: Recopilación de datos: Se realizó una búsqueda exhaustiva de datos públicos de defunciones del DGIS relacionados con neumonías, así como información demográfica de los pacientes. Además, se obtuvieron datos adicionales para enriquecer el conjunto de datos y mejorar la calidad de las predicciones. Preprocesamiento de datos: Los datos recolectados fueron sometidos a un proceso de limpieza y normalización para eliminar valores atípicos y asegurar la coherencia en el formato. Análisis exploratorio: Se llevó a cabo un análisis descriptivo para identificar patrones demográficos relevantes relacionados con las diferentes categorías de neumonías. Esto permitió una mejor comprensión de los datos y la identificación de posibles características demográficas influyentes en cada tipo de neumonía. Selección y entrenamiento del modelo: Se aplicaron técnicas de aprendizaje automático para entrenar diferentes modelos de clasificación multiclase. Se exploraron principalmente Random Forest para predecir con base a los datos ya obtenidos del DGIS. Evaluación del modelo: Se realizaron pruebas rigurosas para evaluar el rendimiento de los modelos predictivos. Implementación del modelo y dashboard: Se diseñó e implementó un dashboard interactivo que integra los resultados del análisis. Presentación y discusión de resultados: Se preparó una presentación final para resumir los hallazgos y contribuciones del proyecto.


CONCLUSIONES

El proyecto logró desarrollar un modelo de clasificación multiclase para predecir diferentes tipos de neumonía basado en datos demográficos. A pesar de la falta de datos en algunas variantes de la enfermedad, se seleccionaron las mas comunes y se  obtuvo un alto accuracy del 93% en la fase de prueba. La implementación de gráficos visuales  proporcionó una herramienta útil para explorar y visualizar la relación entre datos demográficos y neumonías. Para futuras investigaciones, recomendaría ampliar el conjunto de datos, explorar técnicas de aumento de datos y considerar la incorporación de otros factores relevantes. Además, es esencial llevar a cabo una validación de datos exhaustiva antes de implementar el modelo en entornos reales. La planificación y preparación de datos siguen siendo cruciales para el éxito de proyectos similares en el futuro.
Figueroa Salazar Enrique Angel, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

MOVILIDAD Y SEGURIDAD VIAL


MOVILIDAD Y SEGURIDAD VIAL

Figueroa Salazar Enrique Angel, Universidad Politécnica de Sinaloa. Valdez Sanchez Pedro Rafael, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el crecimiento urbano demanda una nueva política pública que propicie un crecimiento ordenado y sostenible, la comunidad urbana debe estar comunicada asegurando la prosperidad para todas las personas, es importante considerar el factor ambiental, social y económico donde el balance es cada vez más complejo. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la conciencia en movilidad de las actividades del sector logístico y transporte, pues si bien las necesidades de conectividad urbana son esenciales a la vez sí necesitan ser sostenible, con una atención principal en las empresas de servicios turísticos y el uso social, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el tema del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU, en especial en la meta 11.2 incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento sobre la movilidad y seguridad vial en la ciudad y su conciencia en la sostenibilidad. El alcance de la investigación cuantitativa de tipo campo es identificar si las condiciones en materia de movilidad y seguridad vial son adecuadas para el uso público considerando factores sociales, desde la perspectiva pública.



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos a distancia con medios digitales de tecnología de la información y la comunicación, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El método de recolección de datos es a través de instrumento de encuesta con 15 reactivos, se aplicó a personas con edad entre los 18 y 25 años, con una muestra de 101 personas, orientada a conocer las opiniones de la población joven en materia de movilidad y seguridad vial de forma individual para el uso público considerando el factor sociales, desde la perspectiva pública.  Se analiza la información de forma gráfica estadística para realizar una argumentación sustentada ante una hipótesis preliminar de que si la sociedad conoce la Ley General de Movilidad y Seguridad Vial; así también, la necesidad de integrar un programa educativo la movilidad y seguridad vial a nivel bachillerato y universitario, bases de conocimiento para reflexionar del contexto actual en la interacción social en la vía de comunicación con el propósito de generar políticas públicas para el bienestar social.


CONCLUSIONES

La población encuestada se encuentra entre los 18 y 25 años, el 50.5% son mujeres y el 49.5% son hombres, de la muestra general de 101 personas se muestra un resultado del 93.2% de personas que creen pertinente que se incluyan en un programa educativo la movilidad y seguridad vial a nivel bachillerato y universitario y un 6.8% que no lo considera necesario; un 72.8% de los encuestados no conoce la Ley General de Movilidad y Seguridad Vial, siendo solamente el 27.2% quienes la conocen; el 53.4% no cuenta con licencia de conducir y 46.6% cuenta con licencia de conducir, así también el 42.2% aprendió a conducir por un familiar, 11.8% aprendió de forma empírica y el solo el 19.6% aprendió en un escuela, en un ámbito en el uso del transporte público el 79.6% lo utiliza independientemente se cuentan con vehículo propio o no, en el escenario ambiental el 15.5% opina que los vehículos de transporte público son amigables con el ambiente, el 57.3% considera que es accesible económicamente y el 12.6% considera que el transporte público es limpio con calidad en el servicio, de acuerdo con los resultados en la pregunta central de que si el transporte público es más económico, limpio, ecológico y con buen servicio, dejarías de utilizar con mayor frecuencia su vehículo propio el 50% considera que sí, los resultados en materia en movilidad y seguridad vial nos proporcionan la necesidad de una política pública para garantizar la continuidad en proyectos orientados al punto 11 Conseguir que las ciudades y los asentamientos humanos sean inclusivos, seguros, resiliente y sostenibles, referente a uno de los 17 Objetivos de Desarrollo Sostenible de la agenda 2030
Figueroa Sanabria Juan Lorenzo, Universidad Nacional Abierta y a Distancia
Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez

DISEñO DE INTERFACES GRAFICAS A TRAVéS DE PHYTON


DISEñO DE INTERFACES GRAFICAS A TRAVéS DE PHYTON

Figueroa Sanabria Juan Lorenzo, Universidad Nacional Abierta y a Distancia. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Al analizar la demanda mundial de alimentos en la actualidad, se puede afirmar que el cacao es una de las fuentes principales en la elaboración de productos alimenticios, cabe destacar que durante los procesos productivos de la industria del chocolate, el cacao es considerado como la principal materia prima, aporta características tales como aroma y sabor generando una expectativa y confianza a nivel mundial, no obstante, debido a este gran aporte, cada día se incrementa su demanda, forzando a los miembros de esta industria a buscar alternativas que les permita facilitar la preparación de la materia prima, de allí la necesidad de tecnificar los procesos para incrementar la productividad de las cosechas.   El proceso de fermentación actualmente se realiza de forma manual lo que queda subjetivo al error humano específicamente cuando se realizan los tiempos de volteo y en los cuales se debe garantizar el protocolo establecido por Fedecacao, entonces surge la pregunta del problema, ¿será posible automatizar el proceso de remoción de la masa de cacao que logre mitigar el error humano?     De acuerdo a lo planteado en los párrafos anteriores, surge la necesidad de realizar el presente proyecto que tiene como finalidad, diseñar y ensamblar un biorreactor para el proceso de fermentación de Cacao, por medio del cual se busca plantear una propuesta innovadora para los agricultores, en donde puedan lograr la eficiencia y eficacia de los procesos de cultivo de cacao, de allí la relevancia que surge y la necesidad de apoyar a los miembros de la sociedad, en especial los agrícolas para que mejoren sus prácticas post cosecha.



METODOLOGÍA

Se analiza el proyecto y la problemática para definir el software y hardware que se va a utilizar en el proyecto de fermentación del cacao automatizado. Después de definir el software a utilizar en el proyecto se realiza la instalación del software Phyton, Visual Studio Code, QT Designer, Arduino IDE y DB Browser (SQLite), con el fin de controlar los procesos y generar una interface grafica donde se visulice el proceso de fermentación automatizado, e mplementar los componentes electrónicos que permitan la automatización del proceso y control automático mediante uso de software de supervisión En la semana siguiente se realizó pruebas de familiarización de los programas adquiridos e inducción por parte del docente a cargo de la estancia con ejercicios básicos de programación. Paso seguido se realizaron conexiones y pruebas de funcionamiento y programación de cada uno de los componentes adquiridos para corroborar su funcionalidad y posterior aplicación en el proyecto. Una vez realizadas las pruebas de funcionamiento se procedió a generar el código de programación en el editor de código visual studio code, ahí se creo un programa de control de tiempos para realizar el volteo automatizado de el grano de cacao según tiempos establecidos por el usuario, que mediante conexión de puerto serial con Arduino uno se controla un motor nema 23 de alto torque que se encarga de hacer girar un eje de remoción al interior de u barril de madera que contiene la masa de cacao. También se realiza la toma de temperatura mediante sensores de zonda DS18B20 en el entorno de programación de Arduino y se envían por puerto serial a la interface de QT Designer. Adicionalmente se creo una base de datos para analizar los rangos de temperatura que se presenten a la hora de iniciar la fermentación del cacao. se realizó compilación de rutinas y pruebas de funcionamiento para comprobar que se ejecutara el proceso de fermentación, teniendo en cuenta los tiempos de volteo definidos y que los datos de temperatura fueran almacenados correctamente para su posterior análisis.


CONCLUSIONES

Durante la estancia de verano del programa delfín, se logró obtener nuevos conocimientos de programación diseñando interfaces a través de Python y Arduino que son de gran utilidad para crear procesos automatizados.   También se logró crear un proceso automatizado para la fermentación del cacao donde se puede garantizar a los cacao-cultores que los volteos durante el proceso de fermentación se cumplan evitando que el cacao quede sobre fermentado o muy poco fermentado.
Figueroa Suárez Leif Mauricio, Instituto Tecnológico de Morelia
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

RESIDUOS POLIMéRICOS ORGáNICOS Y SU FUNCIONAMIENTO EN LAS MEZCLAS ASFáLTICAS CONVENCIONALES.


RESIDUOS POLIMéRICOS ORGáNICOS Y SU FUNCIONAMIENTO EN LAS MEZCLAS ASFáLTICAS CONVENCIONALES.

Figueroa Suárez Leif Mauricio, Instituto Tecnológico de Morelia. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años ha sobresalido notablemente la contaminación alrededor del mundo por lo que todos los gobiernos e investigadores apuestan al tema del reciclaje, esto con la finalidad de aprovechar todo aquel desperdicio generado por la población. Específicamente, en México se tiran diariamente poco más de 15 mil toneladas de desechos plásticos, donde además se estima que, del total, casi 500 millones son botellas de PET, proveniente entre el 15 y 20% de habitantes de ciudades y el resto de ciertas actividades productivas lo cual no se puede considerar un panorama muy alentador para los años venideros. Acerca del caucho se tienen datos alarmantes para nuestro país, existen más de 300 millones de neumáticos desechados, donde 40 millones son tirados en cementerios o basureros clandestinos y únicamente el 12% forman parte del reciclaje de llantas. Se estima que con los procedimientos adecuados y con la eliminación de dichos tiraderos clandestinos se podrían reutilizar más de 500 millones de unidades. Es por eso que se comienzan a buscar alternativas de uso para estos desechos orgánicos, en este caso la alternativa se llama mezclas asfálticas modificadas con polímeros, sin embargo, cabe recalcar que, siguiendo la línea del aprovechamiento del desperdicio, dichos polímeros se elaboran a partir de todo aquello que se considera inservible para algunos ámbitos, pero bastante útiles para esta investigación donde lo que se busca es dar una opción más para el reciclaje de estos materiales e indicar que beneficios muestran estos polímeros en las propiedades de dichas mezclas. Por lo que el principal objetivo de este trabajo es hacer una revisión sobre dichos beneficios para la difusión de los mismos.



METODOLOGÍA

Este trabajo realmente fue una revisión bibliográfica donde se lograron analizar 11 documentos de los años 2017-2023 para que fueran de alguna forma recientes, de diferentes páginas de internet como google académico y Scielo principalmente, utilizando como buscador el título polímeros en asfaltos, de los cuales 8 fueron artículos de revistas científicas y 3 fueron tesis. Se utilizaron como herramienta para la búsqueda varias palabras clave para ir ligando los documentos y así seguir una misma corriente, algunas de las palabras clave más importantes fueron: betún, polímero, caucho, asfalto, mezclas asfálticas, pruebas MARSHALL, reología, residuos, desechos, proceso húmedo, propiedades mecánicas, asfalto modificado, entre otras. A continuación se mencionan los hallazgos más significativos de esta revisión.   Se enfocó principalmente en la utilización de caucho, PET y residuos plásticos como modificadores de las mezclas asfálticas todo esto teniendo en cuenta que las mezclas asfálticas son hechas con materiales orgánicos y estos polímeros lo son de igual forma por lo que se deduce que pueden llegar a ser un buen ligante que cumpla con el objetivo de mejorar propiedades para que se logre un aumento de la vida útil del mismo, teniendo como consecuencia un ahorro en el mantenimiento de obras con esta modificación. Se determinó que los procesos más importantes para incluir el caucho reciclado en las mezclas asfálticas son el proceso seco, húmedo y semihúmedo. Donde se tomarían 3 variables como las más significativas de comportamiento de las carreteras con estas mezclas, las cuales son: estabilidad a altas temperaturas, resistencia al agrietamiento a bajas temperaturas y estabilidad al agua. También fue necesario realizar una aplicación en un carrusel de fatiga para evaluar el deterioro de este tipo de mezclas de una manera acelerada. Se realizaron pruebas de laboratorio entre mezclas asfálticas estandarizadas y mezclas con la propuesta de modificación con residuos de PET molido donde el principal objetivo era comparar la resistencia y encontrar el porcentaje de dosificación correcto para una mezcla asfáltica funcional. Se tomaron dos estudios anteriores que marcan que los porcentajes que mejor se acoplan con este tipo de mezclas son el 3 y el 5%, para lo que se hicieron 4 briquetas con cada porcentaje para realizarle pruebas MARSHALL, ensayo Bulk y ensayo teórico. La incorporación de residuos plásticos en mezclas asfálticas es un proceso realmente complejo que se podría decir se hace por etapas, donde la primera consta de esparcir el polímero en la mezcla pero sin ejercer efectos importantes sobre sus propiedades, paso seguido el polímero por sí solo absorbe los aceites de los maltenos, hinchándose y logrando así su dispersión en forma de molécula y aquí es donde se obtienen los cambios reológicos mas significativos sobre el asfalto. Se hicieron mezclas 0.1, 0.2, 0.3, 0.4 y 0.5% de desperdicio plástico a las cuales se les hizo el ensayo MARSHALL para determinar el porcentaje óptimo de modificación.


CONCLUSIONES

Aunque bien es cierto que se utilizaron diferentes polímeros, es necesario recalcar que todos tenían el mismo objetivo y fue logrado, solamente se hace para demostrar que los residuos poliméricos tienen una segunda oportunidad de uso y que ayudan a mejorar las propiedades mecánicas de las mezclas asfálticas, en todas se demostró que se tuvieron grandes mejorías en propiedades importantes como lo son: aumento del módulo de rigidez, aumento de resistencia a la humedad, alargamiento de su vida útil e incluso en el caso del caucho se tiene una amortiguación de las vibraciones en obras de construcción civil. Por lo que se puede concluir que muchas veces simplemente se desechan materiales sin tomar en cuenta el medio ambiente, sin pensar en una proyección al futuro, los residuos poliméricos nos benefician a todos ya que en este caso se observó que mejoran nuestras obras y al mismo tiempo se llega a reducir un poco la contaminación con este desecho.
Flores Aguilar Daniela Elizabeth, Instituto Politécnico Nacional
Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac

CONSTRUCCIóN DE PLANTAS PILOTO


CONSTRUCCIóN DE PLANTAS PILOTO

Álvarez Montes Ernesto, Instituto Tecnológico de Sonora. Flores Aguilar Daniela Elizabeth, Instituto Politécnico Nacional. Poom Rosas Lourdes Maria, Instituto Tecnológico de Sonora. Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Los procedimientos existentes de llevar a cabo un proyecto Turnkey dependen plenamente del dirigente, es decir, el Project Manager, sin embargo, tras una búsqueda del procedimiento general, se encontró con el hecho de la existencia de un sinfín de variables, pero con una escasa información acerca de la construcción de plantas piloto. A pesar de la existencia de artículos hablando acerca de la construcción de plantas piloto, no se encuentra en ellos un proceso estandarizado que se pueda replicar o seguir para construir una propia, en su mayoría, los artículos publicados acerca de la edificación de naves industriales o plantas piloto abordan su propio proceso a mejorar o el proyecto interno que implementaron. Por otro lado, en México existen normativas que regulan los proyectos estructurales, como también ligados a los derechos de trabajadores. En el programa de inspección de 2023 publicado por la Secretaría de Trabajo y Previsión Social arroja datos alarmantes acerca de los índices de violación hacía los derechos de trabajadores, además de tener un índice alto de violación a las normativas por inspección realizada siendo éste un alrededor 62% durante los años 2021y 2022.



METODOLOGÍA

Para llevar a cabo el presente proyecto se investigó, a través de internet, distintos trabajos, artículos y publicaciones que hablan de aspectos relacionados a la construcción de plantas piloto, con el fin de crear una idea propia y establecer un proceso acerca de las fases que conlleva un proyecto Turnkey. Con el apoyo de Excel e internet, se redactó una base de datos dónde se explica qué normas utilizar según el giro empresarial del proyecto, mencionando código de norma y nombre además de, enlistar los órganos encargados de normalizar y actualizarlas, esto con ayuda de las diferentes páginas oficiales y catálogos de normas asistidos. Por último, se indagó en páginas oficiales índices de accidentes sucedidos durante la construcción de edificaciones además de visitar los programas de inspección de los años 2021, 2022 y 2023 donde identificamos aquellas normas infringidas y derechos violados. Con apoyo de Minitab, se realizó una iteración de la disminución en el índice de accidentes que se generaría sí se usa el presente como guía. Como principales herramientas se utilizaron: Microsoft Excel (2019) Microsoft Word (2019) Microsoft Power Point (2019) Laptop Huawei. Procesador. Intel® Core™ i3-10110U CPU @ 2.10Ghz. RAM. 8.00GB. Edición. Windows 11 Home Single Language. Google Chrome Minitab. Minitab® Statistical Software.


CONCLUSIONES

De acuerdo a la información que se recopilo para su análisis y estructuración se logró obtener un manual que describe de forma general las etapas que se deben tomar en cuenta al momento de querer iniciar la construcción de una planta piloto con dirección a convertirse en una nave industrial, dejando en claro que la planta piloto solo es un prototipo a pequeña escala hecha para probar y desarrollar procesos industriales ya que si se obtienen buenos resultados pasa a convertirse en una nave industrial con producción a gran escala, por lo que la información presentada se combina para estas dos distinciones.  Resulta importante la elaboración de este manual ya que al contar con este te deja ver con claridad un panorama amplio de lo que conlleva erigir una nave industrial, en este caso te proporciona la normatividad que se debe aplicar de manera general así como las especificas según la industria a la que pertenezca, como también te explica las principales etapas que se deben tomar en cuenta para su construcción, mencionando algunas están la de familiarizarse con el manual es decir el que se te presento en este articulo, identificación de necesidades, evaluación de viabilidad, planificación, diseño y especificaciones, normatividad, entre otros. (poner para ir a la Guia constructora). Siendo un soporte para contextualizarte y guiarte en el proceso. Así también con la recolección de esta información se facilita la búsqueda de información referente a este tema (ya que son pocos los sitios que te explican de manera clara la forma general en la que se puede hacer una nave industrial independientemente de su giro, es importante comprender que cada nave industrial según el tipo de industria al que esta pertenezca va tener diferentes características como también distintos requerimientos y especificaciones. Otra de las cosas que este manual te brinda son las distintas clasificaciones que hay, no se cubren completamente todas ya que existen infinidad de ellas, pero si brinda una gran parte.  Sin embargo, otro punto importante es que la aplicación de este manual puede llegar a reducir los accidentes, se realizó una proyección en la cual se obtuvo que estadísticamente, la cantidad de violaciones encontradas durante los años 2021 y 2022 representaban un 22% del total o en términos estadísticos, representan un 64% de margen de error. Por otro lado, el presente tiene como objetivo mitigar en su máximo la cantidad de violaciones totales por lo que se estima reducir hasta en un 95% el 22.63%, reduciéndose así a un 1.13% marcando este como un 3.12 de margen de error total, en comparativa, se redujeron 18080 violaciones totales a un 908 por lo que, el manual cumpliría su objetivo, causando así un gran impacto en cuanto a normatividad se trate, ya que al lograrse dicha estimación/ proyección junto a ello se obtendrían beneficios para los trabajadores ya que estarían cumpliendo debidamente con la normatividad adecuada lo que les daría mayor seguridad, mejores condiciones de trabajo, además del cuidado correspondiente a las propias instalaciones y equipo
Flores Aguirre Mitzi, Instituto Politécnico Nacional
Asesor: Dr. Miguel Angel Cerro Ramirez, Instituto Politécnico Nacional

DESARROLLO DE UNA CELDA DE ELECTRÓLISIS


DESARROLLO DE UNA CELDA DE ELECTRÓLISIS

Flores Aguirre Mitzi, Instituto Politécnico Nacional. Asesor: Dr. Miguel Angel Cerro Ramirez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Para reducir la emisión de gases contaminante producidos por la quema de combustibles fósiles es necesario encontrar una alternativa a estos, el hidrogeno al ser un combustible que tienen una energía de densidad gravimétrica de entre 2.5-3 veces la de los combustibles fósiles es una de las alternativas más viables. El hidrogeno actualmente es producido de varios recursos incluyendo los combustibles fósiles, el gas natural, electrolisis del agua y algunos procesos biológicos como la biomasa. El más popular de estas técnicas es la de reformado catalítico de metano y otros hidrocarburos este método tiene severas limitaciones incluyendo el alto costo, bajo rendimiento y tienen un impacto negativo en el medio ambiente. La producción de hidrogeno por medio de la electrolisis es un proceso que se considera que su impacto negativo ambiental es nulo si se suministra energía de una fuente renovable para llevar a cabo el proceso. Existen tres tipos de tecnologías para realizar el proceso de electrolisis: Electrolisis alcalina del agua (AEL), Electrolisis de membrana de intercambio protónico (PEMEL), y Electrolisis de oxido solido (SOEL) esta última todavía se encuentra en proceso experimental.  Estos tipos de dispositivos tienen una eficiencia del 70 %, para que esos dispositivos sean competitivos para la producción de energía la eficiencia tiene que mejorar. Debido a que la electrólisis es un fenómeno de superficie, las principales resistencias en el sistema se llevan a cabo en los electrodos (ánodo y cátodo). Por tal motivo el desarrollo de una celda de electrolisis experimental que sea capaz de analizar el comportamiento electroquímico con respecto al comportamiento mecánico de los electrodos sometidos a esfuerzo es importante para analizar cómo se ven afectas las curvas de rendimiento si de un electrolizador si los electrodos son sometidos a un esfuerzo determinado, esto ayudara a poder plantear un proceso de manufactura de los electrodos que permita mejorar el rendimiento de las celdas electroquímicas alcalinas industriales. El propósito de esta celda electroquímica es aislar una superficie determinada que no sea afectada por la deformación unitaria provocada por el estiramiento del electrodo y de esta manera generar un esfuerzo controlado.



METODOLOGÍA

Se utilizaron diferentes materiales para la celda como lo fue Nylamid de 3.5 in que es el material que se ocupó para hacer la pieza, tornillos y tuercas las cuales se utilizaron para atornillar las piezas que se hicieron con el Nylamid, las herramientas que se ocuparon fueron el torno y la fresadora con estos se le dio forma a la pieza de Nylamid según el diseño que se iba a realizar, tubos de acero inoxidable que fueron la entrada y salida para que pudiera entrar agua a la celda, una bomba de flujo positivo de plástico y unas mangueras de las cuales una sirvió para transportar el agua que bombeaba la bomba a la celda y la otra para desechar el agua que saliera de esta. Antes de empezar con el torneado y fresado se diseñó el modelo para poder tener las medidas exactas que iba a tener la pieza y así poder empezar a tornearla y darle forma con el torno y la fresadora; para la parte exterior fue que se usó el torno a lo que respecta el cilindraje y quitarle las asperezas que el material tuviera para después pasarlo a la fresadora con la cual se le hicieron cada uno de los huecos interiores que se necesitaban para colocar las placas que se iban a utilizar en el proceso de electrolisis, para poder colocar los tornillos en la pieza lo que se hizo fue barrenar con una broca aproximándonos al tamaño de los tornillos que íbamos a ocupar. Al tener la pieza lista se empezaron a hacer los empaques que se iban a colocar en los huecos interiores que tenía la pieza para así esta se pudiera ajustar con las demás partes de la pieza, al tener los empaques hechos se los colocamos a las piezas para después atornillar la pieza y proceder a colocarle los tubos de acero inoxidable ya que teniendo estos se podría colocar una manguera en cada uno de los tubos y la bomba pueda pasar el agua a través de éstos. Para hacer la prueba de fuga se tiene que conectar la bomba de flujo positivo de plástico a una fuente de alimentación para que esté le proporcionará energía a la bomba y así pudiera succionar el agua y pasarla a través de los tubos de acero inoxidable; ya teniendo todo el sistema conectado procedimos a realizar las pruebas y poder verificar que la pieza no tuviera fugas y poder tener un sistema exitoso el cual nos ayudaría a realizar un proceso de electrolisis sin fugas y complicaciones, ya probando la celda con respecto a las fugas pasamos al siguiente y último pasó que fue el poder aislar una superficie determinada para que esta no sea afectada por la deformación unitaria provocada por el estiramiento del electrodo y de esta manera generar un esfuerzo controlado ya que esta era la parte más importante dentro del experimento y creación de la pieza aparte de poder invertir la relación cuantitativa del proceso electrolítico ya que según la ley de Faraday el producto formado es proporcional a la cantidad de electricidad transferida al electrodo por lo que si la deformación de las placas pudiera invertir este efecto se podría obtener un mejor rendimiento.


CONCLUSIONES

En este verano se pudo observar que la generación de hidrogeno es algo que nos serviría a futuro pero es una generación costosa y con las mismas líneas de investigación por lo que se buscó una forma mecánica que nos ayudará a reducir coste y poder tener un nuevo enfoque ya que con este método se puede obtener un mejor rendimiento y con esta observación se podría empezar una investigación direccionada a esta nueva forma de separar el hidrogeno y con esto generar energía con un costo más reducido; con esta experimentación se podrán empezar pruebas para la generación de hidrógeno con un nuevo enfoque, tecnología más avanzada y poder obtener curvas con un mayor rendimiento así mismo avanzar con los procedimientos para la innovación y crecimiento de los sistemas de electrolisis para la producción de hidrógeno.
Flores Chavez Estefania, Universidad Politécnica de Victoria
Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan

OPTIMIZACIóN DE PROCESOS


OPTIMIZACIóN DE PROCESOS

Flores Chavez Estefania, Universidad Politécnica de Victoria. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Para promover el reciclaje en Cd. Victoria el gobierno decidió proponer la instalación de estaciones de reciclaje. La ciudad quiere fomentar el reciclaje y necesita seleccionar ubicaciones estratégicas para las estaciones de reciclaje que cubran la mayor cantidad de hogares posibles. Las estaciones de reciclaje se basarán principalmente en el reciclaje de papel/cartón, vidrio, plástico, aluminio y metales en general. Debido a que los habitantes no muestran mucho interés en estas importantes estrategias de cuidado ambiental, se decidió otorgar beneficio monetario a las personas que reciclen. El funcionamiento de este sistema está constituido por un sensor que medirá la cantidad de materia que se ha ingresado al contenedor, asimismo verificará que sea el contenedor correcto,  y de esta forma se otorgará el dinero correspondiente.



METODOLOGÍA

El objetivo de este problema es encontrar la forma más eficiente de seleccionar un conjunto mínimo de subconjuntos de un conjunto más grande de manera que todos los elementos del conjunto base estén cubiertos al menos una vez. El problema del set covering tiene muchas aplicaciones en diversos campos, como la planificación de rutas, la asignación de recursos, la optimización de recursos en empresas, la programación de horarios y otros escenarios donde se busca tomar decisiones eficientes para cubrir una serie de elementos con un costo mínimo.   En este problema lo que se busca es encontrar los puntos estratégicos para que los habitantes de las diferentes regiones no tengan que trasladarse mucho y con ello optimizar las estaciones que se tengan que instalar. Asimismo, la distancia es un factor importante, ya que si los puntos de reciclaje están cerca, los ciudadanos pueden tener un hábito de reciclaje y con ello volverlo una costumbre el la localidad.    Una vez que se definió el problema en cuestión, se identificaron los datos necesarios para explorar diferentes enfoques para resolverlo. Como parte de este proceso, se dividió la ciudad en 47 grupos más pequeños, teniendo en cuenta cómo están distribuidos geográficamente las localidades que componen la ciudad. También se establecieron las limitaciones del problema, es decir, las condiciones que establecen cómo se pueden usar los conjuntos para cubrir los elementos. Estas restricciones son esenciales para establecer el alcance y las características del problema, garantizando que las soluciones generadas sean válidas y con sentido.  


CONCLUSIONES

Se puede concluir que las estaciones de reciclaje pueden ser establecidas de manera eficiente para la población como para el gobierno, ablande económicamente. El reciclaje en la localidad debe de ser un hábito, con el fin de crear espacios más limpios y generar un impacto ambiental bueno. Por último, es importante mencionar que la metodología de cobertura de conjuntos es una técnica que se puede utilizar en muchas facetas para optimizar y alcanzar una eficiencia.
Flores Cortés Fátima, Benemérita Universidad Autónoma de Puebla
Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla

IDENTIFICACIÓN DE PATOLOGÍAS, COMPONENTES ADICIONALES Y FACTORES AMBIENTALES EN ESTRUCTURAS DE CONCRETO


IDENTIFICACIÓN DE PATOLOGÍAS, COMPONENTES ADICIONALES Y FACTORES AMBIENTALES EN ESTRUCTURAS DE CONCRETO

Calvillo Mendiola Mario Alberto, Benemérita Universidad Autónoma de Puebla. Flores Cortés Fátima, Benemérita Universidad Autónoma de Puebla. Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El concreto es un material de construcción ampliamente utilizado debido a su durabilidad y resistencia. Sin embargo, con el tiempo, las estructuras de concreto pueden desarrollar varios defectos y daños conocidos como patologías del concreto. La importancia de identificar y abordar las patologías del concreto no se puede exagerar. La falta de hacerlo puede tener consecuencias graves, como el colapso o daño a la propiedad. Por lo tanto, es crucial que los ingenieros y constructores tengan un entendimiento completo de estos problemas y cómo prevenirlos.



METODOLOGÍA

Durante la investigación se tomará el enfoque de las patologías en estructuras de concreto, teniendo en cuenta sus tipos, componentes añadidos, climas, ambientes y zonas que afectan su duración y provocan estos problemas. Las patologías constituyen un desafío constante en la ingeniería civil, ya que afectan tanto la integridad estructural como la durabilidad del material. Estos problemas pueden manifestarse en diferentes formas, como fisuras, desprendimientos, corrosión del acero de refuerzo y delaminación, y su origen puede ser diverso, incluyendo factores relacionados con la calidad de los materiales, diseño, construcción y las condiciones ambientales. El proceso para organizar una patología en una estructura de concreto se inicia con una inspección visual detallada y la recopilación exhaustiva de datos sobre el historial de construcción. Posteriormente, se emplean diversos métodos de diagnóstico y evaluación, como pruebas no destructivas (como ultrasonidos y radar de penetración), análisis de muestras de material y tecnologías avanzadas de imagen, junto con el monitoreo de la corrosión, para identificar la naturaleza y extensión de los problemas presentes. Entre las causas más frecuentes de las patologías se encuentran la mala calidad de los materiales empleados, los defectos de diseño o ejecución y la exposición a ambientes adversos. En este último aspecto, el clima y el entorno en el que se encuentra la estructura juegan un papel crucial en el desarrollo de las patologías. Ambientes corrosivos, como zonas costeras y marinas, pueden acelerar la corrosión del acero de refuerzo, mientras que climas con altas temperaturas pueden contribuir al agrietamiento y la degradación del concreto. Para hacer frente a estos desafíos, se han buscado mejoras en los materiales y técnicas constructivas, y una de las soluciones destacadas ha sido la incorporación de fibras de refuerzo en el concreto, hechas de materiales como acero, vidrio o polímeros que mejoran significativamente las propiedades mecánicas y de durabilidad del concreto. Al añadir fibras al concreto, se logra un aumento en su resistencia a la tracción y una reducción en la formación de fisuras, además de mejorar su capacidad de resistencia al impacto. Para finalizar se hablará sobre la prevención y mitigación de patologías en estructuras de concreto, los cuáles son aspectos fundamentales para garantizar su vida útil y seguridad. Para ello, es imprescindible un enfoque integral que abarque desde el diseño y la selección de materiales de alta calidad hasta la construcción cuidadosa y el mantenimiento regular. Asimismo, las inspecciones periódicas son esenciales para detectar cualquier problema a tiempo y aplicar las técnicas de reparación adecuadas antes de que se agraven los daños.


CONCLUSIONES

Las patologías del concreto son problemas o daños que pueden afectar la resistencia, la durabilidad, la apariencia y el comportamiento del concreto y pueden ser causadas por una variedad de factores. Para abordar estas patologías, es importante contar con métodos adecuados de diagnóstico y evaluación para identificar y caracterizar los problemas, los cuáles en conjunto proporcionan una visión más completa de la naturaleza y la extensión de las patologías. La prevención y mitigación de patologías es fundamental para garantizar la durabilidad y el rendimiento de las estructuras de concreto, destacando la importancia de seguir buenas prácticas de construcción y diseño, el utilizar materiales de calidad, realizar un mantenimiento regular y aplicar medidas preventivas adecuadas para evitar la aparición de patologías y garantizar la vida útil y seguridad de las estructuras de concreto.
Flores García Aarón Alexander, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara

SIMULACIóN DE PHEVS EN UN ENFOQUE METAHEURíSTICO: CROW SEARCH ALGORITHM


SIMULACIóN DE PHEVS EN UN ENFOQUE METAHEURíSTICO: CROW SEARCH ALGORITHM

Flores García Aarón Alexander, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El dióxido de carbono (CO2) es el principal gas contaminante emitido por la quema de combustible fósil. El uso del combustible fósil dentro del sector de transporte representa alrededor del 25% de las emisiones de CO2 en todo el mundo, al mismo tiempo que representa más del 55% del consumo mundial de petróleo. Sin embargo, se ha demostrado que los vehículos eléctricos son la clave para reducir de forma significativa tanto las emisiones de contaminantes del efecto invernadero como la dependencia del petróleo como combustible para el transporte. Como resultado, los PHEV (Plug-in Hybrid Electric Vehicles) han recibido una mayor atención relacionada con su baja emisión de contaminantes y bajo costo de energía en general. Como consecuencia, se espera una carga enorme en el mercado de los PHEV; sin embargo, un aumento drástico en el uso de los PHEV puede causar varios problemas técnicos que podrían comprometer la estabilidad de los sistemas de energía. Como resultado, se necesita una optimización en las infraestructuras de carga de los PHEVs.   Como posibles soluciones, se plantearon el usó de varios métodos de optimización de enjambre (como Gravitation Search Algorithm (GSA) o el método de Particle Swarm Optimization (PSO)) los cuales se han aplicado en la optimización del State of Charge (SoC), que es uno de los indicadores de rendimiento más importantes en la distribución inteligente de energía de los PHEVs.   Sin embargo, la mayor problemática que se presentan en este tipo de métodos de optimización, es que están sujetos a varias fallas críticas, como la convergencia prematura y la falta de equilibrio entre la exploración global y la exploración de soluciones, este tipo de problemas está relacionado con los operadores evolutivos empleados por los métodos en la exploración global y la exploración de nuevas soluciones. Por lo que durante el verano de investigación científica se abordó la implementación de un algoritmo metaheurístico más reciente (Crow Search Algorithm o CSA) en el que se estudian sus resultados y se compara en relación a los anteriores algoritmos implementados.



METODOLOGÍA

Para poder abordar el problema de asignación de energía en los PHEV´s en los parques de cargado supongamos que hay una estación de carga con una capacidad de potencia total P diseñada específicamente para cargar Vehículos Híbridos enchufables (PHEV). El objetivo principal es asignar energía inteligentemente para cada PHEV individual que llega a la estación de carga. Para ello, es necesario considerar cada Estado de Carga (SoC) de PHEV. El SoC de cada vehículo cambia constantemente como resultado del proceso de carga, por lo tanto, es necesario realizar un seguimiento de dichos cambios para asignar el poder de manera efectiva. Por lo tanto, cada SoC actual del vehículo representa el parámetro principal que debe maximizarse para garantizar una adecuada asignación de energía. Para ello, una función objetivo que tiene en cuenta varias restricciones (como el tiempo de carga, el SoC actual y el precio de la energía) se considera para maximizar la de Estado de carga medio.   Para el proyecto, se decidió trabajar con el algoritmo Crow Search Algorithm (CSA) para maximizar el SoC promedio de los PHEV dentro de una estación de carga. En el experimento se consideraron diferentes escenarios que consistían en diferentes números de PHEV. Para probar la viabilidad del enfoque propuesto, se realizaron experimentos comparativos con los enfoques de maximización del estado de carga de otros PHEV’s populares basados en métodos de optimización. El Crow Search Algorithm (CSA) es un nuevo método metaheurístico basado en la población. La idea detrás de este algoritmo es simular el comportamiento de un grupo de cuervos en busca de comida y aplicarlo para resolver problemas de optimización. El CSA es bastante simple con solo dos parámetros ajustables, lo que a su vez lo hace muy atractivo para aplicaciones en diferentes áreas de ingeniería. La principal motivación de usar el algoritmo CSA es que es una herramienta de optimización fácil de usar tanto para usuarios novatos como expertos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la implementación de algoritmos metaheurísticos en problemas de ingeniería. el cual se logró poner en práctica en la optimización de parques de cargado para PHEVs para mejorar la asignación inteligente de energía para los PHEV.   Los resultados obtenidos en la configuración experimental muestran que el enfoque de maximización de SoC basado en el CSA propuesto, tiene un rendimiento óptimo en comparación con otros métodos.
Flores García Alejandra, Instituto Tecnológico de Morelia
Asesor: Dr. Sebastián Durango Idárraga, Universidad Autónoma de Manizales

DISEñO MECáNICO DE UN MANIPULADOR PARALELO 2-PRR PARA EL REENTRENAMIENTO DE LA MARCHA


DISEñO MECáNICO DE UN MANIPULADOR PARALELO 2-PRR PARA EL REENTRENAMIENTO DE LA MARCHA

Flores García Alejandra, Instituto Tecnológico de Morelia. Asesor: Dr. Sebastián Durango Idárraga, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

     Los sistemas de rehabilitación de la marcha asistida por robots han ganado popularidad para mejorar las sesiones de terapia y aliviar la carga física de los terapeutas. Se dividen en dos categorías: enfoques basados en efectores finales y exoesqueletos. Sin embargo, persisten desafíos en la personalización, adaptabilidad, peso y sincronización robot-paciente. Es necesario investigar y mejorar el diseño y control para lograr terapias más efectivas y accesibles, mejorando así la calidad de vida de los pacientes con trastornos de marcha y movilidad reducida. [1]      Además, la complejidad de la cinemática y la dinámica de los sistemas de rehabilitación asistida por robot requiere un análisis detallado de la cinemática inversa y el control para garantizar la seguridad y eficiencia en los movimientos asistidos, así como materiales que puedan garantizar seguridad y comodidad del usuario. El objetivo de esta parte del trabajo de investigación fue diseñar y construir una maqueta funcional de un mecanismo 2-PRR (Prismática-Revoluta-Revoluta) sujeto a correderas paralelas para simular un manipulador robótico.



METODOLOGÍA

Se abordó el proceso de la estancia en una etapa avanzada del proyecto, utilizando como punto de partida del artículo científico del diseño mecánico de un manipulador paralelo 2-PRR para un sistema de reentrenamiento de marcha [1] que describe el tipo de mecanismo empleado, el análisis de movimientos, el diseño del mecanismo, etc. La metodología empleada en este proyecto se basa en el proceso de diseño Norton :  Identificación de la necesidad.  Investigación preliminar. Declaración de objetivo. Especificaciones de rendimiento. Identificación e invención Análisis. Selección. Diseño detallado. Prototipo y pruebas. Producción.      Cumpliendo las primeras 5 etapas y con las etapas 6 y 7 parcialmente completadas. Para obtener una retroalimentación cualitativa del movimiento y la funcionalidad, así como de la selección de componentes para la implementación de una maqueta prototipo funcional, esta etapa del proyecto se centró en las etapas 6 y 7 mencionadas anteriormente, correspondientes al análisis y selección, respectivamente.  Diseño de la maqueta funcional: Se realizó una aproximación de una maqueta funcional en base al diseño previo del mecanismo 2-PRR y en base a las especificaciones requeridas. Se utilizaron software de diseño asistido por computadora (CAD) para modelar y dimensionar las piezas necesarias (SolidWorks). Se establecieron las dimensiones y especificaciones requeridas para las piezas y componentes del mecanismo, incluyendo los perfiles de aluminio, rodamientos lineales, varillas roscadas y acoples, todo esto en base a CADS y artículo [1] proporcionados por el investigador, del prototipo final esperado y redimensionando piezas para una maqueta a escala.  Adquisición de materiales: Se elaboró una lista de materiales requeridos para la construcción del mecanismo, en la que se incluían piezas, descripciones de medidas y propiedades necesarias, precios y lugar de procedencia, tomando en cuenta a proveedores locales y en línea, asi como de fácil y rápido acceso.  Recomendaciones: Con base en las conclusiones de la evaluación, se ha sugerido un plan de trabajo futuro y con algunas recomendaciones para abordar las limitaciones identificadas y mejorar el funcionamiento del mecanismo, uno de ellos es la singularidad que se puede producir en el sistema, los eslabones se diseñaron pensando en que no interfieran uno con el otro durante la etapa de movimiento reproducido, así mismo a futuro y por causa del tipo de material se sugiere emplear algún resorte o eslabón de pistón reeplazando uno de los eslabones rígidos. Para aportar mayor estabilidad a un diseño final, se sugiere emplear 4 pares extras de varillas en cada corredera. Se planteó la necesidad de profundizar en el estudio de la cinemática inversa y el control de los motores paso a paso para lograr movimientos más precisos y coordinados. 


CONCLUSIONES

Durante la estancia de investigación, se avanzó significativamente en la adquisición de conocimientos teóricos sobre sistemas de rehabilitación de la marcha asistida por robot y su clasificación en enfoques basados en efectores finales y exoesqueletos. Por medio de una revisión bibliográfica y análisis de estudios previos, se lograron comprender los principios fundamentales de estos sistemas y sus aplicaciones en la rehabilitación.  El diseño de la maqueta cuenta con materiales accesibles, además de una serie de componentes que son diseños propios e imprimibles los cuales pueden facilitar la reproducción física del robot a futuro, así mismo en las siguientes figuras e imágenes se muestran los resultados obtenidos en el proceso.          Si bien no se llevó a cabo la construcción y ensamblaje físico del mecanismo debido a las limitaciones de tiempo y recursos, los resultados preliminares obtenidos hasta el momento son alentadores para continuar con el desarrollo del mecanismo. Se espera optimizar el rendimiento y eficacia en el mecanismo para la rehabilitación de la marcha, con el objetivo de que el producto final logre ofrecer terapias más efectivas y accesibles para mejorar la calidad de vida de los pacientes con movilidad reducida y otro tipo de patologías relacionadas a la movilidad del tren inferior del cuerpo humano.       Así mismo agradecer al Ingeniero Adolfo Andrés Álvarez Arango por su invaluable colaboración, por brindarme apoyo durante la estancia de investigación. Su dedicación, conocimiento y orientación experta han sido fundamentales para el progreso exitoso de esta investigación. Su guía  ha enriquecido mi experiencia y ha contribuido  a mi crecimiento académico y profesional.   REFERENCIAS  [1] D. Y. Risk-Mora, S. Durango-Idárraga, H. N. Jiménez-Cortés, and J. L. Rodríguez-Sotelo, Mechanical Design of a 2-PRR Parallel Manipulator for Gait Retraining System, Machines, vol. 11, no. 8, p. 788, Aug. 2023, doi: 10.3390/machines11080788. 
Flores Hernandez Tania Judith, Instituto Tecnológico de Colima
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

EXTRACCIóN DE LíPIDOS A PARTIR DE LA BIOMASA DE BORRA DE CAFé Y SEMILLA DE COROZO.


EXTRACCIóN DE LíPIDOS A PARTIR DE LA BIOMASA DE BORRA DE CAFé Y SEMILLA DE COROZO.

Flores Hernandez Tania Judith, Instituto Tecnológico de Colima. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

  Durante el paso del tiempo la extracción de petróleo para la producción de combustibles ha causado daños ambientales y alteraciones climáticas. Los combustibles fósiles son emisores de CO2 a la atmosfera durante la combustión. Los mismos son los principales causantes del calentamiento global, lo que provoca serios daños en el medio ambiente. La producción de energía en el mundo proviene aproximadamente en un 86% de combustibles fósiles, por lo que se estima que los combustibles fósiles se extinguirán dentro de unos 200 años. Por lo anterior, se busca hacer uso de las energías renovables, sobre todo porque son energías extraídas de fuentes naturales y son más amigables con el ambiente. Mediante la valorización de diferentes residuos, entre ellos, la borra de café y semillas de corozo, se puede obtener biodiesel, lo cual ayuda a disminuir la generación de residuos y a la producción de energías renovables.



METODOLOGÍA

  Se realizó la extracción sólido - líquido del aceite de las biomasas en estudio: borra de café y semillas de corozo. Se utilizó un método de extracción convencional, donde el hexano fue el solvente empleado para separar la biomasa de sus lípidos, en una parrilla con agitación constante a temperatura ambiente.   2.1 Relación solvente-biomasa Se realizó la extracción de lípidos variando la relación solvente/ biomasa, utilizando 5 g de la biomasa y diferentes volúmenes de solvente, los cuales variaron de 20, 30, 40, 50 y 60 mL de hexano, en una agitación constante por 10 min a temperatura ambiente    2.2 Cinética de extracción de lípidos Se realizó una cinética de extracción de lípidos utilizando 5 g de biomasa y 20 mL de hexano a diferentes tiempos de agitación de 5, 10, 15, 60, 120 y 150 min a temperatura ambiente.


CONCLUSIONES

  Con respecto a la relación solvente/ biomasa se pudo observar que para la semilla de corozo y la borra de café aumentó su porcentaje de extracción de lípidos a medida que aumentó la relación solvente/biomasa sin embargo, para los volúmenes finales de 60 mL de hexano el porcentaje de lípidos decayó para ambas biomasas. Los mayores porcentajes de lípidos extraídos fueron de 34.8 y 10.2 para la semilla de corozo y borra de café respectivamente utilizando volúmenes de 50 mL de hexano. En las cinéticas de extracción de lípidos se logró apreciar que en el intervalo de tiempo de 5 a 60 min de agitación, el solvente logra extraer mayor cantidad de aceite, en cambio a partir de los 120 y 150 min comienza a decaer su capacidad de extracción. Estas biomasas tienen diversas propiedades que hacen que a partir de sus lípidos cuantificados se pueda obtener biodiesel y productos de valor añadido.
Flores Lacarra Karla Giovanna, Universidad Autónoma de Baja California
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

INTERACCIÓN ENTRE FACTORES QUE ANTECEDEN A LA FORMACIÓN DE LA ISLA DE CALOR URBANO MEDIANTE MONITOREO HIGROTÉRMICO EN TRANSECTO OTE EN CENTRO HISTÓRICO EN CIUDAD PATRIMONIAL, MORELIA, MÉXICO.


INTERACCIÓN ENTRE FACTORES QUE ANTECEDEN A LA FORMACIÓN DE LA ISLA DE CALOR URBANO MEDIANTE MONITOREO HIGROTÉRMICO EN TRANSECTO OTE EN CENTRO HISTÓRICO EN CIUDAD PATRIMONIAL, MORELIA, MÉXICO.

Flores Lacarra Karla Giovanna, Universidad Autónoma de Baja California. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La creciente densidad demográfica en las zonas urbanas es un factor predominante que ha propiciado la formación de Isla de Calor Urbano (ICU), definido como un fenómeno que contrasta una notable diferencia de sensación térmica entre una zona y otra, el aumento en la demanda de energía, los gases de efecto invernadero, contaminación del aire y afectaciones en el confort térmico son las principales consecuencias de ello. Los problemas ambientales en México cada vez denotan con mayor frecuencia sus efectos, y se ha visto vulnerable ante cambio climático y sus secuelas, siendo un país con alta densidad demográfica y una tendencia de crecimiento a zonas urbanas, se ve en la necesidad de tomar medidas de mitigación y acción. Las temperaturas promedio han incrementado en los últimos 50 años un estimado de 0.85°C por arriba de la normal climatológica, esperando que para 2039 aumente hasta 2°C en el norte del territorio. Las condiciones higrotérmicas como la temperatura y humedad tienen un alto impacto en la generación de Isla de Calor Urbano y la intensidad con la que se presentan, además existen otros factores con influencia como el flujo de personas, aforo vehicular y los materiales de construcción de las edificaciones constituyentes de la zona de estudio. Por lo tanto, en este estudio se analizan dichas condiciones en el transecto estudiado que es uno de los más transitados vehicular y peatonalmente del centro patrimonial de Morelia, partiendo de la Plaza Melchor Ocampo, a un lado de la Catedral, como sitio de interés y relevancia turística; Templo de San Francisco con valor histórico por la realización de trueques; finalizando en el Bosque Cuauhtémoc, una importante área verde de la ciudad por su disponibilidad de árboles y frecuente concurrencia de la comunidad para eventos sociales. Morelia es patrimonio histórico del país, es necesario determinar los factores que propician a la generación de ICU para proponer soluciones y estrategias que fortalezcan la resiliencia y en beneficio a una problemática social de valor significativo, el confort térmico de los habitantes.



METODOLOGÍA

Para el monitoreo higrotérmico se utilizaron dos dispositivos de marca Elitech, modelo RC-51h, con tipo de sensor para temperatura y humedad, calibrados previamente y programados con un intervalo de registro a cada 30 segundos, considerando las especificaciones de la norma ISO 7626 (1998) para los instrumentos que miden cantidades físicas del medio ambiente, ambientes cálidos, templados o fríos. Además, los dispositivos fueron complementados para su uso con un recubrimiento de platos color blanco para evitar la reflexión de los rayos solares y no tener alteraciones en la obtención de datos. Las mediciones se realizaron en fin de época estiaje, el día 27 de julio de 2023 en un transecto del centro histórico de la ciudad de Morelia durante una 1 hora con 2 minutos, iniciando a las 11:10 am y finalizando a las 12:12 pm del mismo día. Un dispositivo fue monitoreado durante el transecto bajo sombra y el segundo bajo condiciones de sol, obteniendo un total de 250 lecturas entre ambos equipos. Se consideraron tres sitios de interés durante el transecto: Plaza Melchor Ocampo, se realizaron 4 mediciones en distintos puntos del sitio, con una toma de datos de 5 minutos en cada posición; Templo de San Francisco con 4 tomas distintas; una medición bajo sol en una construcción y por último 5 mediciones en el Bosque Cuauhtémoc. Es importante mencionar que la elección del posicionamiento del equipo estuvo basada en la sensación del confort térmico y percepción de los visitantes de los sitios. Cabe mencionar que con los dispositivos se obtuvieron datos de temperatura y humedad, aunado a ello se cuantificaron otros parámetros que tienen relación al entorno urbano mediante el registro de una bitácora sobre los materiales de construcción de las edificaciones, geometría transversal de las vialidades, orientación solar, aforo vehicular, flujo peatonal de personas y descripciones generales del escenario. Además de un análisis en base de datos como la disponibilidad de árboles, áreas verdes de la zona y el recubrimiento de la calle.


CONCLUSIONES

Los resultados obtenidos arrojan una notable diferencia entre los datos capturados en sol, con una temperatura y humedad más estable en comparación con sombra que fue dependiente de factores externos no acotados únicamente al clima, sobre todo en relación a la vegetación circundante de la zona estimada, obteniendo resultados con variaciones detonantes. Es necesario realizar un análisis multifactorial de ICU para correlacionar aspectos que influyan en su formación, intensidad y distribución, debido a que no sólo contempla las causas climatológicas, también las externas e incluso sociales que propician a la formación de la Isla de Calor Urbano. En este caso de estudio, situado en un patrimonio histórico de la ciudad, es posible asegurar que sus afectaciones no son sólo en el medio ambiente, el confort térmico de la comunidad es un punto relevante respecto a la calidad de vida de la comunidad. Con esta recopilación de datos, es ejecutable diseñar estrategias que tengan impacto a corto y largo plazo, mitigar la ICU aportaría un bienestar colectivo tanto habitantes como turistas orientados a crear ciudades sostenibles y aportar en la acción por el clima. Se espera realizar mediciones de horarios más extendidos y por periodos de tiempo considerables que permitan generan un panorama completo del contexto situado, así como diferenciar las variaciones durante las estaciones del año.
Flores Monroy Luis Noe, Universidad de Guadalajara
Asesor: Dra. Maria Isabel Mejia Correa, Universidad de Medellín

DESARROLLO DE MATERIALES POLIMéRICOS FOTOACTIVOS Y OPTIMIZACIóN DE TéCNICAS PARA SU CUANTIFICACIóN


DESARROLLO DE MATERIALES POLIMéRICOS FOTOACTIVOS Y OPTIMIZACIóN DE TéCNICAS PARA SU CUANTIFICACIóN

Flores Monroy Luis Noe, Universidad de Guadalajara. Asesor: Dra. Maria Isabel Mejia Correa, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la creciente preocupación por la contaminación ambiental generada por colorantes textiles y otros compuestos orgánicos, la fotocatálisis heterogénea con dióxido de titanio (TiO2) ha emergido como una prometedora solución para la degradación y eliminación de contaminantes. Esta técnica aprovecha la capacidad del TiO2 para activarse bajo la irradiación de luz ultravioleta y desencadenar reacciones fotocatalíticas que pueden degradar compuestos orgánicos tóxicos en productos inofensivos como agua y dióxido de carbono.



METODOLOGÍA

Pretratamiento de Telas de Poliéster: Antes de aplicar los materiales fotoactivos, se realizó un pretratamiento en las telas de poliéster para asegurar la adherencia adecuada de las partículas de TiO2. Este paso incluyó la limpieza y lavado exhaustivo de las telas para eliminar cualquier impureza o agente contaminante que pudiera afectar la eficacia de los materiales. Métodos de Impregnación: Para obtener telas fotoactivas, se utilizaron dos métodos de impregnación: Spray y Sol-gel. Para el primero se preparó una dilución de etanol al 70 % y en 50 ml de este se agregó 1 g de dióxido de titanio. La mezcla se vertió en un recipiente plástico con atomizado. Para impregnar se atomizó sobre las telas dispuestas en una bandeja metálica 6 veces y después se llevaron a secado en horno a 50 °C 1 hora. Se repitió este proceso 6 veces. Tras el último secado, se tomaron las telas con pinzas desde una esquina y se utilizó un frasco lavador para limpiar la cara que fue atomizada, eliminando los excesos de catalizador. Finalmente, se secó durante 1 hora más. Para el sol-gel, se mezclaron 30 ml de tetraetil ortosilicato (TEOS), 50 ml de isopropanol, 4.8 ml de agua destilada y 0.2 ml de ácido clorhídrico (HCl) durante 24 horas. Transcurrido este tiempo, se añadieron 1.7 g de dióxido de titanio y para impregnar las telas se colocaron cajas de petri sobre un shaker. Con una jeringa se añadieron 4 ml a cada caja y se dejó en agitación durante 6 horas. Transcurrido el tiempo se secaron en el horno a 50°C durante 1 hora y de igual manera se les hizo un lavado con agua destilada para remover excesos y nuevamente se secaron. Fotodegradación de Colorantes: Una vez recubiertas con TiO2, las telas fueron sometidas a ensayos de fotodegradación de colorantes textiles bajo la irradiación de luz ultravioleta. Se emplearon los colorantes naranja de metilo y azul de metileno como contaminantes modelos. Durante el proceso de fotodegradación, las partículas de TiO2 activadas por la luz ultravioleta desencadenaron reacciones fotocatalíticas que llevaron a la degradación del colorante, transformándolo en productos inofensivos. Realización de Curvas de Degradación: Para comprender la cinética de la degradación, se llevaron a cabo curvas de degradación que involucraron el seguimiento de la concentración de colorante a diferentes intervalos de tiempo. Estas curvas permitieron determinar el tiempo necesario para alcanzar una degradación completa y obtener información sobre la eficiencia fotocatalítica de los materiales. Centrifugación: Después de cada exposición a la luz ultravioleta, las telas fueron sometidas a centrifugación para separar las partículas del colorante degradado del líquido resultante. Este proceso facilitó la medición de la concentración de colorante remanente en las telas y permitió evaluar el rendimiento fotocatalítico de los materiales.


CONCLUSIONES

1. Desarrollo Exitoso de Materiales Poliméricos Fotoactivos: La metodología implementada para el desarrollo de telas poliméricas fotoactivas utilizando las técnicas spray y sol-gel resultó en la obtención exitosa de materiales autolimpiables con partículas de TiO2. 2. Eficiencia Fotocatalítica para la Degradación de Colorantes: Los ensayos de fotodegradación demostraron que las telas recubiertas con TiO2 exhibieron una eficiente actividad fotocatalítica para la degradación de colorantes textiles. Las partículas de TiO2 activadas por la luz ultravioleta descompusieron eficazmente los colorantes, transformándolos en productos menos tóxicos. 3. Cinética de Degradación Estudiada: Las curvas de degradación permitieron analizar la cinética del proceso de fotodegradación y determinar el orden de reacción y la constante de velocidad de reacción para la degradación de colorantes. Estos resultados proporcionaron información valiosa sobre la velocidad y eficiencia del proceso. 4. Optimización de Condiciones: Los experimentos realizados con diferentes concentraciones de TiO2 y tiempos de exposición a la luz, permitieron identificar las condiciones óptimas para la máxima degradación de los colorantes. Se encontró que la concentración de 5 microlitros como contaminante inicial permitía un adecuado análisis de la fotodegradación, así como un tiempo de 10 minutos de centrifugación a 2500 rpm.  5. Potencial de Aplicación Ambiental: Los materiales poliméricos fotoactivos desarrollados tienen un gran potencial para aplicaciones ambientales debido a su capacidad para degradar colorantes textiles y reducir la contaminación ambiental asociada, así como la capacidad superhidrofoba para el caso de las telas impregnadas mediante  sol-gel. 6. Contribución a la Sostenibilidad: La tecnología de fotodegradación de colorantes textiles con materiales fotoactivos ofrece una solución sostenible para abordar los problemas ambientales causados por la contaminación de colorantes, contribuyendo a la preservación del medio ambiente y la salud pública. 7. Perspectivas Futuras: La investigación realizada proporciona una base sólida para futuras investigaciones en el campo de la fotocatálisis heterogénea con TiO2 y la aplicación de materiales fotoactivos en diferentes áreas, como la industria textil y el tratamiento de aguas residuales. Se comenzó a experimentar con placas de polímeros impresas en 3D, con un potencial para continuar el trabajo y análisis. 
Flores Navarrete Denia Grisel, Universidad Autónoma de Guerrero
Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE ENSAYOS NO DESTRUCTIVOS PARA CARACTERIZAR PAVIMENTOS FLEXIBLES


ANáLISIS DE ENSAYOS NO DESTRUCTIVOS PARA CARACTERIZAR PAVIMENTOS FLEXIBLES

Flores Navarrete Denia Grisel, Universidad Autónoma de Guerrero. Orozco Cárdenas Jesús Emmanuel, Universidad de Colima. Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años México ha presentado grandes extensiones de kilómetros en la Red de Carretera Federal, sin embargo, estas carreteras requieren siempre de un gran mantenimiento y evaluaciones para determinar su estado actual. Los ensayos NO destructivos y los avances tecnológicos se han convertido en una forma útil de determinar el estado del pavimento disminuyendo la afectación al tráfico. Dado lo anterior y buscando evaluar las condiciones estructurales y funcionales de los pavimentos, se implementa dos ensayos específicos NO destructivos teniendo en consideración lo siguiente: Determinar las deflexiones para evaluar la condición estructural en pavimentos flexibles utilizando un equipo de alto rendimiento como el Deflectómetro de Impacto (FWD. Analizar el resultado de uniformidad y la localización de saltos en la superficie del pavimento para determinar la aceptación de la carretera en construcción o determinar estímulos y sanciones mediante el uso de un Perfilógrafo tipo California.  A fin de poner en práctica las técnicas anteriores, se realizaron ensayos de campo de las dos técnicas arriba descritas; en el caso de la medición de deflexiones se realizo en el tramo km 3+000 al km 16+500 de la autopista Zamora-Ecuandureo, para la segunda técnica se evaluó el tramo Avenida 5 de Febrero (km 2+200 al km 2+800) en la ciudad de Querétaro. 



METODOLOGÍA

Identificar el sito en el que se realizará el ensayo debido a una revisión preliminar sobre el estado del pavimento. Preparar el equipo necesario para realizar el ensayo, considerando el procedimiento y/o Normativa aplicable. Realizar las distintas mediciones con los equipos adecuados y calibrados para determinar la condición superficial y la condición estructural de un pavimento flexible. En gabinete realizar el postproceso de los datos obtenidos con las mediciones tomadas por los equipos y realizar los cálculos respectivos. Interpretar los resultados del cálculo y proponer una solución a la problemática que se presenta en el pavimento.


CONCLUSIONES

Dado los resultados obtenidos en el ensayo del índice de Perfil que se obtuvo del tramo medido fue de 27.57 cm/km, lo que supera la condición establecida de acuerdo a la Norma NIT-SCT: N-CTR-CAR-1-04-006 donde indica el índice de perfil promedio diario mayor de 24 cm/km requiere hacer una corrección. Por otro lado, el resultado obtenido de las deflexiones nos permite identificar que la capacidad estructural del pavimento donde se realizó el ensayo se considera en una condición REGULAR de acuerdo con la Normativa NIT-SCT: N-CVS-CAR-1-03010/17.
Flores Ramón Diana, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Beatriz Espinosa Aquino, Benemérita Universidad Autónoma de Puebla

CIUDADES Y COMUNIDADES SOSTENIBLES: VALORIZACIóN DE LOS RSU EN MI COMUNIDAD TEPATLAXCO DE HIDALGO, PUEBLA.


CIUDADES Y COMUNIDADES SOSTENIBLES: VALORIZACIóN DE LOS RSU EN MI COMUNIDAD TEPATLAXCO DE HIDALGO, PUEBLA.

Flores Ramón Diana, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Beatriz Espinosa Aquino, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Vivo en la junta auxiliar de San Mateo Tlaixpan el cual pertenece al municipio de Tecamachalco en el estado de Puebla. En 2020, la población en Tecamachalco fue de 80,771 habitantes (48% hombres y 52% mujeres). Tecamachalco cuenta con 44 localidades, las más importantes son San Mateo Tlaixpan, Santiago Alseseca y Santa Rosa que, junto con la cabecera municipal, el Municipio de Tecamachalco, pertenecen a la región socioeconómica VII del Estado de Puebla que pertenece a Tehuacán. Tecamachalco cuenta con una superficie de 1542 km. Su altitud es de 2055 msnm. Limita como distrito con Chalchicomula por el norte, con Tehuacán al suroeste, con Tepexi al sureste y al oeste con Tepeaca. El municipio presenta un extenso sistema de canales de riego y acueductos que corren en todas direcciones del territorio. El más importante es el denominado canal principal que pertenece al sistema de riego N.º 30 denominado Valle de Valsequillo con cabecera en este municipio, es el único municipio en el estado que cuenta con un Distrito de Riego Federal además de que tiene un largo recorrido dentro del territorio y continua al sur hacia el valle de Tehuacán. La mayoría de los arroyos descienden de la cordillera del cerro de "Cuautepec" (Cerro del águila) o provienen del norte y desembocan en el canal principal. CENTROS DE ACOPIO / ALMACENAJE DE RESIDUOS (COMPRA - VENTA) Recuperadora de Carton: Compran desperdicio insutrial carton ya sea empacado o bien a granel. Este lugar se encuentra en Tecamachalco. También hay camiones que pertenecen a municipios vecinos y se dedican a recolectar botellas de plástico, fierro y aluminio y se lo llevan a vender a empresas que se dedican a trabar con ese material.



METODOLOGÍA

DESCRIPCIÓN DE LA SITUACIÓN Y PROBLEMÁTICA AMBIENTAL DE LA ZONA   En mi lugar de residencia si hay carros que se dedican a la recolección de la basura, aquí en el pueblo que vivo pasan solo los días martes en un horario de 8 a 9 de la mañana, los señores que se dedican a eso separan las botellas de plástico, los cartones y latas. En el centro del municipio hay personas que se dedican a recolectar cartones y plástico en las noches. En mi casa separamos todo, las botellas de plástico, las latas de aluminio, el vidrio, los cartones y el fierro, y todo lo que son residuos orgánicos los juntamos todos en un solo lado y se vuelve abono que mi mama utiliza para echarle a sus plantas. CENTROS O PLAZAS COMERCIALES Se realiza una plaza comercial solo los sábados detrás de la molinera y es grande y en el centro de Tecamachalco hay un mercado pequeño que está abierto de lunes a sábado. Cabe destacar que todos dejan limpia su área en la plaza comercial, cada quien se lleva su basura.


CONCLUSIONES

En la Universidad Tecnológica de Tecamachalco donde estudio, hacen recolecta de botellas de plástico y de baterías y tienen separadores de basura orgánica e inorgánica. En la preparatoria Regional Enrique Cabrera Barroso realizan recolección de botellas de plásticos y tienen separadores de basura orgánica e inorgánica. En el plantel de bachillerato el CECyTE hacen recolectas de papel reciclado de libretas y de carton. De mi parte como contribución al medio ambiente, separo los residuos en mi casa, y llevo todas las baterías que se van gastando a mi universidad donde se recolectan. En mi familia ya que tenemos algo de residuos inorgánicos los vamos a vender a los centros de recolección del municipio de al lado donde ellos se encargan de ir a venderlos a empresas que reutilizan y reciclan para cuidar al medio ambiente. CONTRIBUCIÓN DE MI PARTE Yo estudie en la preparatoria regional Enrique Cabrera Barroso y realizábamos proyectos de reforestación e íbamos a las primarias a dar platicas a los niños pequeños de la importancia de la separación de residuos y formas de reciclar, a los niños les motivaba mucho las dinámicas que hacíamos, entonces es una propuesta que se puede llegar a realizar, y es mejor empezar a fomentar eso en los pequeños para que crezcan con esas ideas de cuidar al planeta. Otra opción que es muy buena para mantener una zona más limpia es realizar campañas de limpieza como en las calles, en el cerro, los campos y un punto importante es concientizar a las personas.
Flores Sánchez Fabiola, Instituto Tecnológico de Matamoros
Asesor: Mtra. Cecilia Elizabeth Albujar Verona, Universidad Tecnológica del Perú

CONTAMINACIóN POR AGUAS RESIDUALES EN ZONAS MARINO-COSTERAS.


CONTAMINACIóN POR AGUAS RESIDUALES EN ZONAS MARINO-COSTERAS.

Flores Sánchez Fabiola, Instituto Tecnológico de Matamoros. Mejia Pineda Brinny Mariana, Fundación Universitaria Tecnológico Comfenalco. Asesor: Mtra. Cecilia Elizabeth Albujar Verona, Universidad Tecnológica del Perú



PLANTEAMIENTO DEL PROBLEMA

La contaminación de zonas costeras a nivel mundial es un problema ambiental que afecta gravemente a una multitud de lugares. La combinación de fenómenos naturales y las actividades antropogénicas han dado pie a la degradación del ecosistema costero y a la vez influye negativamente en la vida marina y la calidad del agua. (Adyasari et al., 2021) El objetivo del artículo es mostrar un análisis de investigaciones científicas que abordan el tema de la contaminación y por ende las principales fuentes que dan origen a ella y los tratamientos recomendados para disminuir los efectos de esta. En este análisis, exploraremos en mayor profundidad las causas y consecuencias de la contaminación en zonas costeras, así como las posibles soluciones y estrategias para mitigar este problema. Es imperativo que todos comprendamos la importancia de estas áreas y nos comprometamos a proteger y conservar nuestros valiosos ecosistemas marino-costeros para las generaciones futuras. Al abordar la contaminación en estas zonas, podemos contribuir a un entorno más saludable y sostenible tanto para la vida marina como para las comunidades humanas que dependen de estos frágiles y valiosos ecosistemas.



METODOLOGÍA

La presente investigación compone una revisión sistemática acerca de artículos relacionados con la contaminación de las zonas costeras. Durante el proceso de búsqueda de información fueron utilizados metabuscadores tales como Scopus, Scielo, Redalyc, Bol, entre otras fuentes de búsqueda reconocidas. A su vez fueron empleados términos clave dirigidos únicamente al tema mencionado, frases clave como contaminación del mar, principales contaminantes del mar y consecuencias de la contaminación. Las frases claves sirvieron como los criterios. El primer criterio de inclusión se enfoca en hablar sobre los tipos de contaminación directamente. El objetivo es mencionarlos y establecer que son. El segundo criterio establece en que afectan esos tipos de contaminación. El tercer criterio menciona los posibles tratamientos para la contaminación costera. La búsqueda de artículos relacionados hace énfasis en buscar solo cierto rango; artículos relacionados al tema desde el 2017 hasta el 2023, con el propósito de que contengan datos recientes y puntuales para el desarrollo del análisis.  


CONCLUSIONES

De lo expuesto en esta revisión, se concluye que la contaminación marino-costera es altamente influenciada por el factor humano. El mal manejo de agentes químicos y la contaminación por micro-plasticos han sido causados por el hombre. Los tipos de contaminación varían, pero derivan de causas antropogénicas. Los agentes químicos son un tipo de contaminación alarmante Dicho esto, se cree que, para controlar el problema de la contaminación por aguas residuales,  es crucial poner en efecto sistemas de tratamiento adecuados en plantas de tratamiento de aguas residuales antes de su descarga al medio ambiente. Además, es importante promover prácticas sostenibles en la industria, la agricultura y los hogares para reducir la cantidad de contaminantes vertidos en las aguas residuales. La concienciación pública sobre la importancia de preservar la calidad del agua y el uso responsable de los recursos hídricos también desempeñan un papel fundamental en la mitigación de la contaminación por aguas residuales y la protección del medio ambiente acuático. Básicamente la culpa de la contaminación a las zonas costeras ha sido causada por el hombre. Sin embargo, es momento de tomar acción y cuidar adecuadamente las zonas costeras, de lo contrario serán inhabitables.
Flores Santos Alejandra, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

INTELIGENCIA ARTIFICIAL EN LA EDUCACIóN


INTELIGENCIA ARTIFICIAL EN LA EDUCACIóN

Flores Santos Alejandra, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial (IA) está referida al modo de simular las capacidades de inteligencia del cerebro humano. (Badaró, Ibañez, Agüero, 2013). Son sistemas o máquinas que imitan la inteligencia humana para realizar tareas y van a ir mejorando a partir de la información que recopilan. La influencia que existe en el tema de la educación es destacada, al aplicar la Inteligencia Artificial es posible crear programas adecuados para que los estudiantes y los profesores sean más productivos y de esa manera permitir que las instituciones puedan ser brindar una educación de alta calidad. Durante la estancia de verano de investigación se buscó dar a conocer la importancia que tiene la inteligencia artificial en la educación, mediante el diseño y construcción de recursos abiertos, permitiendo dar a conocer a profesores y estudiantes herramientas que pueden tener gran utilidad para completar y apoyar su proceso de aprendizaje.



METODOLOGÍA

A lo largo de la estancia se exploró el concepto e importancia del tema, con búsqueda de documentación bibliográfica, videos e imágenes relevantes. A partir de ahí se planteó el diseño y conceptualización de plasmar toda la información recabada en un recurso educativo abierto con la implementación de eXeLearning, donde se sumó los conceptos aprendidos con anterioridad y nuevos datos que se fueron añadiendo. El REA busca dar a conocer herramientas que hagan uso de la inteligencia artificial, que puedan complementar el aprendizaje del estudiante, las clases y el desarrollo de los profesores durante este proceso. Se encuentra dividido en varias secciones ejemplificando su función y propósito, junto con actividades que se pueden ir realizando para evaluar el progreso aprendido durante su lectura.


CONCLUSIONES

En la actualidad existen múltiples plataformas que hacen uso de la inteligencia artificial, su importancia radica en su capacidad para revolucionar y mejorar significativamente la forma en que se aprende y se enseña. Es importante dar a conocer los beneficios y trascendencia que existen por parte de la inteligencia artificial en la educación, la tutoría para estudiantes, la creación de contenido inteligente, nuevos métodos de desarrollo personal para docentes a través de conferencias virtuales globales, aplicaciones que pueden analizar una gran cantidad de información, automatizar tareas administrativas, como la calificación de exámenes y la planificación de horarios, lo que libera tiempo para que los docentes se centren en actividades más interactivas y significativas en el aula, entre muchas otras ventajas. Emplear la IA de manera equilibrada y ética en la educación tiene el potencial de elevar la calidad de la enseñanza y el aprendizaje, empoderando a futuras generaciones con habilidades relevantes para un mundo en constante evolución. Por último, la inteligencia artificial en la educación ofrece un camino hacia un sistema educativo más adaptable, personalizado y efectivo.
Fonseca Cruzes Uriel Arturo, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

INYECCIóN DE HIDROGENO EN MOTOR A GASOLINA


INYECCIóN DE HIDROGENO EN MOTOR A GASOLINA

Fonseca Cruzes Uriel Arturo, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se realizó la implementación de una celda seca de hidrogeno a un automóvil de combustión interna buscando obtener una reducción en el consumo de combustible y en las emisiones contaminantes. La inyeccion electrónica de los motores funciona en bese en pulso que hace funcionar los inyectores y inyectan la gasolina contando con el giro del motor, para nuestro caso al incorporar hidrogeno debemos elegir la forma adecuada de enviar el hidrogeno a la cámara de combustión sin afectar al sistema del vehículo y tener un buen funcionamiento para esto se realizó varias opciones para un buen funcionamiento y no alterar el motor del vehículo de una forma que afecte a su mal funcionamiento.



METODOLOGÍA

investigación y revisión del estado de la técnica para inyección de gas hidrogeno en la alimentación de un motor de combustión interna. De entre las muchas fuentes posibles de inyección de combustible seleccionaremos aquella qué puedo hacer utilizada en un motor a combustión con inyección electrónica. Diseño del sistema de inyección de hidrogeno. El sistema seleccionado es inyectar el hidrógeno en la cámara de admisión con una inyección indirecta para que sea más sencillo hacer el diseño. Adquisición de los materiales y pruebas iniciales. Desde las mangueras hasta la celda de hidrogeno optar por cual sería mejor para la inyección, así como realizar las pruebas y comprobar que los materiales sean de calidad para la inyección.


CONCLUSIONES

Se logró la implementación de la celda seca al motor de combustión, obteniendo un sistema de inyección adecuada y segura. Para lograr los objetivos,  se tomó el hidrógeno generado de forma que no alteraren los elementos del motor para tener un funcionamiento correcto, para esto se tomo la inyeccion dentro de tubo que va a la admisión donde conecta el cuerpo de aceleración y el filtro del aire haciendo que, una vez que se acelere,  el hidrogeno inyectado entre directo a la cámara de combustión para obtener una mezcla rica y que los sensores del vehículo detecten esta situación de tal manera que la demanda de combustible sea menor y, por lo tanto, disminuya las emisiones de CO2, CO y NOx principalmente.
Fonseca Flores Leonardo, Instituto Tecnológico de Toluca
Asesor: Dr. Gustavo Chacón Contreras, Corporación Politécnico de la Costa Atlántica

REALIDAD AUMENTADA COMO APOYO EN PROCESOS DE COMPRENSIóN LECTORA EN ESTUDIANTES UNIVERSITARIOS PERTENECIENTES AL PROGRAMA DE INGENIERíA DE SISTEMAS DEL POLITéCNICO COSTA ATLáNTICA


REALIDAD AUMENTADA COMO APOYO EN PROCESOS DE COMPRENSIóN LECTORA EN ESTUDIANTES UNIVERSITARIOS PERTENECIENTES AL PROGRAMA DE INGENIERíA DE SISTEMAS DEL POLITéCNICO COSTA ATLáNTICA

Avalos Medina Alan Jordi, Instituto Tecnológico de Toluca. Fonseca Flores Leonardo, Instituto Tecnológico de Toluca. Asesor: Dr. Gustavo Chacón Contreras, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Los bajos niveles de comprensión lectora en todo Latinoamérica, especialmente en la ciudad de Barranquilla, Colombia causan que muchos estudiantes a nivel licenciatura de ingeniería de sistemas en la Costa Atlántica enfrentan dificultades para comprender y retener la información presentada en textos complejos y técnicos. Hoy han surgido muchas herramientas tecnológicas con las que se puede mermar dicho problema, una de ellas es la realidad aumentada (RA), que, gracias al avance tecnológico, se ha vuelto fácil usar por cualquiera. Lo que se propone es que el alumno pueda utilizar dicha herramienta en los textos académicos como apoyo para su mejor entendimiento.



METODOLOGÍA

1. Lectura y análisis del Modelo de Rejilla para Análisis de los Textos proporcionado por el investigador: Leer y analizar el Modelo de Rejilla proporcionado por el investigador para comprender y analizar el texto seleccionado. Identificar los siguientes elementos del texto: Género del texto. Autor del texto. Propósito y actividades que el docente realizará con el texto. Conceptos clave presentes en el texto. Propósito y actividades que el estudiante realizará con el texto. 2. Fase de Lectura: Leer el apartado de la fase que describe las actividades que el docente llevará a cabo y los activadores de realidad aumentada que se esperan utilizar durante la enseñanza del texto. 3. Lectura del Texto: Proceder a leer el texto seleccionado que será utilizado como base para la creación del activador de realidad aumentada. 4. Lectura de los Activadores a Crear y Recomendaciones: Analizar y comprender los activadores de realidad aumentada que se deben crear de acuerdo con la fase y las recomendaciones proporcionadas. 5. Diseño del Ejemplo de Realidad Aumentada: Diseñar un modelo de realidad aumentada que combine audio, imágenes y cuadros de diálogo para mejorar la comprensión del texto por parte del estudiante. 6. Búsqueda de Foto Libre de Derechos de Autor: Realizar una búsqueda de una foto libre de derechos de autor que esté relacionada con el tema principal del activador de realidad aumentada. 7. Creación del Activador en la Plataforma ROAR: Utilizar la plataforma ROAR para crear el activador de realidad aumentada basado en el diseño y la foto seleccionada. 8. Realización de Pruebas y Ajustes: Realizar pruebas con un dispositivo móvil para comprobar la funcionalidad y efectividad del activador de realidad aumentada. En caso necesario, realizar ajustes para mejorar la experiencia del usuario y garantizar una mejor comprensión del texto seleccionado. Con esta metodología, se busca utilizar la realidad aumentada como herramienta complementaria en el proceso de comprensión lectora, brindando a los estudiantes una experiencia enriquecedora y facilitando la asimilación de la información contenida en el texto seleccionado.


CONCLUSIONES

Se aprendió mucho en el proceso. Se consiguió un aprendizaje satisfactorio en lo referente a la realidad aumentada por medio de la aplicación de ROAR. En estas 7 semanas de trabajo, logramos conocer los avances tecnológicos y las formas en las que se puede aplicar, no solo en el apoyo a la comprensión lectora, sino igualmente las diversas ramificaciones que esto conlleva, y como en un futuro dicha tecnología despegará para ser cada vez más accesible para la persona promedio y termine permeando a cada vez más gente. Los activadores fueron satisfactorios, por lo que muchos de ellos serán considerados para ser usados en la rejilla final que se usará al culminar el proyecto. Esta investigación no solo nos enseñó una probada en el mundo de la investigación tecnológica referente a la realidad aumentada, sino que igualmente aprendimos a convivir con otra forma de vida muy distinta a nuestro país, siendo un choque cultural bastante interesante. L a estancia fue muy productiva y enriquecedora que nos ayudará en gran medida en nuestro futuro como ingenieros en sistema.
Fragoso Macedo María Guadalupe, Universidad Autónoma del Estado de México
Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar

FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS


FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS

Alcibar Zubillaga Julian, Instituto Politécnico Nacional. Fragoso Macedo María Guadalupe, Universidad Autónoma del Estado de México. Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El "Framing" se refiere a la manera en que los medios de comunicación, a través de sus elecciones lingüísticas y visuales, dan forma a la cobertura de eventos y situaciones específicas. Varias disciplinas contribuyeron en la conformación de lo que hoy se conoce como teoría del Framing: la psicología, la sociología, los estudios sobre los movimientos sociales y la comunicación, por mencionar las áreas más sobresalientes. Al seleccionar ciertas palabras, imágenes o enfoques para presentar una noticia, los medios pueden influir en cómo las personas entienden y reaccionan a esa información. El problema planteado en la investigación es cómo se puede utilizar el "Framing" como una herramienta analítica para examinar cómo los medios de comunicación presentan las noticias y cómo esto afecta la percepción del público, basándonos en modelos de procesamiento de lenguaje natural. Al abordar este problema de investigación, se busca comprender mejor cómo el "Framing" puede ser una herramienta útil para analizar y desentrañar los mecanismos detrás de la presentación de las noticias, y cómo esto afecta la comprensión del público sobre los acontecimientos y temas importantes en la sociedad. Además, este enfoque también puede tener implicaciones para la ética periodística y el papel de los medios de comunicación en la formación de opiniones y actitudes en la sociedad.



METODOLOGÍA

Para lograrlo, se desarrolló una metodología que consistió en dos pasos fundamentales. Primero, se creó un conjunto de palabras o términos que representan los diferentes marcos temáticos que podrían estar presentes en los artículos de noticias. Este conjunto de palabras se conoce como "vocabulario de marcos temáticos". Se elaboró una lista de tópicos en el que se especifica a detalle cómo se evalúa cada criterio de la noticia, como tal la temática del estudio, cuyas opciones de encuadre son las siguientes: 1 = Economic, 2 = Capacity and resources, 3 = Morality, 4 = Fairness and equality, 5 = Legality, constitutionality and jurisprudence, 6 = Policy prescription and evaluation, 7= Crime and punishment, 8 = Security and defense, 9 = Health and safety, 10 = Quality of life, 11 = Cultural identity, 12 = Public opinión, 13 = Political, 14 = External regulation and reputation, 15 = Other. También se tomaron en cuenta tópicos de tonos en el que esté la noticia, cuyas opciones son las siguientes: Tono Neutral, Tono Positivo, Tono Negativo. Por otro lado, se debía especificar Autor, Fecha y Titulo (siempre y cuando la página de donde fue extraída la noticia contara con estos parámetros), por último, es necesario especificar el tópico general en el que se basaba la noticia. Cada noticia debe ser etiquetada mínimo 2 veces para que exista una mejor coherencia al especificar cada tópico. Luego, se aplicaron diversas técnicas de clasificación, las cuales permitieron etiquetar automáticamente los marcos temáticos en los artículos de noticias basándose en el vocabulario creado previamente. Estas técnicas de clasificación mostraron resultados prometedores, ya que indicaron la posibilidad de mejorar el rendimiento general del sistema de predicción.


CONCLUSIONES

Durante la estancia de verano, en su mayoría las noticias que fueron analizadas se enfocan en la observación de situaciones reales en casos concretos, tienen un enfoque más práctico y menos teórico. Nos permitió comprender como los medios de comunicación influyen en la percepción y la interpretación de la información por parte del público. Al desarrollar esta habilidad, podemos ser más conscientes de cómo la información es presentada y, en última instancia, tomar decisiones más informadas y responsables. En esta investigación, se aplicaron lenguajes de programación como Python, técnicas de procesamiento de lenguaje natural y algoritmos de inteligencia artificial para entrenar una herramienta llamada Label Box (la cual es completamente gratuita y sencilla de entender) la cual nos ayudó para analizar noticias basada en el concepto de "Framing". Python proporcionó una plataforma flexible y eficiente para manipular y analizar grandes conjuntos de datos de noticias, mientras que las técnicas de procesamiento de lenguaje natural permitieron extraer y comprender la información textual de manera automatizada. La inteligencia artificial se utilizó para entrenar modelos capaces de identificar patrones de "Framing" en las noticias y clasificar los diferentes marcos utilizados. El resultado de la investigación se materializó en una exposición y resumen sobre el entrenamiento del "Framing" desarrollado y su aplicación en el análisis de noticias. La exposición incluyó ejemplos prácticos de noticias analizadas, mostrando cómo la herramienta identificó y categorizó los marcos utilizados por los medios. Además, se presentaron gráficos y visualizaciones para ilustrar las tendencias de "Framing" y su distribución en las noticias. El resumen proporcionó una síntesis de los hallazgos clave, destacando la importancia de esta herramienta para comprender cómo los medios influyen en la percepción pública sobre temas importantes.
Francisco Barrios Richard, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. José Roberto Razo Hernández, Instituto Tecnológico Superior de Irapuato

EVALUACIóN DE LA EFICIENCIA DE LOS PANELES SOLARES SIMULADO EN CONDICIONES REALES


EVALUACIóN DE LA EFICIENCIA DE LOS PANELES SOLARES SIMULADO EN CONDICIONES REALES

Francisco Barrios Richard, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. José Roberto Razo Hernández, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la demanda de energía renovable ha aumentado significativamente debido a la preocupación por las emisiones de gases de efecto invernadero y el agotamiento de los recursos renovables. El uso de la energía solar es una forma limpia y sostenible de generar electricidad, pero a pesar de sus numerosos beneficios, como la reducción de emisiones de carbono y como el ahorro económico a lo largo plazo, su implementación no es tan común como se espera. Existen varias razones que explican la falta de adopción de los paneles solares. Una de ellas es el alto costo inicial de la instalación, aunque al largo plazo de los paneles solares pueden resultar más económicos, muchas personas no pueden permitir la inversión inicial y optan por fuentes de energía convencional. El problema de abordar es como poder mejorar la eficiencia de los paneles solares para aumentar la producción de energía renovable. Los paneles solares son una fuente de energía renovable prometedora, a pesar, su eficiencia aún se considera relativamente baja en comparación con otras fuentes de energía. Mejorar la eficiencia de los paneles solares tiene muchas ventajas, como: Aumento de la producción y aprovechamiento de la energía renovable. Reducción de la dependencia de los combustibles fósiles y las emisiones de los gases de efecto invernadero. Mayor rentabilidad y disminución del costo por unidad de energía producida.



METODOLOGÍA

En el Instituto Tecnológico Superior de Irapuato, contamos con un panel solar policristalino donde se realizó 4 pruebas de medición a un panel solar de corriente-voltaje (I-V) en distintos puntos de ángulo,y con la ayuda de equipos de medición eléctrica (amperímetro y multímetro) se pudo obtener datos diferentes lo cual nos brindan los equipos de medición, una vez que se obtuvo la medición de corriente como de voltaje, agrupamos los datos y lo cual procedemos a graficar con el programa de Matlab, Matlab es un programa que nos brinda funciones que nos ayudarán en nuestro desarrollo, algunos datos que se requieren durante esta investigación de verano. Una vez que se obtuvieron los datos de la práctica del panel se dio a conocer que cada posición donde se colocaba se presentaba una pérdida de eficiencia en el panel solar medido, se introducen los datos a Matlab y al obtener la gráfica procedemos con lo siguiente. AJUSTE DE CURVA VOLTAJE-CORRIENTE Y VOLTAJE-POTENCIA Estos datos se obtuvieron mediante las pruebas del panel real policristalino y que a continuación realizó los siguientes ajustes de curvas de cada grafica. La forma de como ajustaremos la curva corriente es dirigirse en el apartado de “apps” de la barra de menú de Matlab y ahí dirigirse en el apartado de “curve fitting” de ahí nos saldrá una nueva ventana donde podremos ajustar nuestra grafica a la que más se parezca y encontremos la diferencia que hay. Pero antes de mostrar la curva que más se ajuste a la gráfica de los datos reales, realizamos una comparativa con otras curvas de ajuste y así compararse y seleccionar la que tiene menos errores y tiene una mejor bondad de ajuste. Al finalizar la práctica nos dimos cuenta que la eficiencia del panel solar policristalino pierde eficiencia al colocarlo en un ángulo diferente y se puede observar de como no se obtiene bien la radiación de la luz solar, esto hace que nos arroje diferentes datos en corriente, voltaje y potencia, cada curva tanto como grafica que se dieron a conocer en este articulo con diferentes datos ya obtenidos.


CONCLUSIONES

Durante la estancia de verano de investigación se logró adquirir conocimientos teóricos y prácticos de la evaluación de eficiencia de los paneles solares, todo esta información acerca de ellos paneles se puso en practica con nuestro asesor para poder obtener resultados y así también saber la eficiencia de los paneles solares que son de mucha importancia saber su capacidad que rinden, por otro lado poder saber a que problemas nos enfrentamos ya sea técnicos o económicos así como también se sabrá el mejoramiento de cada uno.
Franco López Jesús Fernando, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional

DETECCIÓN DE ESPECÍMENES DE TORTUGAS MARINAS MEDIANTE APRENDIZAJE PROFUNDO


DETECCIÓN DE ESPECÍMENES DE TORTUGAS MARINAS MEDIANTE APRENDIZAJE PROFUNDO

Franco López Jesús Fernando, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las tortugas marinas enfrentan diversas amenazas que ponen en riesgo su preservación y conservación, entre éstas, la pesca accidental en redes de arrastre, depredación de nidos, enfermedades, tráfico ilegal, la contaminación de los océanos con plásticos y sustancias químicas, el cambio climático y la destrucción del hábitat costero para la construcción de infraestructuras. La conservación de estos quelonios en nuestro país es de vital importancia, no solo porque representan un bioindicador del estado de los océanos, sino porque 6 de las 7 especies en el mundo anidan en nuestro país. Por ello, la detección y monitoreo de estas especies son esenciales para implementar medidas de conservación y preservación efectivas y así elaborar estrategias de manejo apropiadas. El seguimiento por etiquetado invasivo de tortugas marinas y el realizado por observadores humanos es una práctica valiosa, pero tiene sus limitaciones. Este enfoque es costoso y es una tarea demandante; ya que implica una inversión de recursos financieros significativos y tiempo considerable. Además, la eficiencia del monitoreo por etiquetado invasivo requiere dispositivos especializados y costosos. El monitoreo por observadores humanos puede variar debido a la fatiga visual de los observadores y la dificultad para detectar tortugas marinas en condiciones desafiantes, como mal tiempo, la profundidad, aguas turbulentas o escasa visibilidad bajo el agua, incluso por su comportamiento evasivo. Estos factores pueden afectar la precisión y la frecuencia del monitoreo, lo que representa un desafío para la conservación y preservación de estas especies vulnerables. La automatización de la detección y localización de tortugas marinas a través de técnicas de inteligencia artificial, en particular, el aprendizaje profundo (en inglés deep learning), presenta una solución prometedora para abordar las limitaciones del monitoreo etiquetado invasivo y por observadores humanos. En este proyecto, se propone un enfoque innovador que se basa en el uso de redes convolucionales de grafos para identificar y localizar automáticamente a las tortugas marinas en imágenes. Las redes convolucionales de grafos (en inglés Graph Convolutional Networks (GCNs)) son modelos de aprendizaje profundo diseñados para el procesamiento de imágenes. La esencia detrás de usar una GCN para la clasificación de imágenes es representar el contenido de una imagen como un grafo y obtener a través de modelos matemáticos las relaciones espaciales entre los pixeles y las regiones de los objetos en el contenido de la imagen. Para realizar el proceso de clasificación con una red GCN, se debe seguir un enfoque que involucre el uso de una relación de pixeles de la imagen. Los superpixeles son regiones contiguas y homogéneas que agrupan pixeles similares en función de la intensidad, el color o la textura. Estos superpixeles son tratados como nodos en un grafo. Con esta información de correspondencias entre los nodos, la red GCN encuentra patrones de correspondencia para la caracterización del contenido de las imágenes. En el caso de las tortugas marinas se consideran a los escudos del caparazón y a las escamas de la cabeza, como patrones propios de cada individuo.



METODOLOGÍA

Recopilación de datos: Se recolectaron imágenes que varios individuos de tortugas marinas, específicamente de la tortuga Lora (Lepidochelys Kempii), en diversos entornos marinos y condiciones ambientales. Etiquetado de datos: Las imágenes fueron etiquetadas y clasificadas según el espécimen. Este proceso de etiquetado permite al modelo aprender a identificar los patrones que hacen característico a cada individuo durante el proceso entrenamiento. Entrenamiento del modelo: Se utilizó una red GCNs previamente entrenada con las imágenes obtenidas de la tortuga Lora. Evaluación del modelo: Se evaluó el rendimiento del modelo mediante métricas de precisión, para medir su capacidad de detección y clasificación de tortugas marinas en imágenes no vistas previamente.


CONCLUSIONES

Durante la estancia de verano se logró adquirir muchos conocimientos. Por un lado, sobre las tortugas marinas y sus variedades. Por otro lado, acerca de la inteligencia artificial y sus subramas. Esto último para la clasificación de imágenes de tortugas marinas mediante diversas arquitecturas de aprendizaje profundo utilizando los patrones morfológicos de dichos animales marinos.  Al ser éste un extenso trabajo, aún se encuentra en la fase del entrenamiento del modelo: por loque posteriormente se mostrarán las métricas usadas para evaluar la precisión del algoritmo. Durante mi estancia de verano de Delfín, mi proyecto consistió en lograr detectar y clasificar a los individuos de tortugas marinas de la base de datos de prueba, los cuales su información no está en el modelo de aprendizaje profundo de red GCN de entrenamiento. 
Franco Miramontes Ariana Belén, Universidad de Guadalajara
Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California

ADQUISICIÓN Y PROCESAMIENTO DE SEÑALES ELECTROENCEFALOGRÁFICAS DURANTE EL PROCESAMIENTO DE DILEMAS MORALES


ADQUISICIÓN Y PROCESAMIENTO DE SEÑALES ELECTROENCEFALOGRÁFICAS DURANTE EL PROCESAMIENTO DE DILEMAS MORALES

Franco Miramontes Ariana Belén, Universidad de Guadalajara. Santana Franco Edith Marlene, Universidad de Guadalajara. Silva Montes de Oca Carlos, Universidad de Guadalajara. Zamora Blanco Jesús Miguel, Universidad de Guadalajara. Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El procesamiento moral comprende sistemas neurológicos que forman el pensamiento moral, dirigen cognición y acción a objetivos internos como imaginar acontecimientos distantes y representar estados mentales en otros. La corteza prefrontal ventromedial se activa, según estudios de RNM funcional, cuando se hacen juicios morales o cuando se observan fotos que hacen referencia a emociones sociales como la solidaridad, la justicia y la culpa. También al plantearse dilemas, especialmente cuando estos implican contemplar la posibilidad de tener que actuar de forma que se pueda dañar a otros. Existen muchos estudios sobre el procesamiento moral, dando un enfoque desde ámbitos psicoeducativos pero hay poca evidencia de alta precisión bioeléctrica y componentes electroencefalográficos asociados al procesamiento moral. Es por eso que durante este verano de investigación, se estudian las señales electroencefalográficas adquiridas durante la presentación de dilemas morales en adultos jóvenes.   



METODOLOGÍA

Se adquirieron señales electroencefalográficas de ocho sujetos de estudio, entre los rangos de edad de 21 y 23 años, con características neurotípicas, cuatro con problemas visuales, 6 diestros y 2 zurdos.  A cada uno de los sujetos, se les realizó un previo cuestionario para descartar cualquier problema neurológico para después presentarle, por medio de un software, una serie de dilemas morales, en donde se les explica una situación en la que tienen que decidir si realizar o no la solución que se presenta con una posibilidad de tener que actuar de forma que se pueda dañar a otros por el bien general.  El software se conforma de 12 dilemas morales, en los que cada uno se divide en tres partes, primero dando un contexto general de la situación, después presentando el problema y la posible solución, y finalmente la pregunta donde el sujeto debe de responder con un sí o un no a la posible solución presentada.  Durante toda la presentación de los 12 dilemas se toman señales electroencefalográficas por medio de 6 electrodos de copa de oro, ubicados en las zonas prefrontal, frontal y temporal (según el sistema 10-20: Fp1, Fp2, F3, F4, F7, F8, T5, T6); utilizando el software y hardware de OpenBCI sincronizado al software de dilemas por medio de un marcador.  Para la identificación de cada dilema y sus partes en las señales electroencefalográficas se utilizó el marcador temporal previamente mencionado, para dividir las señales y facilitar el procesamiento de las mismas.   En el planteamiento del problema y de la posible solución de cada dilema, se espera ver una activación en el área prefrontal, lo cual se traduce en un cambio de la potencia de los componentes frecuenciales de las señales obtenidas en dichos electrodos. Para tener una mejor comparativa en el cambio de las señales electroencefalográficas se realizó un registro baseline o controlado sin estímulos exteroceptivos, que consta de tres etapas, los primeros 30 segundos del registro el sujeto está en estado de relajación con ojos abiertos, en la segunda etapa el sujeto debe de cerrar los ojos, teniendo esta una duración de 30 segundos más, para finalizar con una etapa de 2 minutos en la que el sujeto se mantiene con los ojos cerrados mientras que se le pide imaginar diferentes figuras geométricas para mantener un estado de concentración y relajación. Para el procesamiento de la información adquirida en el procesamiento moral, se tomaron las señales adquiridas y se dividieron según los segmentos de interés para el análisis, siendo estos antes y después del planteamiento del problema moral, posteriormente, se calculó el espectrograma de cada uno de estos canales para tener de primera instancia una comparativa visual de los cambios de la potencia en cada frecuencia a través del tiempo, posteriormente, se aplicaron herramientas estadísticas como el cálculo de la desviación estándar para tener una comparativa cuantitativa de los cambios que se produjeron durante todo el procesamiento moral.


CONCLUSIONES

Durante el procesamiento de dilemas morales se encontró un cambio significativo en la potencia de ondas beta en el área prefrontal del cerebro, mayormente de los electrodos F7 y F8 en comparación con el segmento de línea base, ocurriendo esto mismo para el caso del planteamiento del contexto del dilema en comparación con el registro de línea base, no se encontró un cambio significativo entre la activación de estos canales en la misma banda durante el procesamiento moral del dilema en comparación con el planteamiento del contexto del dilema.
Franco Morales Santiago Said, Instituto Tecnológico de Morelia
Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla

MEMBRANA ANTICORROSIVA A BASE DE óXIDO DE GRAFENO Y áCIDO POLILáCTICO


MEMBRANA ANTICORROSIVA A BASE DE óXIDO DE GRAFENO Y áCIDO POLILáCTICO

Franco Morales Santiago Said, Instituto Tecnológico de Morelia. Madueño Navarrete Daniel, Universidad de Guadalajara. Palma Avila Fernando, Universidad Autónoma de Baja California. Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla. Co- Asesor: Mtra. Erika Muñoz Gracia, Benemérita Universidad Autónoma de Puebla. Estudiantes:  Palma Ávila Fernando, Universidad Autónoma de Baja California. Daniel Madueño Navarrete, Universidad de Guadalajara. Santiago Said Franco Morales, Instituto Tecnológico de Morelia.          La corrosión es un fenómeno destructivo y costoso que afecta a una amplia variedad de materiales, como lo son los de naturaleza metálica y sus aleaciones, los cuales son ampliamente utilizados en diversas aplicaciones industriales y estructurales debido a sus características mecánicas. A pesar de sus muchas ventajas, muchos de estos materiales son altamente sensibles a la corrosión, lo que limita su vida útil y su eficacia en entornos hostiles. Para enfrentar este desafío, la industria ha buscado constantemente nuevas tecnologías y métodos para mejorar la resistencia a la corrosión metálica. Entre las posibles soluciones, el uso de recubrimientos anticorrosivos ha demostrado ser una estrategia efectiva para proteger la superficie del material contra la degradación causada por agentes corrosivos. En este contexto, el óxido de grafeno y el ácido poliláctico han surgido como materiales prometedores para desarrollar membranas anticorrosivas. El óxido de grafeno, derivado del grafeno, ha demostrado una alta resistencia mecánica y una excelente conductividad, mientras que el ácido poliláctico, un polímero biodegradable, presenta propiedades de barrera frente a sustancias corrosivas. La combinación de estas dos sustancias podría generar una membrana altamente efectiva y eco-amigable para proteger de la corrosión a la superficie donde esta sea colocada. Sin embargo, a pesar del potencial prometedor de esta tecnología, aún existen diversos desafíos técnicos y científicos que deben abordarse para lograr una aplicación comercial viable.  



METODOLOGÍA

Se utilizó una solución de Óxido de grafeno (OG) sintetizado por el método de Hummers y ácido poliláctico (PLA) con el fin de crear una película que funcionara como una membrana anticorrosiva. Mismos materiales que ya se encontraban disponibles en el edificio de Dirección de Innovación y Transferencia de Conocimiento (DiTCo), mismo en el que se trabajó.  Para la sintetización de la membrana se utilizaron 0.25 g de PLA para diluirse con 0.005 g de OG en 5 ml de cloroformo, el recipiente en el que se colocó la muestra fue agitado manualmente durante 1 hora con el fin de diluir lo más posible la solución, después se coloca sobre probetas del mismo tamaño para obtener películas de la misma longitud, en este caso del mismo diámetro. Cabe destacar que fueron utilizadas 8 probetas para los diferentes tiempos de incidencia en el 3M HCl y diferente estructura de membrana,  pues fueron evaluadas con y sin OG, es decir: PLA - 0h, PLA + OG - 0h,  PLA - 24h, PLA + OG - 24h, PLA - 48h, PLA + OG - 48h, PLA - 72h y PLA + OG - 72h. Una vez colocadas, se dejan secar al aire libre por otra hora para no provocar un secado tan drástico que dañe la composición de la estructura ya que después de ser secado a temperatura ambiente se lleva al horno a 80°C para terminar de secar y obtener la película.  Mientras las muestras quedan listas procedemos con la preparación del 3M HCl la cuál constituye una concentración de 29.26 ml de HCl + 70.73 ml de agua destilada (AD) para obtener 15 ml de 3M HCl para probar cada una de las muestras en sus respectivos tiempos de inmersión. Finalmente ya estando listas las películas se sumergen en recipientes de vidrio herméticamente cerrados, sin embargo consideramos importante que las muestras cumplieran su tiempo simultáneamente con el fin de evitar algún daño a las mismas, para esto se sumergió primero la muestra de 72h y pasando 24h se sumergió la de 48 y al transcurso de otras 24h se sumergió la de 24h. La muestra de 0h no fue introducida al ácido, se utilizó como referencia para medir daños en las películas. Transcurridas las 72h  se retiran las películas de sus respectivos envases y se lavan con agua del grifo para retirar cualquier residuo de ácido y se enjuagan con AD para posteriormente dejar secando al aire libre y evaluar. Para obtener las conclusiones se utilizó la técnica de Difracción de Rayos X (DRX), Microscopía Electrónica de Barrido (MEB) y Espectroscopía de Infrarrojo.  


CONCLUSIONES

Durante la estancia de verano se logró concluir que en efecto la membrana es funcional y resistente a la corrosión, pues gracias a las técnicas mencionadas anteriormente no fue observado un deterioro de gran magnitud con el aumento del tiempo de inmersión; no obstante es necesaria una revisión bibliográfica antes de ponerla en marcha como recubrimiento en determinado material, para verificar su adherencia a la superficie del mismo.  
Franco Villaseñor Brenda Patricia, Universidad Vizcaya de las Américas
Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua

ESTUDIO DE LA ROTURA DE LA PRESA “LOS CARROS” AXOCHIAPAN, MORELOS.


ESTUDIO DE LA ROTURA DE LA PRESA “LOS CARROS” AXOCHIAPAN, MORELOS.

Chong Lopez Raul de Jesus, Universidad de Ciencias y Artes de Chiapas. Franco Villaseñor Brenda Patricia, Universidad Vizcaya de las Américas. Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El del estudio de la presa Los carros ubicada en el municipio de Axochiapan Morelos se realizó con la finalidad de observar el comportamiento de la rotura de la presa; y cómo se comporta aguas abajo hasta llegar a la presa Callehuacan y si esta es capaz de romperse, asi como los daños que pueda ocasionar a las poblaciones cercanas a ella.



METODOLOGÍA

Para realizar el análisis de la rotura de presa Los Carros con características de ser una presa mediana nos proporcionaron la topografía del terreno que será la base para generar un Modelo Digital de Elevaciones (MDE) que servirá como base a la hora de inundar nuestro modelo de agua, en base al archivo DXF con batimetría y curvas de nivel los convertimos a un documento de texto con coordenadas con el programa Dxf2xyz, una vez generado el TXT lo importamos en el programa Qgis y filtramos los puntos; así mismo se extrajo por ubicación, después se importo el CEM descargado y se generaron 2 polígonos el primero era el área de la presa con su embalse, el segundo era un área más grande que fuera desde aguas arriba de la presa hasta aguas abajo, en base a esos 2 polígonos se les genero una malla de puntos a cada uno y se recorto la misma a la forma de cada polígono. Con el CEM importado se hicieron MDE con cada polígono y se le añadieron las elevaciones correspondientes con el uso del complemento de Qgis Point Sampbling tools, una vez generados los 2 ráster los combinamos para así poder obtener la topografía de nuestro modelo de inundación. Como siguiente paso procedemos a ir a la página del IMTA VNE (Visor de Numero de Escurrimientos) y subiremos un zip del polígono con elevaciones; en esta página nos dará ese mismo polígono con nuevos valores y el número de escurrimiento, así mismo lo procesaremos en Qgis y obtendremos 3 mapas (Mapa de uso de suelo, Mapa de tipo de vegetación y Mapa de tipo de suelo). Para los procesos en el programa Iber hacemos un polígono y agregamos contorno a nuestra presa, así como a nuestra área de embalse y los ríos que la abastecen aguas arriba, lo mismo con los ríos aguas debajo de la presa y marcamos las poblaciones en riesgo de la rotura de la presa, así mismo se crea una malla para cada contorno, se marcan las condiciones iniciales del modelo con el NAME de la presa y se le asigna un tipo de rugosidad a cada polígono, se seleccionan las salidas y se le asigna el promedio de infiltración el cual se obtuvo en la página del IMTA.   Parta el comienzo de la modelación se cargó el ráster combinado en Qgis y se generó una nueva malla con este y se cambió la visualización a suave para que se pueda apreciar la topografía, así mismo se marcaron los parámetros de la brecha y el tiempo de simulación el cual fue de 60,000 segundos con intervalos de 1000 y se metieron las condicionantes SCS para la hidrología del modelo. Una vez terminado el proceso de cálculo se hizo el post proceso del modelo en el cual se observó el resultado de la rotura de la presa; así mismo el comportamiento del agua tras la rotura y en base a eso se generaron mapas de tirantes y velocidades, así como un mapa de las zonas urbanas afectadas por la rotura.


CONCLUSIONES

Gracias a esta estancia  he podido adquirir nuevos conocimientos que servirán como parte de mi formación académica pues he aprendido nuevas cosas a lo largo de las semanas de trabajo las cuales llevaron a poder concluir mi estancia de manera satisfactoria. En base a los resultados obtenidos tenemos que la presa Los carros con características de una presa mediana tuvo una rotura a los segundos cumpliendo así el objetivo de la investigación de analizar el comportamiento del agua (Aguas abajo) ante una rotura de la cortina de la presa generando la condicionante que la presa Cayehuacan esté totalmente vacía sirviendo como contenedor para el agua proveniente de la presa Los carros; así como los daños que se ocasionaron al paso del agua.  
Frutis Ramos María Fernanda, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana

MODELO DE GESTIóN DE PROYECTOS DE INNOVACIóN Y EMPRENDIMIENTO - GESTEMP


MODELO DE GESTIóN DE PROYECTOS DE INNOVACIóN Y EMPRENDIMIENTO - GESTEMP

Burgara Díaz Aram Yoav, Instituto Tecnológico de Tepic. Frutis Ramos María Fernanda, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

La Ruta del Emprendimiento Uniagustiniano (REU), está fundamentada en metodologías ágiles para la concreción, creación, desarrollo y testeo de iniciativas, fortalecida por un componente social. Gestión del Emprendimiento (GestEmp) e Innovación, está basado en metodologías ágiles, guiando al beneficiario en la estructuración del diseño y desarrollo de una idea de negocio o resolución de una necesidad específica. Dispone de 3 componentes principales para la gestión de emprendimiento e innovación, ofreciendo una metodología de aprendizaje mixta: Acompañamiento del talento humano multidisciplinario: Asesoramiento y estructuración de modelos de negocio orientando el desarrollo de cada beneficiario, construyendo un producto mínimo viable o incrementado el nivel de madurez de este. Material de consulta: Manual del Emprendedor, dirigido al beneficiario, y una guía metodológica para los asesores. Sistema de información web: Se lleva el registro, control, evidencia y avance del acompañamiento suministrado. Con esto, el beneficiario puede diseñar, evaluar, desarrollar y experimentar de manera autónoma.  Y recibir de manera presencial o virtual orientación por parte de un profesional dependiendo de la necesidad que esté presente, como: estructuración de un modelo de negocio, validación o plan de negocio.



METODOLOGÍA

Se elaboró un resumen ejecutivo donde se presento un informe final de lo que es una evaluación entorno para la creación: Modelo Gestión del Emprendimiento (GestEmp). Todo esto, tomando un enfoque especifico al ambito institucional; nivel nacional e internacional, especificamnete en México.  Se tiene como objetivo que la evaluación se realice tomando en cuenta varios aspectos, tales como competidores, posibles clientes, condiciones económicas y condiciones de mercado, basados en una valoración TRL, CRL y SRL, desarrollando una vigilancia tecnológica que para llevarse a cabo se elaboraron palabras clave, ecuaciones de búsqueda,  e identificación de patentes similares a la crecaión. Posteriormente se dio desarrollo a ideas - recomendaciones que pueden robustecer GestEmp.   


CONCLUSIONES

La crecaión se encuentra en un nivel de Madurez TRL de 4 a 6; porque se está trabajando en la tecnología validada en laboratorio y entorno relevante para ser demostrada en el entorno pertinente.   Basados en que el manejo del software se trata de navegación intuitiva, y atendiendo las necesidades de cumplir los objetivos esperados, mejoras para el sistema en las que se deben trabajar para robustecer y culminar con la etapa final de GestEmp, así mismo elevando su nivel de madurez. Se desarrolla una recomendación que pueda mejorar las 3 partes que conforman el modelo:  1. Implementar un apartado en la plataforma en el que el usuario pueda evaluar su desempeño así como el del tutor que tiene asignado.  De igual manera una caja de comentarios, para que el emprendedor de a conocer cómo puede mejorar su experiencia al navegar. 2. Creación de un algoritmo que arroje una pregunta antes de cerrar sesión, donde se cuestione cómo es que consideró algún apartado aleatorio de la plataforma para recopilar respuestas y poder identificar en lo que se podría trabajar los UX/UI para la siguiente versión de GestEmp y que con esto se pueda mejorar el SRL y TRL. 3. Considerando que es de importancia la opinión de los usuarios en una plataforma virtual se ha destacado por varias razones, un punto clave son los comentarios y opiniones de los usuarios que permiten a los desarrolladores identificar áreas de mejora y optimizar la plataforma para satisfacer las necesidades de los usuarios. Esto conduce a una mejor experiencia del usuario, lo que puede aumentar la retención de usuarios y la satisfacción general. 
Fuentes Bailón Erick Uriel, Instituto Politécnico Nacional
Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla

IMPLEMENTACIÓN DE UN SISTEMA PARA MEDIR LA FRECUENCIA DE RESPIRACIÓN HUMANA BASADO EN UN SENSOR TEXTIL Y VESTIBLE


IMPLEMENTACIÓN DE UN SISTEMA PARA MEDIR LA FRECUENCIA DE RESPIRACIÓN HUMANA BASADO EN UN SENSOR TEXTIL Y VESTIBLE

Fuentes Bailón Erick Uriel, Instituto Politécnico Nacional. Moreno Camacho Brenda Paola, Instituto Politécnico Nacional. Munguia Fernandez Nicol Alejandra, Universidad Autónoma de Baja California. Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La frecuencia respiratoria es un parámetro de gran importancia en el ámbito de la salud y el bienestar de las personas, por lo tanto, es de gran importancia realizar un monitoreo constante en diversas situaciones clínicas y cotidianas para obtener un registro adecuado de la salud del paciente. Actualmente, la población mexicana se ve severamente afectada debido al incremento en la concentración de gases tóxicos que afectan en gran medida el sistema respiratorio, especialmente en las grandes ciudades como la Ciudad de México.  Por otro lado, se pueden encontrar diversos dispositivos médicos que tienen como objetivo medir la frecuencia respiratoria humana, sin embargo, la mayoría de ellos tienen un alto costo, son de gran tamaño o necesitan de la una supervisión continua de un profesional de la salud. Además, estos dispositivos frecuentemente tienden a resultar incómodos para el paciente, lo cual genera una limitación a su uso en entornos no médicos. Por ello, se plantea la necesidad de desarrollar un sensor de frecuencia respiratoria basado en el uso del efecto piezorresistivo con el que se pretende mejorar su accesibilidad, portabilidad y precisión además de que pueda ser utilizado tanto por profesionales de la salud como por personas en sus actividades diarias. 



METODOLOGÍA

El primer paso para el desarrollo experimental del proyecto fue investigar y seleccionar el material más eficiente para lograr alcanzar los objetivos, dicho material tendría que tener como característica principal el cambio significativo en su resistividad al ser deformado. Por ello, se comenzó empleando pintura conductiva sobre una tira elástica y se determinaron diferentes patrones para seleccionar el más eficiente. Sin embargo, al momento de ser deformada, la pintura conductiva presentó una fractura la cual generó una discontinuidad eléctrica. Por lo tanto, se optó por usar tela conductora de hilos de plata. Con el cambio de resistividad de la tela se realizaron diversos patrones para elegir el adecuado y se realizó una costura a la tira elástica, al igual que se incluyeron unos broches de presión y de plástico, con la finalidad de tener constante el comportamiento del resorte y poder ajustar el dispositivo a diferentes usuarios.  Para determinar el cambio en la resistencia del material se diseñó un divisor de voltaje en el cual una de las resistencias sería representada por la tela conductora. Al suministrar un voltaje en ambas resistencias podría ser cuantificada la variación en el voltaje del cinturón debido al cambio en su resistencia. Sin embargo, este diseño presentó una variabilidad en las medidas por lo que se decidió utilizar una configuración conocida como puente de Wheatstone debido a que permite convertir un cambio de resistencia en un cambio de voltaje de un transductor, en este caso, el sensor textil, utilizando únicamente tres resistencias conocidas y una resistencia variable (tela conductora). Dado que el voltaje obtenido en el puente de Wheatstone presentaba valores bajos, se empleó un amplificador de instrumentación con la finalidad de amplificar el valor de voltaje medido entre los dos puntos del puente de Wheatstone además de acondicionar la señal obtenida. Después, se procedió a visualizar la señal por medio del software LabVIEW y una DAQ (Data Acquisition System) la cual nos permite digitalizar señales analógicas.   Al comprobar la calidad de la señal obtenida en la interfaz de LabVIEW, se decidió implementar la transmisión de los datos de manera inalámbrica para mejorar la experiencia del usuario y evitar errores en la medición que podrían ser resultado del movimiento excesivo de los cables y sus conexiones. Inicialmente, la transmisión de datos se llevó a cabo mediante el uso del módulo bluetooth HC-05 y la placa de desarrollo Arduino Uno, sin embargo, debido a errores en la vinculación con la computadora se decidió hacer uso de la placa de desarrollo ESP-32 el cual se programó por medio del IDE de Arduino para recibir datos de la señal y después transmitirla, de esta manera fue posible reducir el espacio de los dispositivos lo que mejora la portabilidad.  Con dicha placa se logró realizar la transmisión de datos utilizando el protocolo de comunicación TCP/IP, el cual permite la comunicación entre dispositivos pertenecientes a una misma red, en este caso el ESP32 y una computadora en la cual se encuentra la interfaz de LabVIEW, con el fin de lograr contabilizar las respiraciones por minuto de manera inalámbrica y registrar los datos obtenidos en un archivo de Excel mediante el cual el usuario podría llevar registro de su frecuencia respiratoria y en caso de ser necesario consultarlo con su médico de confianza. 


CONCLUSIONES

Durante el desarrollo de este proyecto adquirimos y desarrollamos conocimientos sobre el acondicionamiento de las señales fisiológicas y el potencial que tiene el principio piezorresistivo para aplicaciones de electrónica flexible en áreas importantes como en la salud. Además de esto el objetivo principal del proyecto se logró satisfactoriamente, transmitiendo la señal obtenida de manera inalámbrica, además de poder llevar a cabo la contabilización de las respiraciones por minuto de un usuario para posteriormente guardar registro de estas en una base de datos. Sin embargo, aunque se cumplió con los objetivos principales, para futuras mejoras se recomienda realizar una mejora en el acondicionamiento de la señal además de mejorar la interfaz para que sea más amigable con el usuario. También, se recomienda el uso de redes neuronales con la finalidad de detectar ciertas anomalías de manera automática. 
Fuentes García César Ebden, Universidad Tecnologica de León
Asesor: Dra. Gloria del Rosario Frausto Rea, Universidad Tecnologica de León

METROLOGíA ÓPTICA


METROLOGíA ÓPTICA

Fuentes García César Ebden, Universidad Tecnologica de León. Ramírez Fonseca Samuel, Universidad Tecnologica de León. Asesor: Dra. Gloria del Rosario Frausto Rea, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal del proyecto es diseñar una interfaz gráfica para la simulación de patrones de interferencia modificados por aberraciones ópticas de primer orden, para uso de alumnos dentro del área de la óptica en la Universidad Tecnológica de León.



METODOLOGÍA

Los principales métodos para la creación del proyecto fueron las investigaciones individuales de conceptos, el desarrollo de la programación y de la interfaz con características necesarias para un buen funcionamiento y facilidad de uso. Gracias a estos métodos, se pudo obtener una mejor organización y forma de trabajo para obtener los resultados esperados.


CONCLUSIONES

Estos resultados fueron buenos en los distintos métodos, tanto en la programación como con el diseño de la interfaz, pues se obtuvieron resultados favorables qué cumplían con los objetivos establecidos desde un inicio y se consiguieron los aprendizajes esperados para esta investigación y desarrollo del proyecto. En conclusión, este proyecto podrá ser de ayuda para los estudiantes dentro del área de la óptica dentro de la Universidad y hará más fácil la comprensión de las aberraciones ópticas de primer orden.
Fuentes Ruiz Dulce María, Instituto Tecnológico del Valle de Morelia
Asesor: Dr. Sergio Enrique Flores Villaseñor, Universidad Autónoma de Coahuila

ELABORACIóN DE NANOCOMPUESTOS óXIDO DE GRAFENO – óXIDO METáLICO (OG- OM) PARA LA REMOCIóN DE IBUPROFENO EN MEDIO ACUOSO.


ELABORACIóN DE NANOCOMPUESTOS óXIDO DE GRAFENO – óXIDO METáLICO (OG- OM) PARA LA REMOCIóN DE IBUPROFENO EN MEDIO ACUOSO.

Fuentes Ruiz Dulce María, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Sergio Enrique Flores Villaseñor, Universidad Autónoma de Coahuila



PLANTEAMIENTO DEL PROBLEMA

La presencia de contaminantes emergentes (CE) en la actualidad constituye una larga y variada lista de compuestos de origen diverso entre los cuales se encuentran los fármacos. Su presencia en fuentes de abastecimiento de agua superficial, agua subterránea e incluso en agua potable los convierte en un tema de preocupación para la salud pública y ambiental. Los CE son compuestos orgánicos diseñados para ser químicamente estables y aunque sufren transformaciones biológicas y fisicoquímicas, su amplio consumo global, provoca una incesante llegada al medio ambiente y su difícil degradación por tecnologías convencionales los vuelve parte de los contaminantes emergentes de mayor interés, aunado a un incremento considerable con la pandemia de COVID-19. La regulación que hay actualmente respecto al comercio de fármacos, da apertura a que éstos puedan ser adquiridos sin previa prescripción médica, por lo que ha pasado a ser una de las líneas de investigación de mayor interés, debido a que, ya se han reportado especies marinas como el salmón contaminadas con antibióticos. El ibuprofeno es un antiinflamatorio no esteroideo (AINE) derivado del ácido propiónico que tiene propiedades antiinflamatorias, analgésicas y antipiréticas, y actualmente se utiliza para la reducción de la fiebre, el uso indiscriminado de este tipo de medicamentos ha provocado la presencia de estos contaminantes en aguas residuales y en algunos animales de éstos hábitats.



METODOLOGÍA

El proyecto partió desde la síntesis de los materiales, para el caso del grafeno primeramente se obtuvo el grafito a partir de la recuperación y tratamiento de desechos, posteriormente mediante el método de Hummers modificado se obtuvo el óxido de grafeno. Para lograr esto, se colocó una masa conocida de grafito en un vaso de precipitado y en una primera etapa se le adicionó una solución de H 2 SO 4 al 10% bajo agitación constante, después se agregó el permanganato de potasio (KMnO 4 ), se dejó incrementar la temperatura hasta los 35°C y se mantuvo controlada durante dos horas. Transcurrido este tiempo se añadió peróxido de hidrógeno (H 2 O 2 ) al 30% y se dejó reposar la solución durante 40 minutos. Posterior a esas dos horas, se agregó agua destilada, se dejó aumentar la temperatura hasta alcanzar los 84 °C, en agitación constante durante 15 minutos, se añadió H 2 O 2 al 30% y se volvió a dejar en reposo por un lapso igual de 40 minutos. Se deja sedimentar el material para retirar el agua, en baño frío se añaden 69 ml de H 2 SO 4 , para ello la temperatura no debe rebasar los 40 °C, se agrega KMnO 4 y se deja en agitación durante 15 minutos en el baño frío y durante 105 minutos sin el baño frío. Posteriormente se añadió agua destilada, cuidando que la temperatura no rebasara los 90 °C, de manera similar a lo anteriormente mencionado, se añadió H 2 O 2 , se dejó sedimentar y se decantó el líquido. Para finalizar, el material se lavó con una dilución de HCl y agua destilada hasta llevar a pH cercano de 7. Se secó en el horno a una temperatura de 90 °C durante 24 horas, una vez seco se trató en ultrasonido con agua destilada, se decantó el agua y finalmente se llevó nuevamente al horno a secar a una temperatura de 90 °C por 24 horas. Para la síntesis del oxido metálico, el óxido metálico utilizado fue la maghemita (Fe2O3) magnético, para el cual se utilizaron cloruros de hierro ll y lll, hidróxido de amonio y agua destilada, a una temperatura de 70 °C. De manera simultánea, se prepararon dos soluciones, una con la mezcla de los cloruros de hierro disueltos en 50 mL de agua destilada en relación 2:1 entre los cloruros (de FeCl 3 .6H 2 O: FeCl 2 ) y la segunda solución de hidróxido de amonio (NH4OH) en 50 mL de agua destilada, la solución de cloruros fue calentada a 70°C y posteriormente se le adicionó gota a gota la solución de NH4OH. Para finalizar la síntesis, se realizaron tres enjuagues con agua destilada y uno adicional con alcohol etílico y se dejaron secar a temperatura ambiente protegidas del polvo y la humedad. Una vez obtenidos los materiales precursores se procedió a la elaboración del nanocompuesto, para lograr esto se utilizó la técnica de molienda mecánica utilizando un molino planetario, para esto se colocó una masa conocida del óxido de grafeno y de la maghemita, se colocaron las bolas de ágata en relación 10:1, se introdujo atmósfera inerte de argón y se dejaron durante dos horas. En cuanto a las pruebas de adsorción de ibuprofeno, cierta cantidad de material, óxido de grafeno, óxido de hierro y el compuesto se colocaron en una membrana para diálisis y se introdujeron en un medio a concentración conocida de 1000ppm de ibuprofeno, a 37°C y en agitación constante. A diferentes tiempos se tomaron alícuotas de 2 mL y se analizaron via UV-visible para cuantificar la pérdida de material (ibuprofeno) en el medio acuoso.


CONCLUSIONES

El comportamiento de los adsorbentes durante la cinética muestra comportamiento al inicio una fase de adsorción rápida y después una fase lenta y posteriormente retrocesos en el comportamiento, atribuido a la desorción de las moléculas de ibuprofeno del sistema, presentándose para OG y para el OG-OM en los 2 y 3 últimos puntos de muestreo, por otro lado, el OM por si solo tuvo un comportamiento de adsorción continua. En función de los experimentos aquí realizados, el sistema OM fue el que mayor concentración de ibuprofeno pudo adsorber, alcanzando un 97% en un periodo de tiempo de 3 horas de análisis. Por el contrario, el sistema con menor porcentaje de adsorción fue el OG-OM alcanzando una remoción del 43% en el mismo tiempo de análisis.
Fuerte Ramírez Luz Vanessa, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Luz María Rodríguez Vidal, Instituto Tecnológico Superior de Irapuato

UNA HERRAMIENTA COMPUTACIONAL PARA FACILITAR LA INCLUSIóN A LAS PERSONAS CON DISCAPACIDAD


UNA HERRAMIENTA COMPUTACIONAL PARA FACILITAR LA INCLUSIóN A LAS PERSONAS CON DISCAPACIDAD

Fuerte Ramírez Luz Vanessa, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Luz María Rodríguez Vidal, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La comunicación verbal es fundamental en los aeropuertos para brindar información relevante a los pasajeros, como anuncios de vuelos, cambios de puertas de embarque y avisos de seguridad. Sin embargo, las personas con discapacidad auditiva pueden tener dificultades para recibir esta información, especialmente si no hay sistemas de comunicación alternativos disponibles, como subtítulos o intérpretes de lenguaje de señas.   Las personas con discapacidad auditiva pueden encontrarse con barreras en el servicio al cliente en los aeropuertos. El personal puede no estar capacitado en la comunicación con personas sordas o no tener acceso a herramientas de comunicación como lenguaje de señas o dispositivos de asistencia auditiva. Esto dificulta la interacción y la satisfacción de las necesidades específicas de los pasajeros con esta discapacidad.   En cuanto a la visión por computador, ésta provee de inteligencia artificial para la extracción automática de información a partir de imágenes o video, y en ese sentido se presenta una aplicación industrial extendida. En ese sentido se hace uso de los objetivos que propone este conjunto de tecnologías, que son detección, análisis y comparación de manera automatizada mediante una cámara para su utilización en este entorno aeroportuario.   En este proyecto convergen el estudio de la visión por computador, y sus aplicaciones en los aeropuertos para el desarrollo de un software que permita ser manipulado mediante el uso de los gestos con la mano referentes a las vocales localizadas en el Abecedario de Lenguaje de Señas Mexicano.   La manera de conseguirlo es mediante el uso de una cámara, en este desarrollo se utiliza la propia del computador, sin embargo, es posible utilizar una cámara de video externa ya que es el principal actor en cuanto a visión por computador se refiere, es decir, la cámara funciona como "los ojos del computador". El software que se presentará es la versión 3.10 de Python, ejecutada en el entorno de Spyder.  



METODOLOGÍA

Se realizó la solución de software en el lenguaje Python, con ayuda de librerías dedicadas a la visión por computadora, que permiten reconocer los puntos de referencia de las manos. Son 21 puntos los que maneja la solución, cada uno con coordenadas variantes en el plano tridimensional (x, y, z), debido al movimiento que supone estar capturando video en tiempo real. Los datos obtenidos de las coordenadas de estos puntos son organizados y operados para que el programa reconozca que ciertos rangos de valores corresponden a efectuar un gesto del tipo letra vocal en el abecedario del lenguaje de señas mexicano. El código permite identificar entre 5 señas, las correspondientes a las letras vocales existentes, de esta forma se identifican coordenadas correspondientes a puntos de referencia estratégicos de la mano y calcula su posición con respecto del punto central de todos ellos.     De acuerdo con el concepto y la aplicación de las redes neuronales artificiales, se desarrolló un modelo que permite obtener una red de tamaño modificable, es decir, es posible cambiar la cantidad de neuronas, entradas y salidas, con el objetivo de abordar problemas de diferente magnitud. En este caso se respeta el modelo matemático estándar de las RNA:   yi = f(Σ wij xi − θi)  Donde, wij, son los pesos sinápticos asociados a las entradas para la red neuronal. Xi, es el conjunto de entradas. Θi, es el umbral (o sesgo) que se resta al potencial sináptico. Todo esto operado en una función de activación (f) que representa la salida de la neurona. La capacidad de una unidad en la red neuronal es calcular la suma ponderada de sus entradas y luego se aplica una función de activación para obtener una señal que será transmitida a la neurona próxima. Las neuronas se agrupan en niveles, donde su conectividad está dada por los pesos, valores determinados entre las conexiones de las neuronas para permitir que las operaciones dentro de la red obtengan la salida esperada.      Se investigó sobre el algoritmo evolutivo PSO (Particle Swarm Optimization - Optimización por Enjambre de Partículas) para la optimización del proceso de aprendizaje de la Red Neuronal Artificial. Este es el proceso que permite cambiar los pesos que maneja la red neuronal entre sus conexiones, porque su implementación obtiene los mejores valores para la red en función de la salida esperada.  Con ayuda del PSO se obtiene la mejor población que ayude a la red neuronal a obtener la salida deseada.  


CONCLUSIONES

Después de la ejecución del software, el resultado fue el reconocimiento instantáneo de cinco gestos con una sola mano. Las señas correspondían a las letras: "A", "E", "I", "O" y "U", que se encuentran en el alfabeto de señas mexicano.    Se propone ampliar el banco de datos o de señas a partir de lo mencionado en la metodología de este documento, ya que la utilización de una red neuronal artificial y la visión por computadora permitirían un seguimiento más preciso de los gestos ejecutados, lo que permitiría reconocer señas de diferentes complejidades.    Finalmente, podemos concluir que al proporcionar una mejor comprensión del entorno y facilitar la comunicación, la visión por computadora contribuye a mejorar la autonomía y la calidad de vida de las personas con discapacidad auditiva. Sin embargo, es importante seguir investigando y desarrollando tecnologías más precisas y accesibles para garantizar que estas soluciones sean efectivas y ampliamente disponibles. Bajo este argumento, se espera seguir desarrollando este proyecto para que su alcance sea poder interpretar el lenguaje de señas completo, junto a gestos específicos del propio lenguaje mexicano, incluso traducir el contenido de audio en subtítulos en tiempo real. La visión por computadora tiene el potencial de derribar las barreras de la comunicación y ha demostrado ser una herramienta prometedora para ayudar en la participación, de esto hablamos cuando se trata de una inteligencia artificial que está al servicio de todos.  
Gabino López Erik Osvaldo, Instituto Politécnico Nacional
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

OBTENCIóN DE BIODIESEL 2D PARA SU USO EN MAQUINARIA PESADA, PRUEBAS TéCNICAS Y ANáLISIS DE IMPACTO AMBIENTAL


OBTENCIóN DE BIODIESEL 2D PARA SU USO EN MAQUINARIA PESADA, PRUEBAS TéCNICAS Y ANáLISIS DE IMPACTO AMBIENTAL

Gabino López Erik Osvaldo, Instituto Politécnico Nacional. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El uso de combustibles fósiles en la actualidad causa emisiones de gases de efecto invernadero, contaminación del aire y del agua, agotamiento de recursos naturales, y daño a los ecosistemas. El uso de biocombustibles como el biodiésel reducen significativamente la emisión de estos gases. El biodiésel ha sido gran tema de interés debido a que es un biocombustible renovable que puede ser utilizado en vehículos y motores como alternativa para sustituir al diésel convencional. Pero aún muchos vehículos de carga y maquinaria pesada no se adaptan a las nuevas propiedades que el Biodiésel ofrece, puesto que tienen que seguir usando el diésel convencional debido a que los componentes que lo conforman fueron fabricados específicamente para el uso del diésel. Por lo que no se pueden adaptar a esta alternativa, generando así el mismo impacto ambiental. Así pues como se mencionó anteriormente varios vehículos de carga pesada no pueden adaptarse al uso del biodiesel por lo que si hiciésemos este más parecido al diésel en especial podría utilizar para este tipo de maquinaria. Por lo tanto, el aumento de algunas propiedades del biodiésel para hacerlo lo más parecido al diésel convencional en especial su viscosidad para el uso en maquinaria pesada aumenta significativamente su rendimiento, utilizando mezclas de diésel- biodiesel 2D.



METODOLOGÍA

Para la realización del proyecto se produjo biodiesel a escala laboratorio utilizando aceite residual, se realizaron pruebas de calidad al biodiésel obtenido en el que a través de cromatografía en placa fina se determinó la calidad del biodiesel comparándolo con un biodiesel que cumple las características necesarias para usarlo. Los resultados obtenidos fueron buenos, según la prueba realizada la calidad del biodiésel obtenido fue buena siendo similar al biodiesel de calidad. Teniendo el biodiesel previamente obtenido se procedió a inyectar aire caliente por medio de una pistola de aire con el fin de aumentar la viscosidad del biodiesel para su uso en maquinaria pesada, los resultados obtenidos fueron buenos, la viscosidad del biodiesel aumento una parte. Enseguida se procedió a hacer biodiesel a una escala mayor utilizando un reactor de producción, implementando las mismas técnicas necesarias que fueron utilizadas al realizar el biodiesel a escala laboratorio. Obtenido el biodiesel se inyecto nuevamente aire caliente para aumentar su viscosidad para poder hacer uso de este. Se generaron tres mezclas utilizando diésel y biodiesel de acuerdo con la ley de bioenergéticos en México, cabe mencionar que no se probó directamente el biodiesel producido en maquinaria pesada. Como se mencionó anteriormente se generaron tres mezclas las cuales fueron B5, B10 y B20, el cual el numero indica el porcentaje de biodiesel que tuvo la mezcla. Se realizaron cuatro pruebas en un motor detroit diésel 8v71 utilizando diésel convencional y las tres mezclas generadas, las pruebas se realizaron utilizando un dispositivo electrónico llamado testo 350-XL con el cual a través del humo de escape se midieron las emisiones contaminantes generadas por el motor. Para las pruebas el motor estuvo trabajando constantemente durante 40 minutos utilizando cada uno de los combustibles previamente tratados.


CONCLUSIONES

Se obtuvo que el aumento de la viscosidad del biodiesel mejoro la eficiencia en su uso en maquinaria pesada. Unicamente utilizando las mezclas B10 y B20 las cuales obtuvieron menos emisiones contaminantes a diferencia de utilizar diésel convencional y la mezcla B5 la cual fue la menos eficiente. El uso de la mezcla B20 redujo significativamente las emisiones contaminantes, esta fue la mas efectiva en cuanto a las anteriores. El uso del biodiesel obtenido en general produjo menos emisiones de monóxidos de carbono, óxidos de nitrógeno, dióxido de nitrógeno e hidrogeno, pero su uso en las pruebas realizadas después de 30 minutos de prueba, se empezaron a generar más NOx debido al uso del biodiesel. En conclusión, el uso de biodiésel ofrece una alternativa sostenible y menos contaminante en comparación con los combustibles fósiles. Al ser producido a partir de fuentes renovables, en este caso aceite residual, su uso contribuye a reducir las emisiones de gases de efecto invernadero y disminuir la dependencia de combustibles no renovables.
Galindo Ruelas Lilia Sofía, Instituto Tecnológico de Tepic
Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla

ELABORACIóN DE BRIQUETAS A BASE DE BAGAZO DE AGAVE Y CELULOSA PARA USO DOMéSTICO: UNA ALTERNATIVA PARA LA GENERACIóN DE ENERGíA Y REDUCCIóN DE RESIDUOS.


ELABORACIóN DE BRIQUETAS A BASE DE BAGAZO DE AGAVE Y CELULOSA PARA USO DOMéSTICO: UNA ALTERNATIVA PARA LA GENERACIóN DE ENERGíA Y REDUCCIóN DE RESIDUOS.

Galindo Ruelas Lilia Sofía, Instituto Tecnológico de Tepic. Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el uso de combustibles fósiles y madera como principales fuentes de energía en el ámbito doméstico sigue siendo una de las principales causas de emisiones de gases de efecto invernadero y la deforestación. Frente a la creciente preocupación por el cambio climático y la necesidad de promover prácticas más sostenibles, se ha incrementado el interés en el desarrollo de fuentes alternativas de energía renovable. Una de estas alternativas es la utilización de briquetas, que consisten en materiales compactados y de alto poder calorífico. Siendo la eficiencia energética y la calidad de las briquetas, factores críticos para su viabilidad en el mercado y su aceptación por parte de los usuarios domésticos. Se requiere una investigación detallada sobre las proporciones óptimas de bagazo de agave y celulosa, así como la influencia de la compactación y el proceso de secado en la densidad y poder calorífico de las briquetas.   



METODOLOGÍA

Preparación de bagazo de agave Una vez recibido el bagazo de agave, éste se tritura con la finalidad de obtener una mezcla homogénea, para después humedecer el bagazo y dejarlo remojar durante 24 hrs. Para concluir, se lleva a cabo una molienda del producto y estará listo para utilizarse. Preparación de celulosa a partir de papel Se realiza el corte del papel en tiras de aproximadamente 5 cm de longitud, posteriormente se mezcla con agua y se deja remojar por 24 hrs. Una vez remojado el papel, este se tritura y se le adiciona más agua para después realizar una segunda trituración y proceder a mezclar. Elaboración de briquetas Se realizaron pruebas para determinar la composición óptima de la mezcla de bagazo de agave y celulosa, así como para evaluar el rendimiento y las características de las briquetas resultantes. Siendo un total de 6 pruebas, con diferentes concentraciones, como se menciona en la tabla 1. Una vez determinadas las concentraciones y realizado el pesado de los materiales, se procede a realizar la mezcla de las muestras para después colocar la muestra en la briquetadora (Figura 1), para así compactar la muestra y posteriormente realizar los análisis pertinentes. Concentración de bagazo de agave (%): 50, 60, 75, 70, 90, 100 Concentración de celulosa de papel (%): 50, 40, 25, 30, 10, 0 Capacidad de empuje La capacidad de empuje de una briquetadora con gato hidráulico está influenciada por varios factores, incluyendo la potencia del sistema hidráulico, la capacidad del gato hidráulico para generar la presión necesaria, la resistencia del material que se está compactando y la eficiencia del diseño y construcción de la máquina. Para este proyecto se utiliza un prototipo de briquetadora el cual utiliza un gato hidraúlico de botella con tornillo de extensión marca Mikels Tamer, modelo GTE-2, con una capacidad de 2t (Figura 2). Por otro lado, es importante mencionar las dimensiones del cubo que será utilizado como molde para las briquetas; siendo 20.4cm de altura, 7.5cm de ancho y 7.5cm de largo. Teniendo una capacidad de volumen de 1,147.5cm3 , por la tanto el cubo contiene un área de 724.5cm2. Análisis termogravimétrico simultáneo (TGA-DSC) El análisis térmico se basa en la medida de las propiedades químicas o físicas de un material en función de la temperatura. Por medio de la Termogravimetría (TGA) registramos la evolución del peso de la muestra en función de la temperatura o el tiempo. Se deben triturar y homogeneizar las muestras para asegurar una distribución uniforme de los componentes (Figura 3). Se coloca una pequeña cantidad de la muestra en una cápsula. La cápsula se coloca en el equipo de TGA, y se esperan los resultados que serán mostrados una vez terminado el análisis.  


CONCLUSIONES

Esta investigación busca aportar conocimientos clave para el desarrollo y promoción de briquetas a base de bagazo de agave y celulosa como una opción sostenible para el uso doméstico. Al abordar los desafíos mencionados, se espera que este estudio contribuya al avance de soluciones energéticas limpias y la gestión eficiente de residuos agrícolas, promoviendo un futuro más sostenible y respetuoso con el medio ambiente. Se obtuvieron 2 briquetas por prueba, siendo un total de 12 briquetas en total (Figura 4). Los datos de la capacidad de empuje que fue aplicada en la realización de las briquetas se obtiene con la fórmula:  F=P*A donde: F: Fuerza de empuje en kg P: Presión en kg/cm2 A: Superficie (cubo) cm2 Despejando la anterior fórmula se obtiene: P = F * A = 2000 Kg * 724.5 cm2 = 2.76 Kg/cm2  Por otro lado, se realizaron los cálculos para conocer las densidades de las briquetas obtenidas, las cuales se muestran en la tabla 2; se observa que la muestra con proporción 70-30 tiene una mayor densidad mayor en comparación con las otras muestras. La utilización del bagazo de agave, un subproducto de la industria tequilera y mezcalera que generalmente termina siendo un desecho ambiental, como materia prima para la elaboración de briquetas, demuestra una solución valiosa para la gestión de residuos. Además, la celulosa proveniente de papel reciclado contribuye a la sostenibilidad de la producción. Finalmente, se espera que ​​las briquetas elaboradas con una combinación óptima de bagazo de agave y celulosa demuestren un poder calorífico comparable e incluso superior a las fuentes de energía convencionales como la leña y el carbón. Esta eficiencia energética permitirá su uso efectivo en aplicaciones domésticas, como calefacción y cocción, sin comprometer el rendimiento de las mismas.  
Galinzoga Capíz Ambrocio, Universidad de Guadalajara
Asesor: Mg. Martha Alicia Mendoza Hernández, Corporación Universitaria Reformada

OZONO TROPOSFéRICO, UN ANáLISIS DE LA INCIDENCIA EN LA CALIDAD DE AIRE Y AFECCIONES A LA SALUD PúBLICA.


OZONO TROPOSFéRICO, UN ANáLISIS DE LA INCIDENCIA EN LA CALIDAD DE AIRE Y AFECCIONES A LA SALUD PúBLICA.

Galinzoga Capíz Ambrocio, Universidad de Guadalajara. Asesor: Mg. Martha Alicia Mendoza Hernández, Corporación Universitaria Reformada



PLANTEAMIENTO DEL PROBLEMA

La contaminación del aire es una problemática que cada día aumenta por las diferentes actividades que realiza el hombre ya sean en áreas urbanas o rurales causando no solo afecciones al medio ambiente si no a la salud humana. A su vez esta contaminación trae consigo muchas de las enfermedades respiratorias que por hoy van incrementando en especial en las poblaciones más vulnerables. A partir de lo anterior, este tema se ha convertido en una de las principales preocupaciones de salud pública y de organizaciones mundiales las cuales comentan que nueve de cada diez personas respiran aire con altos niveles de contaminantes y siete millones de personas mueren cada año por la contaminación del aire ambiente de exteriores y doméstico (OMS, 2018). El ozono troposférico (O3) es un contaminante secundario que se produce en las grandes ciudades, con efectos nocivos sobre la salud humana y sobre la vegetación. Las consecuencias en la salud, especialmente de aquellas más vulnerables, es altamente preocupante como para alertar - sobre todo en las ciudades que guardan ciertas características geográficas y climáticas, que impiden la suficiente ventilación - a las autoridades ambientales, cuando su concentración alcanza valores críticos o umbrales, bien conocidos por éstas (Sergio & Seijas, n.d.).. Es así, como nace la necesidad de estudiar este contaminante ya que hay estudios que comentan que a medida que los esfuerzos de control internacional que reducen la emisión de clorofluorocarbonos y otras sustancias que aumentan las concentraciones de ozono, el uso y emisión de sustancias destructoras del ozono daña la capa de ozono en la estratosfera, lo cual permite el paso de un mayor nivel de radiación ultravioleta hasta la superficie de la tierra y causa efectos adversos en la salud de las personas, también  esto no solo afectara al estilo de vida de las personas si no también a los procesos atmosféricos naturales. 



METODOLOGÍA

Para la metodología durante esta pasantía se enfatizo por la búsqueda de la literatura para elaborar un artículo de revisión realizando una búsqueda bibliográfica donde la información primaria se basó en artículos, documentos de ONG oficiales, tesis. No obstante, la cantidad de información que generan los resultados de investigación de esta búsqueda nos deja con una amplitud de conocimiento para colocar en marcha nuevas estrategias en el marco de la investigación. Es así como se revisó primeramente documentación para analizar el marco normativo existente en Colombia y en México en materia de calidad del aire y salud pública, así como revisar si existían políticas referentes al ozono troposférico y la radiación solar, así cómo indagación en el tema sobre los efectos que pueden tener sobre la salud ambiental y salud pública. Una vez realizado esto se acudió a tres distintas estaciones de calidad de aire en la ciudad de Barranquilla donde se observó su funcionamiento y cuales son los contaminantes medidos por cada estación, para evaluar si la información recopilada en cuanto al ozono troposférico serviría para realizar un posterior análisis. Por ultimo se realizó más búsqueda de la información por medio de fuentes bibliográficas para rectificar que la incidencia del ozono troposférico y la salud publica ambiental, la cual se plantea continuar la investigación para próxima publicación. 


CONCLUSIONES

A lo largo de la estancia se obtuvieron conocimientos sobre métodos que existen para la medición del ozono, así como que factores influyen en su formación y los efectos negativos que puede tener en la salud pública de una región donde su concentración es alta. También el análisis de que estos niveles pueden llegar a mayores concentraciones y alarmantes poniendo en riesgo la salud de la población y el medio ambiente si es que no se toman y fortalecen acciones coordinadas a largo plazo y no esperar posiblemente a organizaciones de la sociedad civil que empiecen a reclamar su derecho a respirar un aire limpio y saludable.
Gallardo García Diego, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

DISPOSITIVOS DE RECOLECCIóN Y DISTRIBUCIóN DE AGUA PLUVIAL EN CASAS HABITACIóN.


DISPOSITIVOS DE RECOLECCIóN Y DISTRIBUCIóN DE AGUA PLUVIAL EN CASAS HABITACIóN.

Gallardo García Diego, Benemérita Universidad Autónoma de Puebla. Mendoza Gonzalez Manuel Alejandro, Benemérita Universidad Autónoma de Puebla. Pabón Córdoba Jair Andrés, Universidad de Investigación y Desarrollo. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, 113.9 millones de personas tienen acceso al agua, mientras que 26.1 millones (18.6 %) de habitantes no tienen acceso al agua. En 2015, el 94.4 % de la población tenía cobertura de agua entubada en vivienda. Para 2012 se estimó que 685 mil muertes eran atribuibles a agua y saneamiento inadecuados. La mayoría de sistemas de recolección de lluvias no cuentan con medidores de calidad del agua. La medición de distintas variables como la conductividad eléctrica, densidad, pH (grado de acidez o alcalinidad), dureza total, dureza cálcica, contenido de calcio, alcalinidad total, alcalinidad parcial e hidróxida ayudan a determinar si el agua cumple con los parámetros establecidos para el consumo humano.



METODOLOGÍA

Proponer medidores de calidad de agua accesibles para sistemas de recolección de aguas pluviales. Aporte práctico: Implementación de un medidor de calidad del agua en SCALL. 1. Identificar las consecuencias del uso del agua contaminada. 2. Investigar los distintos medidores que existen actualmente. 3. Dar una comparativa sobre los dispositivos modulares comerciales


CONCLUSIONES

La investigación se ha enfocado en identificar opciones que ofrezcan un óptimo desempeño y precisión. Los medidores PC/EC-983, Yosoo, 5in1 (Generic) y Q-DH12, no incluyen tecnología Wifi en sus características. Asimismo, ninguno de estos medidores cuenta con medidores de gravedad específica (GE), lo que implica que no pueden proporcionar mediciones relacionadas con la densidad del agua y por otra parte, el modelo W2839 es una opción económica pero que solo mide el pH. El medidor Yosoo resulta ser una opción costosa y, lamentablemente, no cumple con la mayoría de los parámetros de la tabla. Los modelos YY-W9909 y PH-W218 destacan como las mejores opciones disponibles. Ambos dispositivos ofrecen mediciones precisas de todas las variables. Sin embargo, una ventaja significativa es que el modelo PH-W218 es un 19% más económico que el modelo YY-W9909.   Considerando la relación costo-beneficio, concluimos que el modelo  es la mejor opción por debajo del presupuesto de 2 mil pesos mexicanos. Al ofrecer la misma funcionalidad que el modelo YY-W9909 a un precio más accesible, el PH-W218 satisface nuestras necesidades de monitoreo de calidad del agua de manera eficiente y económica. Su rendimiento confiable y asequible lo convierte en la elección ideal para garantizar un análisis preciso y efectivo del agua en un sistema de captación de agua de lluvia.  
Gallardo Villegas Andres Alejandro, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

MICROSIMULACIóN DE CRUCERO VIAL EN IRAPUATO


MICROSIMULACIóN DE CRUCERO VIAL EN IRAPUATO

Avila Paz Victoria, Instituto Tecnológico de Ciudad Juárez. Gallardo Villegas Andres Alejandro, Instituto Tecnológico de Ciudad Juárez. Hernández Cazares Arlette, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

México ocupa el séptimo lugar mundial en accidentes viales, en el 2022 se registraron al menos 40 fallecimientos al día a causa de eventos viales y un aumento del 28% respecto a personas heridas. En algunos puntos de la ciudad se presentan problemas de congestión vehicular debido a la infraestructura vial y malas prácticas de conducción, por lo que se propone realizar una microsimulación de puntos de conflicto.



METODOLOGÍA

El inicio de esta investigación se centró en la recopilación de información clave para entender esta problemática mediante la técnica conocida como Data mining el cual es un proceso de descubrimiento y extracción de información útil mediante métodos de estadística, inteligencia artificial, aprendizaje automático y bases de datos para analizar datos y encontrar relaciones significativas entre variables, tales como la cantidad de personas que utilizan transporte público, cantidad de accidentes viales en el municipio, etc. Posteriormente se realizó una investigación de campo, toma de tiempo y muestreo del área, en una avenida llamada cuarto cinturón vial una de las calles mas afectadas por esta problemática, después de eso se migro dicha información al programa VISSIM, donde se realizó la simulación de ese muestreo, con el objetivo de encontrar la manera en que se reduzca la cantidad de accidentes viales.


CONCLUSIONES

La microsimulación permitió identificar que las malas prácticas de conducción, en este caso la invasión de carriles, contribuye a incrementar un 28% la línea de espera en los semáforos del punto evaluado. Considerando todos los aspectos que toman un papel importante a la hora de manejar, consideramos que es importante contar con una mejor educación vial para prevenir este tipo de siniestros.  Cabe mencionar que realizar esta investigación nos ayudo a expandir mucho nuestros conocimientos mediante el uso de nuevas herramientas como Google Colab, Octave, Qgis, Vissim y sobre todo expandir nuestra capacidad de análisis estadístico.
Gallego Rojo Laura Sophia, Universitaria Agustiniana Uniagustiniana
Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California

ASIGNACIóN DE CIE-10 A NOTAS MéDICAS EN ESPAñOL


ASIGNACIóN DE CIE-10 A NOTAS MéDICAS EN ESPAñOL

Gallego Rojo Laura Sophia, Universitaria Agustiniana Uniagustiniana. Sámano Martínez Jacqueline, Universidad Mexiquense del Bicentenario. Sequeda Castillo Kevin, Universidad de Investigación y Desarrollo. Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Desde su inicio la CIE ha sido de apoyo en los centros hospitalarios en distintos países, para la elaboración de estadísticas de morbilidad y mortalidad. Haciendo posible la obtención de información precisa sobre las enfermedades existentes y anteriormente identificadas, con el fin de conocer, evaluar e identificar enfermedades y contrarrestar posibles epidemias. Sin embargo, La aplicación de la CIE-10 (Clasificación Estadística Internacional de Enfermedades, Décima Revisión) en función de la asignación de codificadores para los diagnósticos médicos resultan laboriosos y expuesto a errores debido a la complejidad de codificación, ya que este proceso es realizado de manera tradicional, es decir, manualmente. De tal manera que, durante el proceso de evaluación médica en los sistemas hospitalarios conllevan retrasos, a fin de tomar mejores consultas en términos diagnósticos. Por consecuencia, se propone el desarrollo de un clasificador mediante la utilización de técnicas de procesamiento del lenguaje natural, Tensor Flow y las API provistas por OpenIA, que mejore la gestión de los datos de salud, facilitando análisis epidemiológicos y estudios de salud poblacional. No obstante, en esta primera etapa del proyecto, tiene como propósito encontrar y analizar los errores de Chat GPT durante el proceso de consulta y predicción del diagnóstico, dichos errores son categorizados en cuatro; comprensión, factual, especificidad e inferencia. Esto con el fin de ahorrar tiempo al personal médico en la elaboración y detección del diagnóstico con mayor calidad asistencial, y proporcionar respuestas tanto veraces como precisas.



METODOLOGÍA

Para llevar a cabo el proyecto hay que tener un conocimiento previo acerca de que es el CIE-10, centrándose en los códigos relacionados con las neoplasias malignas (cáncer). Este término describe las enfermedades en las que hay células anormales que se multiplican sin control e invaden los tejidos cercanos. Para llevar a cabo la primera etapa de este proyecto de investigación, se utilizó la siguiente Base de datos: CodiEsp, para trabajar con CIE-10, el cual consiste en una base de datos pública con más de 2,700 registros entre diagnósticos y procedimientos anotados por el médico para realizar el análisis de la clasificación CIE-10 versión 2018 e identificar los 4 errores de Chat GPT durante la consulta. Dicho esto, el dataset representa objetos digitales compuestos y heterogéneos, así como el conjunto de datos complejos que llevan consigo un orden de datos y su relación. Tales datos comprenden diferentes elementos o tipos de datos, como son los documentos de texto y hojas de cálculo. Una vez obtenida la BD pública (CodiEsp) se realizó el análisis exploratorio que consistió en la identificación y comprensión de los datos presentados. Dentro de ella se visualizan tres carpetas; test, train y dev. En cada una de ellas se encuentran dos carpetas más que contienen los diagnósticos en español e inglés, además de hojas de cálculo (.tsv). Tomando como ejemplo la carpeta dev, estos archivos se clasifican en tres; devD, devX y devP. El primer archivo es una tabla que se divide en 2 columnas; por el identificador del diagnóstico y él código CIE-10 asignado, tiene un total de 2,677 registros. Mientras que en el segundo archivo la tabla se divide en 4 columnas; identificador, procedimiento, código CIE-10, nombre de enfermedad y valores numéricos, tiene un total de 4,477 registros. Finalmente, el tercer archivo se presenta de la misma manera que el devD. Previo a esto, se decidió usar Codiesp debido a que son menos diagnósticos, tiene fácil acceso a los registros y una vista ordenada. Una vez concluido el análisis de la base de datos, se procedió a seleccionar un subconjunto de este, 60 notas respectivamente, para realizar las pruebas que ayude a comparar los resultados obtenidos por el modelo Chat GPT, e identificar si el modelo LLM asigna correctamente el C10 a la nota médica dada. Del cual se desempeñaron las actividades de clasificación y consulta de las notas médicas, asignando manualmente cada código para ejecutar el programa en Chat GPT. Detectando así la efectividad del programa durante la consulta de los códigos ofreciendo su propia valoración de acuerdo con el manual de clasificación CIE-10 vs 2018. Los errores se clasifican en cuatro, como son: Comprensión: Se refieren al fracaso en la comprensión del contexto y la intención del problema. Puede presentar deficiencias cuando se enfrenta a preguntas ambiguas o con errores gramaticales. Factualidad: El modelo carece de los hechos de apoyo necesarios ya sea evento, entidad o atributo, para producir una respuesta precisa Especificidad: El modelo no responde con el nivel adecuado de especificidad, esto ocurre cuando el modelo proporciona una respuesta demasiado general o muy específica. Inferencia: El modelo posee los conocimientos necesarios para responder una pregunta, pero no logra razonar con los hechos de forma eficaz para llegar a la respuesta correcta. [1] Se anexa el análisis manual del subconjunto de datos (https://docs.google.com/spreadsheets/d/1uooe2uTKVIzwmBn5jf_tM4SBbdB1oCXu/edit?usp=sharing&ouid=109721085237076027897&rtpof=true&sd=true).De acuerdo a lo anterior, se procedió a identificar de manera manual los errores y realizar la respectiva cuantificación. Los resultados indican que de las 60 predicciones aplicadas a los diagnósticos por el modelo LLM, presentan en su mayoría error de especificidad obteniendo el 43.33% en su totalidad, en cuanto al 6.67% indica error de comprensión, el otro 6.67% presenta error de factualidad y el 31.67% con error de inferencia, mientras que el 11.67% restante indicó a favor al no presentar errores.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos tanto teóricos como prácticos sobre el CIE-10, Chat GPT, Machine Learning y sus métricas como las aplicaciones con distintos modelos de NLP, sobre todo el curso de OpenAI “Chat Gpt Prompt Engineering For Developers” que fue de gran utilidad para comprender el tema de estudio y el aplicativo de los prompt en chat gpt. Dado esto se obtuvo conocimiento de las distintas formas o instrucciones que se pueden dar al modelo y así obtener respuestas precisas y rápidas. Sin embargo, ya que se trata de un tema a grandes rasgos y con alta complejidad de datos, el trabajo se encuentra en la primera fase, en la aplicación y análisis del CIE-10 para la identificación de las etiquetas correspondientes a los diagnósticos médicos y verificar los errores de predicción, ya que carecen de precisión y veracidad por parte del modelo Chat GPT. Dado que al subconjunto seleccionado de 60 notas médicas con sus respectivas etiquetas C10 y la predicción de LLM, se obtuvo que el 43.33% de ese subconjunto encontramos error de especificidad. Por tal motivo, se espera que mejore la exactitud de la instrucción a escribir en el modelo, de tal manera que podamos corregir los errores y buscar la mejor manera de aplicarlos.
Gallegos Barraza Estefania Monserrath, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

MANEJO DE BITáCORAS Y SENSORES PARA ACCESO A LABORATORIOS POR MEDIO DE CóDIGOS QR


MANEJO DE BITáCORAS Y SENSORES PARA ACCESO A LABORATORIOS POR MEDIO DE CóDIGOS QR

Altamirano Vazquez María Verónica, Universidad Politécnica del Mar y la Sierra. Gallegos Barraza Estefania Monserrath, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema La Universidad Politécnica Del Mar y la Sierra es la única universidad que se encuentra en el municipio de Elota, está establecida en la Carretera a Potrerillos del Norte Kilometro 3. CP 82700, La Cruz, Municipio de Elota, Sinaloa, México. Tiene 4 edificios los cuales dos son docencias, un centro de información y documentación, un Laboratorio y talleres Dispone con 4 licenciaturas y 5 ingenierías, además la institución educativa tiene 7 espacios disponibles como son el laboratorio de software, laboratorio de redes. centro de cómputo, laboratorio de inglés, biblioteca y centro de información. La universidad cuenta en sus procesos con un control de entrada y salida de estudiantes y personal de la institución a los diferentes espacios de búsqueda de información, recreación y reuniones en actos académicos. Dicho control se realiza mediante listas de asistencia física realizada por laboratoristas o estudiantes que realizan su servicio social, se ha buscado la posibilidad de automatizar este proceso para que cada estudiante registre su entrada por separado y todo se guarde en una base de datos centralizada que permita obtener reportes mas adelante.         Sensores de movimiento: Junto con el lector de códigos QR, se implementarían sensores de movimiento dentro del laboratorio. Estos sensores detectarían el movimiento de las personas dentro del espacio y permitirían un seguimiento en tiempo real de la actividad dentro del laboratorio. Diseño de la interfaz web: Lo primero es diseñar una interfaz web que permita a los usuarios acceder al laboratorio. Esta interfaz debe incluir un área para escanear el código QR y un botón para solicitar acceso a través del sensor de movimiento para programarlo se utilizara sublimetext y frameworks de desarrollo web     Registro de accesos: Cada vez que un usuario ingrese al laboratorio, el sistema registraría el evento en una bitácora de accesos. Esto permitiría a los administradores del laboratorio llevar un seguimiento detallado de quién entra y sale del lugar, y también puede servir para detectar actividades sospechosas o no autorizadas. Alertas y notificaciones: Si se detecta un acceso no autorizado o actividad inusual, el sistema podría generar alertas y notificaciones para los administradores o el personal de seguridad. Esto les permitiría tomar medidas inmediatas para abordar cualquier posible riesgo. Integración con otros sistemas: El sistema de control de acceso mediante QR y sensores de movimiento también en el futuro podría integrarse con otros sistemas de seguridad del laboratorio, como cámaras de vigilancia, sistemas de alarma, o incluso sistemas de control ambiental que puedan estar presentes en el espacio.



METODOLOGÍA

Metodología Para desarrollar la solución al problema plateado anteriormente se tendrá en cuenta algunos aspectos importantes para la ejecución de este para asegurar la eficiencia y efectividad Diseño del sistema: Una vez identificados los requisitos, se procede al diseño del sistema de control de acceso. Aquí se determinará la ubicación óptima de los sensores, Selección de sensores: Es importante elegir sensores de alta calidad y adecuados para el propósito específico. Los sensores deben ser capaces de detectar movimientos, puertas abiertas o cualquier otra condición relevante para el control de acceso al laboratorio. Instalación y configuración: Los sensores deben ser instalados y configurados por personal técnico capacitado. La ubicación precisa de los sensores es crucial para asegurar una detección adecuada. Además, se debe ajustar la sensibilidad de los sensores según las necesidades del laboratorio. Pruebas y verificación: Antes de poner en funcionamiento el sistema de control de acceso con sensores, es fundamental realizar pruebas exhaustivas para verificar su correcto funcionamiento. Se deben simular situaciones reales y asegurarse de que los sensores respondan adecuadamente. Capacitación y concientización: Es esencial capacitar al personal docente, administradores y alumnado sobre cómo usar correctamente el sistema de control de acceso con sensores y lector             QR. Además, se deben explicar las razones detrás de esta implementación y cómo contribuye a la seguridad general del laboratorio. En general, esta solución proporcionaría un nivel adicional de seguridad y control en el laboratorio, asegurando que solo las personas autorizadas tengan acceso al mismo, y permitiendo una supervisión más efectiva de las actividades dentro del espacio para garantizar el cumplimiento de las políticas y normativas establecidas.


CONCLUSIONES

 Se investigó mediante un largo proceso para obtener todo el conocimiento requerido para realizar la solución de seguridad en los laboratorios. Se implementó el sistema de control con base a las investigaciones hechas sobre los sensores y el lector QR llegando a la conclusión que esta tecnología sería la mejor opción para controlar los laboratorios gracias a la fiabilidad que nos ofrece.Es una manera muy innovadora que servirá de mucha importancia a la institución para tener monitoreado, y que solo las personas que cuenten con el QR tendrán el acceso
Gallegos Rangel Andrea, Instituto Tecnológico de Morelia
Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

ELABORACIóN DE UN NUEVO PRODUCTO ALIMENTICIO DE ALTO VALOR AGREGADO A PARTIR DE PULPO MAYA(OCTOPUS MAYA)


ELABORACIóN DE UN NUEVO PRODUCTO ALIMENTICIO DE ALTO VALOR AGREGADO A PARTIR DE PULPO MAYA(OCTOPUS MAYA)

Baeza González Luis Fernando, Instituto Tecnológico de Morelia. Gallegos Rangel Andrea, Instituto Tecnológico de Morelia. Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El pulpo maya, una especie endémica de la península de Yucatán en México, es altamente valorado por su sabor y calidad nutritiva. Sin embargo, a pesar de su popularidad, el consumo del pulpo maya se limita principalmente a formas de preparación convencionales. Por lo anterior se propone la elaboración de Nuggets adicionados con pulpo maya, lo que se presenta como una alternativa atractiva y novedosa para un snack accesible para cualquier individuo. El término "Nuggets" en inglés significa "pepitas". Es un producto alimenticio elaborado con una pasta finamente picada de pollo u otras carnes. Antes de cocinarlo, la carne se recubre con rebozado. Para este proyecto se utilizaron: a) diferentes proporciones de pulpo maya y pollo, b) diferentes tipos de fritado los cuales son con aceite vegetal y con freidora de aire a Nuggets y en c) diferentes etapas que fueron recién elaborados y después de un proceso de congelamiento y almacenado, las variables de respuesta evaluadas mediante un análisis estadístico fueron 1) textura, mediante la dureza, adhesividad, fuerza adhesiva, energía en A1 y 2) los parámetros de color, los cuales son L*, a* y b*.



METODOLOGÍA

  Se adquirió el pulpo maya  pre-cocido congelado de un mercado local y pollo fresco del supermercado Chedraui selecto marca bachoco. Se utilizaron también otros ingredientes que se encontraban en el laboratorio de alimentos del CIATEJ subsede sureste como ajo en polvo pimienta, sal, azúcar, tomillo, bicarbonato de sodio, harina de trigo y sorbato de potasio.   Elaboración del Nugget de pulpo maya Limpieza y corte Se limpiaron el pulpo y pollo manualmente retirando impurezas como piel, pellejos y huesos   para posteriormente obtener trozos del pulpo y cubos del pollo (como suplemento de proteína marina y avícola, respectivamente) manualmente con un cuchillo obteniendo cubos de pollo de aproximadamente de 2cm3 y trozos de brazo de pulpo de aproximadamente 2 cm de largo (diámetro variable entre 1 y 1.5cm). Cocción En el caso del pulpo se le dio un tratamiento térmico de entre 90-100 °C durante 40 minutos, mientras que en el caso del pollo fue de entre 20-30 minutos a la misma temperatura. Pesado Se pesaron 430 gramos de pulpo y pollo  para lograr un 80% de la masa resultante que se necesita  para obtener los Nuggets. De igual manera se llevó a cabo el pesado de los demás ingredientes, aditivos y conservadores que serán utilizados. Ingrediente                Porcentaje(%) Pulpo y pollo                    80 Harina de trigo                 16 Sal                                 1.25 Azúcar                            0.5 Pimienta                         0.1 Tomillo                          0.05 Bicarbonato de sodio       1 Sorbato de potasio          0.1 Ajo en polvo                      1   Molienda Una vez que se obtuvieron los trozos de pulpo y pollo, se colocaron en un procesador (FP4200, Black&decker, Nueva Bretaña, EEUU) de 450 watts. Se molieron los trozos de pulpo y pollo con la velocidad alta del procesador, para obtener una masa  homogénea de ambas materias primas. Mezclado Posteriormente, la mezcla homogeneizada de pulpo y pollo se adiciona con los ingredientes, aditivos y conservadores que fueron pesados previamente para la obtención de una masa homogénea. Moldeado Se pesaron 20 gramos de la masa homogenizada para cada pieza de nugget y se les dio manualmente forma de campana. Empanizado Para el empanizado, las piezas previamente moldeadas se sumergieron individualmente en 5 mililitros de huevo, posteriormente se realizó el empanizado manualmente con 3 gramos de pan molido para cada nugget hasta observar una capa superficial homogénea que se adhiriera de una manera eficaz y homogénea al nugget. Fritado y pre fritado Se llevó a cabo un proceso de fritado completo mediante dos procesos: a) 3 Nuggets en aceite a 150°C durante 2 minutos y b) 3 Nuggets en freidora de aire (RJ38-V3-DC35, CHEFMAN, EEUU) a 150°C durante 5 minutos, de cada una de las diferentes proporciones de pulpo y pollo. Por otro lado, se llevó a cabo un pre fritado para c) 3 Nuggets en aceite a 150°C durante 45 segundos y d) 3 Nuggets en freidora de aire aceite a 150°C durante 2 minutos por cada proporción (25:75, 50:50, 75,25) de pulpo y pollo. Asimismo, se realizó el análisis a los nuggets recién elaborados (RE) y después de un proceso de almacenamiento (DC) mediante las propiedades de textura y color. Congelado Los Nuggets de pulpo y pollo se colocaron en bolsas plásticas (ziploc). Luego fueron llevados a congelar a una temperatura comercial de -17°C en un congelador (4052, Metalfrio,Celaya,México) Almacenamiento Se realizó por un tiempo de dos días con la finalidad de conservar los Nuggets obtenidos. Determinación de textura El análisis de textura fue llevado a cabo con un texturómetro (EZ-SX, Shimadzu, Tokio, Japón), mediante una prueba de compresión para la cual se programó un método con la ayuda del software Trapezium®, el cual registra los datos mediante dos ciclos de compresión con una deformación de 50%, una velocidad de ensayo de 5mm/s y un tiempo de espera de 5 s, con una sonda de compresión de 3cm de diámetro y una base universal para compresión. Color Para la determinación del color se utilizó un colorímetro (MiniScan EZ, HunterLab, Fairfax, EEUU). Se calibró el equipo mediante el uso de placas negra y blanca. Se colocó el nugget en un plato color blanco y se procedió a hacer la medición de las propiedades colorimétricas (L*, a* y b*) en el centro del nugget. Las mediciones se realizaron por duplicados de cada tratamiento.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de cómo hacer e interpretar un análisis de perfil de textura, haciendo uso de un texturómetro y también sobre cómo realizar colorimetría y como interpretar los parámetros que se miden usando el colorímetro. De igual manera se adquirio conocimiento teórico y práctico de cómo se lleva a cabo la elaboración de nuggets con diferentes proporciones de pulpo y pollo. Sin embargo, el presente proyecto posiblemente servirá para la base de una solicitud de patente por lo que no es posible divulgar los resultados puntuales obtenidos. En perspectiva, se espera que al nugget desarrollado sea le realicen análisis microbiológicos y sensoriales para lograr una aceptación por parte del consumidor.
Galván Cázares Hugo Alejandro, Universidad de Guadalajara
Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur

DISEñO DE UNA APLICACIóN DE APRENDIZAJE DE INGLéS PARA USUARIOS CIEGOS: HAPPYBLINDGLISH


DISEñO DE UNA APLICACIóN DE APRENDIZAJE DE INGLéS PARA USUARIOS CIEGOS: HAPPYBLINDGLISH

Carbajal Perez Amada Sarahi, Instituto Tecnológico de Chilpancingo. Galván Cázares Hugo Alejandro, Universidad de Guadalajara. Muñoz de Jesus Brisa Fernanda, Instituto Tecnológico de Chilpancingo. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

En México, la discapacidad visual es la segunda enfermedad más reportada según datos del Instituto Nacional de Estadística y Geografía (INEGI), y de acuerdo con la directora del Hospital de la Ceguera APEC, Valeria Sánchez, en México hay un total de 2 millones 237 mil personas que tienen deficiencias visuales (Scotiabank, 2021). Las aplicaciones para aprender inglés en el mundo son muy usadas y en realidad existe un gran número de ellas, las cuales han sido muy efectivas y han ayudado a muchas personas a comprender mejor el idioma inglés, el cual ha sido un recurso y una herramienta que abre constantemente puertas de trabajo, estudio y sociabilidad para la persona que domine esta herramienta. Sin embargo, estas aplicaciones no suelen estar centradas en usuarios con discapacidad visual.   



METODOLOGÍA

Para realizar este trabajo se llevó a cabo un proceso cualitativo debido al tamaño de la muestra. Los pasos que sigue este modelo constan de diez etapas para lograr el objetivo de la investigación (Hernández et al., 2016). La metodología utilizada para el análisis y diseño se llama MEUXuc (Álvarez, 2019) y se centra en usuarios con discapacidad visual, además de contar con las fases necesarias de la ingeniería de software para llevar a cabo el diseño del proyecto. Se tomó la decisión de hacer uso de la MEUXuc debido no solo a la inclusión de los usuarios objetivo sino de su contemplación en cada una de sus etapas y de la explicación de cada uno de sus métodos. Además, para la evaluación del diseño se utilizaron dos métodos los cuales son: Card Sorting y Thinking Aloud. El método Card Sortnig consiste en el ordenamiento de tarjetas con conceptos concretos que se están analizando y evaluando para posteriormente juntarlos y así obtener la arquitectura de la información (Álvarez, 2019). En este caso se adaptó el método para los usuarios con discapacidad visual, es decir, se utilizó el sistema braille. Se pensó en un menú que fuera intuitivo y fácil de aprender para los usuarios ciegos y se realizó un prototipo físico para que estos pudieran interactuar con el. Mientras que Thinking Aloud es un método en el cual la interacción social es fundamental. Se hizo uso de este explicando cada una de las pantallas a los usuarios para que pudieran reconocerlos y poder evaluar si la ubicación de los objetos en pantalla eran accesibles o no. 


CONCLUSIONES

En base al trabajo anterior se complemento la investigación con aplicaciones existentes para aprender inglés para personas con discapacidad visual, requerimientos funcionales y no funcionales, se definió la base de datos y el lenguaje de programación a usar, se realizaron diagramas para comprender el funcionamiento de la aplicación, se trabajó en una nueva propuesta para la interfaz de un sistema para el aprendizaje del idioma inglés para usuarios con discapacidad visual. También se tomó en cuenta el uso de los colores y su contraste para realizar un diseño que pueda ayudar a personas con baja visión a utilizar el sistema. Las pruebas de interfaces fueron realizadas a personas de baja visión por lo que en un futuro se harán al usuario objetivo que es una persona con ceguera, para mejorar la aplicación cada vez más. Se espera que la aplicación en un futuro sea también para personas de baja visión. Aunque el trabajo era extenso pudimos obtener un avance en la codifcación de algunas pantallas de la aplicación final, por lo que se espera que cuando este trabajo sea retomado se continúe con los aspectos de aprendizaje para las personas con discapacidad visual.
Galvan Oviedo Cristal, Instituto Tecnológico de Matamoros
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

ESTUDIO TEóRICO Y EXPERIMENTAL DE LA REMOCIóN DE MALATIóN DEL AGUA POR MEDIO DEL PROCESO HíBRIDO DE ELECTROCOAGULACIóN Y FENTON-LIKE


ESTUDIO TEóRICO Y EXPERIMENTAL DE LA REMOCIóN DE MALATIóN DEL AGUA POR MEDIO DEL PROCESO HíBRIDO DE ELECTROCOAGULACIóN Y FENTON-LIKE

Barajas Corral Ricardo Elías, Universidad Tecnologica de León. Castillo Burgos Liviet Daylin, Universidad de Sonora. Galvan Oviedo Cristal, Instituto Tecnológico de Matamoros. Guillén Smith Fabiola Eugenia, Universidad de Sonora. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El Malatión es un insecticida perteneciente a la familia química de los organofosforados, y a pesar de ser muy eficiente en su objetivo, presenta el gran inconveniente de no ser biodegradable, por lo que el agua contaminada con esta sustancia se vuelve altamente tóxica y no apta para el consumo humano o animal. A pesar de que existen diferentes métodos para tratar el agua contaminada, estos suelen ser costosos, tardados o requieren de terceras sustancias que también pueden ser nocivas. Es por esto que se ha abierto camino a investigaciones sobre nuevos tratamientos, entre ellos, el método de electrocoagulación.   La electrocoagulación es un proceso de tratamiento de aguas residuales que utiliza corriente eléctrica para remover sólidos suspendidos, contaminantes y materia orgánica presentes en el agua. En este proceso, la corriente eléctrica provoca la liberación de iones metálicos desde los electrodos, típicamente de aluminio o hierro, dentro del agua residual. Estos iones metálicos reaccionan con las partículas y los contaminantes presentes en el agua, formando flóculos que se adhieren a las partículas suspendidas, grasas y materia orgánica.​ El proceso de oxidación Fenton-like es una variante del proceso de oxidación Fenton, el cual es un método avanzado de tratamiento de aguas residuales que se utiliza para eliminar contaminantes orgánicos y compuestos tóxicos persistentes. El proceso Fenton original se basa en la reacción entre peróxido de hidrógeno (H2O2) y iones de hierro (Fe2+), generando radicales hidroxilos (•OH) altamente oxidantes; sin embargo, en esta investigación se utilizará cobre en vez de hierro. Estos radicales atacan y descomponen los contaminantes orgánicos presentes en el agua en moléculas más pequeñas y menos tóxicas.​ En esta investigación se busca reducir la presencia de Malatión comercial en el agua mediante procesos electroquímicos (electrocoagulación y Fenton-Like).



METODOLOGÍA

El proceso de electrocoagulación se llevó a cabo mediante un reactor tipo filtro prensa, compuesto principalmente de electrodos de aluminio, con una superficie de flujo de 64 cm2 y capacidad de 2 L. El proceso de preparación de las muestras a estudiar se llevó a cabo de la siguiente manera: Mezclar el Malatión comercial de alta concentración (1000 g/L) por lo menos dos veces para que quede totalmente homogéneo. Verter una base de agua destilada en los matraces de 1 L antes de incorporar el Malatión. Tomar con la micropipeta la concentración deseada de Malatión, verter a los matraces antes mencionados y agitar. Agregar 0.3 g de NaCl y 1.2 g de Na2SO4 a la solución. Finalmente, aforar y agitar hasta que las sales se disuelvan. Es importante mencionar que todos los materiales e instrumentos a utilizar deben de estar previamente lavados y desinfectados; además, no se debe de omitir el primer paso debido a que afecta considerablemente en los resultados. Antes de iniciar cada proceso de electrocoagulación se debe dar previo mantenimiento al reactor. El proceso de electrocoagulación se realiza entre 60 y 100 min, tomando muestras cada 20 min, después de concluir con este proceso, se deben dejar reposar las muestras por 24 horas aproximadamente, como resultado de esta espera, los flóculos se sedimentan y se puede observar a simple vista como la concentración de Malatión baja. Para cuantificar la pérdida de concentración del Malatión en la muestra, se mide la Demanda Química de Oxigeno (DQO) del agua tratada por medio de absorbancia. La preparación de los viales de DQO se realizó siguiendo el método estándar de dicromato de potasio. Las concentraciones de Malatión, así como las densidades de corriente para la electrocoagulación a estudiar fueron: 100 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2   200 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  250 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  500 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  1200 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  Una vez que las muestras pasaron por el proceso de electrocoagulación se someten a un segundo proceso llamado Fenton-Like. Para este último, se utilizaron dos distintas densidades de corriente (5 y 10 mA /cm2).  El proceso de Fenton-Like se realiza entre 60 y 80 min, tomando muestras cada 20 min. Es importante destacar que se debe iniciar el proceso solo cuando la muestra tenga un pH de 5. Como en el proceso de electrocoagulación, las muestras obtenidas de Fenton-Like, también deben reposar aproximadamente 24 horas para después leer su DQO mediante absorbancia. Una vez llevada a cabo la parte experimental del proyecto se realizó una capacitación en COMSOL Multiphysics, esta es una herramienta que se utiliza para el modelado y análisis virtual de fenómenos físicos. Mediante este software se logró observar el comportamiento de la velocidad y la presión del fluido al pasar a través del reactor y a su vez como es que sucedía la transferencia de iones Al3+ hacia la solución de Malatión con respecto al tiempo de electrolisis.


CONCLUSIONES

Durante la estancia de verano, se logró reforzar conocimientos básicos sobre ingeniería química, así como, la adquisición de nuevos conocimientos teóricos y prácticos. Aunque el agua después de los procesos de electrocoagulación y Fenton- Like, aún conserva materia orgánica, derivada de las reacciones generadas en los mismos, el porcentaje de remoción del Malatión en el agua alcanzó valores de hasta el 60%. Los resultados se pudieron apreciar de una manera más fiel, por medio del modelado y simulación del fluido, así como las respectivas reacciones, en COMSOL Multiphysics. Y con la generación de gráficos, se llevó cabo un análisis numérico y estadístico para conocer los niveles de control y tolerancias de la remoción en sus respectivas concentraciones.
Galván Santiago Diana Cecilia, Instituto Tecnológico de Reynosa
Asesor: Dr. Rubén Machucho Cadena, Universidad Politécnica de Victoria

INTELIGENCIA ARTIFICIAL


INTELIGENCIA ARTIFICIAL

Galván Santiago Diana Cecilia, Instituto Tecnológico de Reynosa. Asesor: Dr. Rubén Machucho Cadena, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial es la combinación de algoritmos, que tiene como objetivo imitar la inteligencia humana, tales como la toma de decisiones o la resolución de problemas. Estas dos inteligencias tienen tanto similitudes como diferencias, por ejemplo, la mente humana es capaz de pensar abstractamente, siente empatía, tiene conciencia, y se influencia por los sentimientos, mientras que la artificial, aún no tiene la capacidad de hacer eso, sin embargo, puede resolver problemas, y tomar decisiones de una manera muy rápida, y acertada, ya que se utiliza bases de datos, para obtener un resultado más preciso. Algunas de las ventajas de la inteligencia artificial son la automatización de procesos, aumento de precisión en la tarea requerida, reducción del error humano, rapidez en la realización de tareas, entre muchas otras. El servicio de atención alimenticia en un hospital es una tarea muy importante, que debe seguirse estrictamente, de acuerdo a las indicaciones establecidas por el nutriólogo, tales como el tipo de dieta, los horarios, entre otras. Esta tarea puede que se vuelva un poco complicada, ya que en un hospital hay miles de personas que requieren este servicio. Para reducir este problema, podría implementarse un servicio autónomo de repartición de alimentos. El cual consiste en que los alimentos serán repartidos por un robot, dedicado únicamente a esta tarea, y así el servicio puede ser más eficaz, rápido y preciso. Y de esta manera, pueda garantizarse que los pacientes recibirán sus alimentos adecuadamente.



METODOLOGÍA

Como principal herramienta de trabajo se utilizó Ubuntu 22.04, esto debido a que al ser un sistema operativo gratuito, que incluye software libre, y de código abierto, facilita la obtención de los diferentes softwares, que se necesitan, para el diseño, y la programación de este robot autónomo, de reparto de comida, para los pacientes de un hospital. El diseño del carro robot se realizó en freecad. El robot consiste en un carro de servicio autónomo. El robot podrá ser configurado por un nutriólogo, quien le dará la información requerida, como el número de habitación, y nombre del paciente para que el carro pueda dirigirse al lugar indicado. El carro cuenta con un sistema de visión, que le permite ubicarse, y de esta manera tomar el camino correcto, y poder evadir algún obstáculo, que se interponga en su camino, o bien darse cuenta si es necesario subir, o bajar rampas, o escaleras. El cerebro de este robot se trata de una pequeña computadora denominada Raspberry Pi 4, tiene un tamaño muy compacto, y esto resulta una buena opción, ya que es indispensable que no abarque mucho espacio, y no sea tan pesado el robot, para que alcance una velocidad adecuada. En esta computadora se instalaron los programas que le indicarán al robot cómo comportarse. Se instaló el sistema operativo Ubuntu 22.04, y el sistema operativo de robótica ROS 2 Humble. El diseño físico del robot consiste en un carro de servicio, con dos pisos de aproximadamente 62 cm de altura. Fue diseñado en el software Freecad, tomando en cuenta las dimensiones de la cama de un hospital, y de cada componente. Para asegurarse que el diseño tenga las características físicas adecuadas, se tomó en cuenta el peso de cada componente a utilizar, para determinar el peso total que tendría el robot, y de esa manera poder escoger las llantas adecuadas que soporten su peso. Las llantas elegidas son de 120 mm de diámetro, y 60 mm de ancho, y además son todo terreno. El piso de abajo es donde se encuentra la computadora, la batería y la parte electrónica, este piso cuenta con unas pequeñas extensiones a los costados, en la parte inferior, que son donde se colocaran las cuatro llantas, y cada una de estas contarán con un motorreductor de 150 rpm, con un torque de 15 kg-cm, los cuales se encargarán de que giren las llantas, y el robot pueda desplazarse. Estos serán controlados por medio del microcontrolador ESP32, utilizando módulos puente H Bts7960 43a, estos permiten controlar fácilmente, y de forma independiente, un motor de CD. El programa para controlar los motores se diseñó con el Arduino IDE. Por cada driver se controlarán dos motores. El piso de arriba es donde se podrá colocar los alimentos, o medicamentos que requiere el paciente, y también la cámara para el sistema de visión. Para energizar el robot se utilizó una batería de 12 V, 18AH, y se utilizaron dos reguladores de voltaje, FTVOGUE VCD-VCD de Alta Potencia. Uno configurado a 5 VCD, y el otro a 12 VCD, para poder alimentar a la minicomputadora, y los motores respectivamente. Para las pruebas de funcionamiento del robot repartidor, se creó un mundo virtual con el software Webots, en el cual se pueden crear mundos para simular robots. El mundo creado fue un hospital, para simular el recorrido del robot, para la entrega de alimentos a los pacientes. Una vez creado el mundo, se importó el modelo del robot, el cual será programado para que se desplace. El programa obtenido con Webots-Ros, será el mismo que se usará en el robot físico. Y para ello se requiere comunicar el programa del robot hecho en el lenguaje C++, con la interfaz eléctrica del Esp32, conectado a la minipc. Esto se hace mediante el uso de librerías de threads, las cuales permiten crear, e interconectar procesos.  


CONCLUSIONES

La inteligencia artificial es sin duda una tecnología que esta revolucionando al mundo y sin duda tiene que ser aprovechado al máximo, hay que estudiarla y trabajarla porque los avances que se han visto gracias a esta son sólo el principio de un nuevo mundo. En este proyecto de estancia del Programa Delfin, se trabajó en el diseño, programación, y construcción de un robot repartidor de comida, para ser usado en los hospitales. Pensamos que será de beneficio para los pacientes, y el personal médico, al facilitarles la tarea repetitiva del transporte de alimentos, y el poder tener registrado en base de datos, los platillos diseñados por el nutriólogo y entregados a los pacientes.
Gálvez González Andrea Montserrat, Universidad de Guadalajara
Asesor: Mg. José Alcides Ruiz Hernández, Universidad La Gran Colombia

EL BAHAREQUE CóMO SISTEMA CONSTRUCTIVO URBANO EN GUADALAJARA


EL BAHAREQUE CóMO SISTEMA CONSTRUCTIVO URBANO EN GUADALAJARA

Gálvez González Andrea Montserrat, Universidad de Guadalajara. Asesor: Mg. José Alcides Ruiz Hernández, Universidad La Gran Colombia



PLANTEAMIENTO DEL PROBLEMA

Existen otros métodos de construcción, no tan comunes, ya que fueron desplazadas por ideologías de pobreza. Existe un método constructivo que utiliza materiales amigables con este proceso, estos son el bambú y el barro, denominado como “Bahareque” con la posibilidad de reducir este efecto en la construcción. Durante las épocas de construcción de viviendas en los pueblos indígenas de América, el bahareque ha sido utilizado como uno de sus sistemas constructivos por su practicidad y fácil acceso. Se trata de una técnica que consiste en entretejer en serie cañas o palos con un acabado en barro, logrando así ser un sistema amigable con el ambiente, al no tener ningún proceso industrial o químico frena de cierta forma las emisiones de carbono a la atmosfera. La manera de construir actualmente está generando un daño a futuro por las grandes cantidades de CO2 que se generan. En algunas zonas de Colombia aun utilizan el bahareque como método constructivo, lo que hace que me cuestione si es posible la aplicación del bahareque cómo sistema constructivo urbano en Guadalajara.



METODOLOGÍA

Por cuestiones climatológicas, se tienen varias opciones de estados en México para la producción de bambú o guadua. Con el financiamiento de la Comisión Nacional Forestal (CONAFOR) se determinó que el estado de Colima es apto para la producción de dos espacies de Bambú, siendo este el estado más cercano a Jalisco. Dentro de Colima se pueden producir las especies de bambú Otatea acuminada y Guadua angustifolia, se estima que tiene en promedio 70 mil hectáreas factibles para el establecimiento de plantaciones de bambú. Colima no es el único productor, se tiene a Veracruz, Tabasco y a Puebla siendo este el que ocupa el primer lugar nacional con 2 mil 554 hectáreas de cultivos. Se creó el Congreso Mexicano del Bambú en Colima en 2022, gracias al Instituto Nacional de Investigaciones Forestales Agrícolas y Pecuarias (INIFAP) y el Colegio de Arquitectos de Colima A.C. quienes impulsaron este desarrollo rural y constructivo en México. Es este congreso se presentan ponentes magistrales nacionales e internacionales quienes comparten sus conocimientos y experiencias sobre los procesos del cultivo, además de dejar la visión de posibilidades con el bambú como material constructivo. Dentro de las charlas se encuentra la forma correcta del uso de bambú, se presentan las diferentes especies de esta planta, las formas adecuadas de un cultivo sostenible, descriptores ecológicos y características edafoclimaticas óptimas de algunos bambús nativos promisorios. Impulsando con ello la conservación y aprovechamiento de especies nativas de México. Actualmente se pueden encontrar edificaciones hechas con este sistema, hay un ejemplo no tan antiguo; se trata de un edificio comunitario ubicado en la Barranca de Huentitán en Guadalajara. Este proyecto fue desarrollado por los arquitectos del Colectivo BMA. Estas instalaciones se construyeron a partir de una estructura a base de hormigón, muros de bahareque y una celosía de carrizo entretejido. Se hace mención que gracias al clima es que se pudo hacer este tipo de edificación, cuenta con un emplazamiento privilegiado en lo alto de la barranca. El pabellón se extiende en dos alas de dormitorios con baños y servicios, esto para dar alojamiento a 20 personas y un área común de doble altura completamente abierta. “En su estructura el proyecto se desarrolla entre plataformas y pilares de concreto que interceptan la topografía, procurando el ingreso libre en cualquier punto de encuentro. Entre el sembrado de pilares se disponen marcos de madera modulares conformando los muros de bahareque con puertas y ventanas tejidas en palma”. La construcción de esta estructura se hizo entre mas de 100 voluntarios lo que logra esta interacción y apropiación de la obra por parte de la comunidad.


CONCLUSIONES

Existe la posibilidad de construcción con bahareque en México, en específico Guadalajara. Según la investigación realizada, en México existen antecedentes de construcción con estos materiales ya que desde la prehistoria se ha utilizado esta técnica, además que ya existen algunas construcciones actuales con este método, por lo que ya hay experiencia en el tema. La manera más viable para la utilización de bahareque es el utilizarlo solo para muros, es posible utilizar otro tipo de materiales como lo es el acero o el concreto en una mínima cantidad para asegurar el correcto funcionamiento y seguridad estructural, sin embargo, existe la posibilidad de crear amarres a estos muros de bahareque para que actúen en conjunto y no haya ningún riesgo en el momento de algún sismo. Según la investigación, todo indica que se deberá usar, al igual que en el eje cafetero, el bahareque encementado para lograr una mayor durabilidad en el material y cumpliendo con las normativas ya avaladas por el gobierno de México. Respecto a los materiales, México cuenta con un crecimiento en la producción de bambú bastante grande. Uno de los beneficios en Guadalajara es que se encuentra un productor bastante grande en muy poca distancia en este caso Colima. Según los datos, el bambú seguirá teniendo bastante apoyo en su producción dentro de México. Me parece importante que se de difusión a lo beneficioso que puede ser la utilización del bahareque en proyectos urbanos, ya que, es en donde se desarrollan la mayoría de las edificaciones, por lo tanto, hay mayor demanda de materiales demasiado contaminantes. Si existe una posibilidad de reducir la cantidad de utilización de concreto sería buena aprovecharla, además del buen impacto que genera esta planta en su propia existencia. En conclusión; si, es posible construir en Guadalajara con el sistema constructivo del bahareque, todo esto siguiendo las normativas determinadas por la región y el correcto uso del material.
Gálvez Padilla Natalia, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

ESTUDIO Y MONITOREO DE AEROGENERADOR CON CáMARA DE ALTA VELOCIDAD


ESTUDIO Y MONITOREO DE AEROGENERADOR CON CáMARA DE ALTA VELOCIDAD

Gálvez Padilla Natalia, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Se desarrolla el prototipo funcional de un mini aerogenerador, el cual cuenta con un sistema optimizado de generador eléctrico. El diseño cuenta con un eje principal rotatorio y un sistema de distribución de flujo que hace que el aire pase a través de el, de manera adecuada. Es necesario cuidar que todo el sistema mantenga un funcionamiento adecuado, para lo cual se hace un análisis mediante cámara de alta velocidad para verificar el desvío durante la rotación del mini aerogenerador, tratando de identificar desbalances dinámicos y estáticos durante su operación. También, el monitoreo nos permite comprobar el número de revoluciones por minuto.



METODOLOGÍA

Para el desarrollo del proyecto planteamos las siguientes actividades a realizar: 1. Etapa inicial, formulación y planteamiento del problema. Revisión del estado del arte y de la técnica. 2. Selección de diseño Estudio del diseño inicial y generación de propuestas de mejora. Selección de modelos de generadores eléctricos. Obtención de pruebas iniciales de la cámara de alta velocidad. 3. Construcción  Diseño en CAD  de todo el generador para simulaciones. Selección y adquisición de componentes para el generador eléctrico. 4. Pruebas y adecuaciones Capturas de imágenes a alta velocidad, determinación de desbalances y cálculos de velocidad. Implementación de las mejoras. 5. Análisis de resultados Realización de los resultados y optimización de pruebas.


CONCLUSIONES

En este proyecto se llevó a cabo el análisis de la estructura de un mini aerogenerador mediante imágenes a alta velocidad, este análisis se deriva de las mejoras que realizamos al mini generador para una futura implementación, además nos sirve de herramienta para el conteo y determinación de las revoluciones durante la operación del mini generador. Se tomaron en cuenta, además, factores adicionales para un análisis detallado, como un diseño adecuado de cada componente, los cálculos correspondientes, la selección de materiales y la implementación de estos.
Gamboa Cruz Mizuri, Universidad de Ciencias y Artes de Chiapas
Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua

ESTUDIO DE LA ROTURA DE LA PRESA CAYEHUACAN.


ESTUDIO DE LA ROTURA DE LA PRESA CAYEHUACAN.

Gamboa Cruz Mizuri, Universidad de Ciencias y Artes de Chiapas. Hernández García María del Carmen, Universidad de Ciencias y Artes de Chiapas. Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

para esta investigacion se realizo , el estudio de la presa cayehuacan , ubicada en , axochiapan morelos , cuyo objetivo principal es analizar mediante una simulacion hidraulica , la rotura de la presa , su comportamiento y los datos que pueda causar en caso de haber poblaciones. 



METODOLOGÍA

Este estudio se basa en la presa cayehuacan conociendo todos sus datos como es la ubicación geográfica de la presa y de terreno de estudio, en este caso nos enfocamos a lo que podría ser una posible falla (Rotura), la simulación la aremos con tres programas el primero es, DXF2XYZ es una herramienta fácil de usar que nos permite convertir archivos de Auto CAD (DXF y DWG) en este caso vamos a convertir un DXF a un TXT apoyándonos con el bloc de notas. Una vez que convertimos el archivo en TXT nos vamos apoyar con el programa (Qgis 3.30) donde vamos a crear dos polígonos, y con la ayuda del( CEM) descargado de la página de Conagua  vamos a crear el polígono de la presa y el polígono delimitando un área de terreno, también crearemos un ráster de cada polígono, para después hacer una unión, y creamos una malla, después de todo haciéndolo con herramientas de Qgis, una vez creado eso exportamos cada archivo que creamos guardándolo en una carpeta limpia, después nos dirigimos al tercer programa utilizado es el programa (iber) donde delimitaremos el rio , la presa , los poblados , con ello creando superficies , después guaramos el archivo y lo vamos a comprimir en formato zip, nos dirigimos a la página de VNE IMTA esto para obtener el número de escurrimiento del agua , después de obtener el número de escurrimiento del agua ,descargamos los datos que la pagina nos da una vez que insertamos el zip, después nos dirigimos de nuevo a el programa Qgis y insertamos los datos obtenidos de la pagina NVE IMTA , clasificamos y vemos la tabla de atributos, para corroborar que todo este en orden , creamos mapas de clasificación de  vegetación ,  NcondN y clasificación guarnamos , ahí mismo en Qgis trabajaremos con nuestro CEM , LOS POLIGONOS Y RASTER , añadiéndole rugosidad , guardamos el archivo y nos dirigimos a (iber) donde le pondremos valores a la presa y crearemos una nueva malla que englobe todo el área de trabajo, y crearemos un modelo , le meteremos valores , siguiente haremos la simulación de la posible rotura con la ayuda de (iber) insertando datos como tales la cota ,la brecha , name, namo , también insertamos el dato del tiempo y empezamos a calcular , nos tomara el tiempo de aproximadamente 36 horas en generar la simulación , después se creara los mapas de tirantes , obteniendo y dado por terminado la simulación de la rotura de la presa cayehuacan.  


CONCLUSIONES

En conclusión, llegamos a los resultados que la presa cayehucan se rompió en un tiempo determinado de 6 a 10 minutos, esto ah que las especificaciones de la presa son de materiales sueltos, la presa es clasificada como una presa mediana ah lo que la presa tendrá una rotura más rápida, arrasando y llevándose a la localidad de cayehuacan y a san antonio coayuca, que se encuentran ubicados cerca , causando daños materiales, pérdidas humanas, pérdidas económicas
Gamboa Lugo Margoth Marissa, Universidad Autónoma de Sinaloa
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

ELECTROOXIDACIÓN DE CONTAMINANTES EMERGENTES EN MEDIO ACUOSO, ACTIVADA CON GRAFENO DOPADO PARA ACOPLAR A PROCESOS DE GENERACIÓN DE OXIHIDRÓGENO


ELECTROOXIDACIÓN DE CONTAMINANTES EMERGENTES EN MEDIO ACUOSO, ACTIVADA CON GRAFENO DOPADO PARA ACOPLAR A PROCESOS DE GENERACIÓN DE OXIHIDRÓGENO

Gamboa Lugo Margoth Marissa, Universidad Autónoma de Sinaloa. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El acceso al agua limpia se ha convertido en un gran desafío para la sociedad, debido a que las industrias descargan una gran cantidad de contaminantes emergentes a los mantos acuíferos, lo que provoca efectos adversos en la salud de los seres vivos. Por otro lado, la creciente contaminación ambiental ha generado una crisis energética que impulsa la necesidad de desarrollar fuentes de energía limpias y renovables. Para solucionar estas problemáticas, es necesario buscar métodos que permitan la eliminación de los colorantes para que el agua sea apta para consumo humano, a su vez considerar que la energía del hidrógeno se presenta como una opción prometedora, ya que es una fuente de energía limpia que no produce emisiones de carbono.  La electrooxidación ha destacado por ser un método simple, de baja toxicidad y alta eficiencia en la degradación de contaminantes. Añadiendo que la división del agua impulsada por electricidad se considera una de las tecnologías más atractivas para la generación de hidrógeno. Entre los materiales usados para dopar electrodos el grafeno ha destacado como una buena opción.  Es por ello por lo que se está investigando su aplicación en esta área.



METODOLOGÍA

La metodología que se ha llevado en esta estancia de verano ha sido prácticamente cuantitativa, con prácticas en el laboratorio de química orgánica de la ENCB, obteniendo la degradación del azul de metileno y producción de hidrogeno mediante electrooxidación utilizando como electrodos de aluminio y acero dopados con grafeno y dióxido de titanio. Para obtener los electrodos dopados la metodología consistió en preparar placas de aluminio y acero inoxidable mediante un proceso que incluyó sumergirlas en ácido clorhídrico al 10% (para los electrodos de aluminio) y ácido acético al 10% (para los de acero inoxidable) durante 24 horas, realizar lavados con agua, jabón y acetona para limpiarlas, impregnar papel filtro en soluciones de óxido de grafeno y dióxido de titanio, enrollar las placas con los papeles filtro para distribuir uniformemente los materiales, calentarlas a 110°C durante 10 minutos para estabilizar la unión y, finalmente, dejarlas enfriar para lograr una fuerte adhesión de los materiales a las superficies de las placas de aluminio. De esta manera, se obtuvieron las placas de aluminio preparadas y listas para su uso. La eficiencia del sistema fue determinada mediante la degradación del contaminante emergente y la producción de hidrogeno. En primer lugar, se integraron dos mangueras, una destinada a la salida del hidrógeno y equipada con una válvula de retroceso en su extremo para garantizar la seguridad y el control del flujo de gas en el sistema, evitando retrocesos no deseados, y la otra diseñada para la toma de muestras. Luego, se montaron los soportes universales y se aseguraron las pinzas necesarias para sostener el bote y las mangueras mencionadas anteriormente. Los electrodos se conectaron a través de cables que, a su vez, se conectaron a la fuente de poder mediante caimanes. Una vez que se añadió el contaminante emergente al sistema, se inició la reacción encendiendo la fuente de poder. A su vez se realizó la toma de muestra correspondiente. Finalmente se midió el hidrogeno producido por el sistema en partes por millón (ppm) , así como el carbón orgánico total (COT) y la demanda química de oxígeno (DOQ) de las muestras correspondientes.


CONCLUSIONES

Se lograron obtener electrodos dopados exitosamente utilizando grafeno y dióxido de titanio. Además, se logró degradar el contaminante emergente, observándose una excelente degradación en el tiempo que se realizó la experimentación, e identificando las condiciones que funcionaron mejor.  
Gaona Jaramillo Isllaly Adamaris, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Ruth Jaramillo Molina, Instituto Tecnológico Superior de Tacámbaro

MODELO DE MERCADOTECNIA PARA FARMACIA TACAMBARO.


MODELO DE MERCADOTECNIA PARA FARMACIA TACAMBARO.

Gaona Jaramillo Isllaly Adamaris, Instituto Tecnológico Superior de Tacámbaro. Ramírez López René Omar, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Ruth Jaramillo Molina, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La evolución del marketing, aunque en sus primeras etapas fue lenta con el paso de los años y debido al constante cambio de comportamiento del consumidor han surgido diferentes tipos de marketing, por ejemplo, el sensorial, experiencial, neuromarketing, entre otros, todos ellos con la finalidad de buscar satisfacer las necesidades y/o deseos del cliente, así como identificar como siente, piensa y actúa. Por consiguiente, el mercado farmacéutico debe establecer entre sus tácticas online y offline de mercadotecnia, acciones que generen en el paciente-cliente sentirse conectado con la organización a través la confianza, empatía, seguridad y resolución de problemas, con ello se logra brindarle una experiencia positiva que permita mejorar la relación con los compradores. Por lo anterior, la Farmacia Hospital, ubicada en frente del Hospital María Zendejas, de la Ciudad de Tacámbaro, ha detectado que dentro de las características emocionales de los clientes se encuentran el estrés, preocupación, ansiedad, por ello entre sus acciones en el punto de venta se encuentran aplicar marketing sensorial a través de ofrecer una mejor imagen con la aplicación del merchandising, y la aplicación del marketing olfativo y auditivo.



METODOLOGÍA

El proyecto estuvo desarrollado en las siguientes etapas: Etapa de diagnóstico: mismo en el que se utilizaron las técnicas de la observación para detectar áreas de mejora en el merchandising y la entrevista con los dueños de la empresa y los trabajadores. Etapa de investigación documental Se realizó un análisis de fuentes secundarias. En ella se obtuvo información sobre el marketing sensorial, beneficios del uso de los audios superan los 100 Hz debido a que las ondas necesitan llegar al sistema nervioso de los consumidores para eliminar el exceso de cortisol en el cuerpo que puede tener la persona y a su vez prevenir el aumento de esta hormona que llega a ser tan peligrosa y perjudicial. Percepción de la implementación de plantas en la empresa y así como las ventajas del uso de las aromas. Por ello, considerando ventajas de las ondas Hertz, se diseñaron dos audios; el primero de ellos utiliza las ondas 432 y 538 Hz y tiene una duración de 2.12 minutos; el segundo contiene las ondas 432 y 852, con una duración de 2.59 minutos. Aromaterapia o marketing olfativo, en dónde se emplearon olores variados para la realización de las preguntas, los cuales son: 1) Florales (Lavanda con toques de canela) 2) Cítricos (limón – toronja) 3) Frutados (Mandarina – Menta) Diseño de la investigación: Se diseñó el cuestionario, que consta de 6 ITEM´S 3 para el análisis, obteniendo de esta manera, información sobre que siente, Imagina y piensa la persona al escuchar el audio u oler las fragancias; así mismo se aplicaron algunas estrategias de Neuromarketing, donde se busca que la tasa de respuesta sea menor a los 6 segundos, para ello se contó con un cronometro, así mismo se utilizaron grabaciones para identificar los tipos de emoción que presenta de acuerdo al análisis del lenguaje corporal. En esta etapa se aplicó el método de muestreo por conveniencia, debido a que la selección de las personas se hizo a juicio del investigador, la muestra utilizada fue del tipo finita dando como resultado la aplicación de 30 encuestas.


CONCLUSIONES

Apreciado ya todo lo anterior, tras una investigación a fondo de “Farmacias Hospital” y detectar los puntos débiles que poseen, se concluye que los resultados de la “Farmacias Hospital” no disponía de distintos elementos necesarios a pesar de ser una empresa ya consagrada. Es decir, es un negocio próspero y que ha tenido excelentes resultados en su trayectoria, más sin embargo si se trabajase más el área de cuidado al cliente, el entorno y el marketing de una mejor manera, hoy estaría sin dudas un escalón arriba de su competencia. Además, usando muestro estadístico nos dedicamos a aplicar encuestas a diversos ciudadanos en la ciudad de Tacámbaro para así poder apreciar su agrado hacía nuestras propuestas. Propuestas que además del uso de aromaterapia, fueron usados audios del tipo solfeggio. Frecuencias que fueron sampleadas y producidas para poder observar las reacciones de los encuestados, siendo mayormente positivas. Sampleando frecuencias de 428 HZ, 432 HZ, 528 HZ Y 852 HZ. Dejando así en claro que nuestras iniciativas eran las indicadas. Es por eso que resulta fundamental un buen trabajo de marketing para cualquier tipo de empresa.
Garay Rodríguez Andrés Santiago, Instituto Politécnico Nacional
Asesor: Esp. Carlos Alberto Bernal Beltran, Instituto Tecnológico de Ciudad Altamirano

DISEñO, SIMULACIóN Y PROTOTIPADO DE UN TENSIóMETRO DIGITAL IOT


DISEñO, SIMULACIóN Y PROTOTIPADO DE UN TENSIóMETRO DIGITAL IOT

Garay Rodríguez Andrés Santiago, Instituto Politécnico Nacional. Asesor: Esp. Carlos Alberto Bernal Beltran, Instituto Tecnológico de Ciudad Altamirano



PLANTEAMIENTO DEL PROBLEMA

Actualmente la humanidad sigue en búsqueda de respuestas y soluciones que permitan agilizar y optimizar los procedimientos de medición y monitoreo de la salud humana. La hipertensión es uno de los problemas más importantes actualmente, siendo uno de los responsables la mala alimentación que las personas pueden llegar a tener. A pesar de los avances en tecnología, la mayoría de los métodos tradicionales para la medición de la presión arterial involucran procesos manuales y registros en papel, lo que puede resultar en ineficiencias, errores y dificultades para el análisis de datos a largo plazo. Además, la limitación de la interacción en tiempo real entre pacientes y profesionales de la salud representa un obstáculo para un monitoreo efectivo y personalizado. Esta problemática se agrava en situaciones en las que se requiere el seguimiento constante de pacientes con afecciones crónicas o en entornos donde no se dispone de acceso rápido a especialistas médicos. Por lo tanto, surge la necesidad de una solución innovadora y tecnológica que permita la medición precisa y continua de la presión arterial, así como la comunicación efectiva entre pacientes y médicos, mejorando así la calidad de la atención médica y el bienestar general.



METODOLOGÍA

Este trabajo comenzó con una fase de investigación en la que se exploraron las tecnologías de Internet de las Cosas (IoT) y en paralelo se revisó la literatura médica relacionada con la medición de la presión arterial. Se llevaron a cabo comparaciones entre placas de desarrollo, eligiendo finalmente Arduino MKR WiFi 1010. La etapa de diseño implicó la planificación de las conexiones de hardware, el desarrollo de códigos en Arduino IDE y la creación de una interfaz en la plataforma IoT Cloud. El prototipado virtual permitió verificar la funcionalidad de la lectura de datos. A pesar de las limitaciones en la disponibilidad de hardware, se logró avanzar en la simulación y la conceptualización del código de Arduino. Además de los aspectos técnicos, se exploraron formas de otorgar un impacto social al proyecto. Inicialmente, se consideró su contribución directa al bienestar físico. Sin embargo, se amplió la visión para abarcar aplicaciones en campos como la educación y la psicología, buscando diferentes contextos y situaciones que pudieran afectar la salud arterial de las personas. En conjunto, este proyecto ha seguido una trayectoria sólida que abarca desde la investigación inicial y las decisiones de diseño hasta la exploración de aplicaciones sociales más amplias. Este proyecto busca asegurar un enfoque íntegro con un impacto multidisciplinario para el beneficio de todas las personas.


CONCLUSIONES

A medida que el proyecto avanza hacia el futuro, su potencial impacto en la mejora de la salud y el bienestar de las personas se vuelve cada vez más claro. Una de las perspectivas más emocionantes es su capacidad para beneficiar tanto a nivel comunitario como a nivel individual. El proyecto puede desplegarse en entornos comunitarios, donde se reúnen datos de múltiples individuos en una región determinada. Al hacerlo, se podrían descubrir patrones y tendencias en la salud que podrían estar relacionados con factores ambientales, sociales y culturales. Este enfoque comunitario podría revelar información valiosa sobre cómo los factores locales pueden influir en la salud general de las personas. Por ejemplo, se podría detectar una correlación entre la calidad del aire, la ubicación geográfica y ciertas afecciones de salud. Estos descubrimientos podrían tener un impacto directo en la formulación de políticas de salud pública y en la implementación de medidas preventivas específicas. Además, el proyecto podría integrarse con instituciones educativas, como escuelas y universidades, para abordar la salud desde una perspectiva biopsicosocial. Al analizar los datos recopilados en un entorno educativo, se podrían identificar patrones de salud relacionados con el estrés académico, los hábitos de sueño y otros factores emocionales y psicológicos. Esta información podría ser utilizada para mejorar los programas de bienestar estudiantil y promover la salud mental en el entorno educativo. A medida que el proyecto evoluciona, también existe la oportunidad de establecer colaboraciones con profesionales médicos y expertos en salud. Esto podría resultar en el desarrollo de algoritmos avanzados que permitan la detección temprana de condiciones médicas y la generación de alertas personalizadas para los usuarios. Por ejemplo, el dispositivo podría identificar patrones de presión arterial anormales y enviar notificaciones a los usuarios y sus médicos, lo que permitiría una intervención médica oportuna. En términos de la interfaz de usuario, el proyecto podría expandirse para incluir una plataforma en línea donde los usuarios puedan acceder a sus datos de salud, realizar un seguimiento de sus cambios a lo largo del tiempo y recibir recomendaciones personalizadas para mantener un estilo de vida saludable. Esto podría ser particularmente útil para personas con condiciones crónicas que requieren un monitoreo constante. En última instancia, el proyecto tiene el potencial de catalizar un cambio significativo en la forma en que abordamos la salud y el bienestar. Al aprovechar las capacidades de IoT y la recopilación de datos en tiempo real, podríamos estar en el umbral de una revolución en la atención médica personalizada y basada en datos. Al brindar a las personas la capacidad de tomar decisiones informadas y promover políticas de salud más efectivas, este proyecto podría contribuir a un futuro más saludable y consciente en términos de bienestar humano.
Garcia Abarca Frida Lizeth, Instituto Tecnológico Superior de Las Choapas
Asesor: M.C. Rosalía Daza Merino, Instituto Tecnológico Superior de Xalapa

SISTEMA MECÁNICO DE BOMBEO PARA ABASTECER AGUA


SISTEMA MECÁNICO DE BOMBEO PARA ABASTECER AGUA

Garcia Abarca Frida Lizeth, Instituto Tecnológico Superior de Las Choapas. Garcia Abarca Haana Mireya, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Rosalía Daza Merino, Instituto Tecnológico Superior de Xalapa



PLANTEAMIENTO DEL PROBLEMA

     La presente investigación se refiere al tema de SISTEMA MECÁNICO DE BOMBEO PARA ABASTECER AGUA, para tal fin se realizó el estudio de las condiciones del entorno y sus requerimientos de diseño, mejorar las condiciones de vida de la población. Además, este trabajo presenta diferentes mecanismos de bombeo, haciendo hincapié en la aparición e importancia de los diferentes tipos de función según la bomba.     Este estudio trata el tema de los sistemas de bombas mecánicas para el suministro de agua. El sistema se puede definir como un dispositivo que eleva o transporta agua desde un punto bajo a un punto alto, como agua superficial, agua subterránea o embalses. Este tipo de bomba se puede lanzar utilizando una variedad de fuentes de energía (mecánica, eléctrica, solar, eólica, animal). Existen diferentes tipos de mecanismo los cuales son: • Polea • Rueda • Deslizamiento • Manivela • Biela • Rodillo      En primer lugar, se realizó una investigación donde Colombia es uno de los países con mayores reservas en el mundo, pero la infraestructura y la variabilidad climática dificultan el acceso al agua en todas las regiones de su país, por lo que se realizó una Encuesta Nacional de Calidad de Vida del 2020, y se registraron nueve departamentos con un porcentaje de disponibilidad en el servicio de acueducto inferior al 60%. Teniendo en cuenta la información, se busca modificar y caracterizar una bomba de desplazamiento positivo reciprocante diferencial de acción manual, con el fin de evaluar su potencial implementación en la extracción de agua en Colombia. Reduciendo el costo del sistema de bombeo y su posibilidad de implementar en zonas donde no hay energía eléctrica.



METODOLOGÍA

     El Banco Mundial, Colombia es un país con mayor reserva de agua en el mundo. Según los mapas, la costa caribe y la región central son las zonas presentan mayor riesgo de desabastecimiento, por lo que se hace necesario estudiar e implementar soluciones tecnológicas y de ingeniería que aseguren el suministro de agua en estos territorios. Adicionalmente, las aguas subterráneas se encuentran más protegidas frente a la variabilidad y el cambio climático. Como si fuera poco, las reservas de agua subterránea poco profundas son más accesibles a las comunidades de bajos recursos dada la poca infraestructura necesaria para extraerla, para el caso particular de Colombia, las zonas de bajos recursos muchas veces coinciden con las zonas vulnerables al desabastecimiento de agua. Cabe resaltar que la acción manual reduce el costo del sistema de bombeo y abre la posibilidad de implementarlo en zonas sin acceso a la energía eléctrica. La bomba utilizada fue desarrollada originalmente por la Fundación Centro Experimental las Gaviotas. Se registra la teoría de las bombas de desplazamiento positivo, la metodología de toma de datos a diferentes valores de cabeza y distintas velocidades y los resultados obtenidos (Mundial, 2020)  


CONCLUSIONES

     Los resultados de esta investigación acerca del sistema mecánico de bombeo para abastecer agua, se realizaron varios estudios de las condiciones del entorno y sus requerimientos de diseño, con objetivo de mejorar las condiciones de vida para la población. Por lo que este trabajo presenta diferentes mecanismos de bombeo, haciendo hincapié en la aparición e importancia de los diferentes tipos de función según la bomba.        La bomba manual para usos domésticos presenta una baja contribución del peso de la columna de agua en la fuerza de accionamiento indica que sería factible construir un sistema de bombeo parecido, pero con mayor capacidad. Evidentemente se debe cuidar la buena lubricación de los elementos mecánicos si se quiere mantener la fuerza de accionamiento en un rango razonable. Las modificaciones realizadas al sello y la válvula flotante del pistón dieron como resultado eficiencias volumétricas altas, incluso para valores de cabeza dónde las pérdidas asociadas a la tubería juegan un papel importante.       Es principalmente útil para el suministro de agua en áreas con acceso limitado a recursos energéticos y económicos. Factores como el número de consumidores, la distancia de elevación y la calidad del agua deben ser considerados al seleccionar el tipo de bomba, ya que existen diferentes modelos de bombas que se pueden adaptar a situaciones específicas. Este tipo de bomba requiere un mantenimiento frecuente. Por lo tanto, es importante que la comunidad participe en todo el ciclo de creación de prototipos de un sistema de bombeo accionado por humanos. Tienen que adaptarse a su trasfondo cultural.
Garcia Abarca Haana Mireya, Instituto Tecnológico Superior de Las Choapas
Asesor: M.C. Rosalía Daza Merino, Instituto Tecnológico Superior de Xalapa

SISTEMA MECÁNICO DE BOMBEO PARA ABASTECER AGUA


SISTEMA MECÁNICO DE BOMBEO PARA ABASTECER AGUA

Garcia Abarca Frida Lizeth, Instituto Tecnológico Superior de Las Choapas. Garcia Abarca Haana Mireya, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Rosalía Daza Merino, Instituto Tecnológico Superior de Xalapa



PLANTEAMIENTO DEL PROBLEMA

     La presente investigación se refiere al tema de SISTEMA MECÁNICO DE BOMBEO PARA ABASTECER AGUA, para tal fin se realizó el estudio de las condiciones del entorno y sus requerimientos de diseño, mejorar las condiciones de vida de la población. Además, este trabajo presenta diferentes mecanismos de bombeo, haciendo hincapié en la aparición e importancia de los diferentes tipos de función según la bomba.     Este estudio trata el tema de los sistemas de bombas mecánicas para el suministro de agua. El sistema se puede definir como un dispositivo que eleva o transporta agua desde un punto bajo a un punto alto, como agua superficial, agua subterránea o embalses. Este tipo de bomba se puede lanzar utilizando una variedad de fuentes de energía (mecánica, eléctrica, solar, eólica, animal). Existen diferentes tipos de mecanismo los cuales son: • Polea • Rueda • Deslizamiento • Manivela • Biela • Rodillo      En primer lugar, se realizó una investigación donde Colombia es uno de los países con mayores reservas en el mundo, pero la infraestructura y la variabilidad climática dificultan el acceso al agua en todas las regiones de su país, por lo que se realizó una Encuesta Nacional de Calidad de Vida del 2020, y se registraron nueve departamentos con un porcentaje de disponibilidad en el servicio de acueducto inferior al 60%. Teniendo en cuenta la información, se busca modificar y caracterizar una bomba de desplazamiento positivo reciprocante diferencial de acción manual, con el fin de evaluar su potencial implementación en la extracción de agua en Colombia. Reduciendo el costo del sistema de bombeo y su posibilidad de implementar en zonas donde no hay energía eléctrica.



METODOLOGÍA

     El Banco Mundial, Colombia es un país con mayor reserva de agua en el mundo. Según los mapas, la costa caribe y la región central son las zonas presentan mayor riesgo de desabastecimiento, por lo que se hace necesario estudiar e implementar soluciones tecnológicas y de ingeniería que aseguren el suministro de agua en estos territorios. Adicionalmente, las aguas subterráneas se encuentran más protegidas frente a la variabilidad y el cambio climático. Como si fuera poco, las reservas de agua subterránea poco profundas son más accesibles a las comunidades de bajos recursos dada la poca infraestructura necesaria para extraerla, para el caso particular de Colombia, las zonas de bajos recursos muchas veces coinciden con las zonas vulnerables al desabastecimiento de agua. Cabe resaltar que la acción manual reduce el costo del sistema de bombeo y abre la posibilidad de implementarlo en zonas sin acceso a la energía eléctrica. La bomba utilizada fue desarrollada originalmente por la Fundación Centro Experimental las Gaviotas. Se registra la teoría de las bombas de desplazamiento positivo, la metodología de toma de datos a diferentes valores de cabeza y distintas velocidades y los resultados obtenidos (Mundial, 2020)  


CONCLUSIONES

     Los resultados de esta investigación acerca del sistema mecánico de bombeo para abastecer agua, se realizaron varios estudios de las condiciones del entorno y sus requerimientos de diseño, con objetivo de mejorar las condiciones de vida para la población. Por lo que este trabajo presenta diferentes mecanismos de bombeo, haciendo hincapié en la aparición e importancia de los diferentes tipos de función según la bomba.        La bomba manual para usos domésticos presenta una baja contribución del peso de la columna de agua en la fuerza de accionamiento indica que sería factible construir un sistema de bombeo parecido, pero con mayor capacidad. Evidentemente se debe cuidar la buena lubricación de los elementos mecánicos si se quiere mantener la fuerza de accionamiento en un rango razonable. Las modificaciones realizadas al sello y la válvula flotante del pistón dieron como resultado eficiencias volumétricas altas, incluso para valores de cabeza dónde las pérdidas asociadas a la tubería juegan un papel importante.       Es principalmente útil para el suministro de agua en áreas con acceso limitado a recursos energéticos y económicos. Factores como el número de consumidores, la distancia de elevación y la calidad del agua deben ser considerados al seleccionar el tipo de bomba, ya que existen diferentes modelos de bombas que se pueden adaptar a situaciones específicas. Este tipo de bomba requiere un mantenimiento frecuente. Por lo tanto, es importante que la comunidad participe en todo el ciclo de creación de prototipos de un sistema de bombeo accionado por humanos. Tienen que adaptarse a su trasfondo cultural.
Garcia Amelines Julian David, Universidad La Gran Colombia
Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México

ESTRATEGIAS BIOCLIMATICAS PARA LA EFICIENCIA ENERGETICA EN EL CLIMA TEMPLADO: UNA BATALLA FRENTE AL CAMBIO CLIMATICO


ESTRATEGIAS BIOCLIMATICAS PARA LA EFICIENCIA ENERGETICA EN EL CLIMA TEMPLADO: UNA BATALLA FRENTE AL CAMBIO CLIMATICO

Garcia Amelines Julian David, Universidad La Gran Colombia. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La amenaza que representa el cambio climático para la salud y el bienestar del planeta, requiere que la humanidad actúe con rapidez y cooperación. Estos cambios climáticos globales han provocado fenómenos radicales y cambios notorios en la temperatura media, con elevadas temperaturas representadas en fenómenos meteorológicos como sequias, incendios y la desaparición de miles de especies. Según la Organización de las Naciones Unidas (2021), la quema de combustibles fósiles genera emisiones de gases de efecto invernadero (GEI) que actúan como una manta que envuelve a la Tierra, atrapando el calor del sol y elevando las temperaturas. Una de las actividades globales que mayor impacto tiene sobre el medio ambiente es la construcción. Los efectos del cambio climático se ven reflejados por los edificios que consumen mucha energía. El proceso de construcción implica la liberación de gases de efecto invernadero y otros contaminantes que tienen un impacto negativo en el equilibrio climático, desde la extracción de materias primas hasta el uso de energía durante su construcción y posteriormente en la operabilidad de la edificación. Es necesario implementar prácticas y estrategias de construcción sostenible que reduzcan las emisiones de gases de efecto invernadero y promuevan la eficiencia energética. es fundamental adoptar tecnologías limpias, optimizar procesos y concienciar a la población sobre el problema por el que está pasando el medio ambiente.



METODOLOGÍA

Se recopiló información sobre diseño bioclimático de una variedad de autores con el fin de conocer y analizar la información climática, característica del clima templado y cómo ha sido su evolución frente al cambio climático. Esta investigación se apoyará en una variedad de puntos de vista. Definir diversas estrategias y recomendaciones bioclimáticas para el clima templado, a fin de poder atender las necesidades climáticas, para los escenarios 2030, 2050 y 2100 con condiciones RCP 2.6 y 8.5. Donde el RCP 2.6 representa un escenario de baja concentración de gases de efecto invernadero en la atmósfera y el RCP 8.5 que está considerado como un escenario de altas emisiones, con altas concentraciones atmosféricas de gases de efecto invernadero, como el dióxido de carbono (CO2), siendo el escenario más grave en el año 2100. Es por esto que se usa el software Climate Consultant para determinar las recomendaciones bioclimáticas para los escenarios, que ayuden a mejorar el confort climático en las edificaciones. Con esto se elabora una guía de estrategias bioclimáticas para tres climas como lo son cálido seco, cálido húmedo, y para el clima templado, el cual fue el caso de estudio, para el diseño y construcción de viviendas nuevas y la adaptación de las que ya están en zonas con este tipo de clima. Las estrategias se clasifican en 6 puntos los cuales son: captación solar, Ventilación, Control solar, Orientación y Sistema constructivo.


CONCLUSIONES

Durante el verano de investigación científica se adquirieron conocimientos y fundamentos teóricos sobre el diseño bioclimático y cómo este puede ayudarnos a resolver los grandes problemas, como lo son las consecuencias del cambio climático. También se conoció cómo ha ido cambiado el clima y cómo se comportaría en los años 2030, 2050 y 2100, observándose el peor de los casos, donde las altas temperaturas se mantendrían constantes y no habría vuelta atrás. Ahí es donde debe concentrarse nuestra profesión como diseñadores y constructores para tratar de aplicar las diferentes estrategias propuestas. Los métodos bioclimáticos pueden ser una herramienta eficaz para mitigar los efectos del cambio climático y reducir las emisiones de gases de efecto invernadero. los sistemas pasivos, como el uso de materiales, las formas apropiadas en el diseño de las edificaciones, el uso de vegetación para dar sombra y el uso de corrientes de aire para ventilación, han demostrado ser efectivas para reducir el uso de energía y las emisiones de gases. Como parte de la divulgación de nuestro trabajo final, se realizó un seminario internacional, llamado, Los Edificios en el Futuro, Estrategias Bioclimáticas y Resilientes ante el Cambio Climático. Donde se dictó una conferencia que lleva por nombre, estrategias bioclimáticas para la eficiencia energética en el clima templado: una batalla frente al cambio climático como resultado final de la estancia investigativa, brindando un resumen completo de los hallazgos, destacando las recomendaciones claves para su implementación. Con el conocimiento y los datos proporcionados por este estudio, se espera por medio de políticas públicas, se puedan tomar decisiones informadas y proactivas para enfrentar los desafíos que plantea el cambio climático. Es necesario adaptarse para lograr un futuro más sostenible y salvaguardar el medio ambiente para las generaciones futuras, es fundamental abordar la contaminación de la construcción, que contribuye significativamente al cambio climático, adoptando prácticas más amigables con el clima de manera que disminuya su impacto ambiental. Es una necesidad como humanidad tomar acciones para mitigar la contaminación que produce la construcción y disminuir su impacto en el cambio climático. Esto implica crear e implementar prácticas de construcción más respetuosas con el medio ambiente, promover el uso de materiales de construcción ecológicos e implementar tecnologías limpias para reducir las emisiones de gas. Ante el fenómeno del calentamiento global, la arquitectura, el diseño y la construcción deben jugar un papel importante. Los edificios deben planificarse y construirse para aumentar su resistencia a los efectos del cambio climático en todas las etapas de la vida, desde el diseño hasta la demolición.
Garcia Arreola Luis Mario, Instituto Tecnológico de Zitácuaro
Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan

OPTIMIZACIóN DE PROCESOS


OPTIMIZACIóN DE PROCESOS

Garcia Arreola Luis Mario, Instituto Tecnológico de Zitácuaro. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En la ciudad de Zitácuaro, Michoacán, se ha observado una problemática significativa relacionada con la mala distribución de clínicas de salud. Esta situación ha generado diversas dificultades para la población local en el acceso a servicios médicos adecuados, lo que afecta negativamente su bienestar y calidad de vida. La distribución inadecuada de las clínicas hace que algunos sectores de la ciudad estén alejados de los servicios médicos básicos. Esto obliga a los habitantes de esas zonas a realizar desplazamientos largos y costosos para recibir atención médica, lo que dificulta el acceso oportuno a los cuidados necesarios. Para abordar esta situación, es necesario implementar métodos y herramientas como el problema de cobertura de conjuntos (SCP) para de esta manera lograr una distribución más equitativa de las clínicas y satisfacer las necesidades crecientes de la comunidad.



METODOLOGÍA

Se realizó una investigación documental relacionada al tema de Problema de cobertura de conjuntos (SCP) que consiste en encontrar la manera más eficiente de cubrir un conjunto de elementos denominado "universo" con el menor número posible de conjuntos más pequeños denominados "subconjuntos" o "conjuntos de cobertura" para posteriormente identificar problemáticas dentro de la comunidad que podrían ser solucionadas con dicha metodología y seleccionar la más relevante a criterio personal para de esta manera poder realizar una propuesta de implementación en la comunidad. Esta investigación está enfocada en mejorar la distribución de clínicas de salud en la ciudad de Zitácuaro Michoacán. Ya establecido el problema con el que se iba a trabajar, se identificaron los datos necesarios para la búsqueda de alternativas de solución a dicho problema, por lo que se seccionó la ciudad en un total de 31 subconjuntos tomando en consideración la distribución geográfica de las colonias que conforman dicha ciudad, también se determinaron las restricciones del problema, es decir, las condiciones que limitan la forma en que se pueden cubrir los elementos con los conjuntos. Estas restricciones son fundamentales para definir el alcance y las características del problema y garantizar que las soluciones encontradas sean válidas y significativas. Después de realizar el grafico se determinó que el objetivo sería que los habitantes de la ciudad no tuvieran que trasladarse más de una sección a otra para recibir atención en una clínica de salud por lo que se buscaría encontrar la mejor solución para cubrir dicha necesidad minimizando el número de clínicas a construir en la mayor medida posible y realizarlo con el menor costo, esfuerzo, tiempo y recursos necesarios. Dicho planteamiento es representado de manera matemática de la siguiente forma: Min Cumpliendo las siguientes restricciones: X1+X2´+X3+X4+X5+X7 ≥ 1 X6+X10+X11+X12+X13+X19 ≥ 1 X16+X14+X15+X16+X17+X18+X20+X22+X21+X31 ≥ 1 X23+X25+X26+X27+X28+X29 ≥ 1 X8+X9+X24+X30 ≥ 1 Se formularon posibles modelos de solución para determinar cuál es el mejor modelo que permita obtener los resultados esperados y se seleccionó el correspondiente, de esta manera se concluye con la investigación de manera satisfactoria.


CONCLUSIONES

La estancia de investigación sobre el problema de cobertura de conjuntos ha sido muy enriquecedora ya que se logró adquirir conocimientos de esta área de la investigación de operaciones y ponerlos en práctica para el beneficio de la comunidad. Se determinó que para satisfacer las necesidades la población en lo que respecta a atención médica, se deben instaurar 4 clínicas u hospitales distribuidas en la ciudad de la siguiente manera: Las clínicas u hospitales deben ser instaurados en la sección número 3, 12, 17, 26 y 24. De esta manera los habitantes de la ciudad de Zitácuaro, Michoacán no tienen que trasladarse más de una sección para recibir atención médica.
Garcia Astorga Noel Armin, Instituto Tecnológico de Toluca
Asesor: Dr. Carlos Duarte Galván, Universidad Autónoma de Sinaloa

DISEñO DE INSTRUMENTACIóN ELECTRóNICA PARA CARACTERIZACIóN DE DETECTORES DE PARTíCULAS Y FOTOMULTIPLICADORES DE ESTADO SóLIDO


DISEñO DE INSTRUMENTACIóN ELECTRóNICA PARA CARACTERIZACIóN DE DETECTORES DE PARTíCULAS Y FOTOMULTIPLICADORES DE ESTADO SóLIDO

Garcia Astorga Noel Armin, Instituto Tecnológico de Toluca. Milán Tagle Diana Alejandra, Universidad Autónoma de Baja California. Asesor: Dr. Carlos Duarte Galván, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el LHC - también conocido como el Gran Colisionador de Hadrones- se buscan las respuestas a las preguntas fundamentales de la física. Uno de los experimentos que se han desarrollado para encontrar estas respuestas es el experimento ALICE (A Large Ion Collider Experiment), cuyo propósito es detectar iones pesados y estudiar la física de su interacción ante la exposición a densidades de energía extremas, alcanzando la formación de la fase de la materia nombrada como plasma quark-gluon. De esta forma se generan en un laboratorio las condiciones que se consideran similares a aquellas en las cuales se dió el Big Bang. Evidentemente, el proceso de recolección, análisis, muestreo, caracterización -y todo lo que una investigación conlleva- requiere del uso de instrumentación sofisticada que debe ser desarrollada a la par del surgimiento de los requerimientos del experimento.    El objetivo principal de la estancia fue el diseñar un setup experimental con instrumentación electrónica y detectores de radiación, esto con el propósito de replicar el muestreo realizado en el CERN, haciendo uso de parte de la infraestructura, la electrónica y el software que se han estado trabajando para funcionar cómo propuesta y que fueron testeados en el ALICE. La intención de la réplica es mejorar el rendimiento tanto de las herramientas de hardware y software cómo de los procesos que se llevan a cabo, esto a través del análisis de los resultados obtenidos. 



METODOLOGÍA

Como paso fundamental para cualquier trabajo en el que se vaya a hacer uso de herramientas con características y funciones particulares, fue necesario recurrir a la documentación existente acerca de las mismas, siendo altamente necesario el consultar las datasheets para evitar errores que podrían causar el daño parcial, total o permanente de alguno de los componentes. Hubo, entonces, que corroborar las unidades requeridas para su energización, su comunicación y de sus resultados, cuidando en todo momento la compatibilidad de las señales para poder ejecutar el resto de los procesos.   Ya que se conocen los conceptos y funcionamientos generales se comenzó con el montaje del set up. Para esto se utilizó un crate modular WIENER VME 6023, que es un bus de instrumentación nuclear que cuenta con las características de una alta velocidad y rendimiento, además de la capacidad de un procesamiento múltiple en el que se requiere del movimiento de datos a muy alta velocidad. Estos buses se utilizan generalmente en detectores que permiten el crear, diseñar y probar circuitos de forma rápida. El modelo 6023 permite el uso de hasta 21 tarjetas y proveé de una energización estándar de +5V and +/-12Vs a dichos módulos. Los datos adquiridos serán almacenados en un archivo de texto en formato ASCII y se procesarán utilizando el lenguaje de programación Python para así poder analizar el comportamiento del detector bajo estudio.   Una vez instalado el VME se le colocaron las tarjetas que se requieren para el procesamiento, movimiento y tratamiento de los datos obtenidos de los detectores de radiación, estos incluyen el arreglo de triggers -tubos fotomultiplicadores modelo R5946 de Hamamatsu- acoplados a la barra centelladora, y el detector de un metro de largo que se busca caracterizar. Este detector tiene embebida una fibra Kuraray Y-11 (200) para colectar la luz y enviarla a un fotomultiplicador de estado sólido SiPM Hamamatsu MPPC_S13360_3050PE, el cual realiza la detección de fotones mediante múltiples fotodiodos de avalancha, y posee una alta precisión en sus lecturas. Se hace uso de los tubos fotomultiplicadores (PMTs) como triggers para el muestreo de los datos, siendo estos colocados en el set up de forma paralela a los costados de la barra centelladora. En esta configuración, el fotomultiplicador sólo registra las instancias en las que un fotón atraviesa ambos PMTs y la barra centelladora.   Como se mencionó anteriormente, la configuración del set up podría dividirse en dos partes, siendo la primera el uso de los triggers como iniciadores del almacenamiento de datos. Para ello se utilizaron los PMTs, los cuales son detectores ultrasensibles a las ondas ultravioletas, a la luz visible y a ondas del espectro electromagnético cercanas al infrarrojo, para su adecuado uso fueron energizadas con un voltaje máximo de -2500V. Una vez se activa un PMT con la incidencia de la radiación cósmica, las señales recibidas en forma de voltaje viajarán hasta el módulo V925 (Fan In/Fan Out)  que es un discriminador que cuenta con un modo inversor y no inversor y un canal de discriminador, además de cuatro secciones de entrada/salida, tres de cuatro canales y uno de tres; su ancho de banda es de 120 MHz y tiene un voltaje máximo de entrada de ±1.6V.   Para esta parte será necesario utilizar dos PMTs a modo triggers, las señales recibidas serán multiplicadas por una ganancia de uno y se transportarán al módulo discriminador V814 de 16 entradas que arrojará señales de tipo ECL con duraciones de 20 ns para PMTs y 150 ns para SiPMs y amplitudes de decenas de milivoltios.   Para poder observar las señales captadas por los fotodetectores se utilizó un osciloscopio Teledyne Lecoy modelo HDO4104-LMS, el cual es capaz de manejar resoluciones de amplitud desde 2 ns por división, con una frecuencia de muestreo de 2.5 GHz.


CONCLUSIONES

En el transcurso de la estancia de verano se adquirieron diversos conocimientos teóricos del desarrollo de instrumentación electrónica para detectores de partículas. Para determinar la precisión y capacidad del setup experimental diseñado se realizaron múltiples mediciones a diferentes voltajes y con diferentes fuentes de alimentación. En múltiples de estas mediciones, realizadas con dos fuentes de alimentación distintas, se detectó una fuente de ruido desconocida en los pulsos del fotomultiplicador, lo cual habría distorsionado los datos adquiridos.
Garcia Caballero Jesus, Universidad Tecnológica de La Selva
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

DESARROLLO DE LA APLICACIÓN MÓVIL EDUSMART


DESARROLLO DE LA APLICACIÓN MÓVIL EDUSMART

Garcia Caballero Jesus, Universidad Tecnológica de La Selva. González Hernández Dilmar, Universidad Tecnológica de La Selva. Morales Ancheyta Cesar Adrian, Universidad Tecnológica de La Selva. Solorzano Roblero Octavio, Universidad Tecnológica de La Selva. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto aborda la problemática de la falta de recursos didácticos digitales que puedan ser consultado fuera de aula de clases por lo estudiantes, así como, la inserción de la gamificación como parte del proceso de enseñanza y aprendizaje en las escuelas, ya sean públicas como privadas, con un enfoque específico en la creación de una aplicación dirigida a ser adquirida por instituciones educativas. Si bien el público objetivo son las instituciones educativas del sector público y privado, nuestros principales usuarios serán los maestros y los alumnos. El propósito de la aplicación es proporcionar a los maestros una plataforma que les permita gestionar el contenido temático y crear exámenes de manera interactiva y lúdica. De esta manera, se busca fomentar un enfoque más dinámico y atractivo para la enseñanza, involucrando a los estudiantes de una forma más activa en el proceso de aprendizaje. Por otro lado, los alumnos serán beneficiados al poder consultar recursos didácticos a cualquier hora y lugar, además, resolver los exámenes en un entorno gamificado, lo que hará que el aprendizaje sea más entretenido y motivador.  



METODOLOGÍA

Para el desarrollo de la aplicación móvil, se basó en la metodología ágil llamada incremental, primeramente, se parte de un bosquejo que dentro de esta metodología se denomina como el primer incremento, se codifica este primer bosquejo y se manda a aprobación del cliente, siendo éste la primera versión de la aplicación; a partir de ésta, se desarrolla el siguiente incremento, donde se eliminan errores del incremento anterior y se agregan nuevas funcionalidades, iniciando nuevamente el ciclo de codificación y validación del cliente; el proceso finaliza cuando la aplicación está libre de errores y está validado por el cliente, teniendo así la versión final de la aplicación. (Domínguez-Gutú et al., 2022, Somerville 2011)


CONCLUSIONES

El proyecto de desarrollo de la aplicación ha avanzado de acuerdo con el plan de trabajo establecido. Hasta la semana 5, se han completado diversas actividades clave que nos han permitido sentar las bases para la creación de la aplicación móvil y web conectadas, enfocadas en la gestión de temas y subtemas, y la publicación de contenido. La metodología ágil adoptada para el desarrollo del software ha demostrado ser efectiva en la gestión de las iteraciones y la corrección continua de actividades, lo que ha facilitado un progreso constante y la identificación oportuna de posibles ajustes necesarios para alcanzar nuestros objetivos.   En cuanto al diseño de la aplicación, se han definido la gama de colores y la tipografía, lo que ayudará a proporcionar una identidad visual coherente en ambas plataformas. Además, se han creado mockups y wireframes para la aplicación móvil y aplicación web, lo que nos ha permitido visualizar la estructura y distribución de los elementos de manera más clara y eficiente. En el ámbito de la base de datos, después de investigar y evaluar diferentes gestores de bases de datos, se ha seleccionado uno que se ajusta adecuadamente a los requerimientos del proyecto.  Asimismo, se ha avanzado en el desarrollo de la API, lo que permitirá la conexión entre la aplicación móvil y la aplicación web. Además, hemos iniciado con el desarrollo del módulo de creación de temas y subtemas, así como la funcionalidad de publicación de contenido, que son componentes centrales de nuestra aplicación.  BIBLIOGRAFÍA. Domínguez-Gutú, J., Bonifaz-Solórzano, R., Trejo-Trejo, G. A., Constantino-González, F. E. & Gordillo-Espinoza, E. (2022). 4LG3BR4: Una aplicación móvil para el aprendizaje del Álgebra básica. Investigación Aplicada, Un Enfoque en la Tecnología, 7(13), 1-14. Sommerville, I. (2011). Ingeniería de Software (Novena ed.). Pearson Educación.
Garcia Cassellis Alexis, Instituto Tecnológico de Puebla
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

ESTUDIO MECANICO DEL CAPARAZON DEL GLIPTODONTE MEDIANTE SIMULACION DE ELEMNTO FINITO


ESTUDIO MECANICO DEL CAPARAZON DEL GLIPTODONTE MEDIANTE SIMULACION DE ELEMNTO FINITO

Garcia Cassellis Alexis, Instituto Tecnológico de Puebla. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el Pleistoceno vivió el Gliptodonte, el cual se reprodujo principalmente en América (desde el Norte al Sur), principalmente habitaron en zonas de matorral o con pastizales, lugares con vegetación acuática, bosques tropicales y de coníferas. En la República Mexicana se concentraron principalmente en los estados de San Luis Potosí, Puebla, Morelos, Tlaxcala y Estado de México. El Gliptodonte era un animal voluminoso con alrededor de una tonelada de peso, 2.7 metros de longitud y 1.3 m. de altura en la parte más alta de su carapacho(caparazón), el cual estaba compuesto por cientos de pequeños osteodérmos, (hexágonos óseos). Por lo que se pretende determinar las propiedades mecánicas del caparazón del Gliptodonte.



METODOLOGÍA

Se realizó la simulación mediante FEA, por medio de SolidWorks y el análisis de la información mediante tablas, gráficos y tablas dinamicas de Excel.


CONCLUSIONES

Se pudo observar que el estudio realizadó en la zona frontal dorsal es la que mayor fuerza requiere para poder alcanzar el esfuerzo mínimo para poder tener una deformación permanente. Por otro lado se pudo concluir a cual es la zona que menor fuerza requiere para poder alcanzar este esfuerzo que corresponde a la central lateral. Por otro lado se pudo observar que a pesar a pesar de tener un esfuerzo similar la deformación unitaria tiene variaciones destacables, por lo que se puede determinar que la zona que tiene una mayor deformación unitaria es la zona de central dorsal. Por otro lado  se puede apreciar que la que sufre una menor deformación unitaria es la zona de frontal lateral seguida por la zona frontal dorsal.
García Copado Miguel Ángel, Universidad de Guadalajara
Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla

CEMENTO POLIMéRICO


CEMENTO POLIMéRICO

García Copado Miguel Ángel, Universidad de Guadalajara. Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El concreto polimérico fue introducido en la década de 1950 para ser predecesora del concreto convencional (Portland). Gracias a sus excelentes propiedades mecánicas, rápida curación, resistencia a la abrasión y una excelente adhesión lo vuelven un candidato ideal para su uso extendido en las construcciones futuras. Este nuevo material es resultado de una mezcla entre un polímero (resina epóxica, poliuretano, metacrilato de metilo, resinas furánicas, etc.), y un agregado. Este último debe ser un material inerte, para ser añadido a la matriz polimérica: arena, grava, puzolana, polvo de cuarzo, entre otros. Las características mecánicas que obtiene el concreto polímero están fuertemente ligadas a la combinación de los materiales previamente mencionados. Cerca de la ciudad de Puebla, se encuentran depósitos naturales de un material silíceo llamado puzolana. Este es uno de los componentes principales del cemento Portland por dotarle de notables propiedades tales como mayor durabilidad, resistencia al agua de mar, incremento de impermeabilidad y aumento en la resistencia en la tracción. Sin embargo, se desea conocer la posibilidad de que este material sea el principal agregado en un nuevo cemento polimérico. Para ello, se ha decido emplear resina epóxica como matriz polimérica, por ser un polímero de alta resistencia mecánica. La resistencia a la compresión de este nuevo cemento polimérico se determinará por medio de una prueba de mecánica para ser contrastado con las propiedades del cemento convencional (Portland) y así aumentar la cadena de valor de la puzolana en el mercado actual. El polímero por emplear es un material termofraguable que se torna duro y no fusible bajo la acción de agentes acelerantes. Este agente es añadido, debido a que es una sustancia nucleofílica, esta puede atacar fácilmente el grupo oxirano que tiene el compuesto epoxi (altamente reactivo por la tensión de su anillo), convirtiéndolo en un polímero irreversible que poseerá una serie de características bien definidas, de las que antes carecía.



METODOLOGÍA

Con el fin de caracterizar al material, se planeó realizar 6 muestras; estas serían cubos de 125 cm3, cada uno variando su composición (resina epóxica y puzolana). Para ello, primero se realizaron los cálculos necesarios para determinar la cantidad necesaria de puzolana y de resina epóxica y verificar si se contaba con el material suficiente en el laboratorio. Se determinó que se necesitaban 197 gramos del polímero (98.5 gramos de resina epóxica y 98.5 gramos de agente de curado) y un total de 388.97 gramos de puzolana para todas las muestras. Después se procedió a moler manualmente con un martillo la puzolana, para poder obtener tamaños de partícula más reducido. Luego se tamizó el producto salido de la molienda en tamaños de malla #18 y #10, para después, ser almacenados en bolsas, cuidando de etiquetarlos correctamente. Antes de realizar las mezclas, fue necesaria untar vaselina al interior de los cubos para que este no se adhiera a sus paredes. Al tener todo lo necesario, se comenzó a mezclar los componentes para hacer las muestras; primero se pesó la cantidad necesaria de puzolana para la muestra en turno. Para añadir el polímero, del peso total de este, se añadió 50% de resina epóxica y 50% del agente de curado. Este proceso se repitió para cada una de las muestras de acuerdo con la composición deseada. Las mezclas tuvieron las siguientes composiciones del polímero y de puzolana respectivamente: 70/30, 50/50, 40/60, 35/65, 30/70, 20/80. Se mezclaron durante aproximadamente 10 minutos, cuidando que la mezcla estuviera homogénea. Después, se procedió a verter la mezcla dentro del cubo para luego ser fijado por ligas de hule para evitar cualquier movimiento. Se dejaron reposar por 3 días para luego desmoldar el cubo para conseguir un buen curado a temperatura ambiente. Cada una fue etiquetada de acorde a su composición. Por último, se caracterizó el material a partir de la prueba mecánica de compresión. Se sometió a esta prueba cada una de las muestras para determinar la presión que resisten y de esta manera redactar las conclusiones correspondientes.


CONCLUSIONES

Se observó que todas las muestras presentan el perfil de un material dúctil. Esto quiere decir que no registran una rotura abrupta o una cedencia notable del material. A lo largo de la prueba, el material fue adaptándose a la forma de la prensa a medida que aumentaba la fuerza en ella. Los resultados obtenidos de la presión que soportan cada una de las muestras es la siguiente:  Las muestras con las composiciones 70/30 y 50/50 no arrojaron ningún resultado fiable, ya que las gráficas muestran que resisten toda la fuerza que el equipo puede ejercer (100 kN), aunque el material se observó visiblemente deformado. La muestra 40/60, dio un resultado más concreto: resistiendo un total de 4.015 kN antes de ceder completamente. Al relacionarlo por unidad de área, la presión que soportó fue de 267.66 kPa. La muestra 35/65, resistió un total de 3.297 kN. En términos de presión soportó un total de 219.8 kPa. La muestra 30/70 resistió un total de 1.340 kN. En términos de presión soportó un total de 89.333 kPa. La muestra 20/80 resistió un total de 0.2325 kN. En términos de presión soportó un total de 15.5 kPa.   Si se compara con las propiedades mecánicas del cemento Portland que se registran en la literatura, estas oscilan entre 20 a 40 MPa, por lo que el cemento polimérico experimental se queda corto en cuanto a su rendimiento en las pruebas de compresión. En conclusión, el cemento polimérico que se desarrolló en este proyecto de investigación no es óptimo para su uso extendido en la construcción. Se podría abrir la posibilidad de buscar alternativas para este cemento polimérico en especial, tales como muebles o piezas de decoración. Si se llegara a concretar esta idea, se recomienda ampliamente utilizar la composición 40/60 de polímero y puzolana respectivamente, para la obtención de un material óptimo para el uso que se describió previamente.  
Garcia Cordero Cecilia, Instituto Tecnológico Superior de Tierra Blanca
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SISTEMA DE MONITOREO DE VARIABLE DEL CLIMA BASADO EN INTERNET DE LAS COSAS.


SISTEMA DE MONITOREO DE VARIABLE DEL CLIMA BASADO EN INTERNET DE LAS COSAS.

Garcia Cordero Cecilia, Instituto Tecnológico Superior de Tierra Blanca. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente la monitorización y recopilación de datos ambientales forma una parte de un papel fundamental en diversos momentos, desde el monitoreo, recopilación y análisis de datos que provienen de sensores físicos ambientales y de las  condiciones climáticas que son cruciales para las aplicaciones en la industria y la agricultura. Sin embargo, a pesar de disponibilidad de los datos, es esencial contar con sistemas de visualización y reportes en tiempo real que permitan a los usuarios obtener información procesada de manera clara y eficiente. En resumen, la carencia de una solución que permita la visualización en tiempo real análisis histórico y generación de informes a partir de datos recopilados por sensores físicos  limita la capacidad de los usuarios para obtener el máximo valor de la información obtenida, Por lo tanto, el presente proyecto busca aborda estos problemas al desarrollar una página web que proporcione una plataforma integral para la visualización de datos en tiempo real, analizar tendencias históricas y generar informes significativos, contribuyendo así a una toma de decisiones más informada y eficiente en diversas aplicaciones y sectores.



METODOLOGÍA

Para conseguir realizar la generación de un página web que muestre la información procesada y reportes gráficos a lo largo de tiempo usando materiales principalmente un sensor DHT22  que puede medir la temperatura y humedad al mismo tiempo y utilizaremos la Raspberry Pi Pico W para usar el protocolo de wifi para el enlazar el hardware con la página web, es fundamental seguir una metodología estructurada paso a paso de proceso que está siguiendo. A continuación, se presenta la metodología utilizada para la realización de este proyecto de la implementación de la página web.       1.Definir objetivo y hardware del proyecto. Establecer los objetivos y dirección que se le quiere dar al proyecto que son clave para realizar la página web, la información que quiere mostrar y la estructura la visualización gráfica. Selección y adquirir los componente necesarios (Raspberry Pi Pico W Y DHT22) y otros mas relevantes. 2.Configuración del Hardware. Realizar la investigación del hardware de los materiales que serán usados en el proyecto. Elaborar el esquemático de la conexión del hardware y el servidor siguiendo las especificaciones del fabricante y las recomendaciones de conexión. Asegurarse de los componentes estén correctamente conectados y verificar que la Raspberry Pi Pico W permita el acceso remoto. Realizar la simulación de la conexión con el programa de Wokwi (programa de simulación online) así poder realizar la simulación física del hardware. 3.Desarrollo del Software. Llevar acabo cursos de python e internet de las cosas(IOT) que serán necesarios para tener una mejor realización del proyecto. Instalar el entorno de desarrollo de Python en la Raspberry Pi Pico W. Realizar la programación del código en Python para la interacción con el sensor DHT22 y recopilación de datos de la temperatura y humedad de manera periódica. Definir el framework (ejemplos: Django, flask, fastAPI, etc.) web que se puede utilizar para mostrar la información procesada y diseñar la estructura básica del servidor. Debemos programar los módulos básicos del servidor (recepción de información del dispositivo o prototipo por medio del protocolo empleado) y como consiguiente investigar sobre librerías. 4.Realización de pruebas y posibles mejoras. Realizar el ensamblaje del software y hardware, revisión del funcionamiento del proyecto. Comprobación del funcionamiento del servidor y la capa de presentación. Verificar que las pruebas de los dispositivos con el servidos y la visualización gráfica. Realizar la corrección correspondiente en caso de encontrar problemas tanto el hardware y software o posibles errores en la configuración del servidor. Y documentar el código correspondiente de loslenguajes utilizados. Al seguir esta metodología, se lograra la vinculación efectiva del hardware (Raspberry Pi Pico W y el sensor DHT22) con el software (código de Python y aplicación web), lo que permitirá generar una página web que muestre información procesada de la humedad y temperatura en tiempo real de manera eficiente y visualizaciones graficas del proceso.


CONCLUSIONES

Durante la estancia de verano 2023 se nos proporcionaron cursos de Inteligencia Artificial, programación de Python e Internet de las Cosas.  Logre poner en práctica las técnicas adquiridas en mi proyecto asignado utilizando por primera vez códigos en Python y a su vez usando la Raspberry Pi Pico W. Sin embargo, aun el proyecto se encuentra en fase de prueba en la parte de la vinculación del software y el hardware para la página web. Aun no se ha puede crear la visualización de la gráfica en donde muestre en tiempo real los datos del sensor dht22 que es temperatura y humedad en la pagina web. Aunque si se realizado la definición del framework que fue el flask. Estoy agradecida por toda la experiencia que conseguí gracias el programa  delfín tanto del Instituto Nacional de Astrofísica, Óptica y Electrónica donde realice mi estancia por los eventos y actividades que nos brindaron como de mi investigador por el apoyo que nos dio durante todo el proceso.
García Cortez Claudia Itzel, Universidad Autónoma de Baja California
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

IMPACTO DE LOS MODIFICADORES EN LA DURABILIDAD Y LAS PROPIEDADES MECáNICAS DINáMICAS DE LOS ADOBES


IMPACTO DE LOS MODIFICADORES EN LA DURABILIDAD Y LAS PROPIEDADES MECáNICAS DINáMICAS DE LOS ADOBES

García Cortez Claudia Itzel, Universidad Autónoma de Baja California. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El adobe es un elemento de construcción que tiene propiedades muy importantes, una de sus propiedades es desde el punto de vista térmico ya que controla las temperaturas extremas, es aislante del sonido y conlleva a una revalorización de las técnicas de construcción ancestrales. Además, es un elemento sostenible, reversible, puede ser reciclado en cualquier momento, permite abaratar costos y no causa grandes pérdidas de energía en su fabricación. En México, el concreto es uno de los materiales de construcción más utilizados debido a su durabilidad y resistencia. El porcentaje de construcciones realizadas con concreto ha ido en aumento en las últimas décadas. De acuerdo con datos del Instituto Nacional de Estadística y Geografía (INEGI) en 2020, México cuenta con un total de 35,219,141 viviendas particulares habitadas, en donde aproximadamente el 92% están construidas con muros de concreto y solamente el 4% con adobe. Las viviendas o construcciones hechas a base de adobe se fueron extinguiendo debido a la creciente oferta de materiales y técnicas de construcción industrializados, lo cual ha hecho ver al adobe como insalubre y obsoleta. Es por eso, que se están realizando estudios experimentales con adiciones o modificadores a los materiales de adobe para cambiar estas condiciones obsoletas que se consideran en ellos y que tengan tanto una mejor resistencia como durabilidad y se empiecen a volver a emplear en las construcciones. Tomando en cuenta lo anterior, este estudio hace una revisión de literatura acerca de alternativas para mejorar las propiedades de los adobes y su posibilidad de implementación dentro de la industria de la construcción.



METODOLOGÍA

Se realizó una exhaustiva búsqueda de bibliografía sobre la influencia de los modificadores en las propiedades mecánicas de los adobes, centrándose en palabras clave como durabilidad, materiales de adobe, fuerza de compresión, adiciones, propiedades mecánicas; en donde la mayoría de las fuentes consultadas fueron artículos de tipo de estudio experimental. Se llevó a cabo una minuciosa revisión de un total de 20 referencias en la cual todas nos hablan sobre adiciones o procedimientos que se incorporan a los materiales de adobe para que de una manera u otra estas afecten o modifiquen de manera positiva las propiedades del adobe principalmente durabilidad, resistencia, entre otros. Dichas adiciones naturales como la cáscara de arroz, fibras naturales (trigo, cebada, aserrín), adiciones artificiales o con materiales reciclados como fibras de desechos de plástico, virutas, caucho, polvo reciclado de desechos de construcción, entre otros.


CONCLUSIONES

Entre los varios resultados obtenidos de las distintas fuentes revisadas lo más destacado a mencionar es ya que se ha comprobado en varios trabajos o investigaciones que los adobes reforzados con fibras vegetales de coco, palma aceitera, sisal o kenaf y con polímeros orgánicos reduce las grietas y mejora la durabilidad del adobe, de esta manera, podemos añadir a la lista anterior la cáscara de arroz ya que se presentaron resultados positivos al mostrar una mejora en la resistencia tanto a la flexión como a la compresión en el material. Se pudo notar que tanto fibras naturales y artificiales tuvieron un gran impacto y efecto positivo en el adobe en distintas propiedades, las que más se rescataron durante la revisión de la bibliografía fue la resistencia a la flexión y compresión, así como la cohesión del material analizado, ya que se conoce que el adobe es un material que absorbe mucho el agua, es por eso que uno de los principales objetivos de varias fuentes era el hacer el adobe menos absorbente, el cual en uno de los trabajos se logra hacer más impermeabilizante añadiendo aceite de cocina usado y aceite de ricino. Entre las cifras que más se vieron en los distintos trabajos respecto a la durabilidad y mejora de la resistencia de los adobes fueron de 10% hasta 93%, usando siempre de comparativa a muestras de adobes sin ningún tipo de adición, estas cifras demuestran grandes resultados ya que nos quiere decir que el adobe todavía es un material al cual se le puede sacar mucho provecho y seguir mejorando de muchas maneras para que deje de considerarse obsoleto. El adobe es un material muy maleable de trabajar, pudiendo decir que, experimentando con cualquier material, este siempre podrá tener algún beneficio en sus propiedades, por más mínimo que sea, es por eso por lo que, este es un material con muchos beneficios y que se puede trabajar de muchas maneras para que se pueda volver a retomar en los procesos de construcción, ya que se pudo comprobar que las adiciones de cualquier tipo ya sean naturales, artificiales, biopolímeros, procedimientos con láser, entre otros, impactaron de manera positiva tanto en la resistencia como en la durabilidad de los adobes.
García Cruz Brenda, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia

PRACTICA DE LA SOLDADURA SMAG Y GMAW


PRACTICA DE LA SOLDADURA SMAG Y GMAW

Ayala Pérez Rosa Elia, Instituto Tecnológico de Morelia. García Cruz Brenda, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernández Salinas Gerardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez González Aradei, Instituto Tecnológico de Morelia. Pérez Padilla Maria Mercedes, Instituto Tecnológico de Morelia. Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La soldadura es un proceso fundamental en la fabricación y construcción de estructuras de acero utilizadas en diversos sectores industriales, como la construcción, la industria automotriz, la fabricación de maquinaria pesada, entre otras. Dos de los métodos de soldadura más comunes y ampliamente utilizados son la Soldadura por Arco de Metal con Gas (GMAW) y la Soldadura por Arco de Metal Protegido (SMAW). El proceso de soldadura GMAW, también conocido como soldadura MIG (Metal Inert Gas), utiliza un arco eléctrico entre un electrodo continuo de alambre y la pieza de trabajo, mientras que un gas inerte protege la soldadura del contacto con el aire. Por otro lado, la soldadura SMAW, también conocida como soldadura con electrodo revestido o soldadura al arco, emplea un electrodo recubierto que proporciona el metal fundido y crea un gas protector. El objetivo de esta práctica fue proporcionar una evaluación comparativa exhaustiva entre la soldadura GMAW y la soldadura SMAW, basada en teoría y prácticas para determinar cuál de los dos métodos es más adecuado para aplicaciones específicas en la industria de la construcción y fabricación de estructuras de acero. Una vez practicado los dos tipos de soldadura, podremos tener claro las diferencias y similitudes entre GMAW y SMAW, se podrán tomar decisiones informadas para mejorar la calidad y eficiencia de las soldaduras en el futuro.



METODOLOGÍA

GMAW Para este tipo de soldadura se utiliza un alambre sólido (hilo-electrodo) , la composición química del alambre debe ser muy similar a la de la placa donde se va a soldar, una de las diferencias que se percataron con el SMAW es que en este se forma una pequeña escoria en el cordón, más sin embargo en el de GMAW no sucede esto, por el gas protector, el gas base que se utiliza es argón (Ar), y en este proceso se pueden agregar a parte de este gas otros diferentes, la principal función del gas de protección es servir de barrera para el aire atmosférico, y tener un acabado de cordón sin poros y sobre todo muy estético.  Este proceso consiste en una fuente de energía que tiene generalmente una salida de voltaje constante regulable entre 15 y 50 voltios, una torcha, el recipiente fuente de gas y el alimentador de alambre, la cual es usada en conjunto con un sistema alimentador de alambre con velocidad regulable, que va desde 1 a 20 metros por minuto. Ahora bien, funciona de la siguiente manera; Un generador proporciona una potencia eléctrica que crea un arco eléctrico entre el hilo-electrodo (metal de aporte) y la pieza que se va a soldar, provocando un calor de gran intensidad. Esto permite la fusión de las piezas metálicas que se van a unir y del metal de aporte. A parte, maneja tres diferentes modos de transferencia, cada uno trabaja con diferente presión y voltaje. Globular En esta transferencia el diámetro de las gotas aumenta siendo iguales o hasta mayores que el diámetro del alambre este tipo de transferencia ocurre en la zona de transición cuando los niveles de amperaje y voltaje se encuentran entre el punto de cortocircuito y spray ocasionando en la mayoría de los casos un alto nivel de inestabilidad no es utilizado en la mayoría de las aplicaciones, la fase globular se genera en una corriente entre 200 o 250 amperios   Corto Circuito Esta transferencia se genera cuando el alambre toca la placaahí se genera el cortocircuito y ahí se comienza a desprender el material, el corto circuito es el modo de transferencia que menor calor aporta presenta, se genera entre 150 y 200 amperios   Spray Esta transferencia se genera en altos niveles de amperaje, se utiliza principalmente en superficies horizontales y planas, al utilizar voltajes altos se obtienen cordones de soldadura gruesos, este proceso presenta un arco estable y libre de salpicaduras. SMAW La soldadura SMAW es un proceso en el cual la fusión del metal se produce debido al calor generado por un arco eléctrico que se crea entre el extremo de un electrodo y el metal base al que se va a unir. El material de aportación, es decir, el que se obtiene del cambio sólido a líquido del electrodo se da en forma de gotas pequeñas. Equipo El equipo necesario para realizar una soldadura SMAW consta de cinco elementos: Fuente de energía Pinza porta electrodos Electrodo revestido Conexión a masa Cables de soldeo Aplicaciones La SMAW es la soldadura por arco más utilizada debido a que es aplicable a una diversidad de materiales y a que es requerida en industrias de sectores diferentes. Acerca de los materiales, la SMAW es útil para unir aceros (al carbono, altamente inoxidables y de baja aleación), fundiciones y metales no férreos (aluminio, cobre, níquel y sus aleaciones).  La SMAW puede utilizarse con corriente alterna o continua. La elección de una u otra depende del electrodo elegido, de la fuente de corriente disponible y del material base. Sobre los sectores industriales, la soldadura por arco con electrodo revestido tiene aplicación en todos aquellos en los que se involucre la construcción de calderas, esferas de almacenamiento, gasoductos, oleoductos, puentes, recipientes a presión, refinerías y tanques.


CONCLUSIONES

GMAW. Después de haber empleado distinto parámetros operativos, mezclas de gases, técnicas  de soldeo y modos de transferencia de metal de aporte, se pudo corroborar la gran versatilidad del proceso para ser empleado en una gran gama de materiales y espesores.  Lo anterior permite generar un ahorro significativo  en tiempos de manufactura y por ende en costos de fabricación SMAW. Con el uso de distintos tipos de electrodo en distintas posiciones de soldeo, se pudo entender que la habilidad de soldar es crítica para la correcta ejecución del proceso y asegurar la sanidad de las uniones realizadas. A pesar de ser un proceso manual, de un relativo bajo rendimiento y que no es automatizable, es ampliamente usado porque, con soldadores certificados, permite realizar uniones en sitios de trabajo incomodos e  inhóspitos debido a la sencillez del equipo y consumibles empleados  
Garcia Cruz Edgardo, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Edwin Nadir Castrillo Osorio, Universidad Nacional Autónoma de Nicaragua, Managua

SISMOALERT: DESARROLLO DE UN PROTOTIPO PARA ESTIMACIóN DE MACROSISMICIDAD. APORTANDO A LA MICROZONIFICACIÓN SÍSMICA DE MANAGUA.


SISMOALERT: DESARROLLO DE UN PROTOTIPO PARA ESTIMACIóN DE MACROSISMICIDAD. APORTANDO A LA MICROZONIFICACIÓN SÍSMICA DE MANAGUA.

Aguilar Cruz Emmanuel, Instituto Tecnológico Superior de Huauchinango. Garcia Cruz Edgardo, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Edwin Nadir Castrillo Osorio, Universidad Nacional Autónoma de Nicaragua, Managua



PLANTEAMIENTO DEL PROBLEMA

Los sismos representan uno de los desastres naturales más devastadores y potencialmente mortales en muchas partes del mundo; la detección temprana y el monitoreo en tiempo real de las vibraciones sísmicas son fundamentales para tomar medidas preventivas y reducir los daños causados ​​por estos eventos, sin embargo, la mayoría de los dispositivos de detección y monitoreo disponibles en el mercado son costosos, lo que limita su accesibilidad y distribución en áreas propensas a sismo con recursos financieros limitados. El objetivo de esta investigación es contribuir a los avances del proyecto de microzonificación sísmica de Nicaragua apoyando con mediciones de vibración ambiental para posteriormente dar inicio con el desarrollo de un prototipo de dispositivo capaz de detectar, registrar y enviar datos de vibraciones sísmicas con buena resolución y estudio de precisión, a la vez que se busca reducir significativamente los costos de producción, logrando su implementación en zonas de alto riesgo sísmico.



METODOLOGÍA

Se trabajó con el acelerógrafo McSeis MT Neo y tres sismómetros de alta precisión para la adquisición de datos H/V, la cual fue de gran importancia en el avance para el desarrollo del dispositivo, ya que partiendo de este equipo de trabajo se tomaron las características y las necesidades que debía cumplir el diseño del prototipo, por otro lado, se determinó el uso del acelerómetro LIS3DH siendo este el sensor base para el desarrollo del dispositivo sensorial en 3D. Se procedió a la adquisición de datos sísmicos en 30 coordenadas específicas dentro de la ciudad de Managua donde se utilizó el acelerógrafo y los sismómetros en contacto directo con el suelo, siguiendo orientaciones especificadas para el sensor 1 (norte-sur), para el sensor 2 (este-oeste) y para el sensor 3 (sin dirección específica); los datos obtenidos se almacenaron en una unidad de memoria para su posterior análisis. Se llevó a cabo el procesamiento de los datos registrados para obtener la relación espectral entre las aceleraciones en las direcciones horizontal y vertical, en función de la frecuencia, se realizaron análisis comparativos para identificar las zonas de amplificación de ondas sísmicas dentro de la ciudad de Managua, enfocándonos en los resultados se comenzó con la elaboración del dispositivo de la siguiente manera: El desarrollo del dispositivo sensorial se inició mediante el uso de un software especializado en modelado 3D, donde se llevó a cabo el diseño del prototipo; se seleccionó el acelerómetro LIS3DH como el sensor base para capturar las vibraciones sísmicas, este sensor, ampliamente utilizado en el área de ingeniería sísmica, promete proporcionar mediciones confiables y de buena calidad, durante la fase de implementación, se trabajó en la programación del microcontrolador ESP32, el cual se encargará de adquirir y procesar las señales del acelerómetro, asegurando una interacción sin problemas entre ambos componentes, el diseño 3D y la elección del sensor base se llevaron a cabo con un enfoque en la optimización de costos. Para llevar a cabo la implementación del dispositivo sensorial, se procedió con la configuración meticulosa del entorno de desarrollo, en primer lugar, se configuró el software de programación y depuración específico para el microcontrolador ESP32 dentro del entorno de programación de Arduino IDE, garantizando una plataforma de desarrollo amigable y de fácil manejo, además, se realizaron las instalaciones necesarias de controladores y bibliotecas requeridas para establecer una interacción efectiva con el hardware del microcontrolador: al optimizar el entorno de desarrollo de esta manera, se busca facilitar el proceso de programación y depuración, lo que a su vez contribuye a alcanzar los objetivos de eficacia y asequibilidad del dispositivo sensorial para la detección y registro de vibraciones sísmicas en tiempo real. Para la implementación del dispositivo sensorial, se procedió con la programación inicial, dando como resultado el primer código de un programa que permite adquirir datos del sensor LIS3DH mediante el microcontrolador ESP32, el objetivo principal de este código es habilitar la capacidad del dispositivo para capturar y procesar las señales provenientes del acelerómetro de manera efectiva, durante esta etapa, se establecieron las instrucciones y comandos necesarios para que el microcontrolador interactuara con el sensor LIS3DH, garantizando una correcta lectura de las señales. La programación se enfocó en asegurar la confiabilidad de la adquisición de datos, permitiendo obtener información relevante y precisa sobre las vibraciones sísmicas registradas por el dispositivo, este paso inicial es fundamental para el desarrollo continuo del prototipo y se considera un paso importante en la búsqueda del dispositivo, contribuyendo así a la identificación temprana de zonas de alto riesgo sísmico y a la prevención de desastres naturales.


CONCLUSIONES

Participar en un proyecto innovador y relevante para la sociedad, como lo es el desarrollo de este dispositivo, nos ha brindado la satisfacción de contribuir con nuestros conocimientos en un campo de gran importancia para la seguridad y bienestar de la comunidad nicaragüense, sin embargo, al ser un proyecto con gran responsabilidad y al verse involucradas diferentes variables a considerar, se ha visto la manera de continuar con el proyecto para poder llevar a cabo la elaboración de dicho dispositivo. Cabe destacar el valioso apoyo y orientación recibidos durante toda la estancia, tanto del investigador Nadir Castrillo Osorio como de los demás miembros del equipo, su respaldo y retroalimentación fueron fundamentales para mejorar el desempeño y enriquecer la comprensión del tema del proyecto, esta colaboración nos ha permitido adquirir nuevas habilidades y competencias, reforzando nuestra formación académica y ampliando nuestra perspectiva profesional.
Garcia de la Cruz Monica Andrea, Universidad de Guadalajara
Asesor: M.C. Margarita Elizabeth Gómez Mayorga, Instituto Politécnico Nacional

¿QUé LENGUAJE USAR, VHDL O VERILOG?


¿QUé LENGUAJE USAR, VHDL O VERILOG?

Garcia de la Cruz Monica Andrea, Universidad de Guadalajara. Asesor: M.C. Margarita Elizabeth Gómez Mayorga, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el área de la electrónica la FPGA (Field-Programmable Gate Array, matriz de puertas programable sobre el terreno) es altamente conocida e implementada por sus múltiples funciones y aplicaciones, este componente lógico puede ser programado como compuertas lógicas (AND, OR, XOR, NOT) o funciones combinacionales más complejas como decodificadores o también puede programarse como simples funciones matemáticas, las cuales equivalen a sumadores, restadores, multiplicadores o divisores. Dentro de la industria existe una gran variedad de empresas que fabrican FPGA como son Xilinx, Altera & Intel, Lattice Semiconductor, Microchip entre otros. La programación de estos dispositivos es a través de lenguajes de descripción de hardware (HDL), regularmente son VHDL o Verilog. Muchas personas se preguntan ¿Cuál es más usado? o ¿Cuál es más recomendable aprender primero?, etc.



METODOLOGÍA

Verilog Verilog es utilizado en más de 20,000 empresas solamente en Estados Unidos, como es Apple, Northrop Grumman, Microchip Technology, NVIDIA, entre otros, (HGInsights, s.f.), es más popular de lo que se cree y no solamente en este país, sino que en el continente europeo tomando en cuenta Reino Unido tiene gran popularidad ya que dentro de sus ventajas se encuentra: Proyectos portátiles: puede generar un proyecto a base de elementos y luego transferirlo a otra base de elementos con una gran variedad de tecnologías. Descripción de sistemas concurrentes Lenguaje de flujo de datos: puede considerar simultáneamente cada instrucción para su ejecución. Proyectos multipropósito: tiene la capacidad de realizar cambios como parámetros, base de elementos, tamaño de memoria, composición de bloques, estructuras de conexión y capacidad. VHDL Este lenguaje va ganando terreno en el área de las telecomunicaciones, la industria de defensa y aéreo, a menudo se usa donde se requieren diseños complejos altamente optimizados y críticos para la seguridad, algunas de sus aplicaciones en las siguientes áreas serían: Aeroespacial y defensa: diseños complejos como aviación, navegación y sistemas de guía de misiles. Sistemas de comunicación: módems y equipos de red, transferencia de datos de alta velocidad, procesamiento de señales complejo y algoritmos de corrección de errores. Procesamiento de señales digitales (PSD): procesamiento de audio y video Electrónica automotriz: unidades de control de motor, sistemas de frenos antibloqueo y sistemas electrónicos de control de estabilidad, todos estos sistemas requieren alta confiabilidad y tolerancia a fallas A pesar de tener múltiples aplicaciones en diversas áreas este lenguaje también cuenta con un favoritismo en EU, Canadá, Nueva Zelanda, Australia, Suecia e incluso la India. Entre sus principales diferencias se encuentran las siguientes:  Verilog contiene una sintaxis más breve, concisa y precisa mientras VHDL es más extenso Verilog tiene gran similitud con el lenguaje C y VHDL no El año de introducción de Verilog es 1984 y el de VHDL es 1980 Verilog no cuenta con estructuras, apuntadores mientras que VHDL permite la descripción de un circuito a subcircuitos más sencillos.


CONCLUSIONES

A lo largo de la elaboración de este proyecto logré ver de cerca las diferencias entre estos dos lenguajes, VHDL y Verilog, entre ellas su complejidad en la sintaxis, es cierto que Verilog es mucha más sencilla su implementación al contar con conocimientos en lenguaje C aunque VHDL al momento de realizar el código contiene más reglas y una sintaxis un poca más elaborada al final es más fácil de leer y ver la función de cada línea de código. Si pudiéramos elegir cual lenguaje es mejor no podríamos definirlo porque depende en gran mayoría de la experiencia y conocimientos de la persona independientemente del país o lugar donde se esté implementando.
Garcia Escobar Fernando, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes

RECICLAJE DE TETRA PAK: MéTODOS INTENSIFICADOS EN LA OBTENCIóN DE INSUMOS PARA LA GENERACIóN DE BIOENERGéTICOS


RECICLAJE DE TETRA PAK: MéTODOS INTENSIFICADOS EN LA OBTENCIóN DE INSUMOS PARA LA GENERACIóN DE BIOENERGéTICOS

Garcia Escobar Fernando, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Para una sociedad en constante crecimiento, el aumento de residuos y el impacto ambiental que generan se han convertido en una preocupación apremiante. Entre los materiales de difícil reciclaje, el Tetra Pak representa un reto importante por su composición que integra cartón, polietileno y aluminio. Estos envases son muy utilizados para almacenar productos alimenticios y farmacéuticos, principalmente y se han convertido en elementos indispensables para la población. Aunque hay varios centros de reciclaje, los vertederos siguen siendo su disposición final. La acumulación masiva de Tetra Pak en vertederos no solo contribuye a la generación de residuos sólidos, sino que también representa un problema ambiental en términos de ocupación de espacio y emisiones de gases de efecto invernadero. Además, el proceso de reciclaje tradicional de estos envases es complicado dada la complejidad de separar todos sus componentes, lo que ha llevado a que solo una fracción de ellos sea efectivamente reciclada. Bajo este contexto, se propone utilizar el Tetra Pack para obtener productos de valor agregado. Para el presente trabajo se utilizó Tetra Pak carbonizado para la obtención de catalizadores básicos utilizados en reacciones de transesterificación de lípidos. Por lo tanto, reciclar el Tetra Pak por este método brinda una solución para la acumulación de envases y la producción óptima de biocombustibles, con el objetivo de reducir su impacto ambiental negativo y aprovechar su potencial como fuente valiosa de recursos.



METODOLOGÍA

Pre-tratamiento del Tetra Pak. El Tetra Pak se lavó para eliminar compuestos orgánicos remanentes y posteriormente se secó durante 24 h para eliminar completamente la humedad. El Tetra Pak limpio se sometió a una reducción de tamaño hasta obtener tamaño de partículas entre 0.5 y 1 mm. Tratamiento térmico. El Tetra Pak se pirolizó a 750 °C durante 2 h con un flujo de nitrógeno de 0.2 L/min. El carbonizado obtenido se separó del aluminio por diferencia de densidades y se lavó con agua desionizada a 100°C. Los lavados fueron continuos hasta obtener un pH constante en la solución acuosa. Modificación química. Se usaron soluciones de hidróxido de sodio y potasio 1 M para la modificación del carbonizado de Tetra Pak. Específicamente, se mezclaron 10 ml de las soluciones básicas y 0.5 g del carbonizado en baño maría a 40 °C durante 1 h. La solución se vertió en un plato de porcelana y se calentó a 100 °C en agitación. Cuando se evaporó el agua, el material se secó a 105 °C por 24 h o hasta obtener un peso constante. Activación térmica. El material modificado se sometió a un proceso térmico en ausencia de oxígeno a 650 °C durante 3 h para obtener el catalizador. El catalizador fue caracterizado mediante análisis DRX y FTIR para determinar su composición y estructura cristalina. Desempeño del catalizador. Se utilizaron 2 g de aceite de cártamo con 0.05 g de catalizador sintetizado en presencia de metanol (relación molar 1:6 respecto al aceite utilizado). Las condiciones de reacción fueron 60 °C durante 6 h con agitación constante. Transcurrido el tiempo de reacción, el catalizador se separó por centrifugación a 6000 rpm durante 10 min. La solución obtenida se colocó en una estufa a 105 °C para la evaporación del metanol que no reaccionó. Se obtuvieron dos fases: biodiesel (fase ligera) y glicerol (fase pesada). El biodiesel se analizó con cromatografía de gases utilizando heptadecanoato de metilo como estándar interno. El valor obtenido fue el rendimiento de los ésteres metílicos de ácidos grasos.


CONCLUSIONES

Con estudios preliminares, se ha demostrado que el reciclaje y la reutilización del Tetra Pak tendrán un impacto ambiental significativo al reducir la cantidad de desechos que llegan a los vertederos, lo que contribuye a la mitigación ambiental. Además, se obtuvieron catalizadores eficientes en la conversión de ésteres metílicos de ácidos grasos a partir de un aceite comercial. Lo anterior supone una ventaja para su implantación a escala industrial. Del mismo modo, se genera una economía circular al utilizar como materia prima los residuos sólidos municipales.
Garcia Espejo Ramon, Universidad de Guadalajara
Asesor: M.C. Johann Mejías Brito, Instituto Tecnológico de Colima

PROPUESTA DE DISEÑO CONCEPTUAL DE UN HUERTO HIDROPÓNICO URBANO


PROPUESTA DE DISEÑO CONCEPTUAL DE UN HUERTO HIDROPÓNICO URBANO

Garcia Espejo Ramon, Universidad de Guadalajara. Rodríguez Nuñez Catherine Astrid, Instituto Politécnico Nacional. Asesor: M.C. Johann Mejías Brito, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el interés por la hidroponía para la producción de cultivos se ha incrementado en gran medida, lo que ha provocado que se requiera de una mayor difusión y capacitación del usuario. Esta técnica se ha implementado con mucho éxito en países desarrollados en forma de huertos familiares implementada con tecnologías sencillas en zonas urbanas y suburbanas, mejorando así las condiciones de vida, el nivel de ingresos y la alimentación de los pobladores, sin que el espacio requerido sea una limitante para producir sus propios alimentos con reducido uso de agroquímicos y por lo tanto obtener productos de mejor calidad, constituyendo una alternativa viable en comunidades de bajos recursos. Por este motivo los involucrados en la agricultura han estado impulsando la hidroponía como técnica de producción de alimentos. En México se ha detectado la problemática de que no se cuenta con una metodología que agrupe los parámetros para desarrollar el diseño de un prototipo de huerto hidropónico urbano modular automatizado que permita controlar el crecimiento y cultivo de las plantas.



METODOLOGÍA

Para desarrollar esta propuesta de diseño, se emplea un método cualitativo, no experimental y descriptivo, que consta las siguientes fases:  Vigilancia tecnológica, apegado a lo que se establece en por la norma UNE 166006 de 2006, del prototipo de huerto hidropónico urbano modular con control de variables para determinar las características básicas y controlar la funcionalidad de la misma a través de la identificación de necesidades, fuentes y medios de acceso de información; búsqueda, tratamiento y validación; valoración de la información, resultados, medición y mejora. La etapa corresponde a una revisión bibliográfica sobre los cultivos, sistemas y dispositivos para su automatización, todo ello a través de fuentes formales, tales como tesis, artículos y patentes con el fin de actualizar conocimiento obtenido sobre los sistemas mecánico, eléctrico, electrónico y control inteligente, para así poder definir las características y posibles especificaciones técnicas del prototipo en conjunto. En la segunda fase correspondiente a la conceptualización del prototipo de huerto hidropónico urbano modular con control de variables para determinar las características básicas y controlar la funcionalidad de la misma automatizando el proceso. En esta fase se evaluaron las condiciones de los sistemas hidropónicos, así como las necesidades de información identificadas en la fase de Identificación de requerimientos de diseño de la propuesta. Posteriormente se procedió a definir la arquitectura del sistema La tercera fase comprende lo referente a la propuesta de diseño del prototipo, seleccionando los materiales y la tecnología necesaria para el desarrollo del diseño en correspondencia con las características y especificaciones definidas en las etapas anteriores.  


CONCLUSIONES

Durante el período del verano se favoreció la adquisición de conocimientos teóricos de agricultura a pequeña escala y las técnicas de hidroponía para el cultivo. Se realizó la vigilancia tecnológica que constituye una herramienta indispensable para la competitividad en las organizaciones, obteniéndose como resultado las características de los diferentes huertos urbanos que existen en la actualidad. La hidroponía se presenta como una alternativa para la producción de alimentos, pudiéndose implementar en el sector rural como el urbano, de acuerdo a los requerimientos de la comunidad impactada.  Se realiza la propuesta de diseño de un prototipo de huerto hidropónico con control de variables para determinar las características básicas y controlar los niveles de temperatura, iluminación y nutrientes disueltos en el agua de irrigación, para mejorar la calidad del cultivo.
García Espinoza Cecilia Janeth, Instituto Tecnológico de La Piedad
Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN


DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN

García Espinoza Cecilia Janeth, Instituto Tecnológico de La Piedad. Hernández Pérez Jorge Daniel, Instituto Tecnológico de La Piedad. Martínez Zárate Andres, Instituto Tecnológico de La Piedad. Ortiz Leon Jorge, Instituto Tecnológico de La Piedad. Rodriguez Martinez Ivette Jocelyn, Instituto Tecnológico de La Piedad. Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las heladerías ofrecen a sus clientes la opción de personalizar sus helados con diversas combinaciones de ingredientes, lo que resulta en una experiencia gastronómica más satisfactoria. Sin embargo, la gestión manual de las opciones disponibles puede llevar a errores en la facturación, tiempos de espera prolongados y una experiencia del cliente poco organizada. El desafío radica en la implementación de un sistema en la Heladeria WOW que permita a los clientes seleccionar y combinar de manera intuitiva los elementos que desean agregar a sus helados, incluyendo frutas, salsas y toppings, garantizando que el proceso sea rápido, preciso y eficiente



METODOLOGÍA

La metodología empleada para este tipo de proyecto fue necesaria una combinacion de cuantitativa para el desarrollo del sistema, como el análisis de los datos relacionados con la facturación y los pedidos y junto con cualitativa para el diseño de la interfaz de usuario y en la obtención de la retroalimentación de los usuarios, realizando entrevistas o encuestas a los clientes para comprender su experiencia y opinión sobre la usabilidad del sistema, la facilidad de personalización, y su satisfacción general con la opción de seleccionar diferentes ingredientes para sus helados.


CONCLUSIONES

De la presente investigación y el desarrollo del sistema de personalización de helados con registro y facturación ha sido un proceso enriquecedor y exitoso que ha permitido satisfacer las necesidades y preferencias de nuestros clientes de manera eficiente y personalizada. A través de la combinación de una metodología ágil que nos brindó flexibilidad y adaptabilidad, así como la utilización de enfoques cuantitativos y cualitativos en la investigación, logramos alcanzar los objetivos establecidos y brindar una experiencia única a nuestros usuarios.La implementación de una interfaz de usuario amigable y accesible ha permitido que nuestros clientes puedan seleccionar con facilidad los componentes de sus helados
Garcia Estrada Jose Armando, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Alejandro Arana Paredes, Instituto Tecnológico Superior de Los Ríos

ANáLISIS DEL LIDERAZGO ORGANIZACIONAL EN LAS PYMES DE BALANCáN, TABASCO. (LA INFLUENCIA DEL LIDERAZGO EN EL DESEMPEñO DEL CAPITAL HUMANO DE LAS MIPYMES)


ANáLISIS DEL LIDERAZGO ORGANIZACIONAL EN LAS PYMES DE BALANCáN, TABASCO. (LA INFLUENCIA DEL LIDERAZGO EN EL DESEMPEñO DEL CAPITAL HUMANO DE LAS MIPYMES)

Garcia Estrada Jose Armando, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Alejandro Arana Paredes, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

El articulo tuvo como objetivo, estudiar el papel que desempeña el liderazgo organizacional dentro de las MYPYMES del municipio de Balancán, Tabasco, con giro industrial y como este ejercer influencia en el desempeño de actividades del capital más valioso para las empresas, el capital humano. 



METODOLOGÍA

El proceso metodológico llevado a cabo, implico la elaboración de instrumentos de medición en forma de encuesta, con veinte reactivos enfocados en 4 sectores(Comunicacion, Motivacion, Lidezgo, Productividad) para así poder cuantificar los datos de determinada muestra de nuestra población y obtener nuestros resultados


CONCLUSIONES

Finalmente, y después de aplicar las técnicas a nuestro alcance, se llegó a la conclusión de que los lideres a cargo de las empresas del municipio de Balancán, en su mayoría generan un impacto positivo a sus trabajadores, simplemente necesitan prestar solo un poco más de atención a sus trabajadores, buscar la manera de impartir capacitaciones, planificar sus actividades, etc. De tal manera que todo lleve un orden sistemático y organizado en sus procesos. Y así poder lograr ese aumento en la productividad tan esperada.
García Gálvez Jesús, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua

PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.


PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.

Babilonia Meza Nohemi Esther, Fundación Universitaria Tecnológico Comfenalco. García Gálvez Jesús, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Muñoz Torres Eduardo Antonio, Instituto Tecnológico de Tepic. Nieto Mora Stefania, Institución Universitaria Colegio Mayor de Antioquia. Nieves Rivera Pablo Germán, Instituto Tecnológico de Tepic. Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La calidad del agua de las fuentes de abastecimiento se puede ver alterada por diversos factores, cuyo origen puede ser natural o antropogénico. La materia orgánica es uno de los contaminantes que puede encontrarse en los acuíferos por infiltración de aguas negras domésticas o industriales. El pozo de agua potable Tulyehualco, ubicado en la Ciudad de México, presenta un nivel significativo de materia orgánica medida como Demanda Química de Oxígeno (DQO). Debido a lo mencionado anteriormente, es importante buscar alternativas para el tratamiento del agua de dicha fuente de abastecimiento para disminuir la cantidad de materia orgánica presente dado que los métodos convencionales no logran cumplir con este objetivo. En este proyecto se llevó a cabo el método de foto-Fenton homogéneo, donde se implementó peróxido de hidrógeno y un agente oxidante que se obtuvo con hierro extraído de escoria de cobre en presencia de ácido cítrico para formar el complejo de citrato-hierro. Se buscó evaluar las mejores condiciones, por medio de un diseño experimental multifactorial, para lograr la disminución de la materia orgánica del pozo descrito anteriormente. Una vez formado el citrato de hierro y comenzada la reacción foto-Fenton, se liberan radicales hidroxilos (•OH) los cuales reaccionan con el agua problema para eliminar la materia orgánica.



METODOLOGÍA

Para la presente investigación se seleccionó el agua del pozo de Tulyehualco ubicado en la Ciudad de México la cual es distribuida para el consumo humano. Curva de calibración de peróxido de hidrógeno Se tomaron 3 mL de peróxido de hidrógeno al 30% y se aforó a 1 L con agua desionizada en un matraz volumétrico. A partir de esta solución madre se preparó una segunda solución madre en un volumen de medio litro y a una concentración de 250 mg/L. Las soluciones patrón se prepararon a partir de la segunda solución madre, tomando alícuotas de esta última y aforando a 100 mL con agua desionizada en matraces volumétricos. Se procedió a tomar 3 mL de cada uno de los patrones preparados y se depositaron en frascos viales. A cada frasco vial se le agregaron 300 µL de oxisulfato de titanio IV y se homogenizaron. Se realizó la lectura de absorbancia en el espectrofotómetro. La concentración de peróxido de hidrógeno se obtiene a partir de la siguiente ecuación: [H2O2] = (Fd•A)/0.0276 Donde [H2O2] es la concentración de peróxido de hidrógeno en mg•L-1, Fd es el factor de dilución, A es la absorbancia y 0.0276 es la pendiente de la relación de la absorbancia entre la concentración de peróxido de hidrógeno cuyas unidades son mg-1•L. Preparación del complejo citrato-hierro Para la reacción foto-Fenton se utilizó un complejo de citrato-hierro obtenido partir de ácido cítrico y escoria de cobre. Se prepararon 3 L de complejo citrato-hierro, por cada litro se pesó 38.428 g de ácido cítrico y 10 g de escoria de cobre. Se diluyeron los 38.428 g de ácido cítrico en 1000 mL de agua desionizada junto con la escoria de cobre en un vaso de precipitado de 2 L, el cual se cubrió completamente con papel aluminio para evitar una foto-degradación, finalmente so colocó con una agitación de 300 rpm. Montaje de los reactores Los reactores montados se dividen en 3 partes: base, tapa y lámpara. Para cada reactor se usó depósito rectangular de acrílico con dimensiones 9.8 cm x 53.4 cm x 2.9 cm acondicionado con un divisor para el control de flujo del agua. Esta base cuenta con orificios adaptados para que estén conectados para la recirculación de agua problema por medio de una manguera marca Máster Flex y una bomba peristáltica. Se utilizó una lámpara de 15 W (en cada reactor). Se cubrieron con papel aluminio y se introdujeron electrodos del potenciómetro para medir el pH y temperatura durante la operación. Reacción foto-Fenton Se realizó un diseño experimental factorial 2k (k=2 hierro y peróxido) para tratar el agua problema con concentraciones de hierro (13, 71.5, 130 mg/L) y peróxido (65, 357.5, 650 mg/L). Para la toma de muestras se extrajeron del reactor 5 mL cada hora para medir: hierro, peróxido y UV. Al finalizar el tiempo de operación (3-6 horas) se llevó a cabo la caracterización una caracterización completa del agua.


CONCLUSIONES

Al implementar condiciones de 130 mg/L de hierro y 65 mg/L de H2O2 se observó que, en los primeros 60 minutos se consume el 75 % y, entre 120 y 180 minutos hay un residual del orden de 3 mg/L, a los 240 minutos se observa un ligero incremento a 4.5 mg/L, mientras que el hierro permaneció disuelto durante las 4 horas de operación. En el ensayo con 130 mg/L de Fe y 650 mg/L de H2O2 a los 60 minutos se consumió el 60 % del peróxido y se llevó 4 horas para llegar a un residual en 0.5 mg/L, en este ensayo el hierro se también se encontraba disuelto durante el funcionamiento del reactor; caso contrario a lo que ocurría con concentraciones bajas de hierro (13 mg/L), en donde el hierro disuelto disminuía conforme transcurría el tiempo y, al finalizar, se formaba un precipitado de color rojizo característico de este mismo. Por otra parte, el complejo de citrato-hierro proporciona un aumento en el color verdadero. Siendo un aumento del 75 % en condiciones de 130 mg/L de hierro y 650 mg/L de peróxido, 46 % en condiciones de 71.5 mg/L de hierro y 357.5 mg/L de peróxido y un 16 % en condiciones de 13 mg/L de hierro y 65 mg/L de peróxido. Aumenta de manera proporcional al aumentar la dosis de hierro mediante el extracto de citrato de hierro. Se espera con esta investigación encontrar la mejor relación entre hierro y H2O2 para disminuir de manera eficiente la materia orgánica presente en el agua problema evitando la generación de subproductos que pudieran ser más contaminantes. El extracto utilizado como fuente de hierro para generar la reacción Fenton aporta color verdadero por lo que requiere un estudio más detallado para comprobar si este color es fácil de eliminar. Para de esta manera, definir si el extracto de escoria de cobre es apto para su uso en potabilización.    
Garcia Garcia Braulio Yosef, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

EXPEDICIóN EVEREST - UNA CAMINATA EN REALIDAD VIRTUAL PARA MEJORAR LA ESTABILIDAD POSTURáL EN ADULTOS MAYORES


EXPEDICIóN EVEREST - UNA CAMINATA EN REALIDAD VIRTUAL PARA MEJORAR LA ESTABILIDAD POSTURáL EN ADULTOS MAYORES

Aguilera Mora Jorge Alexandro, Instituto Tecnológico de Estudios Superiores de Zamora. Garcia Garcia Braulio Yosef, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Debido a la edad, los adultos mayores o de la tercera edad empiezan a tener un desgaste y alteración de su control postural, esto debido a muchos factores como puede ser su estilo de vida, su trabajo o accidentes que pudieron haber tenido. Esto genera que algunos de ellos puedan tener inestabilidad, llegando al punto de perder habilidades que antes se realizaban con mucha facilidad, como el movimiento de brazos, piernas o su equilibrio al momento de estar de pie, sentados o en otra posición. Estos casos ocurren en casi el 50% de los adultos que tienen problemas con el control postural y conlleva a buscar soluciones y crear nuevas formas de ayudarlos. La fisioterapia se enfoca en la prevención, tratamiento y rehabilitación de estas condiciones, lo que puede tener un impacto positivo en la calidad de vida de los adultos mayores, tiene muchos beneficios, tales como: mejora de la movilidad, reducción del dolor, fortalecimiento muscular, prevención de caídas, rehabilitación después de lesiones y cirugía, gestión de condiciones crónicas, estimulación cognitiva y bienestar emocional. Sabiendo todo esto, se buscan nuevas formas de poder ayudar a estas personas con la finalidad de que su proceso de rehabilitación y mejoramiento sea más ameno y en vez de ser algo pesado o tedioso, se pueda visualizar desde un punto de vista más agradable y se pensó en el uso de las nuevas tecnologías, como la realidad virtual, y en conjunto con PROBAUAM el objetivo es desarrollar un videojuego con múltiples escenarios donde el jugador realizará los diferentes ejercicios de fisioterapia.



METODOLOGÍA

Nuestro proyecto trató sobre la creación de un minijuego con el propósito de ayudar a los adultos de la tercera edad. Esto se hace en conjunto con las personas de PROBAUAM, ya que ellos nos brindan la información necesaria para saber qué ejercicios y cómo se deben realizar, mientras que nosotros nos encargamos de la realización de los videojuegos y de todo el aspecto técnico en general. Una vez que se los enviemos, ellos podrán utilizarlos y hacer pruebas para después implementarlos con los pacientes. La primera semana de la estancia se dedicó a hacer un pequeño curso de capacitación de programación con Unity cuyo fin fue el de crear un ‘Space Shooter’ en 3D a manera de nivelación y así todos tener un mejor entendimiento sobre el uso de esta herramienta de desarrollo. Al comienzo de la segunda semana aprendimos más sobre algunos aspectos del proyecto y también se nos explicó cuál sería el plan de trabajo a lo largo de todo el periodo, formado por dos secciones principales, la primera sección consistió en asignar un ejercicio de la lista de protocolos provistos por PROBAUAM con el cuál nuestro trabajo era realizar el diseño de un videojuego que debía implicar la realización del movimiento asignado como una mecánica para la jugabilidad. Además, era necesario que al comenzar con el diseño tuviéramos en cuenta que los usuarios son adultos mayores por lo que fue un reto pensar en una actividad que les fuera familiar pero al mismo tiempo el ambiente en el que se encontraran fuese interesante, llamativo y realmente los hiciera sentir que están jugando y que no pareciera que solo están realizando un ejercicio porque deben hacerlo. El ejercicio a implementar en RV consiste en estar de pie y realizar movimientos alternos de brazos hacia adelante y hacia atrás, en una posición similar a la de correr. Este ejercicio busca mejorar la estabilidad postural, la coordinación y el equilibrio. Realizar esta actividad mejora la estabilidad postural, el trabajo del componente axial, la estimulación del sistema vestibular y la coordinación y fluidez del movimiento. Posteriormente, surgió la idea de crear un minijuego que simula una carrera en la que el personaje va subiendo por una montaña de nieve, al comenzar el juego un muñeco de nieve te pide competir contra él en una carrera a la cima pues él desea llegar a la cima pero le parece muy aburrido solo caminar hasta allá, a lo cuál el jugador acepta y así comienza la carrera. En la segunda sección se comenzó con el desarrollo del videojuego, para lo cual utilizamos Unity con la versión del editor 2019.4.19f1, Microsoft Visual Studio 2022 y usamos el lenguaje de programación C#. Lo primero fue comenzar con la creación del terreno en el que se desarrolla toda la actividad y buscar algunos assets que pudiéramos emplear para generar el escenario y todo lo que se llegara a ocupar para el videojuego. Ya que se debía generar una montaña nevada, encontramos varios assets con elementos naturales como hierba, árboles con y sin nieve, rocas, etc. y también se decidió agregar una valla para delimitar con más exactitud el camino a seguir por el jugador. Para hacerlo más interesante se agregó tres puntos por los que se atravesaran algunos animales (cuyos assets y los de todos los elementos mencionados los descargamos de manera gratuita en la página de Assets Store de Unity) con el fin de que el jugador los evite cuando transite por dichos puntos y así evitar perder tiempo y poder llegar antes a la cima. La generación del terreno se hizo mediante las herramientas del terrain de Unity, que simulan el dibujado manual del relieve. Para avanzar, debe realizar el movimiento antes mencionado y por su propia cuenta el Player avanzará siguiendo una serie de puntos específicos a lo largo de todo el camino, si el usuario deja de hacer el movimiento el Player se detendrá lentamente, así, el Player podrá avanzar o detenerse según se necesite. Se consiguió hacer que avance usando dos donas ubicadas cerca del Player y dos rectángulos que siguen a los controles, al hacer el movimiento los colliders de los objetos detectan una colisión entre ellos y por medio de programación es como avanza el Player.


CONCLUSIONES

Durante este verano se logró adquirir conocimientos del desarrollo con la herramienta de creación de videojuegos de Unity y conocer más sobre el lenguaje de C#, eso logró avanzar en nuestra escena del videojuego hasta casi concluirla, faltando únicamente de agregar audios y mostrar cuando se haya ganado para de ahí poderlo implementar y juntar con los demás minijuegos.
García García Gilberto, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Bertha Alejandra Olmos Navarrete, Universidad Michoacana de San Nicolás de Hidalgo

EFECTO DE LA FUENTE SíSMICA EN LA CONFIABILIDAD ESTRUCTURAL DE PUENTES HISTóRICOS


EFECTO DE LA FUENTE SíSMICA EN LA CONFIABILIDAD ESTRUCTURAL DE PUENTES HISTóRICOS

García García Gilberto, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Bertha Alejandra Olmos Navarrete, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los edificios históricos son importantes para la humanidad ya que nos dan identidad, cultura y un patrimonio invaluable por lo que representan por sí mismos, por lo tanto es deseable que estos inmuebles sean evaluados estructuralmente en forma periódica con el objetivo de determinar la necesidad de realizar algunas intervenciones o mejoras para incrementar su resistencia y su periodo de vida útil, con base en las evaluaciones se desarrollan programas para su conservación y mantenimiento, de acuerdo a una priorización y los recursos disponibles, ya que existen un importante número de factores que impactan en su resistencia, siendo los terremotos uno de los factores naturales de mayor amenaza, el cual es impredecible, en el caso de ocurrencia, este puede ocasionar daños importantes, inclusive llevar al colapso de las estructuras en un periodo muy corto de tiempo. La ciudad de Morelia localizada en el estado de Michoacán, es una de las ciudades que cuenta con un número importante de monumentos y edificios históricos, la mayoría de estos fueron construidos durante los siglos XVI al XIX, por lo que "El centro histórico de Morelia" fue inscrito en la lista del patrimonio mundial de la UNESCO en diciembre de 1991. En la actualidad no existe una metodología totalmente definida para evaluar las fachadas de los edificios históricos, ya que en general existen condiciones muy diferentes tanto del suelo como en los procedimientos constructivos de los inmuebles existentes. Debido al importante rol que juega el patrimonio histórico en la ciudad de Morelia en el entorno cultural y económico de la ciudad, el proyecto que se presenta se enfoca en desarrollar una metodología congruente a los inmuebles que se tienen en la ciudad de Morelia, con la cual, se evaluará la vulnerabilidad sísmica de sus fachadas, posteriormente esta avaluación permitirá desarrollar programas para el adecuando mantenimiento y/o refuerzo acorde a las necesidades y viabilidad económica.



METODOLOGÍA

Inicialmente se hace una revisión bibliográfica de artículos relacionados con el tema, entre los cuales se encuentran estudios donde se ha determinado la vulnerabilidad sísmica de fachadas de edificios. En ellos se encuentra una metodología con base en la evaluación de un índice de vulnerabilidad, el cual se evalúa a partir de una suma ponderada de diversos parámetros relevantes en la resistencia de los componentes para determinar el grado de daño que se tiene presente en la fachada, donde se clasifica a cada uno de estos parámetros de acuerdo a cuatro categorías: A, B, C o D, que van de menor a mayor daño, respectivamente. Los parámetros considerados en cada trabajo dependen principalmente de la experiencia de los autores como función del tipo de construcción y la ciudad donde se están evaluando las fachadas. Una vez conocidas algunas de las metodologías se determinaron cual puede adaptarse a las condiciones de edificación de Morelia, posteriormente se adaptó la metodología y se propuso una ficha técnica de evaluación. Una vez establecida la ficha técnica de evaluación, en esta investigación se seleccionaron cuatro edificios localizados en el centro histórico de Morelia, Michoacán, para evaluar el índice de vulnerabilidad sísmica de sus fachadas. El índice de vulnerabilidad sísmica se define con base en 14 parámetros, los cuales se clasificaron en 5 grupos de acuerdo a sus similitudes, el peso (w) de cada parámetro se consideró con base en las propuestas encontradas en la bibliografía consultada, así como de la importancia que estos tienen en el nivel de daño presente y potencial a presentarse en la fachada. Finalmente se determina el índice de vulnerabilidad de las fachadas, el cual se normalizó para poder determinar el grado medio de daño que podrían presentar las fachadas de los edificios en estudio ante diferentes intensidades sísmicas que pueden presentarse en la ciudad de Morelia. El valor del grado medio de daño se encuentra en el intervalo de 1 (no hay daño) hasta 5 (colapso). Es importante resaltar, que el daño esperado es función de la ductilidad que puede desarrollar el sistema y de la intensidad del sismo.


CONCLUSIONES

Durante la estancia de investigación, fue posible definir la metodología para evaluar el índice de vulnerabilidad sísmica de fachadas, así como el estado de daño esperado en las fachadas, ambos como función de una demanda sísmica determinada mediante el parámetro conocido como intensidad sísmica, mediante la cual, se evaluaron 4 fachadas, los resultados indican que estas fachadas tienen un índice de vulnerabilidad bajo, donde el valor mínimo obtenido fue de 0 mientras que el máximo fue de 27.6, lo cual significa que estas fachadas son poco vulnerables a acciones sísmicas, es decir, estos edificios requieren de acciones mínimas de reparación. Para determinar el grado medio de daño esperado en estas fachadas ante diferentes escenarios sísmicos, se consideraron tres valores de intensidad sísmica: 6.85, correspondiente a la intensidad registrada en Morelia durante el terremoto ocurrido en junio de 1858 y que ocasionó importantes daños, además se consideraron intensidades con valor de 8, 9 y 10, en escala de Mercalli Modificada (MMI), intensidades que pueden presentarse en la ciudad de acuerdo a estudios de vulnerabilidad sísmica del sitio. En el caso de la intensidad igual a 6.85, se encontró que el grado medio de daño no presentaría daños, mientras que al considerar las intensidades mayores, se obtuvo que el valor medio de daño puede ir de moderado hasta colapso. Ya que la ciudad de Morelia cuenta con una gran cantidad de edificios históricos y el tiempo de la estancia de verano es muy corta, no fue posible evaluar a todos los edificios que tiene el centro histórico de Morelia, sin embargo, el trabajo desarrollado permitió plantear una metodología para evaluar las fachadas de los edificios considerados como patrimonio de la humanidad, la cual se implementó a 4 fachadas, demostrando su aplicabilidad y validez.
García González Gael Alexis, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Dr. Eddie Nahúm Armendáriz Mireles, Universidad Politécnica de Victoria

PROCESOS DE MANUFACTURA Y MATERIALES AVANZADOS


PROCESOS DE MANUFACTURA Y MATERIALES AVANZADOS

García González Gael Alexis, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. Eddie Nahúm Armendáriz Mireles, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

Biomimética y Técnicas de Diseño. Realizar diseños Bio-inspirados en la naturaleza, dando solución a propuestas de acción social o impacto medioambiental, o desarrollo tecnológico.  



METODOLOGÍA

La Biomimética es considerada como una herramienta de diseño inspirada en la naturaleza, al aplicar la técnica de diseño de productos parametrizada como la técnica Voronoi basada en los patrones de la naturaleza, resulta una técnica de diseño eficiente en el diseño de los diversos productos.  El diseño de las productos se desarrolla mediante el sofware de Rhinoceros en conjunto con Grasshopper. 


CONCLUSIONES

El diseño o rediseño de diferentes de productos aplicando la técnica de diseño Voronoi inspirada en aspectos de la naturaleza, resulta ser en el proceso de diseño una técnica viable y eficiente al obtener resultados en el diseño diversos productos, ya que aporta a dichos diseños mayor calidad, ergonomia y estatica favorable al diseño, aportando un impacto favorable medio ambiental en su fabricación de productos por el tipo de estructura de diseño y los materiales elaborados de dichos productos de los que serán fabricados dichos productos. 
Garcia Gutierrez Alisson Yaly, Universidad de Guadalajara
Asesor: Mg. Andy Rafael Dominguez Monterroza, Universidad Tecnológica De Bolívar

REDES COMERCIALES


REDES COMERCIALES

Garcia Gutierrez Alisson Yaly, Universidad de Guadalajara. Asesor: Mg. Andy Rafael Dominguez Monterroza, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Actualmente, en un mundo altamente globalizado, el mercado se establece como incierto, volátil y competitivo, en donde el objetivo es ampliar el tamaño del mercado y crear nuevos. así como  mejorar la eficiencia de los recursos mejorar la posición competitiva de la empresa  por lo que las empresas traen consigo la necesidad de analizar y comprender el comercio implementando metodologías. El trabajo consistió en realizar una revisión de literatura del uso y aplicaciones a la metodología de Ciencia de Redes aplicada al comercio internacional.  



METODOLOGÍA

Se implementó la siguiente metodología: 1- Establecimiento de los objetivos de investigación. 2- Busqueda en bases de datos sobre articulos publicados relacionados con Ciencia de Redes aplicada al comercio 3- Lectura y revisión de los artículos y trabajos 4- Resumen de la revisión que dimensione cómo se aborda  la metodologia en ciencia de redes y sus aplicacione en temas de comercio internacional   


CONCLUSIONES

Actualmente en el modelo en el que las empresas compiten y cooperan simultáneamente, permite a las empresas compartir recursos y conocimientos, mientras buscan mantener su ventaja competitiva. Esto puede resultar en mejoras de productos, servicios e innovaciones más rápidas.Además de otorgar mayor visibilidad y reputación, resiliencia, y reducción de riesgos. Las redes comerciales proporcionan un marco dentro del cual las empresas pueden colaborar y trabajar juntas hacia objetivos comunes. Estas redes pueden ayudar a las empresas a expandir su alcance, acceder a nuevos mercados, y mejorar la eficiencia operativa. Las redes comerciales traen consigo una serie de ventajas, como el acceso a nuevos mercados: Las redes comerciales pueden abrir puertas a nuevos mercados, los modelos de aprendizaje automático no son estáticos. Con el tiempo, pueden degradarse a medida que las condiciones cambian. Es importante reevaluar y reentrenar regularmente los modelos con datos más recientes para mantener su rendimiento. Además de añadir que tanto los hubs como las authorities ofrecen ventajas estratégicas significativas en una red. Las empresas que pueden posicionarse eficazmente como hubs o authorities pueden tener una gran influencia, aumentar su visibilidad y mejorar su posicionamiento competitivo. Presentación de hallazgos.  
García Herrera Edgar, Universidad de Guadalajara
Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima

CONTROL DE ROBOTS MóVILES POR VISIóN


CONTROL DE ROBOTS MóVILES POR VISIóN

García Herrera Edgar, Universidad de Guadalajara. Lopez Jimenez Luis Manuel, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Según la Organización Mundial de la Salud al 2020, más de 1,000 millones de personas viven en todo el mundo con algún tipo de discapacidad, aproximadamente el 15 % de la población mundial; de ellas, casi 190 millones tienen dificultades en su funcionamiento y requieren con frecuencia servicios de asistencia. En México hay 6,179,890 personas con algún tipo de discapacidad, lo que representa 4.9 % de la población total del país. Discapacidades como la cuadriplejia que es la pérdida extensa o completa de la función motora en las cuatro extremidades imposibilitan el manejo de dispositivos de asistencia para la persona afectada por lo que requieren de cuidados de un tercero ya sea al moverse de un lugar a otro o en aspectos variados de su vida personal. Durante el verano de investigación se buscó desarrollar un método de control robótico mediante el uso de visión por computadora que permita manejar un robot por medio del movimiento ocular del usuario, sin necesidad de manipular el dispositivo con alguna extremidad o ayuda externa.



METODOLOGÍA

Se utilizó un sistema de visión computacional conectado a una cámara Logitech C920 PRO HD WEBCAM para hacer detección de la posición de un robot omnidireccional. Lo anterior se realizó mediante el uso de la aplicación Color Tresholder que se encuentra en la plataforma de Matlab R2020b la cual trabaja con segmentación de color mediante el modelo HSV, se obtienen máscaras binarizadas detectando dos calcomanías de diferente color ubicadas una al frente y otra en la parte trasera del robot. Posteriormente se desarrolló un programa en Matlab el cual  ejecuta un análisis de blob para obtener el centroide de las marcas de color en el robot obtenidas previamente y de esta manera poder calcular la posición del robot en tiempo real haciendo uso de transformaciones matriciales para convertir la información recopilada en pixeles a una en escala 1:1 en centímetros y de la misma manera calcular el ángulo aplicando funciones trigonométricas para encontrar la tangente inversa de la pendiente entre las marcas de color. A continuación, al programa se le añadió un controlador de lazo cerrado que utiliza como retroalimentación la información obtenida por el sistema de visión, calculando la diferencia (error) de la posición del robot en tiempo real con la posición deseada. Fue implementada una ganancia que actúa sobre una función hiperbólica aplicada a una fracción del error para calcular las velocidades necesarias en los ejes x y. Estas velocidades son ingresadas en una matriz en el programa que toma en cuenta el ángulo calculado en tiempo real y el ángulo en el que se desea que el robot llegue a su destino para hacer correcciones en las velocidades en x, y y angular para mandar esta información a una nueva matriz de control que calcula la velocidad de cada llanta para poder realizar las trayectorias omnidireccionales del robot. Una vez que el controlador realiza todos los cálculos necesarios para obtener la velocidad necesaria en cada llanta y llegar a la coordenada destino, la información es enviada vía Wifi mediante protocolos MQTT a un servidor del bróker Mosquitto al cual el programa de Matlab se conecta para publicar con la librería MQTT in MATLAB y el robot se suscribe utilizando una tarjeta ESP32 para recibir dicha información de manera inalámbrica. La tarjeta ESP32 a través de la comunicación serial manda la información recibida a una tarjeta Arduino UNO, la cual manda dichos valores que van en un rango de 0 a 255 a los puentes h, que utilizando el ancho de pulso (PWM) controla el voltaje que llega a los motores y de esta manera, su velocidad y dirección.


CONCLUSIONES

En este verano de investigación se consiguió un gran progreso en el desarrollo del controlador para el robot omnidireccional, es capaz de llegar de una manera autónoma a diferentes coordenadas independientemente de su punto de salida o ángulo inicial, sin embargo, aún es necesario mejorar el algoritmo para obtener resultados más exactos y rápidos. El proyecto queda abierto para seguir desarrollando la parte de Eye tracking y de esta manera poder completar los objetivos iniciales de manera satisfactoria.
Garcia Jeronimo Oliver Joacim, Universidad Politécnica de Victoria
Asesor: Dr. Alejandro Garces Garces, Universidad Tecnológica de Pereira

OPTIMIZATION AND DYNAMICS OF NETWORK SYSTEMS.


OPTIMIZATION AND DYNAMICS OF NETWORK SYSTEMS.

Garcia Jeronimo Oliver Joacim, Universidad Politécnica de Victoria. Asesor: Dr. Alejandro Garces Garces, Universidad Tecnológica de Pereira



PLANTEAMIENTO DEL PROBLEMA

El proyecto ODINS (Optimization and Dynamics of Network Systems) busca modelos matemáticos de optimización para la operación y el control de sistemas eléctricos con alta penetración de fuentes renovables de energía. Desarrollar modelos computacionales en Python el cual es un lenguaje de programación ampliamente utilizado en las aplicaciones web, el desarrollo de software, la ciencia de datos y el machine learning. Dicho modelo se clasificara en dos tipos: modelo de optimización y modelo dinámico.



METODOLOGÍA

Se desarrollarán modelos computacionales en Python el cual es un lenguaje de programación ampliamente utilizado en las aplicaciones web, el desarrollo de software, la ciencia de datos y el machine learning. Dicho modelo se clasifica en dos tipos: modelo de optimización y modelo dinámico. Los modelos de optimización son aquellos en donde se minimiza una función objetivo, sujetos a una serie de restricciones, las cuales se pueden resolver con métodos similares a los multiplicadores de Lagrange. Los modelos dinámicos son un conjunto de ecuaciones diferenciales sobre los que se hace un análisis de estabilidad, usando, por ejemplo, los valores propios del modelo lineal. Debido al número elevado de variables, debemos utilizar programas de computador para representar y solucionar, numéricamente, estos modelos. La investigación consiste en cuatro etapas: 1. Establecer el problema real. 2. Convertir el problema en un modelo matemático. 3.Implementar el modelo matemático en un lenguaje de programación. 4. Analizar los resultados en el contexto del problema original.


CONCLUSIONES

El proyecto ODINS (Optimization and Dynamics of Network Systems) busca modelos matemáticos de optimización para la operación y el control de sistemas eléctricos con alta penetración de fuentes renovables de energía. Por medio del control de sistemas eléctricos reducir la necesidad de interacción humana, lo que ayudara a eliminar los simples errores humanos. Y como se controlan con un mayor grado de precisión, se puede conseguir una calidad de producción más constante y mejorada. De igual manera el tener alta penetración de fuentes renovables de energía tiene beneficios ambientales como la reducción en la emisión de gases de efecto invernadero y mejora en la calidad del aire en las zonas urbanas haciendo prácticamente nula dicha emisión de gases de efecto invernadero y otros contaminantes que contribuyen al cambio climático.
García Limón Jesús Alfredo, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato

MEJORAS A DISPOSITIVO DE INTERNET DE LAS COSAS E IMPLEMENTACIóN EN SECTOR PRODUCTIVO


MEJORAS A DISPOSITIVO DE INTERNET DE LAS COSAS E IMPLEMENTACIóN EN SECTOR PRODUCTIVO

García Limón Jesús Alfredo, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El consumo de energía es uno de los problemas más graves con los que lidiamos en la actualidad. El exceso en el gasto de energía no sólo nos trae problemas en lo económico sino también en el medio ambiente debido a que generar energía eléctrica es uno de los principales emisores de dióxido de carbono. Medir la energía que se consume es importante debido a que nos damos cuenta de lo poco o mucho que gastamos. El monitoreo de variables siempre ha sido utilizado en favor de tomar buenas decisiones, medir el consumo de energía eléctrica nos debería de llevar a tomar buenas decisiones en cuanto a lo económico, pero sobre todo en lo ambiental.



METODOLOGÍA

La metodología utilizada en la estancia de investigación incluyó las siguientes actividades: Investigación documental: Se realizó una revisión a la literatura sobre el monitoreo de variables, así como las nuevas tendencias en cuanto a tecnología, se revisaron temas como Internet de las Cosas, Ciberseguridad, Ciencia de Datos e Internet de las Cosas. Así como también fue importante conocer a detalle el dispositivo ya desarrollado por el departamento donde se desarrolló la estancia. Desarrollo de Mejoras en la seguridad del dispositivo: Se encontraron vulnerabilidades en el diseño del dispositivo, mismas que podrían afectar en el funcionamiento, se buscaron principalmente vulnerabilidades relacionadas con los datos, ya que era lo más importante para nuestra investigación. Implementación del dispositivo: Se llevó a cabo la instalación y configuración del dispositivo de monitoreo en un dispensador de agua, asegurando la comunicación efectiva y la precisión de las mediciones, todo esto en un sector productivo, para poder así evaluar la viabilidad del producto desarrollado. Identificación de áreas de oportunidad: Se realizó un análisis detallado del consumo de energía del dispensador de agua, identificando posibles áreas de mejora para reducir el consumo y optimizar el rendimiento. Evaluación de seguridad: Se llevaron a cabo pruebas de seguridad para detectar posibles vulnerabilidades en el dispositivo de monitoreo y se implementaron medidas de protección. Visualización de datos: Se desarrolló una interfaz de visualización para presentar los datos de consumo de energía de manera clara y comprensible.


CONCLUSIONES

La estancia de investigación con el Dr. Juan Pablo Serrano Rubio en el Verano Delfin permitió alcanzar resultados significativos. Se logró implementar con éxito el dispositivo monitor de energía eléctrica en un sector productivo, lo que proporcionó una visión general del estado de desarrollo en el que se encuentra el dispositivo. El análisis de los datos obtenidos reveló patrones de consumo de energía mismos que presentan áreas de oportunidad para mejorar la eficiencia energética, lo que podría traducirse en un ahorro significativo de recursos para la empresa. Además, se identificaron vulnerabilidades potenciales en la seguridad del dispositivo de monitoreo, lo que llevó a la implementación de medidas para garantizar la confidencialidad y la integridad de los datos. La visualización de los datos facilitó la comprensión de los patrones de consumo de energía, lo que permitió a la empresa tomar decisiones informadas para optimizar sus operaciones y mejorar su sostenibilidad.
Garcia Lopez Maria Jose, Universidad de Guadalajara
Asesor: M.C. Liliana Eloisa Pérez Galindo, Universidad Tecnológica Fidel Velázquez

DESARROLLO DE MéTODOS DE TRABAJO


DESARROLLO DE MéTODOS DE TRABAJO

Cerda Guardado Karla Benigbe, Universidad de Guadalajara. Garcia Lopez Maria Jose, Universidad de Guadalajara. Asesor: M.C. Liliana Eloisa Pérez Galindo, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

Conocer e investigar cuáles son las necesidades de los clientes y cómo aplicar un método de trabajo acorde a la satisfacción de dichas necesidades. Así como conocer e investigar los diferentes tipos de métodos de trabajo y de aprendizaje de cada uno de los empleados del área de atención al cliente.



METODOLOGÍA

Primeramente se escogió un lugar para ser analizado. Después se implementó una encuesta para una muestra de 50 clientes en la cual se les preguntaba qué tan satisfechos se sentían con el servicio al cliente de dicha empresa en cuestión, cuál era el trato recibido por los empleados y cuáles eran los diferentes problemas que ellos ubicaban en el servicio prestado, así como las posibles mejoras que ellos proponían para el servicio al cliente.  Una vez teniendo dichos datos se procedió a generar un análisis detallado de dicha encuesta y señalar los puntos débiles de la empresa y cómo podríamos mejorarlos desde el empleado.  Una vez generado dicho análisis, se seleccionó una prueba de estilos de aprendizaje acorde a la empresa, en este caso fue la prueba de Barsh y se le aplicó a un total de 10 empleados de dicha empresa con el fin de conocer cuál era el estilo de aprendizaje predominante, para esto se realizó un análisis con base a los resultados obtenidos y se obtuvo que el aprendizaje predominante era el auditivo.  Para finalizar se generaron propuestas para utilizar dicho método en él área del servicio al cliente como lo eran conferencias con consejos para la mejora del área, capacitaciones constantes en cuanto a la  atención al cliente, videos informativos que reforzarán el área y que brindarán un mayor entendimiento para el empleado, talleres de reforzamiento para la atención.


CONCLUSIONES

Se espera obtener como resultados la implementación de dichas propuestas y la reducción de quejas de los clientes hacia el servicio ofrecido, así mismo como una buena capacitación para los empleados actuales y nuevos empleados, en la cual se busque un aprendizaje más completo por parte de ellos y que puedan generar mayor ganancia a la empresa.
García López Uriel, Instituto Tecnológico de Toluca
Asesor: M.C. Mauro Sánchez Sánchez, Instituto Tecnológico de Toluca

A LA LUNA Y MáS ALLá: UNITY Y EL PODER DEL MACHINE LEARNING EN LA ROBóTICA ESPACIAL


A LA LUNA Y MáS ALLá: UNITY Y EL PODER DEL MACHINE LEARNING EN LA ROBóTICA ESPACIAL

García López Uriel, Instituto Tecnológico de Toluca. Asesor: M.C. Mauro Sánchez Sánchez, Instituto Tecnológico de Toluca



PLANTEAMIENTO DEL PROBLEMA

El proyecto Moonshot busca establecer una presencia humana en la luna mediante robots modulares llamados MoonBot, construyendo y manteniendo una base lunar. Un desafío crucial es dotar a los robots de autopercepción, comprenderse y adaptarse en tiempo real a todas las combinaciones de módulos, evaluando sus habilidades y limitaciones. La autopercepción es esencial para enfrentar el entorno desconocido y hostil de la luna. Resolver este reto requiere el empleo de técnicas avanzadas de inteligencia artificial y machine learning. El objetivo de esta investigación es desarrollar un sistema sólido y confiable de autopercepción para los robots MoonBot mediante el motor de desarrollo Unity. Se simularán las condiciones lunares en un entorno virtual 3D con Unity, modelando módulos intercambiables y adaptables para tareas versátiles. La implementación de técnicas de machine learning permitirá el aprendizaje autónomo del robot mediante bibliotecas compatibles con Unity, como ML-Agents controlada con Python y algoritmos integrados con C#.



METODOLOGÍA

La investigación se enfocó en desarrollar un entorno virtual en Unity para entrenar al robot MoonBot mediante machine learning, mejorando su capacidad para realizar tareas autónomamente en la luna. Se diseñó un entorno 3D que permite entrenar al robot en diferentes escenarios que le permitan aprender tareas desde caminar hasta levantar objetos, entre otros entrenamientos y. Se emplearon bibliotecas de machine learning compatibles con Unity, como ML-Agents controlada con Python, para desarrollar algoritmos que permitieran al robot aprender autónomamente a partir de la interacción con el entorno virtual y resolviendo tareas específicas. Se definieron tareas y escenarios para que MoonBot aborde en el entorno virtual, incluyendo movimientos precisos y navegación en terrenos complejos, permitiendo un desarrollo progresivo de habilidades en el robot. Se llevaron a cabo iteraciones de entrenamiento en las cuales MoonBot interactuaba con el entorno virtual y se ajustaron los parámetros del modelo de machine learning para mejorar su desempeño, aplicando técnicas de Deep Reinforcement Learning para guiar su aprendizaje. Se evaluó el desempeño del modelo de machine learning en la resolución de tareas en el entorno virtual, lo que permitió a MoonBot adaptarse a diferentes situaciones y optimizar la eficiencia de movimiento en terrenos similares a la luna. Los resultados de las pruebas se utilizaron para realizar ajustes y mejoras tanto en el modelo como en el entorno virtual, refinando así la capacidad de MoonBot para enfrentar desafíos en la luna.


CONCLUSIONES

Esta investigación representa un avance importante en la robótica espacial y el machine learning, fortaleciendo la autonomía de los robots. La estancia de verano brindó una valiosa oportunidad para adquirir conocimientos teóricos y prácticos en esta emocionante área de la ciencia y la tecnología. El enfoque central del proyecto se basó en desarrollar un entorno virtual en Unity y aplicar técnicas de machine learning para mejorar la autonomía del robot MoonBot y su capacidad para resolver tareas de forma autónoma en la luna. La implementación del modelo de machine learning fue esencial en el proceso de entrenamiento de MoonBot, utilizando herramientas especializadas como ML-Agents con Python para desarrollar algoritmos que permitieran el aprendizaje autónomo del robot a partir de su interacción con el entorno virtual y la resolución de tareas específicas en el editor de Unity con C#. La definición detallada de tareas y escenarios permitió un desarrollo progresivo de las habilidades de MoonBot, dotándolo de capacidades versátiles para adaptarse a situaciones cambiantes y desafiantes. El proceso iterativo de entrenamiento y evaluación contribuirá a perfeccionar el modelo de machine learning y ajustar el entorno virtual para lograr un óptimo desempeño. En el futuro, la transferencia de conocimiento a MoonBot físico validará la aplicabilidad práctica de los resultados obtenidos en el entorno virtual. Esta investigación enriqueció significativamente la comprensión del campo de la robótica espacial y proporcionó valiosas herramientas para el estudio de la interacción entre robots y entornos extraterrestres desafiantes. La combinación de Unity y machine learning se ha demostrado como una poderosa estrategia para mejorar la autonomía y el aprendizaje de robots como MoonBot, allanando el camino hacia futuras misiones de exploración espacial, como el proyecto Moonshot, que tiene como objetivo la construcción autónoma de bases lunares. El desarrollo del entorno virtual de entrenamiento y el fortalecimiento de la capacidad de MoonBot para realizar tareas de manera autónoma representan un paso significativo hacia el futuro de la robótica espacial y la aplicación de tecnologías avanzadas en entornos extraterrestres. La investigación ha proporcionado conocimientos teóricos y prácticos que tienen el potencial de tener aplicaciones no solo en la robótica espacial, sino también en la Tierra, tal como lo sugiere el título "A la luna y más allá".
García Mancinas Luis Fernando, Universidad de Sonora
Asesor: Dr. Daniel Aguirre Aguirre, Universidad Nacional Autónoma de México

DESARROLLO DE SOFTWARE Y FABRICACIóN ADITIVA DE TOPóGRAFO CORNEAL


DESARROLLO DE SOFTWARE Y FABRICACIóN ADITIVA DE TOPóGRAFO CORNEAL

García Mancinas Luis Fernando, Universidad de Sonora. Rios Salido Mario Andree, Universidad de Sonora. Asesor: Dr. Daniel Aguirre Aguirre, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La topografía corneal es una técnica oftalmológica con la cual se realiza un mapeado sobre la superficie de la ventana frontal transparente del ojo conocida como córnea. Este mapeo es similar a un mapa 3D en el cual podremos identificar irregularidades como podrían ser distorsiones o curvaturas. Esto debido a que la córnea tiene un papel fundamental en la visión, ya que es responsable de enfocar la luz que entra en el ojo y dirigirla hacia la retina, donde se procesa la información visual.  Por otra parte, la topografía corneal se utiliza en diferentes situaciones como podría ser medir distorsión además del nivel de daño de la visión al sufrir un traumatismo en la córnea. Con el uso de esta técnica también es posible detectar astigmatismo además de casos tempranos de queratocono y poder llevar un seguimiento sobre el avance de la enfermedad, otro uso para este estudio es la adaptación de lentes de contacto buscando cual sería el óptimo en cada paciente. El procedimiento para realizar una topografía corneal es rápido, además de generar muy poca molestia en el paciente, el punto negativo es que los equipos comerciales que se utilizan en diferentes clínicas y hospitales son de tamaño considerable, haciéndolo poco práctico en cuestiones de movilidad. Es por esto que, buscamos fabricar un equipo el cual sea práctico, ligero, compacto y de un bajo costo.  



METODOLOGÍA

La realización del topógrafo corneal se llevó en ocho etapas, las cuales se detallan a continuación: Simulación del experimento: en esta etapa se utilizó el software Matlab, para llevar a cabo simulaciones del experimento. Diseño y manufactura aditiva: En esta etapa se diseñaron dos diferentes prototipos, este diseño se realizó utilizando el programa SolidWorks. Para esto se buscó manufacturar un dispositivo el cual nos ayudó a tomar las fotografías de los ojos de los pacientes, para ello se crearon diferentes prototipos del mismo, en donde se evaluaron diferentes tipos de parámetros el cual nos ayudó a elegir los más óptimo. Además, cómo se mencionó en el planteamiento, debe ser un dispositivo ligero y de bajo costo. Después de elegir los mejores parámetros, se imprimieron ambos prototipos en una impresora 3D comercial. Toma de fotografías de prueba: En este punto se realizaron diferentes evaluaciones en donde se tomaron diferentes fotografías, a diferentes superficies (tanto superficies de vidrio como ojos humanos). Esto ayuda a saber sí la calidad de la fotografía es la correcta, además también se notó la falta de iluminación del dispositivo por lo cual, nos lleva a buscar alguna fuente de iluminación óptima. Modificación del dispositivo: Se observó qué la falta de iluminación sería un problema a la hora de tomar las fotografías, por lo cual se optó por agregar luces led neón, las cuales nos ayudaran a que las fotografías salieran con mayor iluminación y claridad.  Creación de circuito de iluminación: En este punto se realizó un pequeño circuito qué controla el encendido y apagado de los leds, así como controlar la intensidad de luz.  Pruebas de prototipo final: Resuelto el problema de la iluminación, se procede al ensamble final del dispositivo funcional, esto tomando en cuenta todas las características de diseño anteriormente planteadas. Desarrollo de software: Después de tomar las imágenes con el dispositivo, estas entran a un software desarrollado en Matlab, donde se hace una limpieza y binarización de la imagen para quedarnos solamente con lo importante. Después, un algoritmo probabilístico nos ayuda a encontrar el radio y la constante de conocidas qué tiene el ojo de la imagen tomada anteriormente. Validación del algoritmo: Esta es la última etapa, donde validamos qué nuestro algoritmo nos esté dando los valores correctos, para ello hacemos uso de un lente con un radio de curvatura conocido, se toma la fotografía y se introduce al software. El software en este punto debe devolvernos un valor muy aproximado al radio de curvatura real del lente.


CONCLUSIONES

Se logró obtener un radio de curvatura muy aproximado al real, esto puede ayudar a encontrar el mismo en diferentes lentes u ojos. Por ejemplo, sí se desea validar lentes de contacto, se puede hacer uso del dispositivo y se pueden obtener buenos resultados. Está investigación puede continuar, y se puede mejorar el algoritmo. Pueden introducirse diferentes técnicas cómo ML, el cual pueda mostrarnos por ejemplo, el cómo cambiaría un radio de curvatura a través del tiempo sí se utiliza algún tipo de lente, así cómo además puede ayudarnos a predecir diferentes tipos de enfermedades.  Dentro de la experiencia cómo estudiantes dentro del programa delfín, nos llevamos mucho aprendizaje, y enseñanzas, agradecemos al Dr.Daniel Aguirre por permitirnos llevar a cabo está investigación y a la Universidad Nacional Autonoma de Mexico por permitirnos utilizar sus instalaciones durante este verano. Así mismo agradecemos al programa delfín y a la Universidad de Sonora por apoyar y respaldar nuestro trabajo dentro del programa.  
García Martínez Perla Itzel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dra. Karen Hariantty Estevez Sanchez, Benemérita Universidad Autónoma de Puebla

ANáLISIS Y SIMULACIóN DE PROCESOS DE TRANSPORTE DE MASA Y CALOR


ANáLISIS Y SIMULACIóN DE PROCESOS DE TRANSPORTE DE MASA Y CALOR

García Martínez Perla Itzel, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dra. Karen Hariantty Estevez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La escasez de agua potable es un desafío global que afecta a muchas regiones, especialmente en áreas con acceso limitado a fuentes de agua dulce. La desalinización, específicamente la destilación por membrana de contacto directo, ha demostrado ser una prometedora técnica para producir agua potable a partir de fuentes de agua salada o salobre. En la actualidad, la producción de agua potable a partir de la desalinización mediante DMCD es una tecnología prometedora para hacer frente a la creciente demanda de agua dulce en áreas con escasez de este recurso. Sin embargo, existen desafíos significativos en la optimización y mejora de los procesos de transporte de masa y calor involucrados en este método. El problema radica en la necesidad de comprender y mejorar los mecanismos de transferencia de masa y calor en el proceso de destilación por membrana de contacto directo para aumentar su eficiencia y reducir los costos operativos. La interacción entre la membrana y el flujo de agua salina con la fuente de calor influye directamente en la cantidad de agua potable producida, la calidad del agua resultante y la eficiencia energética del proceso. Además, factores como la naturaleza de la membrana, la temperatura de operación, la concentración de sal en el agua de alimentación y la velocidad del flujo también tienen un impacto significativo en el rendimiento general del sistema. Debido a esto, durante la estancia de verano de investigación fue necesario realizar un análisis exhaustivo de los procesos de transporte de masa y calor involucrados en la destilación por membrana de contacto directo, para identificar las limitaciones y desafíos clave que afectan su desempeño y determinar posibles mejoras y soluciones.



METODOLOGÍA

En el trabajo de investigación, se llevó a cabo un estudio exhaustivo sobre el funcionamiento del código de Matlab/Octave para obtener datos relacionados con las concentraciones y los tiempos a diferentes temperaturas. El objetivo principal de este estudio es realizar mejoras en el modelo, específicamente en la cámara de alimentación y en el permeado. El código de Matlab/Octave es un lenguaje de programación utilizado ampliamente en el campo de la investigación científica y la ingeniería. Se ha elegido esta herramienta debido a su capacidad para realizar cálculos numéricos y análisis de datos de manera eficiente. El objetivo principal del estudio es comprender a fondo cómo el código de Matlab/Octave procesa los datos relacionados con las concentraciones y los tiempos a diferentes temperaturas. Durante el estudio, se realizó una revisión crítica del código existente para identificar posibles deficiencias, áreas de mejora y posibles errores. Esto se ha logrado mediante el análisis de la lógica de programación, la revisión de las ecuaciones y los cálculos utilizados, así como la evaluación de la eficiencia computacional y la precisión de los resultados obtenidos. Además, se hicieron pruebas utilizando diferentes configuraciones de temperatura para validar y verificar la precisión de los resultados generados por el código. A través, del análisis de sensibilidad y optimización numérica, se buscará mejorar el diseño y las operaciones del sistema de destilación por membrana de contacto directo. El objetivo es maximizar la producción de agua potable y minimizar el consumo de energía y recursos, asegurando al mismo tiempo la calidad del agua producida. Se demostró también que la destilación por membrana de contacto directo es un método efectivo y prometedor para la producción de agua potable a partir de agua de mar o salobre. Este proceso se caracteriza por una alta eficiencia en la transferencia de masa y calor, lo que permite una producción de agua con bajos niveles de salinidad y contaminantes. Además, se observó que la eficiencia del proceso de desalinización se ve afectada por diversos parámetros, como la temperatura de operación, la concentración de sal en el agua de alimentación, la velocidad de flujo y el diseño de la membrana. Un análisis detallado de estos parámetros nos ha permitido optimizar el rendimiento del sistema y maximizar la producción de agua potable. En base a los hallazgos y las conclusiones obtenidas hasta el momento, se identificaron algunas áreas clave para realizar mejoras en el modelo. Estas mejoras pueden incluir la optimización de algoritmos, la incorporación de nuevos modelos matemáticos, la corrección de posibles errores y la implementación de métodos más eficientes para el cálculo de concentraciones y tiempos a diferentes temperaturas.


CONCLUSIONES

Durante mi estancia de verano logré una sólida comprensión de los procesos de transporte de masa y calor involucrados en la producción de agua potable por desalinización mediante destilación por membrana de contacto directo. Estamos convencidos de que esta tecnología tiene un gran potencial para abordar los desafíos globales relacionados con el suministro de agua potable, y esperamos que los hallazgos investigados contribuyan al desarrollo y aplicación de soluciones más sostenibles y accesibles en el futuro.
García Meléndez Johana Lizzeth, Instituto Tecnológico de Matamoros
Asesor: Dr. Francisco Javier Naranjo Chávez, Universidad Autónoma de Coahuila

ANáLISIS POR SIMULACIóN DEL CAMPO DE VELOCIDAD Y GRADIENTE DE TEMPERATURA DE UN AEROCONDENSADOR INSTALADO EN LA LAGUNA


ANáLISIS POR SIMULACIóN DEL CAMPO DE VELOCIDAD Y GRADIENTE DE TEMPERATURA DE UN AEROCONDENSADOR INSTALADO EN LA LAGUNA

García Meléndez Johana Lizzeth, Instituto Tecnológico de Matamoros. Rasgado Moreno Rodolfo, Universidad Veracruzana. Asesor: Dr. Francisco Javier Naranjo Chávez, Universidad Autónoma de Coahuila



PLANTEAMIENTO DEL PROBLEMA

En la industria de la generación eléctrica, existen las plantas de ciclo combinado que utilizan aerocondensadores en lugar de torres de enfriamiento. El agua es un recurso renovable el cual su reabastecimiento mediante el ciclo del agua está siendo comprometido particularmente en la zona lagunera, dado que la eficiencia de los aerocondensadores está fuertemente influenciada por las condiciones ambientales [1, 2]. En la laguna, la eficiencia del aerocondensador se ve afectado por los fenómenos climatológicos, es por ello por lo que se realizó un análisis para encontrar como es que las condiciones de la zona afectan a la tasa de transferencia de calor del aerocondensador.



METODOLOGÍA

Algunos autores han investigado distintos aspectos para mejorar el rendimiento de los aerocondensadores, Kumar et al. [1] trabajó simulaciones numéricas 3D para estudiar el efecto de la transferencia de calor en distintas variaciones de un tubo anular aletado de una pequeña chimenea. En los aerocondensadores se utilizan ampliamente este tipo de tubos aletados para mejorar la transferencia de calor, por otro lado, Jean Lin et al.  [2] presentó un análisis de diversas mejoras en un aerocondensador con una configuración de tubos aletados colocados en forma de A, muy similar al objeto de este estudio. Venter et al. [3] analizó el rendimiento del aerocondensador con la implementación de un windscreen, ellos encontraron en qué situaciones o condiciones mejora la eficiencia del aerocondensador. Se sabe que la principal característica de los sistemas de enfriamiento es la transferencia de calor por lo que visualizarlo de una manera gráfica en diversas situaciones de temperatura ambiente (25 °C, 35 °C y 40 °C) van afectando al sistema. Se puede representar de una mejor manera el comportamiento del sistema por medio de mapas de contorno y vectores. En la presente investigación se optó por utilizar Ansys student para realizar una simulación de un aerocondensador ubicado en la región de la Laguna. Se realizó un modelo, despreciando ciertas características del aerocondensador real centrándose principalmente en los tubos aletados y los ventiladores. Se aplicó un mallado hexaédrico sin sobrepasar los 512k celdas/nodos que permite la licencia estudiantil. Una vez realizado el mallado, se utilizó Fluent ® para poder configurar la simulación del aerocondensador. Para la simulación se utilizó la ecuación de la energía, y el método Spalart-Allmaras de turbulencia; posteriormente se definieron las condiciones de frontera, las cuáles para la entrada del aire: Velocidad inicial: 20 km/h (5.55556 m/s) Temperatura inicial: 30°C (303 K) Las condiciones de salida son las siguientes: Presión manométrica: 0 Pa Todos los ventiladores se configuraron: Velocidad máxima de 8 m/s La caída de presión se configuró con un modelo polinomial de dos coeficientes, 250 y -50. Los radiadores que se encuentran arriba de los ventiladores cuya configuración es: El coeficiente de transferencia de calor es de 5000 kW/m2 La temperatura es de 326 K El flujo de calor se estableció en 29600 W/m^2 Para el solucionador dentro de Fluent ® se aplicó una discretización de mínimos cuadrados y un método de solución Couple; esta configuración es el mejor modelo de solución para condiciones de turbulencia en aire, considerando la ley de gases ideales. Se inicializó el método numérico en la entrada; es decir, velocidad de entrada por el noreste de 5.56 m/s, una presión manométrica de 1.29521e-09 Pa, una temperatura de 303 K y una viscosidad turbulenta de 0.0001460735 m^2/s. Finalmente, se realizaron 200 iteraciones monitoreando la continuidad, velocidad, energía y coeficientes de turbulencia.


CONCLUSIONES

Para el procesamiento de los resultados, se utilizó CFD-Post ®. En el cual se colocó un plano basado en el plano YZ a 6 m del origen, otro plano basado en el plano XY a 60 m del origen y por último un plano basado en el eje YZ a 18.5 m del origen. Posteriormente se agregaron mapas de contorno de velocidad para el primer y el segundo plano, y por último un mapa de contorno de temperatura para el tercer plano. El primer mapa de contorno muestra que la velocidad máxima que emana de los ventiladores es de 11.21 m/s, mostrándose en los últimos ventiladores de la primera y última calle de ventiladores. El segundo mapa de contorno muestra que la velocidad máxima es de 16.95 m/s encontrándose en la tercera, cuarta y sexta fila transversal. El último mapa de contorno muestra que la temperatura máxima alcanzada es de 326.125 K, esta estela de temperatura se extiende hasta 500 m desde el aerocondensador. Se realizó un análisis numérico en ANSYS Fluent ®, para observar el campo de velocidades y el gradiente de temperatura. En base a los resultados se puede concluir que las condiciones ambientales de la laguna están afectando la transferencia de calor del aerocondensador, Venter et al. menciona que la instalación de un windscreen periférico es beneficioso si la condición de velocidad del viento es superior a los 16 m/s [3], por lo que se podría considerar la instalación de un windscreen, para mitigar las corrientes de viento 16.95 m/s que se visualizó en la simulación y así aumentar la transferencia de calor y con ello la eficiencia de la planta. Sólo faltaría hacer un trabajo de simulación para encontrar la configuración en la localización de los windscreen que pueda obtener los mejores resultados en transferencia de calor en las condiciones ambientales de la Laguna.   Bibliografía [1]J. B. J. A. K. N. P. K. V. Ankur Kumar, "3D CFD simulations of air cooled condenser-II: Natural draft around a single finned tube kept in a small chimney," International Journal of Heat and Mass Transfer, vol. 92, pp. 507-522, 2016. [2]A. J. M. T. S. K. S. G. Jennifer Lin, "Improving air-side heat transfer performance in air-cooled power plant condensers," Applied Thermal Engineering, 2020. [3]M. O. J. M. A.J. Venter, "A numerical analysis of windscreen effects on air-cooled condenser fan performance," Applied Thermal Engineering, 2021.  
García Morales Abraham, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

APLICACIÓN DE LOS DISPOSITIVOS CUSTOM POWER PARA LA COMPENSACIÓN DEL SISTEMA ELÉCTRICO


APLICACIÓN DE LOS DISPOSITIVOS CUSTOM POWER PARA LA COMPENSACIÓN DEL SISTEMA ELÉCTRICO

García Morales Abraham, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El incremento de cargas no lineales en el sistema de potencia ha introducido problemas de distorsión armónica, sags, swells, desbalance y variaciones de voltaje, por lo que las técnicas convencionales de compensación y mitigación armónica no son suficientes para solucionar los problemas relacionados a estos fenómenos adversos a la calidad de la energía. La introducción del compensador estático de distribución de la familia de los Custom Power al sistema de potencia logra satisfacer las condiciones de regulación de voltaje, potencia reactiva, mitigación de armónicos y eliminación de sags y swells presentes en los voltajes del sistema.



METODOLOGÍA

El procedimiento seguido en esta investigación para el alcance de los objetivos planteados consiste de diferentes etapas: (1) La integración de módulos de IGBTs, junto con el diseño un inversor de potencia; además de (2) Diseño, desarrollo e implementación de sistemas de control clásicos, inteligentes o su combinación para el control de los disturbios eléctricos y regulación de voltaje, (3) El análisis del impacto de diferentes perturbaciones eléctricas en los motores de inducción.


CONCLUSIONES

El presente dispositivo es capaz de trabajar en dos modos de operación, uno es el modo corriente y el otro es el modo voltaje. En el primer modo de operación el compensador tiene como propósito balancear la carga, eliminar el contenido armónico en la corriente que suministra la fuente y además modificar el factor de potencia de la carga. El modo voltaje, el compensador cumple el propósito de mantener la magnitud del voltaje en el bus de conexión en un valor de referencia especificado. El propósito básico del dispositivo es compensar la carga inyectando corrientes de tal manera que el voltaje en PCC sea balanceado y sinusoidal, y que la corriente entregada por el sistema de potencia a la carga sea también balanceado y sinusoidal. En la práctica, las cargas se encuentran alejadas de las subestaciones de distribución y son alimentadas a través de sistemas de transmisión. En esta investigación se ha desarrollado el análisis de regulación de voltaje en un sistema eléctrico mediante la inserción de un dispositivo de electrónica de potencia conectado al PCC. El objetivo primordial fue el realizar el análisis de un dispositivo compensador estático de distribución enfocado en la solución de problemas relacionados con la calidad de energía, por ejemplo sags y swells ya que son los que con mayor frecuencia afectan el desempeño de equipos eléctricos sensibles. Considerando lo anterior, se busca como prioridad lograr una regulación del voltaje de carga altamente confiable.
Garcia Moreno Daniela, Fundación Universidad de América
Asesor: Dr. Carlos Humberto Gómez Rodriguez, Universidad del Valle

BÚSQUEDA DE LA CORRELACIÓN DE PARÁMETROS ESTRUCTURALES EN LA FAMILIA DE ENZIMAS GH10 XILANASAS CON LA TEMPERATURA Y PH ÓPTIMOS DE LA ACTIVIDAD ENZIMÁTICA


BÚSQUEDA DE LA CORRELACIÓN DE PARÁMETROS ESTRUCTURALES EN LA FAMILIA DE ENZIMAS GH10 XILANASAS CON LA TEMPERATURA Y PH ÓPTIMOS DE LA ACTIVIDAD ENZIMÁTICA

Garcia Moreno Daniela, Fundación Universidad de América. Asesor: Dr. Carlos Humberto Gómez Rodriguez, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Actualmente, existe una demanda del uso de las enzimas a nivel industrial de las cuales se pueden encontrar la aplicabilidad en la industria textil, cuero, papelería, alimentos, detergentes y farmacéutica. Así mismo, la estabilidad térmica es un factor de suma importancia en el campo de la ingeniería de proteínas al lograr obtener enzimas con una alta tolerancia, favoreciendo la cinética de reacción, solubilidad de reactivos y disminución del riesgo de contaminación microbiana. Por lo tanto, investigaciones adicionales de mecanismos de estabilidad de proteínas han sido esenciales para la eficiencia funcional de temperatura y pH en la actividad enzimática. El objetivo de esta investigación radica en evidenciar la importancia de los parámetros estructurales de la enzima xilanasa GH10, con el fin de evaluar la correlación de parámetros como la esfericidad, energía de plegamiento, entropía, entre otros con la temperatura y pH óptimos de cada una de las estructuras enzimáticas de la xilanasa evaluadas, dando como resultado la implicación de estos parámetros en la entropía de formación y empaquetamiento molecular de la xilanasa.



METODOLOGÍA

Realizar una revisión bibliográfica y generar los modelos reportados para la xilanasa GH10 por medio de la base de datos Cazy y obtener las secuencias primarias de cada modelo por medio de protein data bank y a partir de estas secuencias generar nuevos modelos estructurales usando el servidor raptorX, obteniendo así estructuras homogéneas y suscitar únicamente un error sistemático entre ellas, al tener un origen común en las características producto de la elaboración de los modelos estructurales. Ahora a partir de las estructuras generadas a través de raptorX se utilizara el servidor Vadar 1.8 para evaluar los parámetros estructurales para cada enzima, y con el servidor Webnam se calcula la entropía de vibración, y ya con esa información se realiza el análisis estadístico, el cual se realizará por medio de estartgrafics, donde se seleccionaran los factores estructurales que mejor se ajusten al modelo de regresión lineal  y que correlacionen los cambios observados respecto a su temperatura y pH óptimos, para ello se proponen usar modelos regresión polimoneales de primer orden, debido a que es la primera aproximación que se hace cuando no se conoce la relación entre las variables de respuestas. Para la determinación de la entropía de vibración se requiere el valor de la energía de deformación para los modos normales, el cual se obtendrá a partir del servidor Webman@, esta entrega información de las energías de deformación para los 20 primeros modos normales correspondientes a los modos de baja frecuencia, los cuales son suficientes para evaluar la respuesta estructural de la topología de una enzima al cambiar su secuencia. La evaluación de la esfericidad se determinará a partir del radio del área de acceso a solvente y el radio del volumen de la estructura de las enzimas modeladas, asumiendo que tienen una forma esférica, y se realizara una relación entre estos radios, y de acuerdo a esto evaluara su influencia sobre la estabilidad térmica.


CONCLUSIONES

Se identifica una correlación estrecha entre los parámetros estructurales de la xilanasa GH10 con los parámetros especiales de la actividad enzimática como lo es el pH y la temperatura, debido a su implicación en el empaquetamiento molecular, plegamiento, entropía de formación y compactación de la estructura en relación a su esfericidad, densidad y área. Así mismo, al evaluar el teorema Pi como ecuación fundamental del número, se identificó que para la caracterización de la temperatura las variables involucradas hacen referencia a el área de la enzima junto con la entropía y la energía de plegamiento, mientras que el pH está relacionado únicamente con el área de la estructura molecular de la enzima, utilizando la regresión polinómica como método viable, dando como resultado un R2 de 0.6021. La estabilidad térmica representa un factor importante en el campo de ingeniería de proteínas al obtener enzimas con alta tolerancia a cambio de temperatura que son utilizadas a nivel industrial, siendo de gran interés en la actividad enzimática de las enzimas, en este caso xilanasas GH10 en correlación con la temperatura, pH y parámetros estructurales. como alta presión, alta temperatura y pH.
Garcia Moreno Isaac Francisco, Universidad Vizcaya de las Américas
Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México

GUÍA PARA EL DISEÑO DE ESTRATEGIAS BIOCLIMÁTICAS, PARA ENFRENTAR LOS EFECTOS DEL CAMBIO CLIMÁTICO EN CLIMA CÁLIDO HÚMEDO


GUÍA PARA EL DISEÑO DE ESTRATEGIAS BIOCLIMÁTICAS, PARA ENFRENTAR LOS EFECTOS DEL CAMBIO CLIMÁTICO EN CLIMA CÁLIDO HÚMEDO

Garcia Moreno Isaac Francisco, Universidad Vizcaya de las Américas. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El cambio climático, según la Organización de las Naciones Unidas (ONU), se refiere a los cambios a largo plazo de las temperaturas, los patrones de precipitación, vientos y otros elementos del clima y Estos cambios pueden ser naturales, debido a variaciones en la actividad solar o erupciones volcánicas grandes. Pero desde el siglo XIX, las actividades de la humanidad han sido el principal motor del cambio climático, debido principalmente a la quema de combustibles fósiles como el carbón, el petróleo y el gas. El incremento de la temperatura, provoca cada vez más complicaciones al momento de diseñar las edificaciones, puede afectar al confort térmico, que a su vez afecta al usuario. Por ello se tienen que tomar medidas e implementar soluciones bioclimáticas para las edificaciones, con el fin de disminuir la temperatura y conseguir un confort estable.



METODOLOGÍA

Se utilizó la información climatológica de Villahermosa, Tabasco, para el escenario al año 2050 en las condiciones RCP del 8.5, correspondiente al no actuar ante el cambio climático, se utilizó el Meteonorm 8 (Mendoza Moreno, 2022); por ser el peor escenario posible, en el Clima Cálido Húmedo. Con el escenario del clima, se realizó el estudio del bioclima, con la herramienta Biosol, la para obtener las gráficas del caso de estudio, como la gráfica solar de la latitud, en donde se observa la hora y en qué dirección se requiere proteger de la incidencia solar, la gráfica de los vientos, según el mes confortable, la estimación de la humedad relativa y el diagrama de estudio del bioclima (Bahena Fernández, 2022). Posteriormente, se analizaron los estudios del bioclima, para definir las estrategias bioclimáticas con el Climate Consultant 6.0., herramienta más sencilla para definir las estrategias. Posteriormente, definen los sistemas pasivos y complementarios, la climatización enfocados a reducir la temperatura.


CONCLUSIONES

En la estancia de verano 2023, se realizó investigación exhaustiva sobre estudios bioclimáticos, para actuar ante la amenaza del cambio climático. Se utilizó software y se profundizó en el diseño confortable para las edificaciones. Aplicables para cualquier lugar con características y clima similar. En conclusión, el estudio aborda, de manera específica, mitigar el impacto del cambio climático en el diseño de edificios en la región climática y propone soluciones bioclimáticas, para adaptación en clima cálido húmedo, para reducir el efecto del aumento de temperatura, conseguir el confort para el usuario y lograr la edificación resiliente para el futuro.
Garcia Nuñez Miguel Angel, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología

GENERACION DE TRAFICO MULTIMEDIA


GENERACION DE TRAFICO MULTIMEDIA

Garcia Nuñez Miguel Angel, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

El teléfono tradicional, la radio, la televisión y las redes de datos informáticas tienen su propia versión individual de los cuatro elementos básicos de la red. En el pasado, cada uno de estos servicios requería una tecnología diferente para transmitir información. Cada servicio tiene su propio conjunto de reglas y estándares para garantizar la comunicación exitosa de su señal a través de un medio específico. Los constantes avances de la tecnología permiten la consolidación de esas redes dispersas en una única plataforma: una plataforma definida como una red convergente. El flujo de voz, vídeo y datos que viajan a través de la misma red elimina la necesidad de crear y mantener redes separadas. En una red convergente todavía hay muchos puntos de contacto y muchos dispositivos, pero una sola infraestructura de red común. La calidad de servicio (QoS) se ha convertido en un factor muy importante dentro de los servicios convergentes actuales. De esta manera es posible trabajar sobre una plataforma de red cableada, inalámbrica o móvil, dándole soporte de funcionamiento adecuado a servicios emergentes, como voz, video o datos. En este tipo de escenarios donde convergen diferentes tipos de redes y de aplicaciones es necesario que se establezcan mecanismos que permitan proveer ciertos niveles de QoS (Calidad de Servicio) adecuados para las aplicaciones que lo necesiten. Partiendo de que las redes de este tipo no ofrecen muchos beneficios sobre una misma infraestructura, surge el interés de analizar cómo se mide la QoS de tráfico y la evaluación de desempeño en una red IP de esta clase de servicios.



METODOLOGÍA

Se revisaron documentos de tesis en base a modelos de calidad de servicios que previamente se desarrollaron dentro del plantel y se desarrolló un resumen de los elementos más relevantes de cada documento, obteniendo elementos de cálculo para el análisis de datos en futuras pruebas con la generación de tráfico. Después de obtener los conocimientos sobre calidad de servicios necesaria para comprender qué tipo de elementos se medirán con este proyecto se realizó una investigación sobre servidores de video y audio, los cuales se podrán utilizar para dar servicio a una red LAN, una vez realizado la investigación se optó por utilizar el servidor de video Live555 Server, donde sus características ajustaban con los requerimientos de nuestros equipos en ese momento, después de esto se realizó la respectiva instalación de las librerías necesarias para su correcto funcionamiento, junto a la incorporación de videos y audios para su uso dentro del generador de tráfico. Se realizo la simulación de como estaría estructurada la topología de la red, mediante Packet Tracer de Cisco, realizando la conexión por medio de cable de cobre, de manera inalámbrica y mediante fibra óptica, donde la topología se basa en el esquema de Cliente-Servidor. En esta topología se utilizan dos computadoras conectadas a una misma red para obtener acceso a un servidor, el cual da señal a estas computadoras, en este mismo programa se realizó la prueba de estas topologías realizando una prueba de conexión entre las computadoras con el servidor, al igual de otra prueba creando una página dentro del servidor con una interfaz de ejemplificación de cómo se vería del lado del cliente, utilizando el lenguaje de HTML en donde se realizó una interfaz básica sin utilización de CSS. Al ver que las tres topologías tuvieron un desempeño exitoso, se realizó la documentación de la simulación, los valores obtenidos de cada una de las topologías fueron registrados junto a la comparación de dichos valores frente a otros previamente obtenidos en tesis analizadas en las primeras semanas de la estancia. En las siguientes tres semanas se realizaron pruebas físicas en donde se vería la efectividad de cada una de las topologías simuladas anteriormente en Packet Tracer, la distribución de cómo se realizarían las pruebas, fue semanalmente, en donde primero fue manejando el tráfico de voz por medio de cableado e inalámbricamente, analizando los datos de Jitter, la perdida de paquetes y MOS. Simultáneamente se asistió a un curso impartido por personal del plantel de la Universidad del Estado de Quintana ROO (UAEQROO) de la ciudad de Cancún, dentro del plantel en Chetumal, viendo la creación y estructura de redes con fibra óptica, para en un futuro utilizar lo aprendido en la creación de una red de fibra óptica dentro del laboratorio de redes. La siguiente semana se realizaron pruebas de tráfico utilizando videos con el mismo formato de trabajo de la semana anterior, empleado la transferencia de estos por medio cableado y de forma inalámbrica. En la sexta semana de estancia, utilizando los conocimientos adquiridos en la asistencia al curso de fibra óptica dentro de la cuarta semana, se realizó la instalación de componentes tanto en las computadoras empleadas como en el servidor, para poder de esta manera conectar fibra óptica entre las computadoras al servidor, una vez realizada la arquitectura de esta red se realizó primero el manejo de trafico de video para una vez obtenido los datos requeridos, seguir con el manejo del tráfico pero esta vez de voz, una vez finalizado el manejo del tráfico seguir con el análisis de los datos obtenidos realizando graficas con dichos datos para poder visualizar de mejor manera los resultados.


CONCLUSIONES

Durante esta estancia logre adquirir conocimientos teóricos sobre la calidad de servicios (QoS), las distintas maneras que se puede medir la calidad de imágenes como también el traslado y la muestra de estas imágenes, principalmente durante el desarrollo de este proyecto se utilizaron las fórmulas para lograr medir la calidad de imagen, los cuales va junto a otros elementos relacionados a lo que son redes de comunicación, como lo son la perdida de paquetes, el tiempo de espera de extremo a extremo, entre otros elementos los cuales pueden llegar a afectar tanto el traslado como la recepción de estas imágenes o datos.
García Ortiz David, Instituto Tecnológico de Morelia
Asesor: Mg. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco

ESTUDIO DE LAS PROPIEDADES SUPERFICIALES DE UN MATERIAL ADSORBENTE PARA COLORANTES EN SOLUCIóN, DERIVADO DE DESECHOS AGROINDUSTRIALES.


ESTUDIO DE LAS PROPIEDADES SUPERFICIALES DE UN MATERIAL ADSORBENTE PARA COLORANTES EN SOLUCIóN, DERIVADO DE DESECHOS AGROINDUSTRIALES.

García Ortiz David, Instituto Tecnológico de Morelia. Asesor: Mg. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Los avances tecnológicos y la globalización de la economía impactan en la industria alimentaria, la agricultura urbana y en el patrón alimentario contemporáneo. Los colorantes son muy utilizados en la industria de alimentos ya sea para resaltar el color natural, recuperar el color perdido por los tratamientos a los que se somete el alimento, dar un color uniforme o simplemente hacerlo más atractivo a los consumidores, quienes en su mayoría prefieren productos de colores definidos y llamativos. Uno de ellos perteneciente a la familia de los colorantes azoicos es la tartrazina, encontrada en forma de polvo brillante, es inoloro y soluble en agua. La tartrazina le confiere a los alimentos y bebidas un tono amarillo, más o menos anaranjado, dependiendo de la cantidad añadida. La problemática del uso de la tartrazina radica en que es un derivado nitroso, conocido por causar reacciones alérgicas, tales como el asma y la urticaria, este colorante ha sido investigado por la mutagénesis y la carcinogénesis. En este verano de la investigación con fines de resolver esta problemática, se estudian las propiedades superficiales de un material adsorbente de colorantes alimentarios basado en cáscara de plátano macho (musa paradisiaca) y su compatibilidad con la tartrazina (amarillo 5) en solución acuosa.



METODOLOGÍA

-Extracción de biomasa Las cáscaras de plátano se recolectaron bajo criterios de sanidad previamente definidos y se cortaron en rodajas de menos de 1 cm. Las rebanadas se sumergieron durante 10 minutos en una solución de hipoclorito de sodio (NaOCl) al 1% v/v para desinfección, luego se lavaron con agua desionizada y se secaron hasta peso constante a 70°C con una estufa BINDER modelo FDL-115. La biomasa seca finalmente se trituró con un mortero y los tamaños se homogeneizaron con un tamiz vibratorio seleccionando los tamices de Dimensiones Nominales (No. 25 y 50), bajo la norma ASTM E11-13 (ASTM E11-13 2009). -Tratamiento químico de biomasa La protonación de biosorbentes es útil para desplazar los iones naturales presentes en la superficie de la biomasa y así obtener un adsorbente modificado químicamente donde los protones ocupan los huecos débilmente ácidos (Sahnoun et al. 2018; Dotto, Vieira, and Pinto 2012). Para el tratamiento químico se pesaron 20 g de biomasa y se sumergieron en 100 ml de solución de HCl (1 M) durante 2 horas en agitación permanente a 200 rpm. Finalmente, el material húmedo se filtró, se secó a 70°C hasta peso constante y se almacenó para los procedimientos posteriores.


CONCLUSIONES

Durante la estancia se logro adquirir los conocimientos correspondientes al manejo de un laboratorio, uso del horno y tamiz vibratorio. Además, de la capacitación para el manejo de un tratamiento químico con cloruro de hidrogeno. Se logró completar los primeros 2 objetivos de la investigación los cuales eran la obtención de la biomasa y el tratamiento químico.
García Perez José Ángel, Universidad Tecnológica de Nayarit
Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla

IA PARA LA DETECCION DE EMOCIONES MEDIANTE EL LENGUAJE NATURAL


IA PARA LA DETECCION DE EMOCIONES MEDIANTE EL LENGUAJE NATURAL

García Perez José Ángel, Universidad Tecnológica de Nayarit. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las emociones humanas son un elemento de alto interés en el mundo del análisis de datos. Esto es porque a partir de estas se pueden identificar comportamientos y patrones en los seres humanos e identificar factores que puedan llegar a afectar dichas emociones. El entender que un trastorno en el reconocimiento de las emociones, puede repercutir en el desarrollo pleno de todas las áreas de las personas (Medina & Navarrete, 2022). Uno de los principales motivos para la introducción de computadores en ambientes clínicos fue la posibilidad de compilar y analizar los grandes volúmenes de información consignados en las historias clínicas.  El reconocimiento de emociones se ha vuelto una herramienta poderosa para extraer o identificar información valiosa a partir de diferentes expresiones humanas (Medina & Navarrete, 2022).



METODOLOGÍA

Texto de entrada: Información que se proporciona al programa para que este pueda realizar su tarea y procesar los datos según su lógica y funcionalidad (Quintero, S., 2022). Preprocesamiento: Antes de realizar el análisis, el conjunto de datos proporcionados o en todo caso el texto, párrafo o documento completo, se somete a un preprocesamiento de limpieza para así hacer correcciones como puede ser faltas de ortografía, quitar palabras que no tengan valor para tener un resultado mas eficaz e preciso para la detección de los sentimientos y emociones (Loria, S., 2020). Tokenización: La tokenización es el proceso de dividir un texto en unidades más pequeñas, como oraciones o palabras individuales, por lo cual se utiliza un tokenizador que se basa en reglas gramaticales y expresiones regulares para realizar esta tarea. Análisis gramatical: El algoritmo POS TAGGING aprenden patrones gramaticales a partir de grandes conjuntos de datos anotados. Pueden identificar características como el uso de sufijos, prefijos, terminaciones, conjugaciones verbales y flexiones para determinar la categoría gramatical de una palabra todo esto para tener un resultado preciso y real de las palabras proporcionadas (Loria, S., 2020). Como puede ser en la oración Mi nombre es Fran y vivo en Madrid, ahí el análisis gramatical, detecta que hay un determinante, un sustantivo, un auxiliar, y así con cada palabra que va asignando su valor. Extracción de características: Los algoritmos deben ser capaces de resolver esta ambigüedad y asignar la etiqueta gramatical más adecuada a una palabra en un contexto específico. Los algoritmos de POS TAGGING pueden enfrentar desafíos al tratar con palabras que no están presentes en su conjunto de datos de entrenamiento o palabras mal escritas. Pueden emplear estrategias como el uso de modelos estadísticos o reglas heurísticas para inferir la categoría gramatical de estas palabras (Loria, S., 2020). En la cual hace el proceso para determinar palabras no importantes para quitarlas, ya que están en una categoría que no tiene el valor para tener una importancia mayor. Análisis del sentimiento: Se puede analizar el sentimiento de una oración o un conjunto de palabras. Utiliza un enfoque basado en la polaridad léxica, donde cada palabra se asigna a una puntuación de polaridad (positiva, negativa o neutral). Estas puntuaciones se combinan para calcular la polaridad general del texto y la subjetividad asociada (Loria, S., 2020). Análisis de subjetividad: La subjetividad es una medida que indica hasta qué punto el texto es objetivo o subjetivo. La subjetividad se expresa como un valor entre 0 y 1, donde 0 representa una alta objetividad, es decir, el texto es más informativo y basado en hechos, mientras que 1 indica una alta subjetividad, lo que significa que el texto es más opinativo y subjetivo. Cuando el valor de subjetividad se acerca a 0, implica que el texto contiene principalmente información objetiva y descriptiva, como datos, hechos o descripciones imparciales. En cambio, un valor cercano a 1 sugiere que el texto está lleno de opiniones, juicios o evaluaciones subjetivas. Tenemos que tener en cuenta que la subjetividad no está necesariamente relacionada con el sentimiento positivo o negativo del texto. Un texto puede tener una alta subjetividad sin expresar un sentimiento específico, mientras que otro texto con baja subjetividad 


CONCLUSIONES

En conclusión, el sistema implementado ofrece una herramienta prometedora en el área médica para el tratamiento de trastornos de difusión de emociones. Mediante el análisis de sentimiento y la detección de emociones en el texto proporcionado por los pacientes, este sistema puede ayudar a los profesionales de la salud a obtener información valiosa sobre los estados emocionales y sentimientos expresados por los individuos al utilizar técnicas de procesamiento de lenguaje natural y análisis de sentimiento. Los resultados obtenidos a través de las visualizaciones generadas, pueden proporcionar una visión clara de la polaridad y la subjetividad de las emociones experimentadas.  Además, si bien el sistema puede ser una herramienta valiosa para el tratamiento de trastornos de difusión de emociones, es importante destacar que no debe reemplazar la evaluación y el juicio clínico de profesionales de la salud capacitados. La inteligencia artificial puede ser un complemento útil, pero el enfoque principal debe ser un enfoque terapéutico personalizado y holístico para abordar los desafíos emocionales de cada paciente de manera individualizada. El grado de confianza con el cual el sistema predice puede ser relativamente alto para tareas generales de sentimiento y subjetividad, pero su precisión puede variar según la calidad del modelo y la complejidad del texto analizado. Como resultado se ofrece el análisis de sentimientos mediante el lenguaje natural mediante gráficos que muestran como resultados la polaridad, subjetividad y determina finalmente el sentimiento. Lo anterior, mediante una página web de buen diseño y funcional.
García Pérez Monserrat, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Jesús Darío Mina Antonio, Centro Nacional de Investigación y Desarrollo Tecnológico

EVALUACION DE ESTIMADORES INTELIGENTES DE IMPEDANCIA DE RED EN PUNTO DE CONEXIóN COMúN DE GENERADORES DISTRIBUIDOS.


EVALUACION DE ESTIMADORES INTELIGENTES DE IMPEDANCIA DE RED EN PUNTO DE CONEXIóN COMúN DE GENERADORES DISTRIBUIDOS.

García Pérez Monserrat, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Jesús Darío Mina Antonio, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

Los generadores distribuidos interconectados a la red eléctrica, han experimentado un rápido crecimiento debido a su carácter sostenible y renovable. Sin embargo, su conexión a la red eléctrica presenta desafíos, especialmente en lo que respecta a la estimación precisa de la impedancia de red en el PCC. Algunos métodos tradicionales de estimación de impedancia pueden no ser suficientemente precisos para abordar las condiciones cambiantes y las características dinámicas de los sistemas de generación distribuida. Por lo tanto, se requiere un estudio detallado para evaluar y seleccionar algoritmos inteligentes que permitan estimar con precisión la impedancia de red en el punto de conexión de estos generadores, asegurando una conexión adecuada y una operación estable del sistema. La impedancia de red es crucial para asegurar una conexión segura y estable, así como para el correcto control de los GD, prevención de problemas como la formación de islas y fluctuaciones de voltaje. 



METODOLOGÍA

Se realizó una revisión bibliográfica de artículos científicos, documentos técnicos y normativas relacionadas con generadores distribuidos, control de inversores y estimación de impedancia, tambien se hizo un análisis de la importancia de la impedancia de red en el PCC de los generadores distribuidos y la variación de esta misma en la estabilidad del sistema eléctrico. Posteriormente se llevó a cabo una comparación de los diferentes algoritmos inteligentes para estimar la impedancia de red en el PCC. Los métodos bioinspirados, que toman inspiración de procesos naturales, y los métodos clásicos-numéricos, que se basan en técnicas de análisis numérico, fueron evaluados en términos de su capacidad de adaptación y precisión. Resaltando la comparación también entre enfoques pasivos y activos. Con base a la informacion se eligió una propuesta que minimiza el impacto que causan los metodos activos en la calidad de la red eléctrica ya que las variaciones son en la frecuencia fundamental. La propuesta considera un sistema genérico de generación distribuida trifásico conectado a la red en el que el método se basa en las variaciones de potencia activa y reactiva inyectadas por el inversor conectado a la red y calcula la red de resistencia e inductancia analizando las variaciones en las corrientes i∗d y i∗q, respectivamente impuestos en dos instantes determinados t1 y t2, con respecto a las variaciones en la tensión continua vd. Las variaciones particularmente en vd, deben ser lo suficientemente alto para que los sensores de voltaje puedan detectarlo. Algunas consideraciones que deben tomarse en cuenta en la aplicación del método son: Para el cálculo de Resistencia (R) R= ∆Vd/∆Id Se impone variación en Id Se mantiene Iq constante Para el cálculo de Reactancia (L) L= ∆Vd/ω0/∆Iq Se impone una variación en Iq  Se mantiene Id constante Para la representación de datos se complementó un modelo de simulación en el software Matlab en el que se programó una entrada y salida de datos en forma de diferencia; con el fin de llevar a cabo pruebas de simulación con datos representativos de sistemas de generación distribuida. Se evaluó la capacidad del estimador de impedancia para predecir con precisión las variaciones en la red eléctrica y su comportamiento ante diferentes escenarios. La validación de los resultados se realizó mediante la comparación con datos reales o simulados y estos fueron plasmados en una tabla comparativa. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la existencia de la impedancia de red y como afecta la calidad de energía en un sistema eléctrico. El estudio demostró la eficacia y aplicabilidad de la propuesta seleccionada en el cálculo de la impedancia de red en sistemas de generación distribuida. La investigación sienta las bases para un mejor entendimiento de los desafíos y soluciones en este ámbito.
Garcia Pupo Adriana Judith, Universidad de Pamplona
Asesor: Mg. Teresa de Jesus Altamar Perez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

ELABORACIóN DE BEBIDA ALCOHóLICA TIPO APERITIVO A PARTIR DE BATATA (IPOMOEA BATATAS)


ELABORACIóN DE BEBIDA ALCOHóLICA TIPO APERITIVO A PARTIR DE BATATA (IPOMOEA BATATAS)

Garcia Pupo Adriana Judith, Universidad de Pamplona. Asesor: Mg. Teresa de Jesus Altamar Perez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

La batata (Ipomoeas batata) es un cultivo agrícola nativo de trópicos húmedos con una buena adaptación, lo que permite encontrarla tanto en regiones tropicales como en climas templados. Su versatilidad fenotípica le confiere varios usos según la necesidad de consumo (Salcedo et al., 2017). En Colombia, las estadísticas divulgadas por el Ministerio de Agricultura y Desarrollo Rural al corte del año 2020 muestran que la producción nacional de batata estuvo fijada en 1.698 toneladas, con una representatividad en la región caribe de 1.530 toneladas, equivalentes al 90% de la producción total. Cabe destacar que este tubérculo posee notorias bondades nutricionales y gastronómicas que, en la actualidad, no se están aprovechando debido a la deficiente aplicación de tecnologías, lo que ha impedido diversificar este material en productos de mayor valor agregado. En el departamento del Atlántico, la batata es ampliamente cultivada; sin embargo, enfrenta un desafío significativo: gran parte de la producción termina desperdiciada debido a la falta de una demanda sólida por parte de la población local. A pesar de sus valiosas propiedades nutricionales y beneficios para la salud, la batata no ha logrado ganar popularidad como alimento básico en la región, lo que ha llevado a una sobreproducción y desperdicio de este preciado recurso agrícola. En este contexto, ¿Cómo podemos aprovechar de manera óptima la batata y agregarle valor mediante la elaboración de una bebida alcohólica tipo aperitivo que atraiga la atención de los consumidores?



METODOLOGÍA

Procedimiento metodologico Fase 1: Investigación y revisión bibliográfica 1. Revisión de fuentes científicas, libros y artículos relacionados con la batata y la elaboración de bebidas alcohólicas. 2. Identificación de las normativas y regulaciones vigentes para la producción de bebidas alcohólicas en Colombia. Fase 2: Preparación del mosto y fermentación 1. Elaboración de tres formulaciones distintas utilizando batata con azúcar, batata con piña y pulpa de batata. 2. Elaboración de un diagrama de procesos detallado que describe cada una de las etapas y operaciones necesarias para obtener la bebida alcohólica tipo aperitivo. 3. Fermentación controlada de las muestras durante 7 días. 4. Sometimiento de las muestras a un proceso de destilación para determinar el grado alcohólico. 5. Elaboración de muestra con nueva formulación incorporando los ingredientes que produjeron mayor grado alcohólico. Fase 3: Análisis fisicoquímicos 1. Realización de análisis fisicoquímicos, incluyendo acidez, pH, sólidos solubles y grado alcoholimétrico.


CONCLUSIONES

Los resultados de los análisis fisicoquímicos de la muestra seleccionada arrojaron los siguientes valores: pH 3.63, acidez de 4.95, grado de alcohol de 16.83 y sólidos solubles de 5.10. Estos resultados indican que la bebida alcohólica tipo aperitivo elaborada a partir de batata presenta una acidez moderada, un grado de alcohol adecuado para su clasificación como aperitivo y un contenido de sólidos solubles que contribuye a su sabor y densidad. En conclusión, el proyecto demuestra que la batata puede ser aprovechada para la elaboración de una bebida alcohólica tipo aperitivo con características atractivas para el consumidor. La transformación de la batata en un ingrediente clave de esta bebida ofrece una opción innovadora en la industria de bebidas alcohólicas, lo que podría contribuir a su popularidad y consumo. Además, se resalta la importancia de la aplicación de tecnologías adecuadas para diversificar este valioso recurso agrícola en productos de mayor valor agregado, reduciendo así el desperdicio y promoviendo su aprovechamiento integral.
García Reyes José Miguel, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA DISRUPTIVA EN LA CADENA DE SUMINISTRO


LOGíSTICA DISRUPTIVA EN LA CADENA DE SUMINISTRO

García Reyes José Miguel, Universidad Politécnica de Sinaloa. Joya Becerra Cristo Omar, Universidad Politécnica de Sinaloa. Rodríguez Navarro Diego Homobono, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el sector empresarial se encuentra en constante adaptación en el contexto tecnológico, social y económico, con lo anterior los flujos estratégicos de la cadena de suministro dependen de su conectividad para su eficaz desempeño, los cuales son el capital, información y material, un evento no esperado que impacte negativamente a uno, dos o tres flujos se considera como una ruptura en la cadena, aun cuando su frecuencia no se encuentra identificada por su complejidad, esto comúnmente puede ocurrir cuando se presentan un cambio en lo tecnológico, organización, biológico, climático o político, lo anterior se conoce en base a los documentos históricos que informan sus diferentes causas presentadas en los tiempos actuales, el impacto principal es social y económico. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la capacidad de las actividades del sector logístico y transporte, pues si bien las necesidades de conectividad son esenciales a la vez  se necesita ser adaptable, con una atención principal en las empresas del sector industrial, logístico y transporte, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio de campo que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento industrial y su conciencia en la sustentabilidad y resiliencia del sector logístico y transporte. El alcance de la investigación cualitativa de tipo campo es identificar las acciones logísticas y de transporte que la industria logística realiza con el propósito de mantener la conectividad de los flujos estratégicos en la cadena de suministro; conocido como, logística disruptiva en la cadena de suministro



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cualitativa, de tipo documental la cual consiste en la recolección de información directamente de los profesionales del sector logístico y transporte que muestran la realidad de los hechos, sin manipular o controlar variable alguna, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos.  Se inicia con la búsqueda digital de documentos auditados y confiables sobre el tema de cadena de suministro disruptivo, para posteriormente realizar una agenda de entrevistas con empresas del giro industrial en ámbitos logístico y transporte, se registran cuatro entrevistas, a continuación con la información seleccionada se realiza un ensayo descriptivo de los escenarios que presentan causas de la ruptura de la cadena y su estrategia de solución (disrupción), así también indicando el factor con base a una categorización (tecnológico, organización, biológico, climático o político), relacionado con los resultados de las entrevistas que se analizó, esta estrategia recabó información sobre el tema para generar un nuevo conocimiento mediante argumentos propios sobre las causas documentadas de los distintos casos de ruptura de la cadena de suministro y cómo las organizaciones abordan para encontrar soluciones de diseño asertivas ante problemas complejos de ingeniería para su disrupción.


CONCLUSIONES

Sinaloa, en específico Mazatlán, ha mostrado un crecimiento exponencial en la oferta y demanda en cuanto a productos y servicios se refiere, esto debido a la urbanización que se presenta en el puerto, sumándole la cualidad de ser un punto estratégico para un amplio catálogo de empresas, lo que lleva a aumentar el riesgo de fallos en los procesos logísticos, las empresas entrevistadas muestran una buena capacidad de resolución de rupturas en la cadena de suministro ocasionadas por temas biológicos, tecnológicos, climáticos y/o políticos. Los resultados de esta investigación mostraron que gran parte de las empresas no cuentan con capacidad tecnológica para realizar o mejorar su sistema logístico, por lo que se espera que en un futuro se plantee la posibilidad de mejorar de manera significativa los procesos logísticos bajo la implementación de dichas herramientas tecnológicas, además, las empresas de hoy en día mantienen la mentalidad de la gran importancia del recurso humano para realizar sus procesos y, sobre todo, para resolver las rupturas que se presentan dentro de la cadena de suministro. Con objetividad se percibe que la logística disruptiva es un sinónimo de la teoría de restricciones (TOC), donde es esencial identificar el limitante más importante que no permite alcanzar un logro determinado en la planeación estratégica de la cadena de suministro; es decir, los procesos logísticos deben analizarse de forma lógica y sistemática, se puede mencionar que una limitante importante es la incertidumbre del costo de la materia prima, capital humano, combustible y transporte (embalaje) presentadas en la cadena de suministro.
García Rodríguez José Adalberto, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

MODELACIóN SUPERFICIAL DE LA CUENCA DEL LAGO DE PáTZCUARO CON SWAT


MODELACIóN SUPERFICIAL DE LA CUENCA DEL LAGO DE PáTZCUARO CON SWAT

García Rodríguez José Adalberto, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El lago de Pátzcuaro es un cuerpo de agua ubicado en el estado de Michoacán, México, es de gran importancia tanto a nivel ecológico como cultural. La disminución del agua en el lago se ha visto presente en los últimos años, debido a diversas causas, por ejemplo el cambio climático, ya que este modifica los patrones de precipitación y genera a su vez escases de agua lo cual podría afectar las actividades económicas y el bienestar de la población, otros ejemplos de la disminución de los niveles del agua son las extracciones para riego de cultivos y uso humano, contaminación, erosión del suelo, cambio de uso de suelo y el asentamiento humano. Por lo cual se implementará el modelo hidrológico para tener una simulación de cuánta agua recarga el lago, y tener aproximaciones futuras.



METODOLOGÍA

Una cuenca hidrológica es una superficie geográfica delimitada por la topografía que recoge y drena todas las aguas superficiales y subterráneas hacia un punto de salida, generando un río, lago o mar. Para hacer la modelación superficial del lago de Pátzcuaro se consideró toda la cuenca de captación, la cual cuenta con un área de 936.44 km2, esta se delimito con ayuda de un SIG (Sistema de Información Geográfica) el cual fue el programa de QGIS. Para realizar una modelación hidrológica con el programa SWAT (Soil and Water Assessmen Tool) es necesario alimentarlo con insumos que constan de un modelo de elevaciones, datos meteorológicos (precipitación, temperatura máxima y mínima, radiación solar y velocidad del viento), tipo y uso de suelo, de toda la cuenca. Las estaciones meteorológicas del estado de Michoacán cuentan con datos de temperatura y precipitación, pero la información de radiación solar y velocidad del viento es muy pobre, por lo cual se decidió tomar en cuenta solo los datos de temperatura y precipitación, la información fue adquirida de la página de CLICOM. Para escoger las estaciones meteorológicas se creó un Buffer de 35 km alrededor de la cuenca, esta distancia es el diámetro de la misma, con el propósito de ver cuales estaciones van a influir en la escorrentía, a continuación, con los datos de precipitación se realizaron pruebas de consistencia las cuales nos ayudaran a saber si los valores con los que cuentan las estaciones son confiables y precisos. Una vez ya evaluadas las estaciones se tomaron las que nos cumplen el mayor número de pruebas, también se tomó en consideración parámetros como, más cercanía al centroide de la cuenca, menos porcentaje de datos vacíos, mayor tiempo de eficiencia. Es importante que las estaciones escogidas cubran la cuenca por completo, o más el 90%, esto se puede ver con ayuda de los polígonos de Thiessen, nuestras estaciones escogidas fueron (16050, 16055, 16084, 16087, 16123, 16127, 16142, 16146), ya teniendo las estaciones se usaran los datos de precipitación, temperatura máxima y temperatura mínima, con ayuda de una base de datos que nos proporciona SWAT se realizaron los ficheros de entrada para la modelación.  Los otros datos que obtener son los de tipos y usos de suelo, para la cual se caracterizó la superficie de la cuenca, esta caracterización se llevó a cabo con mapas de tipo y uso obtenidos de CONABIO los cuales se delimitaron conforme a la cuenca con ayuda de QGIS para saber en qué superficies se encontraban los suelo, después de tener que tipos y usos de suelo contiene la cuenca se procedió a rellenaron los datos que el programa SWAT nos pide como requisito, estos constan de varios parámetros, en el tipo de suelo algunos son: porcentajes de materiales (roca, arcilla, arena y limo), conductividad hidráulica, densidad, entre otros, estos datos fueron obtenidos del INEGI y de la FAO. De igual manera se realizaron 2 mapas tipo raster, para dar información al programa en que ubicación se localiza cada tipo y uso de suelo. El modelo SWAT te permite introducir información por capas de suelo, pero ya que en México no se cuenta con demasiada información se consideró solo una capa. En el caso de la cuenca de Pátzcuaro no se encuentran estaciones hidrométricas, por lo cual se procedió ampliar la cuenca hasta la estación de Santiago Undameo (12347), la información hidrométrica fue obtenida de CONAGUA, esto con el propósito de tener valores de caudales para así llevar a cabo una calibración del modelo, de igual manera se buscó el tipo y uso de suelo para la nueva cuenca, por suerte las estaciones meteorológicas aún nos cubrían la nueva superficie por lo cual se utilizó la misma precipitación y temperaturas. Con ayuda del modelo de la cuenca ampliada se llevó a cabo el proceso de calibración del modelo hidrológico, la calibración es demasiado tardada, por lo cual no llegamos a un resultado muy preciso, ya que sería necesario más tiempo de investigación de las propiedades del suelo. Una vez ya calibrados los valores, solo es necesario pasar los datos a nuestra zona de estudio, la cuenca del lago de Pátzcuaro, para así ya tener nuestro balance hídrico, y saber cuánta agua recarga nuestra cuenca.


CONCLUSIONES

En el transcurso de este verano se logró realizar la modelación hidrológica, pero se presentaron problemas para tener una calibración adecuada por la falta de información, en la continuación del proyecto se pretende mejorar dicha calibración para que así el modelo nos dé resultados más acercados a la realidad y  utilizarlo para tener una mejor aproximación de cuánta agua aún contiene el lago de Pátzcuaro, de igual manera se piensa utilizar este modelo como base para modelar otros factores como lo puede ser la acumulación de sedimentos.
Garcia Rolon Carlos Miguel, Universidad de Guadalajara
Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit

MODELO DE GENERACIóN DE ENERGíA ELéCTRICA POR MICRO HIDRáULICA, APLICADO EN LA LOCALIDAD DE SANTA CRUZ DE MIRAMAR - ADQUISICIóN Y DISEñO DE MEDIDORES VARIABLES MECáNICAS HIDRáULICAS, MPIO. SAN BLAS NAYARIT MéXICO.


MODELO DE GENERACIóN DE ENERGíA ELéCTRICA POR MICRO HIDRáULICA, APLICADO EN LA LOCALIDAD DE SANTA CRUZ DE MIRAMAR - ADQUISICIóN Y DISEñO DE MEDIDORES VARIABLES MECáNICAS HIDRáULICAS, MPIO. SAN BLAS NAYARIT MéXICO.

Garcia Rolon Carlos Miguel, Universidad de Guadalajara. Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En la presente investigación realizada para generar un modelo de corriente eléctrica mediante el uso de un artefacto con operación Micro-Hidráulica, que aproveche los escurrimientos permanentes presentes en la  localidad de Santa Cruz de Miramar Municipio de San Blas Nayarit México. Con el fin de contribuir a fortalecer un  Modelo de Generación de Energía Eléctrica por Micro Hidráulica. A nivel global la mayoría de los proyectos que involucran usar la Micro-Hidráulica aprovechan de forma sostenible los recursos hídricos locales, con el fin de transformar la energía mecánica en corriente eléctrica, haciendo uso de un caudal perenne, proyectando aplicar diseño con desniveles, que permitan la producción energética en forma continua por un periodo de al menos 25 años. La energía resultante esperada en el modelo de aprovechamiento Micro-Hidráulico tiene como fin abastecer de manera parcial en la localidad de Santa Cruz de Miramar, teniendo como meta superior para la cooperativa: Productores Organizados de Yaka y Frutas Exoticas  S.P.R.L. el suministro energético a dos cuartos fríos utilizados en el procesamiento y manejo de yaka, permitiendo el incremento en la producción y cumplimiento de la normatividad e inocuidad que permita aperturar el mercado de la exportación de este producto al mercado europeo, resultando en una mejoría en la calidad de vida en los habitantes de dicha localidad. Asimismo la meta inferior establecida, consiste en facilitar el suministro eléctrico anual y permanente que permita funcionar en forma regular el 100% del alumbrado público de la localidad mencionada.  



METODOLOGÍA

La presente investigación se desarrolló en forma presencial, utilizando en la investigación de campo  elementos necesarios para la integración de un modelo, requiriendo de capacitación en el uso de diversas herramientas digitales por parte del Cuerpo Académico ITCAR de la Universidad Tecnológica de Nayarit, incorporando Reuniones de Trabajo con organismos: CMIC Delegación Nayarit y CONAGUA Nayarit; complementando con visitas al sitio para caracterizar los cuerpos de agua involucrados en las inmediaciones de la localidad en estudio. Se enlistan las herramientas utilizadas a lo largo de la investigación: ONU 17 Objetivos Desarrollo Sustentables: Se realizó la Conferencia del Clima en París (COP21) en diciembre de 2015, la ONU aprobó la Agenda 2030 sobre el Desarrollo Sostenible primer acuerdo mundial sobre el cambio climático, universal y jurídicamente el objetivo principal es conseguir, a través de distintas fórmulas, que: La temperatura del planeta NO supere en más de 1,5ºC  desde la Era Preindustrial. Resultando en 17 Objetivos Desarrollo sustentables, haciendo énfasis las líneas de investigación del CA ITCAR en: Objetivo # 7 Energía asequible y no contaminante, Objetivo #13 Acciones por el clima. Microsoft Visio: Aplicación que permite plasmar gráficamente diferentes tipos de información (VSD), en los cuales se encuentra desarrollar planos compatibles con CAD formato nativo (DWG) permite delimitar espacios de trabajo: mapas, diagramas, entre otros. Los cuales permitieron desarrollar dibujos del sitio de estudio, documentando avances de la propuesta. Microsoft Project: Aplicación Microsoft que permite plasmar gráficamente diferentes tipos de planeación: Gantt y Red en formato (PRJ), en los cuales se encuentra desarrollar planos compatibles con CAD formato nativo (DWG) permite delimitar espacios de trabajo: mapas, diagramas, entre otros. Los cuales permitieron desarrollar dibujos del sitio de estudio, documentando avances de la propuesta. QGIS Ver. 3.22.0 (SIG - Sistema de Información Geográfica).- Plataforma  alemana desarrollada en licencia de código abierto para trabajar con datos abiertos (SHP: shape), recolectando información de diferentes instituciones federales mexicanas: INEGI, RAN, SEMARNAT. Utilizando las diferentes opciones para identificar ubicación geográfica y su aprovechamiento solar, además de ubicar circuitos de distribución, impacto en la población, entre otras acciones. Mapa Digital México INEGI: esta plataforma web permite al usuario conocer datos verídicos del Estado de Nayarit, para conocer con certeza los espacios idóneos para ser analizados y adaptarse al comportamiento, con el fin de estudiar la posibilidad de producción de electricidad mediante la hidráulica. Economía Circular: Modelo de producción y consumo global, en el cual se prioriza: compartir, reutilizar, alquilar, renovar, reparar y el reciclaje de materiales con el fin de crear productos con valor añadido, utilizando todos los recursos y materiales de origen minimizando la cantidad de residuos generados finales.


CONCLUSIONES

A lo largo del Verano del Programa Delfin en su edición 2023, se llevó a cabo a través de la Universidad Tecnológica de Nayarit, mediante un trabajo de investigación la recabación de datos e información relevante del curso fluvial que lleva como nombre El Naranjo. El análisis fue realizado haciendo uso de diferentes softwares, tales como el Sistema de Información Ambiental y Territorial (SIATL), así como el Sistema de Información Geográfica (GIS) conocido como QGIS, por lo que se obtuvo información relevante donde se destaca que dicha corriente posee la característica de ser perenne. Mediante la realización de una visita de campo se pudo obtener la medición de la velocidad promedio la cual ronda los 1 m/s en épocas de sequía, la cual en periodo pluvial logra alcanzar los 2 m/s. Es de destacar que en dicha corriente hídrica se ha edificado un enrocamiento por los habitantes de la localidad, como resultado de esta edificación se obtiene un canal que posee características potenciales para la implementación de un microgenerador hidráulico. Por lo tanto es de suma importancia el monitoreo constante de esta sección del curso fluvial, con mediciones y uso de instrumentación de ingeniería altamente especializada, con el fin de observar si este posee cambios continuos en su caudal así como en su velocidad promedio para la valoración de la capacidad necesaria para la implementación del microgenerador hidráulico.  
García Sandoval Jesús Mario, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

RIESGO ACCIDENTE MOVILIDAD CICLISTA (RAMCI)


RIESGO ACCIDENTE MOVILIDAD CICLISTA (RAMCI)

Aviles Alvarado Manuel, Instituto Tecnológico de Morelia. García Sandoval Jesús Mario, Instituto Tecnológico Superior de Cajeme. Vazquez Mendez Lizeth Jackeline, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea el desarrollo de una plataforma, con base en algoritmos y técnicas de inteligencia artificial, donde el usuario pueda visualizar la clasificación del riesgo, resultado de un proceso de investigación y análisis que abarca desde la recolección de información de distintas bases de datos de instituciones dedicadas a recolectar información en donde ciclistas fueron parte de accidentes.



METODOLOGÍA

Desarrollar e implementar la plataforma inteligente de predicción de la severidad de accidentes de movilidad  ciclistas en tiempo real.  Para ello se definieron los siguientes fases: generación del dataset (homologación, variable de tráfico por vialidad, variable de tráfico de zona), predicción de severidad (selección de variables, pruebas de concepto con modelos de machine learning, codificación y pruebas de algoritmos en Python) e implementación de la plataforma.    


CONCLUSIONES

A la finalización del proyecto se destacan los siguientes puntos:  Se creó una plataforma web con base en inteligencia artificial (con aproximadamente 2 mil líneas de código en python). Se creó la arquitectura software (con aproximadamente 20 diagramas de planos arquitectónicos). Se creó la wiki del proyecto. Se crearon 7 repositorios. Se creó 2 la variables de flujo de tráfico. Como resultado, en la plataforma se pueden visualizar tres mapas distintos: mapa basado en los datos de la infraestructura de la ciudad para el uso de las bicicletas como medio de transporte; mapa con datos dinámicos respecto al día, la hora y el tráfico de la ciudad junto con los datos de infraestructura; y mapa con datos dinámicos personalizables según el usuario, tomando en cuenta su edad, sexo y los otros tipo de vehículos que circulan.
García Solís Sonia Iveth, Universidad Nacional de Ingeniería
Asesor: Dr. José Adalberto Castillo Robles, Universidad Politécnica de Victoria

ELABORACIóN DE UN BIOPOLíMERO USANDO LA CORONA DE LA PIñA (ANANAS COMOSUS) Y POSOS DE CAFé (COFFEA ARABICA) COMO FIBRAS NATURALES DE REFUERZO


ELABORACIóN DE UN BIOPOLíMERO USANDO LA CORONA DE LA PIñA (ANANAS COMOSUS) Y POSOS DE CAFé (COFFEA ARABICA) COMO FIBRAS NATURALES DE REFUERZO

García Solís Sonia Iveth, Universidad Nacional de Ingeniería. Prieto Royet Andrea Carolina, Universidad Libre. Asesor: Dr. José Adalberto Castillo Robles, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

El uso de plásticos convencionales derivados del petróleo de forma indiscriminada ha ocasionado contaminación en todo el planeta, incluso en las aguas más profundas de los océanos es posible encontrarlos. Y es que, la biodegradación de los plásticos derivados del petróleo dilata miles de años, algunos incluso no se biodegradan. Es por ello que, surgen los biopolímeros como alternativas menos contaminantes en comparación a los plásticos convencionales.  En Nicaragua, al ser un país agroindustrial, la producción nacional de frutas ha incrementado, especialmente la piña. Sin embargo, el valor de la piña no es aprovechado en su totalidad, por ejemplo, la corona de la piña Ananas comosus se puede encontrar acumulada como desecho en los mercados de la ciudad de Managua, por consiguiente, surge la idea de su potencial aprovechamiento para la elaboración de un biopolímero.  De igual forma, Colombia cuenta con las industrias exportadoras de café Coffea arabica para el consumo mundial, donde en la Universidad Libre de Colombia Seccional Socorro (Santander), se cultiva el café marca Majavita en el cual, se lleva a cabo todo el proceso del café y sus etapas como trillado, tostado, molida y empacado. De este modo, la universidad se convierte en productor de café orgánico y realiza investigaciones para el crecimiento de la industria cafetera del Santander. En este proceso se obtienen los posos de café como desperdicios, los cuales, pueden ser aprovechados de igual manera, para la elaboración de un biopolímero.  



METODOLOGÍA

Para la elaboración del biopolímero, tanto con las coronas de piña como con los posos de café se seguirán los siguientes pasos:  Primeramente, se corta en pedazos la fibra y se tritura, de ser necesario se agrega agua, formándose un puré. Este puré se mezcla con glicerina y almidón de maíz, variando las proporciones para comparar las propiedades obtenidas de los distintos biopolímeros. Seguidamente, se agregan fibras de 3 mm en un 20% en volumen de biopolímero, la mezcla se calienta agitándola vigorosamente en el fuego hasta que se torna viscosa. Luego, se moldean los biopolímeros reforzados con las fibras haciendo formas rectangulares en papeles de hornear, se dejan secar a temperatura ambiente por 24 horas.  Cuando se obtiene el material se realizan las pruebas de ensayo como las propiedades de resistencia a la tracción las cuales dependen del volumen que se le agrega al material de las fibras naturales y la unión de los dos materiales, el esfuerzo de tensión, las pruebas de flexión y dureza.  


CONCLUSIONES

En la estancia de verano se adquirieron conocimientos teóricos basados en la rama de manufactura de materiales avanzados, específicamente en el desarrollo de materiales compositos utilizando látex natural y en la elaboración de biopolímeros, tomando en consideración los principales trabajados realizados hasta la fecha. Asimismo, para la búsqueda de antecedentes investigativos, se navegó dentro de distintas plataformas y programas de análisis de datos. No obstante, al ser un trabajo extenso, aún se encuentra en la fase de experimentación y se espera con los resultados obtener una formulación de los biopolímeros, con propiedades de mayor resistencia, tanto en las pruebas de ensayo para determinar la dureza como la flexión, resistencia al impacto y todos los análisis de procesos de materiales para poder llevarlos a un uso que pueda ser doméstico o industrial.   Finalmente, se espera obtener resultados óptimos debido al refuerzo añadido que aportan las fibras naturales con una tenacidad esperada que ofrezca un equilibrio de las propiedades mecánicas.  
Garcia Virgen Juan Esteban, Instituto Tecnológico Superior de Tierra Blanca
Asesor: Dr. Erasmo Saloma Ruiz, Benemérita Universidad Autónoma de Puebla

CONVERTIDORES DC-DC E INVERSORES DC-AC A ALTAS FRECUENCIAS


CONVERTIDORES DC-DC E INVERSORES DC-AC A ALTAS FRECUENCIAS

Garcia Virgen Juan Esteban, Instituto Tecnológico Superior de Tierra Blanca. Asesor: Dr. Erasmo Saloma Ruiz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Diseñar circuitos convertidores dc-dc (elevador y reductor) y circuitos inversores dc-ac (con 4 y 6 transistores) a altas frecuencias. Esto empleando transistores MOSFET (para dc-dc) y transistores IGBT (para dc-ac).



METODOLOGÍA

Se investigaron las caracteristicas de los transistores a utilizar, posteriormente se realizaron practicas con los mismos de manera fisica y, por ultimo se diseñaron y simularon (en softwares) los circuitos finales.


CONCLUSIONES

Los tranasistores son parte fundamental en este tipo de cicrcuitos debido a sus caracteristicas varias y, especificamente en altas frecuncias de trabajo, son excelentes componentes.
Garduño Benítez Diego, Instituto Tecnológico de Toluca
Asesor: Mg. Dionicio Neira Rodado, Universidad de la Costa

MEDICIóN DEL DESEMPEñO DEL SISTEMA DE EMERGENCIAS MéDICAS CON METODOLOGíAS MULTICRITERIO


MEDICIóN DEL DESEMPEñO DEL SISTEMA DE EMERGENCIAS MéDICAS CON METODOLOGíAS MULTICRITERIO

Garduño Benítez Diego, Instituto Tecnológico de Toluca. Piedra Salgado Fernanda Eliseth, Instituto Tecnológico de Zitácuaro. Asesor: Mg. Dionicio Neira Rodado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En Colombia el servicio de emergencias médicas es contratado por el estado, por lo tanto, debe haber una medición transparente del servicio prestado con el fin de poder tomar de mejor manera la decisión de a quien otorgarle la concesión. La decisión sobre el desempeño de los prestadores no puede basarse solo en tiempo de respuesta ya que esto es aleatorio y puede que algunos operadores se vean favorecidos con asignaciones y urgencias cercanas a los mismos. Además, en esta medición deben tenerse en cuenta aspectos como equipamiento (insumos), estado mecánico del vehículo, daños, atención prehospitalaria, diagnósticos, costos, entre otros, formación del personal, solidez financiera, entre otros.



METODOLOGÍA

En la presente investigación se pretende utilizar metodologías multicriterio como AHP - DEMATEL para determinar los criterios más relevantes para medir el desempeño de los proveedores de servicios médicos de emergencia (EMS) de manera transparente e integral. Las herramientas de toma de decisiones multicriterio proporcionan una evaluación completa y objetiva del desempeño de los proveedores de EMS en lugar de depender únicamente del tiempo de respuesta, que puede estar sujeto a fluctuaciones aleatorias. El enfoque propuesto utiliza un híbrido de AHP difuso, DEMATEL positivo y negativo que determinan que los criterios gerenciales son más relevantes en el proceso.


CONCLUSIONES

Al llevar a cabo la implementación de este modelo, se pretende asegurar la calidad y transparencia de los servicios médicos de emergencia y garantizar que la asignación de recursos sea responsable. Los resultados de este estudio demuestran la importancia de utilizar un modelo de evaluación integral para garantizar la calidad de los servicios médicos de emergencia y mejorar el proceso de toma de decisiones de las autoridades estatales.
Garduño Santín Jocelyn Fernanda, Universidad Autónoma del Estado de México
Asesor: M.C. Jorge Sosa Sales, Universidad Tecnológica de Nayarit

VIABILIDAD SOLAR EN EL ESTADO DE NAYARIT PARA LA IMPLEMENTACIÓN DE SISTEMAS FOTOVOLTAICOS


VIABILIDAD SOLAR EN EL ESTADO DE NAYARIT PARA LA IMPLEMENTACIÓN DE SISTEMAS FOTOVOLTAICOS

Garduño Santín Jocelyn Fernanda, Universidad Autónoma del Estado de México. Asesor: M.C. Jorge Sosa Sales, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el sector energético se está desarrollando más allá de las centrales eléctricas convencionales que contaminan el medio ambiente principalmente por la emisión de gases de efecto invernadero y la explotación de recursos naturales finitos.  Por esta razón y basándose en los objetivos de Desarrollo Sostenible de la Agenda 2030, se realiza la presente investigación para estudiar y recopilar información acerca de la viabilidad solar que podría tener el estado de Nayarit para la implementación de sistemas fotovoltaicos para la generación de energía eléctrica, dichos sistemas se plantean de forma interconectada a la red eléctrica de CFE con el propósito de depender en menor medida de fuentes de generación de energía emisoras de gases de efecto invernadero.    



METODOLOGÍA

Para garantizar que las centrales fotovoltaicas sean interconectadas a la actual red eléctrica de CFE, se tomaron en cuenta poblados que ya cuentan con el servicio de luz en las comunidades, posteriormente se reunió información perteneciente a las estaciones meteorológicas de CONAGUA ubicadas en los municipios de Acaponeta e Ixtlan del Rio, ya que estas son las únicas que cuentan con el instrumento requerido para tomar el dato de radiación solar.  La base de datos contiene 90 días abarcando desde el mes de abril hasta julio del presente año, las mediciones fueron tomadas cada 10 minutos. Únicamente se consideraron horarios en los que la radiación solar fuera relevante, los datos fueron filtrados de 9 am, en el que el sol comienza a ser más intenso hasta las 5:30 pm, donde comienza a ocultarse.  Para determinar un estimado de la energía solar que se recibe por metro cuadrado, se  segmentaron los valores de radiación solar otorgados por las estaciones meteorológicas correspondientes, en 10 rangos tomando el mínimo y el máximo de cada base de datos, posteriormente se obtuvo la frecuencia con la que ocurrían estos datos para generar un valor más real de la radicación, relacionando su frecuencia y la radiación promedio, finalmente se realizó la conversión de radiación (W/m2) a irradiación (kWh/m2) que sería la energía que se podría extraer por cada metro cuadrado.  También se utilizó el software Global Solar Atlas para visualizar las zonas con mayor concentración solar  en el estado de Nayarit Finalmente, para calcular el número de paneles solares que se requieren, se necesitan 3 datos: el consumo de energía (E),  las horas solares pico (HSP) y la potencia de panel solar (WP). El consumo de energía se consideró como el volumen de energía ofrecido por CFE a dichos municipios en 2015, el cual fue de 48,466 MWh y 23,880 MWh para Acaponeta e Ixtlán del Río, respectivamente.   


CONCLUSIONES

El promedio de radiación solar obtenido para los meses de abril a julio para la estación meteorológica de Acaponeta fue de 681.16 W/m2 mientras que para la de Ixtlán del Río fue de 732.16 W/m2 . El valor de irradiación para la estación de Acaponeta fue de 5.95 kWh/m2 y para la de Ixtlán del Río fue de 6.43 kWh/m2, estos últimos datos nos indican la energía que puede ser aprovechada.  Basándonos en los anteriores resultados y con las imágenes recabadas por Global Solar Atlas, se puede concluir que las zonas noreste y sureste del estado son más propicias para la instalación de sistemas fotovoltaicos porque reciben mayor radiación solar , sin embargo no se descarta la utilización de dichos sistemas  en otras regiones ya que de cualquier forma el recurso solar existe y está ahí para aprovecharse.  El dimensionamiento para instalación de paneles fotovoltaicos con los datos otorgados por CFE de 2015 se determinó que en el municipio de Acaponeta se requeriría un total de 3,179 paneles,  mientras que para Ixtlan del Rio 1,457 paneles. Es importante mencionar que Ixtlán del Río requiere menor número de paneles fotovoltaicos puesto que su consumo de energía es menor que el de Acaponeta, además de generar mayor cantidad de energía por las condiciones de radiación solar que recibe, sin embargo, al ser una zona con buen potencial solar en comparación con Acaponeta, se recomienda la instalación de mayor número de paneles, con el propósito de generar energía para otras regiones que la requieran y que la fuente de energía sea renovable.  
Garibay Alvarado Edgar, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

PUNTUACIóN Y PROGRESO: RESULTADOS DE LAS PRUEBAS DE INTEGRACIóN EN MINIJUEGOS Y SISTEMA DE PUNTOS DE FISIOTERAPIA PARA LA TERCERA EDAD.


PUNTUACIóN Y PROGRESO: RESULTADOS DE LAS PRUEBAS DE INTEGRACIóN EN MINIJUEGOS Y SISTEMA DE PUNTOS DE FISIOTERAPIA PARA LA TERCERA EDAD.

Garibay Alvarado Edgar, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El envejecimiento de la población es un fenómeno creciente en muchos países, lo que ha llevado a un aumento en el número de personas mayores que necesitan servicios de cuidado y atención. Entre los desafíos que enfrenta la población de la tercera edad, la salud física y mental son áreas cruciales para garantizar una mejor calidad de vida.   La fisioterapia se ha convertido en una disciplina esencial para mejorar la salud y bienestar de los adultos mayores. Una de las formas en que se busca promover la participación activa y el compromiso en las sesiones de fisioterapia es a través del uso de minijuegos inmersivos. Estos minijuegos, diseñados para trabajar diferentes aspectos físicos, cognitivos o emocionales, ofrecen una manera entretenida y estimulante para realizar ejercicios terapéuticos.   Además, la incorporación de un sistema de puntuación y progreso en los minijuegos puede aumentar la motivación de los adultos mayores para participar en las sesiones de fisioterapia de manera regular y constante. Al establecer un sistema de puntos o recompensas, se busca fomentar la competencia amistosa, el deseo de superarse y la sensación de logro, lo que podría resultar en una mayor adherencia al tratamiento y en última instancia, en una mejoría de la salud y el bienestar.



METODOLOGÍA

Para abordar el problema de la eficacia y viabilidad de la combinación de minijuegos inmersivos con un sistema de puntos en la fisioterapia para adultos mayores, se propone llevar a cabo un estudio de investigación que incluya los siguientes elementos metodológicos: Diseño del estudio de desarrollo: Consiste en llevar a cabo un estudio de desarrollo para implementar y evaluar el sistema de puntos junto con los minijuegos diseñados para el programa de fisioterapia en adultos mayores.   Diseño y desarrollo del sistema de puntos: Se diseña el sistema de puntos que permitirá a los usuarios obtener recompensas y puntos de acuerdo con su desempeño en los minijuegos. Se definen las reglas del sistema, los criterios de puntuación y las recompensas.   Diseño y desarrollo de los minijuegos: Se desarrollan los minijuegos inmersivos que formarán parte del programa de fisioterapia. Cada minijuego estará diseñado para abordar diferentes aspectos físicos, cognitivos o emocionales.   Integración del sistema de puntos y los minijuegos: Se procede a integrar el sistema de puntos con los minijuegos de manera que los puntos se asignen y acumulen automáticamente según el rendimiento del usuario en cada minijuego.   Pruebas de integración: Se llevan a cabo pruebas exhaustivas para asegurar que el sistema de puntos funcione correctamente con cada uno de los minijuegos y que los puntos se asignen adecuadamente de acuerdo con el desempeño de los usuarios   El sistema de puntos consiste en un conjunto de funciones que buscan hacer genérico la forma de evaluación, teniendo opciones establecidas como puntuar por tiempo, por actividad o por repetición de ejercicios o eventos. Con base en estos aspectos asigna insignias o estrellas de distinto valor (Bronce, Plata u Oro) que representa el nivel de completitud con el que se realizó la actividad, y cuyo valor es definido por el grupo de fisioterapia. También cuenta con un control de activación o desactivación de comportamientos lo que permite al sistema general poner en marcha o detener acciones que ocurren dentro del juego de forma automática y cuya configuración se adapta a todos los minijuegos del sistema. De forma similar puede controlar la emisión y reproducción de audios de control de las escenas en distintas etapas de cada minijuego. El sistema divide el flujo de cada minijuego en 5 etapas o pasos (Bienvenida, Instrucciones, Inicio del juego, Fin del juego y Despedida).


CONCLUSIONES

En resumen, la metodología de integración y Evaluación del sistema de puntos con los minijuegos para la fisioterapia ha sido efectiva en la creación de una herramienta atractiva y motivadora. La integración exitosa del sistema de puntos con los minijuegos garantiza una experiencia fluida y estimulante para los usuarios. Los resultados hasta el momento son prometedores y sientan una base sólida para futuros programas de fisioterapia enfocados en adultos mayores. Esta metodología puede mejorar significativamente la calidad de la atención al fomentar una mayor adherencia y motivación en la participación activa de los adultos mayores en su tratamiento, lo que puede conducir a una vejez más activa y satisfactoria.
Garibay Diaz Marcela, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

LEAN SAFETY


LEAN SAFETY

Coronado Hernández Ayelen Geraldine, Instituto Tecnológico de Tlalnepantla. Cortes Navarro Orlando, Instituto Tecnológico Superior de Uruapan. Garibay Diaz Marcela, Instituto Tecnológico Superior de Uruapan. Ramirez Castro Ana Georgina, Instituto Tecnológico Superior de Uruapan. Silva Tapia Melchor, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La falta de implementación de la filosofía Lean Safety en la empresa empacadora de aguacates, no permite reducir los sietes desperdicios en el área de producción y contribuir a la minimizar la incidencia de accidentes, además de riesgos laborales.  Con lo anterior mencionado, se requiere darle solución a este problema por parte de la empresa Brandon´s Fresh.



METODOLOGÍA

El plan de trabajo llevado a cabo se realizó bajo los principios de Manufactura Esbelta tales como: 5s, 7 desperdicios, Kaizen, Administración visual y Mantenimiento Productivo Total (TPM).  El equipo de trabajo se apoyó del campo de la Seguridad e Higiene Industrial, que con su enfoque y normatividad, se buscó la aplicación de las Normas Mexicanas establecidas por la Secretaría de Trabajo y Previsión Social (NOM-STPS). Fue así que en la primera intervención se inició con un recorrido dentro de las diferentes áreas que conforman a la empresa empacadora: proceso de selección, empaquetado, cámara de frio y distribución del producto. Con lo anterior se identificaron oportunidades de mejora en el área de producción utilizando un formato llamado Actividad de Seguridad Esbelta. Se prosiguió con la realización de una encuesta para el llenado del formato de Relevamiento Inicial, donde se identifican las Normas Mexicanas (NOM) de acuerdo a la Secretaria de Trabajo y Previsión Social (STPS). Se buscó profundizar en los inconvenientes que en la empresa se encontraron, a través del formato de Actividad de Seguridad Esbelta, revisando temas como: ergonomía, riesgos latentes y desperdicios (esperas, transporte, sobreproceso, inventario, movimientos, defectos y sobreproducción). Se elaboró una base de datos en una hoja de calculo de EXCEL donde se organizaron los inconvenientes encontrados con su debida propuesta, herramienta Lean, Normativa y Clausula Especifica que le corresponde. Cabe mencionar que los inconvenientes encontrados se presentaron formalmente ante el departamento de S.H.I con las respectivas propuestas, herramientas de Lean y su normatividad. Se invitó al equipo de trabajo a participar en la Comisión Mixta de Seguridad e Higiene, junto con el coordinador de S.H.I y participantes del área de inocuidad y almacén, con el fin de identificar condiciones y actos inseguros en cada área de le empresa Brandon´s Fresh.  


CONCLUSIONES

Para culminar, durante las intervenciones a la empresa se logró aplicar la filosofia Lean Safety para la elaboración de un diagnóstico que nos diera la nocion total sobre la situación actual de la empacadora. Apartir de conocer a la empresa se pudieron proponer alternativas de solución para los inconvenientes encontrados, es decir, por cada área de oportunidad encontrada se propone una acción de mejora a partir de la aplicación de herramientas de Lean y siguiendo la normatividad de las Normas Mexicanas (NOM).  El proyecto de Lean Safety ayudó a cada miembro del equipo a desarrollar sus competencias en un plano práctico.    
Garibay Salgado Cesar Isaias, Instituto Tecnológico de Chilpancingo
Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo

EXPLORANDO LA VIOLENCIA DE GÉNERO EN LOS ÁMBITOS ESCOLAR, LABORAL Y COMUNITARIO: UN ENFOQUE INTEGRADO MEDIANTE MINERÍA DE DATOS Y KDD


EXPLORANDO LA VIOLENCIA DE GÉNERO EN LOS ÁMBITOS ESCOLAR, LABORAL Y COMUNITARIO: UN ENFOQUE INTEGRADO MEDIANTE MINERÍA DE DATOS Y KDD

de la Cruz Vazquez Diana Laura, Instituto Tecnológico de Chilpancingo. Garibay Salgado Cesar Isaias, Instituto Tecnológico de Chilpancingo. Gonzalez Barragan Carlos Alexander, Instituto Tecnológico de Chilpancingo. Hipolito Gatica Kevin Osvaldo, Instituto Tecnológico de Chilpancingo. Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La violencia de género es un fenómeno global que afecta a mujeres y niñas en diversos contextos, comprometiendo su seguridad, bienestar y desarrollo integral. Si bien se han realizado esfuerzos significativos para abordar este problema, aún persisten desafíos importantes en la compresión de sus manifestaciones en diferentes ámbitos, como el escolar, laboral y comunitario. México presenta antecedentes significativos en violencia de género que lamentablemente continúan presentes en la vida cotidiana de la mayoría de las mujeres, lo que constituye una seria problemática social. Esta violencia se manifiesta en diversas formas, tales como violencia doméstica, acoso callejero, discriminación laboral, explotación sexual, feminicidios y trata de personas. En la actualidad, se cuenta con técnicas y tecnologías avanzadas que pueden aplicarse en el ámbito de la minería de datos. La pregunta surge sobre si es posible utilizar estas herramientas para encontrar patrones que identifiquen las principales características que resultan en violencia de género.



METODOLOGÍA

El tipo de investigación es descriptivo, debido a que busca determinar las variables comunes en la población con violencia de género e intrafamiliar, tomando como referencia los datos recolectados en la encuesta Nacional sobre la Dinámica de las Relaciones en los Hogares 2021 (INEGI), y aplicando técnicas de minería de datos, para generar modelos predictivos y descriptivos, aplicando la metodología KDD (Descubrimiento de conocimiento en bases de datos), utilizando como herramienta tecnológica WEKA, la cual genera los modelos y sus métricas de evaluación, para determinar cuál es el mejor modelo, y tomarlo como referencia para la toma de decisiones.


CONCLUSIONES

El uso de técnicas de minería de datos en el estudio de la violencia en México es inestimable para comprender patrones y factores de riesgo, facilitando la toma de decisiones informadas. El análisis de datos del INEGI sobre violencia de género en diferentes ámbitos muestra características específicas, destacando la importancia de abordarla de manera contextualizada y adaptar estrategias de prevención. Durante la investigación se presentaron los siguientes desafíos, durante la aplicación de los algoritmos J48 y Naive Bayes a un conjunto de datos optimizado utilizando WEKA. Se llevaron a cabo varios pasos de pre procesamiento para abordar errores e inconsistencias en los datos: • Identificación correcta de Clases: Asegurar la asignación correcta de clases y sus variables relacionadas para permitir una predicción precisa. • Renombrar Variables: Mejorar los nombres de las variables para una mejor comprensión y claridad. • Optimizar Variables: Agrupar variables comunes para mejorar la identificación y el análisis. • Resolver Incoherencias: Abordar discrepancias entre las respuestas a diferentes preguntas para refinar el conjunto de datos. • Crear Conjuntos de Datos Únicos: Generar conjuntos de datos individuales para cada clase para identificar variables no reconocidas por el conjunto de datos principal y posteriormente eliminar las variables no relacionadas. Los análisis descriptivos y predictivos permiten identificar variables relevantes y generar modelos para predecir y prevenir la violencia. La combinación de enfoques cuantitativos y cualitativos ofrece nuevas herramientas para abordar la problemática y tomar decisiones más efectivas. En general, esto contribuye a una mejor comprensión de la violencia y a promover medidas más adecuadas para enfrentarla. Mediante el análisis descriptivo y predictivo, se logró identificar variables relevantes y generar modelos que permiten predecir y prevenir la violencia. Sin embargo, es crucial considerar las implicaciones éticas y legales en la utilización de datos personales y garantizar la protección de la privacidad.
Garnica Aquino Mariana, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

PROTOCOLO DE TRANSMISIóN DE DATOS MEDIDOS POR SENSORES ULTRASóNICOS EN AFORO DE CAUDALES EN CANAL PRISMáTICO DE SECCIóN VARIABLE


PROTOCOLO DE TRANSMISIóN DE DATOS MEDIDOS POR SENSORES ULTRASóNICOS EN AFORO DE CAUDALES EN CANAL PRISMáTICO DE SECCIóN VARIABLE

Garnica Aquino Mariana, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la gestión y control del recurso hídrico con aplicaciones específicas (como es el caso del suministro a distritos de riego), el correcto aforo de caudales es una tarea esencial. Para este último, resalta la importancia de las mediciones de flujo en canales prismáticos de sección variable. Los procesos de medición involucran técnicas manuales y laboriosas, que no solo son propensas a errores humanos, sino que también son costosas. Con el avance de la tecnología, el uso de sensores ultrasónicos para medir tirantes, y determinar caudales se ha convertido en una opción atractiva, ya que permite automatizar el proceso y obtener mediciones más precisas y en tiempo real. Actualmente en México existe una baja densidad de estaciones hidrométricas automatizadas registrando caudales en tiempo real; lo último debido a sus elevados costos de implementación. La ciudad de Morelia, Michoacán cuenta actualmente con 3 estaciones hidrométricas bajo la supervisión de organismos operadores de gobierno como la Comisión Nacional del Agua (CONAGUA), para obtener estos datos en necesario la autorización de dicha institución y por consecuencia los datos encontrados en plataformas gubernamentales son desactualizados debido a una deficiencia en el envío de datos a dichas plataformas. Se propone entonces, implementar un programa para la transmisión de los datos obtenidos, así como un protocolo que funcione a través de radiofrecuencia con distintos algoritmos, implementando base de datos para que guarde información y esta a su vez la envíe a una página web en tiempo real, y dicha información sea accesible para cualquier usuario.  



METODOLOGÍA

Algunos puntos importantes en este proyecto son: 1.- Análisis de alternativas Análisis de diferentes placas para la comunicación. Las propuestas son las siguientes: esp32 wifi y Bluethoot modulo gsm 900 sim radiofrecuencia xbee radiofrecuencia LoRaWAN radiofrecuencias Los sensores se colocarán en una estructura previamente diseñada, en este caso de madera con puntos estratégicos del canal, se implementa dicha estructura en un canal prismático de sección variable (rectangular y trapecial) que se encuentran en el laboratorio de hidráulica ING DAVID HERNANDEZ GUERAMO en la Universidad Michoacana De San Nicolás De Hidalgo, sin embargo, la estructura puede adaptarse en diferentes canales siempre y cuando el canal cumpla con las condiciones que se requieren para colocar la estructura 2.- Transmisión de datos en tiempo real: En este caso se optó por usar la plataforma de BLYNK, la cual es una plataforma de Internet de las Cosas (IoT) que permite la creación de aplicaciones móviles personalizadas para controlar y monitorear dispositivos conectados.  Algunas razones para el uso de Blynk en este proyecto son: Interfaz de usuario personalizada Acceso remoto Facilidad de configuración 3.- Base de datos: Una base de datos nos permite almacenar de manera organizada y estructurada todos los datos medidos por los sensores ultrasónicos. Esto incluye mediciones de caudales, información de calibración, datos de la sección del canal, ubicaciones de los sensores y cualquier otro dato relevante para el proyecto. En este proyecto se tomaron en cuenta dos bases de datos, los cuales son: Thingspeak: Ofrece una interfaz API sencilla para la transmisión de datos desde los sensores ultrasónicos hasta la plataforma en la nube.  MongoDB: Es una base de datos NoSQL que permite almacenar datos en un formato flexible y sin estructura fija.  4.- Envío de datos remota El uso de LoRaWAN (Long Range Wide Area Network) en el Protocolo de Transmisión de Datos Medidos por Sensores Ultrasónicos en Aforo de Caudales en Canal Prismático de Sección Variable ofrece varias ventajas y beneficios específicos para este tipo de proyecto. LoRaWANes conocido por su capacidad de transmitir datos a largas distancias, lo que es especialmente útil en áreas rurales o donde la infraestructura de comunicaciones puede ser limitada. Esto permite la recolección de datos de sensores ubicados en puntos remotos y su transmisión a una estación base central. Además, se puede obtener una red de largo alcance y económico debido a que  LoRaWAN se basa en una infraestructura de red de bajo costo y alto alcance, lo que significa que puede cubrir grandes áreas con pocos puntos de acceso. Esto lo hace económicamente viable y escalable para proyectos que requieran una cobertura extensa. 5.- Sistema de energía Se desarrollo un sistema inalámbrico para energizar el circuito electrónico elaborado, ya que los sensores ultrasónicos deben ser energéticamente eficientes y tener una larga vida útil de las baterías para permitir una operación continua y sin problemas. En este proyecto se debe diseñar un sistema de carga para los sensores, el cual debe de permitir mínimo 3 días sin recargar, además se le debe adjuntar un botón de prendido y apagado para su facilidad en la estructura.    


CONCLUSIONES

Con base en lo visto durante este proyecto, se puede concluir que el uso de sensores ultrasónicos garantiza mediciones precisas y en tiempo real, lo que permite una mejor comprensión del flujo de agua en el canal, y la adaptación dinámica a las variaciones en la sección mejora significativamente la precisión de las mediciones. La transmisión de datos a través de tecnologías como LoRaWAN o Blynk proporciona una conectividad confiable y de largo alcance (17 km), permitiendo el acceso remoto y la supervisión constante del sistema. Además, este proyecto no solo facilita la gestión del recurso hídrico, sino que también contribuye a la conservación del medio ambiente al permitir una administración más sostenible y eficiente del agua. La capacidad de monitorear la variación de caudales y realizar ajustes precisos en la distribución del recurso en el canal contribuye a la protección de los ecosistemas acuáticos y a un uso más responsable del agua.
Garnica Tienda Mayra Andrea, Instituto Tecnológico de Matamoros
Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla

DESIGN THINKING (PENSAMIENTO DE DISEñO) PARA EL DESARROLLO DE CONTENIDOS VIRTUALES PARA EL APRENDIZAJE DE ESTUDIANTES DE INGENIERíA.


DESIGN THINKING (PENSAMIENTO DE DISEñO) PARA EL DESARROLLO DE CONTENIDOS VIRTUALES PARA EL APRENDIZAJE DE ESTUDIANTES DE INGENIERíA.

Aldrete Tovar Frida Monserrat, Instituto Tecnológico de Matamoros. Garnica Tienda Mayra Andrea, Instituto Tecnológico de Matamoros. Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La tecnología cada vez es más importante dentro del mundo, dentro del ámbito de la educación a causa de esta era tecnológica se debe hacer un progreso en los métodos se enseñanza dentro de las aulas, esta investigación busca incorporar la tecnología y el Design Thinking para métodos de aprendizaje más eficientes.  Design Thinking, o Pensamiento de Diseño, es una metodología que busca la solución a los problemas en los que se enfrenta, se trabaja en equipo y se logran resultados innovadores.  El desarrollo de contenidos virtuales es un aspecto importante a la hora de que el alumno adquiera conocimientos, el Design Thinking (pensamiento de diseño) es una metodología con la cual se busca un mayor aprendizaje dentro del aula para los estudiantes de ingeniería, el individuo al aprender acerca de esta metodología genera diferentes métodos de resolución de un problema que se presenta.  



METODOLOGÍA

Se realizó una revisión de la literatura que consta con la revisión de diferentes bases de datos, bibliotecas y revistas con respecto al Design Thinking y su aplicación dentro de un contexto educativo.   Se llevo a cabo una matriz que consideran aspectos como el título, el contenido del documento, se utilizó una herramienta la cual proporciono las citas bibliográficas en APA 7 (BibGuru). Posteriormente se hizo una revisión del concepto indagando en diferentes páginas confiables las cuales contenían documentos, libros o artículos. Una vez que se obtuvo el concepto se comenzó a buscar la parte aplicada al ámbito escolar en donde se realizó una segunda revisión de literatura donde se hicieron resúmenes acerca de cada artículo para extraer lo más importante de cada uno. Se realizaron tres diferentes tablas en Excel en las que se vaciaron diferentes aspectos que fueron relevantes para la revisión de literatura, aspectos como (autor, año, título de la investigación, variable, tipo de investigación, numero de la muestra si este presento, palabras clave, país de origen del documento, objetivos, resultado de la investigación, área hacia la que iba dirigida, herramientas utilizadas y su aplicación de la metodología). Una vez que se obtuvo el concepto se comenzó a buscar la parte aplicada al ámbito escolar en donde se realizó una segunda revisión de literatura donde se hicieron resúmenes acerca de cada artículo para extraer lo más importante de cada uno.  Posteriormente se realizó una conexión entre los artículos y documentos, agrupando aquellos en los que los temas coincidieran. Para esto se utilizaron conectores los cuales nos fueron de utilizad para enlazar las ideas de cada autor. Dentro de la narrativa recopilada se recabo información donde se realizaban diferentes experimentos con alumnos para llevar a cabo la implementación de los contenidos virtuales. Al final se realizó un documento integrador en donde se integran todas aquellas ideas y conocimientos acerca del Design Thinking  Según (Steinbeck, R, 2011) Design Thinking tiene 5 etapas o pasos fundamentales:   Empatizar: adquirir conocimientos básicos sobre los usuarios y sobre la situación o el problema en general, y lograr empatía con los usuarios mirándoles de cerca.   Definir: crear un usuario típico para el cual se está diseñando una solución.   Idear: generar todas las ideas posibles.   Prototipar: construir prototipos reales de algunas de las ideas más prometedoras;   Evaluar: Aprender a partir de las reacciones de los usuarios a los distintos prototipos.  Teniendo en consideración estas etapas y con la ayuda de las nuevas tecnologías como PowerPoint o Canvas en donde puedes ilustrar mejor tus ideas, o incluso otras plataformas de comunicación como Microsoft Teams o Moodle que pueden ayudar a compartir tus ideas sin la necesidad de estar en el mismo lugar que las demás personas, un estudiante puede lograr emplear grandes soluciones creativas con  base a las nuevas tecnologías existentes y los pasos anteriormente mencionados de pensamiento de diseño.  Según Tuñón (2020), las nuevas generaciones de estudiantes (millennials y centennials) representan un gran porcentaje de jóvenes, que vivencian día a día una diversidad de medios digitales.  Dentro del documento titulado Innovación educativa en el aula mediante el Design Thinking y Game Thinking (Hugo Arias Flores, Janio Jadan Guerrero, Lucia Gómez Luna, 2019) realizarón un estudio de Aprendizaje Basada en Metáforas Narrativas y Gamificación a 62 maestros de educación primaria, secundaria y superior, el objetivo de este estudio es generar diferentes escenarios de interacción y motivación usando la plataforma de Moodle, para así implementar las nuevas tecnologías para un mejor aprendizaje. Además de seguir explotando aquellas plataformas ya existentes (Quizizz, Kahoot, Google Forms, etc). Los alumnos aprenden y comprenden nuevos temas para su formación académica.  De acuerdo con (Pérez Rodríguez, 2021) es un claro ejemplo para trabajar en el aula de Tecnología de manera cooperativa con el objetivo de que el alumnado conozca una de las metodologías de innovación ampliamente extendida en el ámbito profesional para la solución creativa problemas. 


CONCLUSIONES

Durante la estancia de verano de manera virtual se adquirieron conocimientos acerca de cómo implementar el Design Thinking junto con la tecnología dentro de las aulas para el mejor aprendizaje de los alumnos de ingeniería. Cuáles son los pros de la implementación de contenidos virtuales para una mejor recepción de los temas enseñados a los alumnos. Todavía no es un terreno 100% explorado a profundidad, pero mientras tenga lugar avances tecnológicos, los métodos de aprendizaje evolucionaran. Se espera que los conocimentos aprendidos se implementen dentro del aula.
Gastelum Araujo Heidy, Universidad Autónoma de Sinaloa
Asesor: Dr. Miguel Antonio Cruz Carrillo, Universidad Autónoma de Sinaloa

EVALUACIóN DEL REFORZAMIENTO DE MORTEROS Y PASTAS DE CEMENTO TIPO I, CON COMPONENTES CEMENTANTES SUPLEMENTARIOS, POLIMéRICOS Y OXIDO DE GRAFENO


EVALUACIóN DEL REFORZAMIENTO DE MORTEROS Y PASTAS DE CEMENTO TIPO I, CON COMPONENTES CEMENTANTES SUPLEMENTARIOS, POLIMéRICOS Y OXIDO DE GRAFENO

Gastelum Araujo Heidy, Universidad Autónoma de Sinaloa. Soto Trapero Ana Sofia, Universidad Autónoma de Sinaloa. Asesor: Dr. Miguel Antonio Cruz Carrillo, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En este proyecto evaluamos materiales de construcción, tales como pastas y morteros, atendiendo las necesidades del área, de obtener materiales sostenibles, resistentes y duraderos. Tanto en morteros como en pastas de cemento tipo I, logramos incrementar la resistencia a la compresión de cubos de 2”, al incorporar pequeñas proporciones de componentes cementantes suplementarios, tales como: metacaolin (MK), humo de sílice (HS) y ceniza volante (CV). Al mismo tiempo evaluamos sistemas preliminares, donde no agregamos CV. Por otro lado, en todos sistemas evaluamos el efecto de adicionar bajas proporciones de óxido de grafeno (OG) y copolímero comercial al 0.1% (CC 0.1%), debido a que en nuestro grupo de trabajo hemos encontrado que dichos componentes funcionan para reforzar la microestructura y con ello la resistencia de pastas y morteros. Este proyecto de investigación realizó aportes al proyecto “Obtención de concretos resistentes y sostenibles utilizando aditivos orgánicos”. PRO_A8_056, de la Universidad Autónoma de Sinaloa.



METODOLOGÍA

Se prepararon muestras control (solo cemento tipo I) y sistemas donde se agregaron componentes cementantes suplementarios tales como MK, HS y CV al 1 y 2 %, en morteros y pastas de cemento tipo I. Este proyecto se desarrolló en las siguientes fases: 1) Fase principal, usando ceniza volante (CV), metacaolin (MK) y humo de silice (HS), en sistemas al 1 y 2% : con solo agua, con solución de copolímero comercial al 0.1% y con OG, por separado. 1) Fase preliminar, sin CV, con metacaolin (MK), humo de silice (HS) en sistemas al 1 y 2%: con solo agua, con solución de copolímero comercial al 0.1% y con OG al 0.02%, por separado. Las muestras se elaboraron en base a la norma NMX-C-085-ONNCCE-2015, donde una vez preparadas, se pasaron a moldes de 2” o 50 mm, se vibró y compactó utilizando un pison, a las 24h los cubos se llevaron a curado a 7, 14 y 28 días, realizamos este procedimiento siguiendo las norma ASTM C-109. Luego de obtenerse las muestras se evaluó la resistencia a la compresión tanto de pasta como de mortero a través del tiempo de madurez de los especímenes a 7, 14 y 28 días de curado.


CONCLUSIONES

- En cuanto a la adición de MK, HS y CV a pastas de cemento tipo I, en bajas proporciones Observamos que con el 1%, aumentó la resistencia a la compresión desde los 7 días, sin embargo 14 aumenta un poco y se mantiene estable hasta los 28 días con un leve incremento, los resultados indican que utilizar el 1% es suficiente, además al utilizar el CC al 0.1%, logramos un leve incremento, esto se puede explicar, debido a que el copolímero funciona mejor con proporciones pequeñas. - Del estudio preliminar agregando OG a los sistemas MK, HS, y CV, en la proporción al 1% no se obtuvo un incremento, en contraste para la proporción al 2%, obtuvimos un incremento del 25% a los 28 días, esto puede atribuirse debido a que el óxido de grafeno ayudo en la estructuración los materiales cementantes suplementarios (MK, HS, CV). - Del estudio preliminar donde realizamos mezclas sin usar ceniza, obtuvimos los mejores resultados, con un incremento del 78%, probablemente porque la ceniza reacciona lentamente y no logro incorporarse en los sistemas que la incluyen. - Seguiremos analizando las propiedades físicas, químicas y microestructurales de los materiales debido a la relevancia de los resultados obtenidos.
Gayosso Abarca Aranzazhu Margarita, Universidad Politécnica de Atlautla
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO. EFECTO DEL USO DE NANO PARTíCULAS DE SILICIO SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO.


CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO. EFECTO DEL USO DE NANO PARTíCULAS DE SILICIO SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO.

Gayosso Abarca Aranzazhu Margarita, Universidad Politécnica de Atlautla. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Surge la problemática del mal curado del concreto el cual es un problema recurrente en la construcción que afecta la calidad y durabilidad de las estructuras, proceso crítico que consiste en mantener la humedad y temperatura adecuadas durante el tiempo necesario para lograr un fraguado y endurecimiento óptimos. hecho que se omite por completo debido a diversos factores. El mal curado provoca una reducción en la resistencia del concreto, aumenta la porosidad y permeabilidad,crando la formación de grietas, disminuye la durabilidad y aumenta los costos de mantenimiento y reparación a largo plazo.. Para dar solución a esta problemática se realizan 3 tipos de muestras,las testigos a quienes se curón por inmersión en hidróxido de calcio saturado con el fin de alcanzar su máxima resistencia y  llevar un control ya que en la práctica real no se curan las estructuras los 28 días y menos los 90 días como lo indica la norma, hecho esto realizo una comparación con las muestras que no se están curando y a las que se les aplica el nanomaterial  confuncionalización hidrofobica la cual impide que el agua no se escapo y desarrolle todas sus propiedades de hidratación  lo que favorece su resistencia a la compresión de esta manera realizar una comparación con los resultados que se obtuvierón en los diseños.



METODOLOGÍA

En el proceso de diseñar una estructura de concreto,se debe realizar el seguimiento de un curado como se indica en las normas esto para que el concreto llegue a su resistencia máxima, pero en la actualidad esta norma no se lleva a cabo por lo que las estructuras de concreto tienden a tener una resistencia más baja y con mayor porosidad por lo que se  analizarara la aplicación de un nanomaterial mesoporos de partículas de óxido de silicio con funcionalización hidrofóbica sobre las propiedades de durabilidad de muestras de concreto reforzado negando el acceso y salida de agua, de esta manera con el agua que se preparó la mezcla se desarrollaran todas sus propiedades de hidratación y se obtendran resultados más favorables sin la necesidad de ser sometidas al proceso de curado. NANOPARTÍCULAS DE SIO2 En la actualidad sonutilizadas para restaurar y proteger materiales de construcción y restauración de la roca contienen alcoxi ,cuando se requieren propiedades hidrófobas ya que  polimerizan in situ dentro de la estructura porosa del sustrato alterado a través de un clásico proceso sol-gel incrementando significativamente su cohesión. SÍNTESIS Y FUNCIONALIZACIÓN DE PARTÍCULAS MCM-41-HDTMS Las nanopratículas de sílice mesoporoso MCM-41 se sintetizaron y luego se funcionalizaron con HDTMS. Se adicionaron en un matraz globo 96 mL de agua, 0.2 g de CTAB y 0.7 mL de NaOH 2M. La mezcla se agitó y se calentó a 80ºC Una vez alcanzada la temperatura se adicionó gota a gota 1.4 mL de TEOS diluido en 3 mL de metanol, continuando la reacción por 2 h. La solución obtenida se filtró, se secó en estufa y luego se extrajo el surfactante con 50 mL de etanol y 1 mL de HCl a reflujo durante 24 h. La mezcla se filtró y se secó de nuevo para obtener el material MCM-41. La funcionalización se realizó dispersando el MCM-41 en 30 mL de tolueno y agregando 0,362 mL de HDTMS La mezcla se dejó en agitación y reflujo durante 6 h. SUSPENSIÓN DE NANOPARTÍCULAS MCM-41-HDTMS EN ETANOL Se llevará a cabo la suspensión de nanopartículas MCM-41 en etanol al 1.3% peso/volumen, la suspensión se realizará por sonicación durante 30 minutos. MATERIALES Y CANTIDADES UTILIZADAS CEMENTO      61.30 kg ARENA            125.50 kg AGUA               34.24 lt ADITIVO          0.2452 lt GRAVA            125.80 Hecho el diseño, se realizaron las mezclas de acuerdo a las cantidades especificadas para esto se realizaron 48  probetas de concreto las cuales se dejaron secar en un lapso de 5 horas pasado ese tiempo se desmoldarón. De las cuales 24 son de 15cm* 7.5cm  y  24 son de  30cm*15cm  para esto se dejaron 7 curando por 7 dias, 7 curando por 14 dias, 7 curando por 28 dias y 7 que tiene el nanomaterial hidrofobico. PRUEBAS REALIZADAS Conforme las pruebas fueron cumpliendo su tiempo de curado se sometierón a la prueba de resistencia a la compresión donde se obtuvieron los siguientes resultados: 7 DIAS                        14 DIAS                      28 DIAS        TESTIGOS 110.8                             131.0                         143.96                   111.6                             131.0                          152.25 PROMEDIO 11.2                                131.0                         148.11 SIN CURAR 124.1                               131.9                        117.96 124.3                               125.3                        157.54 PROMEDIO 124.2                                132.6                        137.75 NANOMATERIAL 123.2                                139.7                          153.89 121.0                                142.1                          159.01            PROMEDIO 122.1                                140.9                          156.45 Con estos valores obtenidos confirmamos que las probetas con el nanomaterial tuvieron mejor resistencia a la compresión por lo que el objetivo del proyecto se logro. Terminada la  rueba de resistencia a la compresión se les realiza pruebas de resistencia y resistividad y pruebas de potencial en donde tambien se pudo apreciar la diferencia de resultados que se tenian en los tres casos favoreciendo a las probetas que se les aplico el tratamiento superficial.


CONCLUSIONES

En conclusión, los resultados obtenidos fueron muy satisfactorios ya que se obtuvo lo que se esperaba, que las probetas con el nanomaterial hidrofóbico tuvieron una mejor resistencia a la compresión que las que estaban sin curar. Comprobamos que el proyecto es viable ya que no solo se obtienen mejores resultados de resistencia a la compresión, sino que también sella la porosidad y mejorar la durabilidad y las propiedades del material. Siendo este un proyecto ya utilizado actualmente en el área de la construcción con este proyecto se confirma su funcionalidad y viabilidad. El haber participado en este verano de investigación fue una experiencia muy enriquecedora tanto de conocimientos como de experiencias, me llevo grandes aportaciones que estoy segura me serán de mucha ayuda en mi formación académica y laboral, agradezco cada una de las contribuciones por parte mi investigador por los conocimientos compartidos y el apoyo para concluir este proyecto de manera satisfactoria.
Gazca Rojas Alejandro Jahir, Instituto Tecnológico de Gustavo A. Madero II
Asesor: Dra. María del Rosario Fátima Robles Robles, Universidad Estatal de Sonora

CADENAS DE VALOR DEL LITIO


CADENAS DE VALOR DEL LITIO

Gazca Rojas Alejandro Jahir, Instituto Tecnológico de Gustavo A. Madero II. Asesor: Dra. María del Rosario Fátima Robles Robles, Universidad Estatal de Sonora



PLANTEAMIENTO DEL PROBLEMA

El proceso químico para la transformación de la materia prima para la extracción de litio, como uno de los eslabones de la cadena de valor litio, representa un riesgo de agotamiento de las reservas de agua dulce, tanto para consumo doméstico como también para aquellas actividades ganaderas y agrícolas, es por ello que en esta investigación nos enfocaremos en la extracción de litio y la escases de agua que pasa el municipio de Becadéhuachi, Sonnora.  OBJETIVO GENERAL Evaluar los efectos que tendría la explotación de litio y los impactos que provocaría en el medio ambiente, específicamente en el abasto de agua para consumo humano. OBJETIVOS ESPECIFICOS Determinar el consumo de agua que se requiere para la extracción del litio en Bacadéhuachi. Determinar la cantidad de agua que contiene el Río Yaqui para el abastecimiento de la población Identificar que actividades de remediación se tiene para el desabastecimiento de agua.



METODOLOGÍA

Investigación acerca sobre los riesgos que conlleva tener yacimientos de litio en el municipio de Becadéhuachi, Sonora, al ser un municipio que esta pasando por una vulnerabilidad importante como lo es el escases de agua. 


CONCLUSIONES

Tras la investigación realizada, podemos deducir que el  litio como sustituto del petroleo al ser un mineral que necesita de bastantes toneladas de agua para su extracción y transformación. Los procesos de extracción varían dependiendo de cómo se encuentre, se necesitan diferentes procesos e infraestructuras presenta grandes riesgo de escases en el estado de Sonora para ser más precisos, por lo que también la extracción de litio trae con sigo mismo muchos beneficos para los avances tecnológicos, medicinales y ambientales. Por ello, toma gran valor e importancia en su extracción ya que la funcionalidad del litio es tan alta que por eso se da este encuentro en la búsqueda del mismo.
Gil Bravo Jara Adalis, Universidad Nacional de Ingeniería
Asesor: Dr. José Ramón Gaxiola Camacho, Universidad Autónoma de Sinaloa

CáLCULO DE LA RESPUESTA SíSMICA DE UN MARCO DE ACERO SOMETIDO AL TERREMOTO CANOGA PARK STATION USANDO SAP2000


CáLCULO DE LA RESPUESTA SíSMICA DE UN MARCO DE ACERO SOMETIDO AL TERREMOTO CANOGA PARK STATION USANDO SAP2000

Gil Bravo Jara Adalis, Universidad Nacional de Ingeniería. Asesor: Dr. José Ramón Gaxiola Camacho, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

A lo largo de los años, los terremotos han amenazado a la humanidad, así como el entorno en que esta se desarrolla, cuantificando innumerables pérdidas de vidas humanas, económicas y daños o destrucción completa de aquellas estructuras esenciales para la respuesta ante la emergencia y la recuperación luego del desastre.  Un ejemplo de ello ha sido el sismo de Northridge, California ocurrido el 17 de enero de 1994 con epicentro cerca de dicha comunidad y una profundidad focal en 16km, incluso sacudió la zona de los Ángeles, Hollywood y Santa Mónica; causando daños severos a edificaciones, sistemas de transporte, líneas vitales y servicios públicos, así como 58 muertos y más de 1500 heridos de gravedad. En términos de pérdidas económicas, fueron estimadas en US$30,000 millones, este considera la peor catástrofe natural en la historia de los Estados Unidos. Lo más notorio del sismo de Northridge, desde el punto de vista ingenieril, resulta la falla estructural y el colapso espectacular de obras y edificaciones de construcción reciente durante las últimas décadas: puentes y obras viales, edificios de concreto reforzado y obras prefabricadas para estacionamiento de vehículos.  



METODOLOGÍA

Definición de las principales características del marco de acero estructural. Cálculo de carga viva, utilizando el Reglamento de Construcciones de la Ciudad de México del año 2017, del cual se extrajeron los valores de cargas vivas uniformemente distribuidas según la ocupación del edificio.  Cálculo de carga muerta  Cálculo de carga de viento. Para dicho cálculo se realizó en base al Manual de Diseño de Obras Civiles de la Comisión Federal de Electricidad (CFE, 2008), de lo cual se puede destacar que dicho marco corresponde a la clasificación de estructura del Grupo B, con un Tipo de respuesta 1 y una velocidad regional promediada para la ciudad de Culiacán, Sinaloa, de 160 km/hr Cálculo de carga de sismo, utilizando el método estático, en base al manual CFE 2015 se utilizó la ecuación empleada para calcular la fuerza lateral que actuará en el centro de la masa de cada nivel. Cabe resaltar que, para ello, se clasificó la estructura al Grupo B de importancia, por su tamaño B1 y por su estructuración por Tipo 1.  Modelado en SAP2000 en base a lo anteriormente calculado y evaluación de la respuesta estructural dinámica mediante un análisis Time-History no lineal. Interpretación de los resultados.


CONCLUSIONES

La predicción y simulación del comportamiento sísmico de estructuras a través de programas capaces de realizar de manera rápida y precisa cálculos complejos presenta una gran importancia en el ámbito de la ingeniería civil, debido a la agilización de los análisis de resultados y poder conocer de forma aproximadas los efectos y consecuencias provocadas por la acción sísmica sobre las estructuras. De esta forma poder diseñarlas para que sean capaces de no sufrir considerables daños frente a la acción de diferentes niveles de excitación sísmica que podrían afectar la estructura durante su vida útil. Por tanto, al momento de someter nuestro marco de acero estructural bajo las aceleraciones registradas por la Canoga Park Station, durante el sismo de Norhtridge del 94, las cuales presentaron un gran impacto a los miembros de acero que conforman dicho marco notándose desplazamientos en la azotea de hasta 1 metro registrados durante aproximadamente 0.26 segundos y grandes distorsiones en unos de los entrepisos centrales de hasta 0.21 metros. Además, el momento y carga axial estudiado en una columna y viga del primer piso mostró una variación en los 40 segundos de excitación sísmica del doble que sus valores antes del sismo. Siendo así, se concluye que el desempeño sísmico de la estructura en estudio ha sido insatisfactorio, siendo la principal razón que ha sido diseñada bajo normas que no corresponden con el país donde ocurrió el sismo empleado.
Giraldo García Thomas, Servicio Nacional de Aprendizaje SENA - Regional Caldas
Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales

DISEñO DE UN MICROSITIO WEB PARA EL PROGRAMA DE ENVEJECIMIENTO SALUDABLE


DISEñO DE UN MICROSITIO WEB PARA EL PROGRAMA DE ENVEJECIMIENTO SALUDABLE

Diaz Suárez Adriana Isabel, Fundación Universitaria Compensar. Giraldo García Thomas, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Realizar un micrositio Web para el programa de envejecimiento saludable que siga los lineamientos generales de la página oficial de la Universidad Autónoma de Manizales para mostrar de manera organizada la información general del programa.



METODOLOGÍA

Se usó como metodología de desarrollo de software Kanban, pues permite por un lado organizar de manera rápida y ordenada las tareas que se van a realizar y, por otro lado, debido al corto tiempo de entrega era el más óptimo para el desarrollo del micrositio.


CONCLUSIONES

Para realizar el micrositio fue necesaria una labor investigativa, pues también se colaboró de manera constante con el levantamiento de bases de datos, lo que también implicaba hablar con docentes de diversas áreas para organizar los artículos e información relevante para el programa de envejecimiento saludable. Ello nos ayudó a llevar de manera clara, la información que sería relevante para mostrar, a quienes iría dirigida y con base en ello realizar un diseño el cual fuese aprobado por los miembros del programa. Adicionalmente fue necesario utilizar la metodología Kanban para realizar la entrega teniendo en cuenta el tiempo establecido.    
Giraldo Idrogo Adriana Marcela, Universidad Católica de Pereira
Asesor: Dra. Yudith Choque Quispe, Universidad Nacional José María Arguedas

EVALUACIóN DEL íNDICE DE CONTAMINACIóN DE LIXIVIADO DEL RELLENO SANITARIO DE ANDAHUAYLAS Y EL BOTADERO DE URIPA


EVALUACIóN DEL íNDICE DE CONTAMINACIóN DE LIXIVIADO DEL RELLENO SANITARIO DE ANDAHUAYLAS Y EL BOTADERO DE URIPA

Giraldo Idrogo Adriana Marcela, Universidad Católica de Pereira. Asesor: Dra. Yudith Choque Quispe, Universidad Nacional José María Arguedas



PLANTEAMIENTO DEL PROBLEMA

En estos tiempos donde la protección y el cuidado ambiental se ha convertido en prioridad en todo el mundo y nuestra sociedad moderna ya es más consciente del daño crítico que las actividades humanas están impactando el mundo natural, es esencial garantizar el cuidado ambiental para evitar la contaminación que conlleva grandes consecuencias como el calentamiento global la contaminación de las aguas entre otros daños irreversibles que se le está haciendo al planeta, por eso es fundamental la protección de los recursos naturales y el agua es uno de esos recursos invaluables para la supervivencia de los seres vivos y el planeta, sin beber agua el ser humano no podría sobrevivir más allá de tres o cuatro días es vital para la vida y más sin embargo al día de hoy existen muchas zonas que no disponen de agua potable o la calidad del agua es bastante baja para su consumo lo que conlleva a enfermedades graves y aumento en la mortalidad. Según un artículo de de la calidad microbiológica del agua, a nivel mundial alrededor de 1,8 millones de personas mueren cada año debido a enfermedades diarreicas (incluido el cólera); un 90% de esas personas son niños menores de cinco años, principalmente procedentes de países en desarrollo. Además se ha estimado que el 88% de las enfermedades diarreicas son producto de un abastecimiento de agua insalubre, de un saneamiento y una higiene deficientes.    Dicho lo anterior una de las problemáticas que actualmente presenta la comunidad es la contaminación de las aguas que afecta drásticamente a la supervivencia humana y una de las principales fuentes de contaminación son los lixiviados que salen de los vertederos, rellenos sanitarios que no cumplen con su funcionamiento adecuado  los cuales contaminan el agua subterráneas y contienen gran cantidad de contaminantes incluyendo bacterias y metales pesados los cuales representan un gran peligro para los seres humanos y para el medio ambiente.   Esta investigación se centra en evaluar los parámetros contaminantes de los lixiviados en el laboratorio para conocer el impacto que estos generan en la comunidad.  



METODOLOGÍA

Se evaluó el índice de contaminación por lixiviados cuyas muestras se recolectaron en 2 lugares específicos,el relleno sanitario de andahuaylas. y el botadero de uripa provincia de chinchero    Para el relleno sanitario se tomaron las muestras de 2 puntos del pozo de lixiviación (lugar donde llegan los lixiviados del relleno sanitario) La primera muestra se tomó a la entrada del pozo de lixiviación y la segunda se tomó en la poza de lixiviados, se consideraron 2 litros de muestra de lixiviado, de acuerdo a las condiciones generales para la toma de muestras del Instituto de Toxicología de la Defensa. Las muestras fueron llevadas para ser analizadas en el laboratorio donde se evaluaron 16 parámetros contaminantes de los lixiviados incluyendo: análisis de los compuestos orgánicos, demanda bioquímica de Oxígeno DBO5, demanda Química de Oxígeno (DQO), bacterias coliformes totales (TC), análisis de los compuestos inorgánicos, pH, nitrógeno amoniacal (NH3), serie de sólidos, cloruro (Cl), análisis de los metales pesados,Cianuro,níquel (Ni), hierro (Fe), Cobre (Cu), Zinc (Zn), Plomo (Pb), Cromo total (Cr), Mercurio (Hg), Arsénico (As,determinación y cálculo del ICL, con estos parámetros se determinó la contaminación que estos producen en la zona y que tanto afecta a los cultivos y el agua de la población que habita cerca de este relleno y botadero. Dicho esto la investigación se realizó en base a los principio éticos en los cuales se basa nuestra sociedad y la metodología utilizada para esta investigación es de tipo descriptivo, con un enfoque cuantitativo, por variables no controladas ya que las muestras tomadas de lixiviados serán estudiadas en el laboratorio de investigación de la Universidad Nacional Jose Maria Arguedas (UNAJMA)  y sacaran datos numéricos para determinar los parámetros de contaminación de un lixiviado. por último se crea  la página informativa de los laboratorios de investigación de la  UNAJMA con el fin de poder mostrar todos los artículos y análisis que trabajan en los laboratorios incluyendo la evaluación del índice de contaminación de lixiviado del relleno sanitario de Andahuaylas y el botadero de Uripa el cual se desarrolla esta investigación.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teórico práctico sobre la evaluación de índices de contaminación de lixiviados y su relación con el medio ambiente e incluyendo el control que se debe manejar en los rellenos sanitarios y botaderos para que no afecte a las comunidades que habitan cerca, también se logró el análisis de los 16 parámetros contaminantes de lixiviados y se espera que las muestras tomadas sirvan para futuras investigaciones en el área de Apurímac y en otras investigaciones en todo el mundo con el fin de que las personas sean más conscientes de esta problemática que afecta la salud de todos. Por último la página informativa de los laboratorios de investigación de la UNAJMA ayudará al desarrollo de estrategias de mitigación efectivas y a promover prácticas sostenibles de investigación donde serán publicados los artículos e investigaciones científicas las cuales informan y educan a la comunidad.  
Giraldo Zuluaga Luisa Fernanda, Universidad Simón Bolivar
Asesor: Mg. Alejandro Arango Correa, Corporación Universitaria Remington

DISEñO DE UNA HERRAMIENTA PARA MEJORAR EL PROCESO DE GESTIóN DE MANTENIMIENTO DE EQUIPOS BIOMéDICOS EMPLEANDO LA METODOLOGíA DE DESIGN THINKING


DISEñO DE UNA HERRAMIENTA PARA MEJORAR EL PROCESO DE GESTIóN DE MANTENIMIENTO DE EQUIPOS BIOMéDICOS EMPLEANDO LA METODOLOGíA DE DESIGN THINKING

Giraldo Zuluaga Luisa Fernanda, Universidad Simón Bolivar. Asesor: Mg. Alejandro Arango Correa, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

La gestión de mantenimiento de equipos biomédicos es de vital importancia en el ámbito de la salud. Como señalan Lozada Valdés, García Peña y Duque Suarez (2021), es crucial otorgar mejoras y herramientas que permitan a las instituciones de salud cumplir de manera óptima con esta tarea fundamental. La falta de una herramienta adecuada dificulta la planificación, seguimiento y toma de decisiones relacionadas con los equipos biomédicos. Esto tiene un impacto negativo en la disponibilidad, rendimiento y calidad de la atención médica. La falta de una herramienta específica impide una programación eficiente de las tareas de mantenimiento, lo cual puede resultar en demoras y falta de organización. Asimismo, dificulta la documentación detallada y el seguimiento exhaustivo de los mantenimientos realizados, limitando la trazabilidad y afectando las decisiones relacionadas con reemplazos y reparaciones. (OMS, 2012) A nivel mundial y en la región, la falta de una herramienta eficiente de gestión de mantenimiento de equipos biomédicos representa un desafío significativo. En América Latina, esta problemática se agrava debido a la limitada accesibilidad a tecnologías modernas y a la escasez de capacitación y recursos. (Borba & Simini, 2017). En el caso específico de Colombia, la falta de una herramienta eficiente de gestión de mantenimiento de equipos biomédicos tiene un impacto directo en la calidad de la atención médica. 



METODOLOGÍA

Esta investigación es de paradigma cuantitativo y de tipo de investigación descriptiva, ya que se centra en la recopilación y análisis de datos numéricos, además busca proporcionar una representación fiel de los hechos observados, evitando la manipulación intencional de variables (Pinto, J. E. M. 2018). Se utilizaron los cinco pasos o etapas del design thinking debido a que este enfoque se basaba en comprender los deseos y necesidades para generar ideas innovadoras. El primer paso consistió en empatizar, en el contexto de esta investigación, se buscó comprender las dificultades y desafíos presentes en la gestión de mantenimiento de equipos biomédicos, así como las necesidades del personal encargado de este proceso. Posteriormente, se procedió a la etapa de definir, en la cual se determinó la problemática específica a abordar. A través de la herramienta de alquimia creativa, se identificó que existía una ausencia de una herramienta que acompañara de manera integral el proceso de gestión de mantenimiento de equipos biomédicos. En la etapa de idear, se buscó desarrollar y optimizar las herramientas existentes para la gestión del mantenimiento de los equipos biomédicos. Para ello, se utilizó un cuadro comparativo que permitió analizar las ventajas y desventajas de las herramientas buscadas en los motores de búsqueda de internet que permite realizar gestión de mantenimiento de equipos biomédicos. Luego se planteó una herramienta y se empleó la técnica de los seis sombreros para pensar de Edwar de bono para reconocer las características y mejoras de la herramienta a diseñar. A continuación, en la etapa de prototipar se desarrolla la herramienta con las mejores características analizadas de la etapa anterior y va a implementar un producto mínimo viable para presentarse a tres expertos. 


CONCLUSIONES

Las etapas de la metodología design thinking es empeñada para el diseño de productos y servicios en diversas organizaciones, para esta investigación se implementó para el diseño de una herramienta de gestión de mantenimiento de equipos biomédicos que permitirá a futuro a los ingenieros biomédicos una opción oportuna y eficiente para planear las revisiones de mantenimiento correctivo y preventivo de los equipos biomédicos. El proyecto contribuye al ODS 9 al promover la innovación en el campo de la gestión de equipos biomédicos, lo que puede tener un impacto positivo en la calidad de la atención médica y la sostenibilidad de los servicios de salud.
Godinez Equihua Jonathan Marín, Instituto Tecnológico Superior de Apatzingán
Asesor: Dra. Andrea Fernanda Muñoz Potosi, Universidad de Investigación y Desarrollo

USO DEL EFECTO TALBOT EN BENEFICIO DE LA METROLOGíA óPTICA.


USO DEL EFECTO TALBOT EN BENEFICIO DE LA METROLOGíA óPTICA.

Godinez Equihua Jonathan Marín, Instituto Tecnológico Superior de Apatzingán. Asesor: Dra. Andrea Fernanda Muñoz Potosi, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La metrología óptica busca proponer y desarrollar técnicas de medida que sean precisas y confiables, en ese sentido, el fenómeno de autoimágenes conocido como Efecto Talbot permite obtener las réplicas exactas de una estructura periódica conocida que es iluminada con una fuente de luz coherente, a unas distancias específicas donde el valor de la distancia entre autoimágenes sucesivas depende de la longitud de onda de iluminación y de la periodicidad del objeto. Esta característica, es de vital importancia, puesto que se ha mostrado que, a distancias diferentes a la distancia de Talbot, la visibilidad de las autoimágenes cambia. En este trabajo, se propone analizar con procesamiento digital de imágenes, a imágenes obtenidas a partir de un arreglo experimental. Los resultados permitieron corroborar a la literatura, puesto que se observa que las cuasi-autoimágenes presentan menor visibilidad (o contraste) con respecto a las autoimágenes, donde todas las ondas convergen exactamente en fase en cada plano Talbot.



METODOLOGÍA

Utilizando la teoría del efecto Talbot se implementa un arreglo experimental que utiliza un frente de onda plano y una rejilla periódica. A una distancia perpendicular a la propagación del frente de onda conocida como distancia de Talbot, se ubica un plano de observación donde se captura su autoimagen. La teoría indica que a diferentes distancias de Talbot aparece una autoimagen desfasada de su periodo original. La idea de este proyecto es analizar a esas autoimágenes a través de procesamiento digital de imágenes para calcular la visibilidad de estas en función de la distancia de ubicación del plano de observación.


CONCLUSIONES

La visibilidad de la imagen de la rejilla periódica varía en función de la distancia de Talbot y es menor a medida que el plano de observación se aleja más de dicha distancia. Si el plano de observación se encuentra ubicado a la mitad de la distancia de Talbot, la autoimagen se desfasa por medio periodo. Esto se puede observar en la distribución de intensidad de la imagen analizada.
Godinez Santana Eduardo, Instituto Tecnológico de Chilpancingo
Asesor: Dra. María Zavala Hurtado, Instituto Tecnológico de Chilpancingo

SISTEMA DE CONTROL DE ASISTENCIA A TRAVéS DE RECONOCIMIENTO FACIAL


SISTEMA DE CONTROL DE ASISTENCIA A TRAVéS DE RECONOCIMIENTO FACIAL

Atempa Basilio Cesar Eduardo, Instituto Tecnológico de Chilpancingo. Godinez Santana Eduardo, Instituto Tecnológico de Chilpancingo. Moras Moras José Armando, Instituto Tecnológico de Chilpancingo. Asesor: Dra. María Zavala Hurtado, Instituto Tecnológico de Chilpancingo



PLANTEAMIENTO DEL PROBLEMA

En el TecNM campus Chilpancingo, como la mayoría de las instituciones educativas, realizan un seguimiento constante de la asistencia de los estudiantes con el fin de ayudar al profesor a conocer la presencia, ausencia o retardos de los estudiantes y así poder resolver algunos problemas que se puedan presentar. El proceso de registro de asistencia dentro de las aulas del TecNM campus Chilpancingo por parte de los profesores es de manera manual, se anuncia el nombre de cada uno de los estudiantes y en una lista se registra la asistencia, retardo o falta. Esto implica que, en una clase de 60 minutos, con un promedio de 30 alumnos el docente invierte de 10 a 15 minutos registrando la asistencia. Aunado a lo ya mencionado, este proceso es susceptible a errores humanos (registrar asistencia, falta o retardo donde no corresponde) ocasionando reportes incorrectos sobre el tema en cuestión.



METODOLOGÍA

Las metodologías ágiles son flexibles y ofrecen una respuesta inmediata; además, son adaptables a la forma de trabajo de los proyectos, permiten construir un producto de forma incremental, hacer modificaciones y cambios en cualquier etapa del proyecto. Dentro de estas metodologías ágiles se seleccionó el método Scrum porque trabaja en pequeños proyectos; en cada Sprint se realiza la planificación, análisis, creación y comprobación, también se caracteriza por las entregas regulares y parciales del producto final. Aunado a lo anterior, cuando se detecta problemas en un Sprint puede volver a la fase del error para corregir el problema (las Heras del Dedo, R. d., Álvarez García, A., Lasa Gómez, C., 2018) El método Srum se trabajó apoyándose en tres procesos: Construcción de la base de datos del sistema de control de asistencia y el diseño de la interfaz final. Desarrollo de la API de reconocimiento facial a través de imágenes. Construir la API de reconocimiento facial a través de video. En cada proceso se realizó la planeación, el análisis, la creación de la iteración y por último se probó el correcto funcionamiento del sistema, además se realizaron pruebas finales con la integración de cada proceso. Planeación. Se definieron los objetivos y se fijaron fechas de entrega de los sprint. Análisis. Se analizaron los requisitos del proyecto, considerando la automatización, la precisión y registro de asistencia en la base de datos, la rápida identificación de los estudiantes y monitoreo en tiempo real.   Creación: Se construyó cada sprint utilizando como principal lenguaje de programación python, la biblioteca OpenCV y el SGBD MariaDB, se utilizó el algoritmo de FaceNet implementado a través de la biblioteca face_recognition para el reconocimiento facial tanto de imagen como video Comprobación: Durante y después de cada sprint, se realizaron pruebas para asegurarse de que el software cumple con los requisitos y funciona como se planeó. Las pruebas también ayudaron a identificar la eficiencia de los algoritmos de reconocimiento de imagen y video.


CONCLUSIONES

El desarrollo del Sistema de Control de Asistencia a través de Reconocimiento facial representa un importante avance en la administración académica y en la gestión del tiempo en el ámbito educativo. El sistema fue desarrollado con el uso de diversas herramientas y bibliotecas como: Python, OpenCV, Dlib y face_recognition, llegando a las siguientes conclusiones: El reconocimiento facial requiere de un algoritmo capaz de entrenarse para que la eficiencia logre el menor margen de error al momento de la comparación entre imagenes, en este caso se utilizó el algoritmo FaceNet implementado a través de la biblioteca face_recognition, alcanzando una compatibilidad hasta del 80% en las pruebas realizadas. Se utilizó una base de datos donde se guarda permanentemente la información de los estudiantes y las materias que cursa, así como su asistencia. El Sistema Gestor encargado de eso fue MariaDB por la cantidad de registros que almacena, además de ser OpenSource. El guardado de imágenes en la base de datos se realizó convirtiendo la imagen a escala de grises con cvtColor, enseguida se utilizó el clasificador Haar.igual para ser guardado en la base de datos, proceso que fue exitoso para poder recuperar la imagen, ser comparada con el rostro y registrar la asistencia cuando existen coincidencias. Se integró correctamente los algoritmos de reconocimiento facial a través de imagen y video en el sistema de control de asistencia, logrando el objetivo planeado. Aunque las pruebas se realizaron de manera local con más de 20 rostros, se recomienda realizar un test del sistema en un ambiente real.
Gómez Almanza Arantxa María, Universidad de Guadalajara
Asesor: Mg. Andrea Goméz Alzate, Universidad Autónoma de Manizales

REDISEñO DE APUNTADOR PARA JUEGO DE BOCCIA. GUíA DE ELECCIóN, ADAPTACIóN Y USO DE PRóTESIS TRANSITIBIAL (CAPíTULO ELECCIóN)


REDISEñO DE APUNTADOR PARA JUEGO DE BOCCIA. GUíA DE ELECCIóN, ADAPTACIóN Y USO DE PRóTESIS TRANSITIBIAL (CAPíTULO ELECCIóN)

Gómez Almanza Arantxa María, Universidad de Guadalajara. Tzeck Alatorre Liliana Anahi, Universidad de Guadalajara. Asesor: Mg. Andrea Goméz Alzate, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

ODS 3: salud y bienestar, garantizar una vida saludable y promover el bienestar para todos para todas las edades. Proyecto 1: Guía para la elección, adaptación y uso de prótesis transtibial (capítulo elección) Planteamiento El éxito del proceso de protetización depende de muchos factores, entre los cuales se encuentran la elección de la prótesis adecuada, una correcta adaptación a ésta por medio de procesos de rehabilitación, y del correcto uso que el paciente haga de la prótesis.  Uno de los factores que puede mejorar el proceso de adaptación y uso es la correcta elección del elemento protésico, pues depende no sólo de factores como la edad, el peso, el motivo de amputación y el costo, sino también, del nivel de actividad que en su cotidianidad tenga el usuario, son muchos factores que pueden ser abrumadores sumados al proceso mismo de la pérdida del miembro. Esta guía, puede informar al usuario sobre conceptos importantes para el proceso de protetización, enfocada en la elección de una prótesis transtibial, bien sea para niño, adulto o adulto mayor, siempre acompañado de la ayuda de expertos en prótesis y ortesis para una elección adecuada. Contiene además apartes informativos que ayudarán a la población mexicana y colombiana en aspectos de costos, fabricantes e información relacionada con los factores ambientales y culturales. Como resultado, se generó un mapa mental que contiene información generalizada donde el usuario pueda tener una orientación para la elección de la prótesis. Proyecto 2: Rediseño de apuntador para juego boccia Planteamiento Las ayudas técnicas deportivas se constituyen como un factore fundamental en el desarrollo deportivo de las personas en situación de discapacidad.  Específicamente para el juego de Boccia en la categoría BC3 éstas son fundamentales para que el jugador pueda desempeñarse en el campo de juego y en entrenamientos.  En este proyecto se realizó el rediseño de un apuntador que se utilizará en cabeza, boca y mano, estos modos de uso del apuntador tienen la finalidad de ayudar al jugador a lanzar la bocha durante el juego, se busca que este rediseño sea más práctico para cambiar las posiciones o aumentar la altura para lanzar la bocha, asimismo para transportar; es de vital importancia que sea seguro y preciso para el usuario.



METODOLOGÍA

Proyecto 1: Guía para la elección, adaptación y uso de prótesis transtibial (capítulo elección) Problema: Crear un mapa mental con información donde establezca los lineamientos para la elección de una prótesis transtibial en niños, adultos y adultos mayores. Contextualización Comprender qué es una prótesis transtibial: Conocimiento de qué es una prótesis transtibial en niños, adultos y adultos mayores. Comprender etapas para un uso correcto de prótesis: Conocimiento de etapas de protetización en niños, adultos y adultos mayores. Análisis Análisis de las etapas de protetización Clasificación Clasificación de información de cada etapa para los diferentes públicos: Organización de la información dirigida a los distintos tipos de usuarios. Realización: Elaboración de un mapa mental donde articulen los factores que inciden en el proceso de elección de una prótesis transtibial para distintos usuarios. Proyecto 2: Rediseño de apuntador para juego boccia Metodología Para esta investigación se utilizó una metodología participativa para el diseño de producto centrado en usuario. Problema: Rediseñar apuntador para cabeza y boca, que sea preciso, seguro y robusto para reconfigurable y práctico. Contextualización Comprender el juego de boccia. Análisis de diseños existentes: Identificación de elementos en diseños existentes factibles de implementar o rediseñar. Etapa creativa Elaboración de diseños mejorados que cumplan con los criterios establecidos. Evaluación Evaluación de propuestas: Determinar el diseño final.


CONCLUSIONES

Proyecto 1: Guía para la elección, adaptación y uso de prótesis transtibial (capítulo elección) La información requerida para la elección de una prótesis es tan variada, que tenerla depurada, organizada y en un lenguaje claro para las personas por fuera del ámbito de la salud; ayuda a usuarios y familias a hacer una elección informada. El mapa informativo desarrollado en este proyecto ayuda a tener de una manera clara y ágil la información relacionada con la elección de una prótesis transtibial, lo que repercute positivamente en los procesos de adaptación y uso. Proyecto 2: Rediseño de apuntador para juego boccia Por medio de este proceso adquirimos conocimientos del proceso de diseño de producto que consideramos importantes como la relación del objeto con el usuario y el contexto. La Ingeniería Biomédica es una disciplina que influye de manera positiva en campos antes no considerados por nosotras como el de las ayudas técnicas. El trabajo con los usuarios en el proceso de diseño mejora la percepción de lo que se necesita para proponer soluciones al problema planteado. El diseño del apuntador obtenido por medio del proceso permite adaptarse a boca, cabeza y mano; lo que hace que cualquier jugador, sin importar su nivel o control de movilidad pueda usarlo.
Gómez Amador Luis Eduardo, Instituto Tecnológico de Pachuca
Asesor: Dr. José Antonio Perez Pimienta, Universidad Autónoma de Nayarit

EVALUACIóN DEL PROCESO ONE POT EN PELLETS DE BAGAZO DE AGAVE Y MADERA DE PINO DENTRO DE UNA BIORREFINERíA DE UNA PLATAFORMA BIOQUíMICA PARA LA PRODUCCIóN DE BIOETANOL.


EVALUACIóN DEL PROCESO ONE POT EN PELLETS DE BAGAZO DE AGAVE Y MADERA DE PINO DENTRO DE UNA BIORREFINERíA DE UNA PLATAFORMA BIOQUíMICA PARA LA PRODUCCIóN DE BIOETANOL.

Gómez Amador Luis Eduardo, Instituto Tecnológico de Pachuca. Asesor: Dr. José Antonio Perez Pimienta, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

El uso de combustibles fósiles es una de las principales fuentes energéticas que se utilizan actualmente, sin embargo, su alto impacto a la atmósfera debido a la emisión de gases de efecto invernadero como lo son el monóxido y dióxido de carbono, así como óxidos de azufre y/o nitrógeno es un problema latente que pone en riesgo la integridad del planeta. El impacto económico-social es un punto a considerar, ya que los países con grandes reservas de combustibles fósiles tienen el poder energético en la economía mundial, limitando el crecimiento y competencia de economías emergentes que carecen de este recurso. El desarrollo de nuevas energías como biocombustibles es una oportunidad de atender las problemáticas planteadas. Durante la estancia de investigación se realizó una evaluación de la viabilidad en la generación de bioetanol a partir de biomasa lignocelulósica.



METODOLOGÍA

Se realizó la experimentación con pellets y polvo de pellet de bagazo agave de la marca Flamor. Se utilizaron 600 mg base seca de cada muestra. Primeramente, se determinó el contenido de la humedad de las muestras sin tratar en una termobalanza (analizador de humedad básico MB27). Verificando que las muestras se encontrarán dentro de un intervalo aceptable de humedad (menor a 10 %). Se procede a mezclar con 2400 mg de la concentración correspondiente de líquido iónico (LI) ([EOA][OAc]) a una carga de biomasa del 20% en un tubo de presión de vidrio ACE Glass 8648-30 #15. Posteriormente, se procede a calentar el tubo de presión y el contenido a 160 °C en un baño de aceite, manteniendo una agitación periódica de 10 minutos durante 1.5 h. Al finalizar el proceso, se enfría el tubo de presión por 20 minutos en agua a temperatura ambiente y la solución se diluye con agua para lograr una concentración del 10% en peso. Realizando los cálculos pertinentes se determinó que la cantidad de agua para diluir a dicha concentración es de 21436 uL. El proceso se realiza empleando una micropipeta con capacidad de 10 a 1000 uL. Se continuó con la etapa de sacarificación enzimática, agregando la enzima CTec2 de Novozymesempleando con una micropipeta Eppendorf a una concentración de 20 mg de proteína por g de sólido (164.4 uL) y colocando los tubos en un horno de hibridación 5430 (VWR Hybridization Ovens) a una temperatura de 50 °C por 72 horas. Todo el procedimiento se realiza por triplicado para pellets y polvos. Se realiza el muestreo de la fase líquida transcurridas 6, 24 y 72 h, tomando 150 uL para las primeras dos mediciones y 500 uL para la tercera en tubos Eppendorf, refrigerando a 4 °C para su análisis. El cual se lleva a cabo realizando diluciones por triplicado de cada muestra obtenida a las diferentes horas establecidas, las disoluciones determinadas son 1:5, 1:10 y 1:20 en relación con agua, se preparan en tubos Eppendorf. Posteriormente se colocan 60 uL de cada muestra en una placa de pocillos, para determinar los azúcares generados en la sacarificación se requiere emplear una técnica colorimétrica. En este caso se opta por el método DNS en el cual se emplea 3,5-ácido dinitrosalicílico para la hidrólisis de polisacáridos, utilizando 60 uL. Previo a la medición espectrofotométrica se hidroliza en un termociclador (BIORAD My Cycler) durante 5min. Se procede a la determinación espectrofotométrica a 540 nm en un espectrómetro UV visible. Para interpretar los datos obtenidos se realiza una curva de calibración. La evaluación del proceso one-pot, se realiza contrastando con un pretratamiento con LI, calentando por 1.5 h muestras de pellet y polvos del mismo (por triplicado) en baño de aceite a 160 °C con agitación intermitente de 10 min para su posterior lavado con agua destilada por medio de una centrífuga digital (Centrificient II) realizando el proceso de lavado cinco veces. Posteriormente la fase sólida se coloca en charolas de aluminio a 45 °C en una estufa (Thermo Fisher Scientific Heratherm IGS100) durante 48 h. Se determina el porcentaje de sólidos recuperados se obtiene por medio del cociente del peso de la biomasa pretratada peso seco y el peso de la biomasa sin tratar en peso seco, de esta forma se puede dar una evaluación preliminar de la cantidad de materia que podemos sacrificar tanto en pellets como en polvos.


CONCLUSIONES

Por medio del pretratamiento con LI, se determinó el porcentaje de sólidos recuperados, en el caso de los pellets y polvo del mismo de la muestra de Flamor se tiene un porcentaje de 76.41 % y 76.68 % respectivamente, esto nos indica que pellets y polvos no tienen una diferencia significativa en la recuperación de sólidos, por lo que en el proceso one pot se debe tener un rendimiento parecido entre ambas muestras. Los datos obtenidos en el espectrofotómetro UV visible se analizaron por medio de la curva de calibración, a partir de los datos obtenidos se determinó que la disolución 1:20 no es óptima para la generación de azúcares reductores, ya que, presenta absorbancias significativamente menores a las esperadas. Sin embargo, la conversión no tiene un comportamiento coherente en la generación de azúcares para algunas de las muestras a 6 y 24 horas, en las cuales se nota una disminución, cuando la tendencia es a aumentar la concentración de azúcares. Se determina que hubo errores en la medición, en la disolución o en algún otro procedimiento que causó esta discrepancia. En una segunda medición para disoluciones de 1:5 y 1:10 se obtuvieron resultados con un promedio de 4.36 y 6.43 g/L para pellets y polvos en la disolución 1:5, los datos tienen diferencia significativa, mientras que en la disolución 1:10 se obtuvieron 3.5 y 4.57 g/L para pellets y polvo los cuales no tienen una diferencia estadística significativa.
Gomez Avalos Alondra, Instituto Tecnológico de Morelia
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

AUTOMATIZACIóN Y CONTROL DE PROTOTIPOS APLICADOS AL CAMPO


AUTOMATIZACIóN Y CONTROL DE PROTOTIPOS APLICADOS AL CAMPO

Gomez Avalos Alondra, Instituto Tecnológico de Morelia. Ramos Santos Kevin Emilio, Universidad Autónoma de Baja California. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En México la agricultura desempeña un papel fundamental para el ingreso económico de muchas familias, en el año 2017 6.4 millones de personas estaban empleadas en actividades agrícolas según el Censo Agrícola, Ganadero y Forestal del INEGI, para estas familias la cosecha de sus siembras representa el total de su sustento, por ello cualquier problema relacionado a la salud de los cultivos tiene un impacto directo en su bienestar y en su economía. Aunque existen dispositivos tecnológicos que permiten tener una mayor seguridad y efectividad en la cosecha de los cultivos, estos dispositivos tienen un costo muy elevado, lo cual los hace inaccesibles para la gran mayoría de los agricultores, cuyas condiciones económicas no les permiten adquirir dichos dispositivos. Por ello se busca desarrollar e implementar dispositivos de bajo costo, capaces de realizar mediciones y otras acciones concretas según la necesidad, con el fin de permitir el acceso a estas tecnologías a los agricultores mexicanos, de forma que estás sean efectivas, baratas y sencillas de utilizar.



METODOLOGÍA

Se realizó una investigación de los parámetros más elementales para llevar a cabo estudios respecto a la salud y condiciones de los cultivos, esto con el fin de incluir la adquisición de estos parámetros en los dispositivos a desarrollar. Estos parámetros son: temperatura y humedad del ambiente, así como la temperatura, humedad y el nivel de pH del suelo. Después de la elección de parámetros a adquirir, se realizó la búsqueda de sensores que nos permitiesen obtener dichos parámetros, una vez elegido el más adecuado, según su costo, facilidad de obtención y su precisión, se realizó la compra, y posterior a su llegada, se realizaron distintas pruebas para determinar su correcto funcionamiento y la exactitud de sus mediciones. Una vez probados los sensores, se eligió el controlador necesario para realizar la adquisición de los datos, se optó por un Atmega328P, comúnmente conocido como Arduino Uno, esto debido a su fácil adquisición, su bajo costo, facilidad de implementación para proyectos de electrónica, así como la fiabilidad de los procesos desarrollados. Se realizaron distintos prototipos cuyo objetivo era la adquisición de los parámetros, así como su almacenamiento, esto con el fin de poder utilizar los datos para un posterior análisis, esto permite establecer correlaciones entre los parámetros y el estado del cultivo, ya sea la detección o desarrollo de una plaga conforme a la evolución de la temperatura, humedad y pH. Para el almacenamiento de los datos se implementó una memoria SD, esto permite que el almacenamiento de los datos, y su posterior extracción para un análisis a posteriori fuese llevado a cabo de manera sencilla. Los prototipos desarrollados fueron probados en un ambiente controlado, esto con el fin de simular todas las condiciones, a las que los prototipos serían expuestos durante su funcionamiento en un ambiente real, dichas pruebas fueron un éxito, validando que los prototipos estaban listos para una prueba de campo. Para realizar las pruebas de campo se optó por un lugar que cumpliese con las condiciones reales a las que estarían sometidas los prototipos, en este caso fue en las instalaciones del Centro Universitario de la Ciénaga campus La Barca, el cual cuenta con una zona utilizada para cultivo.


CONCLUSIONES

Las pruebas de campo realizadas, demostraron que los prototipos lograron cumplir su objetivo de manera satisfactoria, permitiendo la adquisición de los parámetros elegidos, además de su correcto almacenamiento en una memoria SD, la cual fue extraída de los prototipos, y con los datos recopilados, se realizó un análisis para determinar la correlación de la presencia de una plaga específica en los cultivos de maíz. Esto tiene un gran impacto, permitiendo obtener los datos necesarios para realizar diversos análisis con los datos adquiridos, logrando que estos prototipos sean una herramienta de gran utilidad para realizar diversos estudios en los campos de cultivo, llevando la implementación de estas tecnologías a la población de agricultores, permitiendo una mejora en la salud de sus cultivos, logrando evitar grandes pérdidas que suponen un problema en su calidad de vida. Así como permitir a investigadores tener una herramienta para realizar la adquisición de parámetros para sus investigaciones.
Gómez Barrita Juan David, Universidad de Guadalajara
Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca

IMPLEMENTACIóN DE RED NEURONAL PULSANTE EN ROBOT BIOINSPIRADO


IMPLEMENTACIóN DE RED NEURONAL PULSANTE EN ROBOT BIOINSPIRADO

Gómez Barrita Juan David, Universidad de Guadalajara. Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Las redes neuronales pulsantes (SNNs) son un tipo de red neuronal artificial que está inspirada en el funcionamiento del cerebro. Las SNN están formadas por neuronas que se conectan entre sí y que transmiten señales en forma de pulsos. Estos pulsos pueden ser positivos o negativos, y representan la actividad de las neuronas. Las SNN se diferencian de las redes neuronales tradicionales en que no utilizan funciones de activación continuas. En su lugar, utilizan funciones de activación discretas que se activan cuando los pulsos alcanzan un cierto umbral. Esto hace que las SNN sean más eficientes en términos computacionales y que puedan aprender más rápido. Esto último facilita su implementación en tarjetas de desarrollo Arduino.   En los últimos años se ha observado un incremento en el desarrollo de robots con patas,  debido a que presentan múltiples ventajas con respecto a los robots con ruedas: pueden desplazarse por terrenos no estructurados, subir o bajar escaleras, pueden ingresar a zonas de desastre, pueden girar en espacios reducidos, etc. Estas ventajas hacen que los robots con patas sean adecuados para una variedad de aplicaciones, como la exploración espacial, el rescate de desastres y la investigación militar. Es por esto que el desarrollo de algoritmos de La locomoción para este tipo de robots adquiere una gran importancia.   Así, en este verano de investigación se planteó la implementación de patrones de locomoción bioinspirados mediante el uso de una red neuronal pulsante en un robot hexápodo, todo esto usando tarjetas de desarrollo Arduino para implementar los patrones de marcha observados en los insectos palo.  



METODOLOGÍA

Para el desarrollo del presente proyecto se siguieron varias fases. Primero se procedió a armar la estructura mecánica del robot, en este caso se utilizó un robot hexápodo MH2 de la empresa Lynxmotion. Posteriormente se procedió a integrar la electrónica que consiste en una tarjeta de desarrollo Arduino modificada y una tarjeta controladora de servomotores SSC32-U, las cuales se comunican mediante la conexión serial.    En segundo lugar, se procedió a realizar pruebas entre la parte electrónica y mecánica para verificar el correcto armado del robot y también se realizó la calibración de los servomotores para determinar los desplazamientos permitidos para cada articulación, tomando en cuenta que los servomotores a cada lado del robot realizan movimientos contrarios para un mismo valor de desplazamiento.   Durante la tercera fase se procedió a la implementación de la red neuronal pulsante en la tarjeta de desarrollo Arduino y poder así generar los patrones de marcha requeridos, en este caso el modelo de red neuronal pulsante usado es el BMS, el cual es discretización del modelo Leaky Integrate and Fire, el cual es uno de los modelos de redes neuronales pulsantes más utilizados. Durante esta fase se realizaron varias pruebas para verificar la correcta generación de los patrones de locomoción, para esto se utilizó el monitor serie de Arduino En la fase final se realizó la integración de todo el sistema, para lo cual se fue necesario traducir la salidas de red neuronal pulsante a movimientos de los servomotores del robot de acuerdo al tipo de articulación, Coxa y Fémur, ya que la primera articulación permite al robot dar los pasos y la segunda se encarga de subir o bajar la pata. En esta fase se realizó la prueba de varios patrones de locomoción del robot: correr, caminar y trotar.  


CONCLUSIONES

En esta estancia de verano se logró obtener conocimiento sobre el funcionamiento de redes neuronales y cómo adaptarlas en la plataforma Arduino, el uso de diferentes tecnologías para lograr un avance y la capacidad de armado de un robot. Se logró dotar al robot de un andar que permitió desplazarse de manera adecuada. Como trabajo futuro se planteó la necesidad de uso de sensores de fuerza en las patas para realizar un control de lazo cerrado que le permitan al robot saber si cada una de sus extremidades se ha apoyado antes de dar el paso, lo cual resultará muy útil cuando el robot se desplace por terrenos muy irregulares y lo dotará de un paso más sólido.  
Gómez Correa Edith Alejandra, Universidad de Guadalajara
Asesor: Dr. Jaime Aguilar .zambrano, Pontificia Universidad Javeriana

SISTEMA INCENTIVO RESPIRATORIO PARA FISIOTERAPIA REMOTA DE PACIENTES CON SECUELA COVID-19


SISTEMA INCENTIVO RESPIRATORIO PARA FISIOTERAPIA REMOTA DE PACIENTES CON SECUELA COVID-19

Dominguez Olmedo Arturo, Instituto Tecnológico de Pachuca. Gómez Correa Edith Alejandra, Universidad de Guadalajara. Mejía Medina Malinche, Instituto Politécnico Nacional. Navarro Torres Andres, Universidad de Guadalajara. Asesor: Dr. Jaime Aguilar .zambrano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

En un contexto postpandemia donde el 12% de las personas afectadas por el virus COVID-19 necesitaría terapia respiratoria nos encontramos con que el dispositivo más utilizado, el Triflo, tenía limitaciones tanto para el fisioterapeuta, aportando poca información sobre el progreso, como para el paciente, despertando poco interés y convirtiendo la rehabilitación en un proceso tedioso y poco atractivo. Identificando esta problemática se llegó a la pregunta ¿de qué forma puede mejorarse este sistema? ¿cómo sería un dispositivo diseñado pensando en el paciente y el fisioterapeuta? UBICU es un sistema incentivo respiratorio para fisioterapia remota para pacientes con secuelas de COVID-19, aunque es útil en la rehabilitación de otras patologías respiratorias. El sistema busca la reexpansión pulmonar mediante la medición del volumen inspirado durante la respiración, incentivado por un videojuego interactivo. El proyecto, liderado por el Dr. Jaime Aguilar Zambrano, se conforma de un equipo interdisciplinario de ingenieros en sistemas, ingenieros electrónicos, ingenieros biomédicos, diseñadores industriales, diseñadores gráficos, y fisioterapeutas, estos últimos de vital importancia en las pruebas clínicas realizadas.



METODOLOGÍA

Después de años de desarrollo, actualmente el proyecto de encuentra en una etapa de pruebas finales, que incluyen un estudio clínico y el licenciamiento para su producción y venta. A pesar de esto, seguían existiendo áreas de mejora, tales como el acople y envolvente del dispositivo, el enriquecimiento de este mediante la inclusión de variables como saturación de oxígeno, así como proveer una opción de monitoreo con videojuego atractivo para el paciente, además de buscar ampliar su uso mediante un sistema de espirometría. Estas tareas se asignaron a los participantes del programa delfín de acuerdo a sus habilidades y áreas de conocimiento. Como trabajo en conjunto se apoyó en la manufactura y ensamble de equipos para el uso en pruebas clínicas con fisioterapeutas y pacientes. Para la implementación y desarrollo aplicados al diseño se realizaron imágenes y video de apoyo con una representación fotorrealista mediante el uso de un modelo 3D con el propósito de explorar el producto mediante la explotación y enfoque a diversas partes del dispositivo. De igual manera se buscó generar propuestas de diseño para el envolvente para un dispositivo placa orificio donde se contiene la placa, componentes electrónicos y batería. Respecto al sistema de monitoreo, se realizó una interfaz gráfica y dinámica. Mediante el diseño de un videojuego sencillo, el software recibe e interpreta datos de flujo, los cuales se ven reflejados en la mecánica de tres monos que suben cada uno una palmera, simulando la mecánica del TriFlow. Se implementan los scripts de cada mono donde se reciben los datos, es decir, se añade una lógica para que los monos suban las palmeras. Para la dinámica de los monos se implementan fórmulas utilizando flujos limites inferiores y superiores, así como la posición de cada mono. Se buscó añadir una nueva variable al equipo mediante el diseño de un oxímetro. Primeramente se realizaron simulaciones de diferentes propuestas de circuitos electrónicos, escogiéndose el que mejor se adecuaba a las necesidades del proyecto: la posibilidad de monitorear los BPM y la oxigenación del paciente al utilizar el dispositivo. Se realizó el diseño de la PCB para su integración a la electrónica actual. La implementación de un sistema de medición inspiración-espiración se trabajó con el objetivo de ampliar los parámetros caracterizables durante la rehabilitación y ampliar los campos de aplicación del dispositivo. Posterior a la propuesta de diferentes versiones del tubo placa orificio, se imprimió en resina el primer prototipo. Las primeras pruebas consistieron en verificar la medición bidireccional del flujo y modificar el software para la adquisición de los datos de espiración.


CONCLUSIONES

En el área de diseño, se realizaron implementaciones que incluyeron propuestas para el cierre del dispositivo, mejora y desarrollo de apoyos visuales como imágenes y videos. También se ajustó el diseño de un instrumento de medida, la placa orificio, que se imprimió usando resina para realizar pruebas. Se abordaron aspectos ergonómicos relacionados con la manipulación del dispositivo y el almacenamiento de sus componentes. Se desarrolló un sistema de seguimiento de la inspiración respiratoria utilizando herramientas informáticas como Unity. Esta implementación brinda una representación visual sencilla y atractiva de las variaciones de flujo y la elección de los flujos límites. Se diseñó un circuito simulado con las especificaciones necesarias, junto con una placa de montaje superficial. Los filtrajes se probaron por separado en un circuito físico, confirmándose su funcionamiento. La simulación, documentación y especificación de los componentes facilitan la implementación completa del circuito en físico y su posterior integración al dispositivo incentivo respiratorio. Por último, utilizando el primer prototipo, se verifico funcionamiento del instrumento placa orificio y el sensor diferencial para determinación del flujo. Además, se ajustó el software para medición de flujo inspiratorio y espiración.
Gómez García Abril Valeria, Instituto Tecnológico de Pachuca
Asesor: Mg. Antonio Pacheco Molina, Corporación Universitaria Americana

CáLCULO DEL TIEMPO DE REVERBERACIóN Y ACONDICIONAMIENTO ACúSTICO EN AULAS DE LA CORPORACIóN UNIVERSITARIA AMERICANA SEDE 20 DE JULIO.


CáLCULO DEL TIEMPO DE REVERBERACIóN Y ACONDICIONAMIENTO ACúSTICO EN AULAS DE LA CORPORACIóN UNIVERSITARIA AMERICANA SEDE 20 DE JULIO.

Gómez García Abril Valeria, Instituto Tecnológico de Pachuca. Asesor: Mg. Antonio Pacheco Molina, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Las condiciones acústicas de un aula de clases son críticas y relevantes para tener en cuenta en la enseñanza y aprendizaje así como de la seguridad e higiene de los alumnos y maestros, por lo que las instituciones educativas deben adaptar los espacios para el desarrollo saludable de ambos agentes, ya que actualmente existen aulas con condiciones físicas no apropiadas para la correcto desempeño de la enseñanza-aprendizaje, además de que durante las horas de clase, los alumnos y docentes se encuentran expuestos al ruido exterior y ruido generado dentro del aula ocasionando un efecto perjudicial en el desarrollo cognitivo de los alumnos, reduciendo la capacidad memorística, la motivación o capacidad de lectura, y de la misma manera efectos negativos en los docentes. La reverberación es  un fenómeno que se presenta como una problemática de condición acústica en la mayoría de los establecimientos, ya que es la persistencia en el ambiente de energía sonora reflejada en cualquier espacio cerrado el sonido que se escucha es una combinación del sonido directo (que viaja directamente del emisor hacia el receptor) y el sonido reverberante que viaja desde el emisor y rebota en varias superficies antes de llegar al oído del receptor, y el control de esta condición depende de las superficies, del volumen y la forma de la habitación, por lo que un aula de aprendizaje tiende a tener superficies con materiales altamente reflectantes de los sonidos que se emiten, por lo que se encuentra expuesto a el efecto de reverberación.



METODOLOGÍA

Durante el desarrollo de la investigación cuantitativa se realizó un estudio de tipo experimental, ya que se desarrolla el cálculo del tiempo de reverberación, utilizando el método y formula Sabine, un método calculado de forma empírica a partir del cual es posible calcular el tiempo que tarde el sonido en bajar a 60 decibles, expresado en segundos, lo que también se conoce como RT-60, en el que involucra como uno de los factores importantes un coeficiente de absorción de material el cual indica el porcentaje de energía incidente que se vuelve energía absorbida por acción del material, coeficiente que se toma en cuenta al momento de realizar la modificación dentro de los espacios para el control del tiempo de reverberación y acondicionamiento acústico, dentro de las variables se consideran las dimensiones del aula a estudiar así como el volumen y la constante de la formula Sabine, posteriormente se realiza una propuesta que considera la implementación de materiales absorbentes a la parte arquitectónica, ya que existen superficies y materiales como puertas o ventanas que son débiles para la intromisión de ruidos exteriores, el aumento en la masa de superficies como muros o materiales acústicos genera un mejor aislamiento. Las mediciones, el cálculo del tiempo de reverberación y acondicionamiento acústico se llevará a cabo en 13 aulas de la Corporación Universitaria Americana en la sede 20 de julio en Barranquilla, Colombia en el periodo junio-agosto de 2023.


CONCLUSIONES

Al evaluar las condiciones acústicas de las aulas de la corporación Universitaria Americana en la sede 20 de julio, se logró comprender el parámetro de reverberación como condición acústica a través de la aplicación de método Sabine,  donde se modificaron y propusieron acondicionamiento acústicos de acuerdo a la manera más viable que se pudiera encontrar, implementando materiales absorbentes en superficies del aula con el propósito de garantizar que los alumnos puedan adquirir el proceso de enseñanza-aprendizaje eficazmente evitando consecuencias negativas en su desempeño académico, riesgos de fatiga, estrés, distracción, agotamiento para el alumno y docente y a la vez logrando el cumplimiento de la normativas pertinentes.
Gómez González Nancy Nallely, Universidad de Guadalajara
Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional

BIOSENSOR DE ADN BASADO EN BIOIMPEDANCIA POR INDUCCIóN MAGNéTICA


BIOSENSOR DE ADN BASADO EN BIOIMPEDANCIA POR INDUCCIóN MAGNéTICA

Becerra Martinez Liliana, Universidad Veracruzana. Gómez González Nancy Nallely, Universidad de Guadalajara. Montoya Solorzano Catalina, Universidad Autónoma de Manizales. Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La necesidad de una técnica sencilla y económica para la cuantificación del ADN y la detección de genes, principalmente para los países en desarrollo, es de gran importancia. Existen varios métodos para detectar ADN amplificado a través de PCR, que incluyen electroforesis, fluorescencia y espectroscopia de impedancia electroquímica (EIS) los cuales están basados en marcadores o funcionalización. Actualmente, han surgido métodos de detección de ADN por EIS, que determinan la presencia de ADN por las propiedades electroquímicas siendo un método por funcionalización basado en un sistema de PCR portátil y electrodos para la medición [1]. También, se ha desarrollado la cuantificación de ácidos nucleicos mediante la citometría de impedancia multifrecuencia y aprendizaje automático utilizando una red neuronal basada en un modelo de regresión híbrido para predecir cantidades de ADN acopladas a perlas paramagnéticas que actúan como marcador [2].  En este trabajo, se diseñó el prototipo de un biosensor libre de marcado y funcionalización para la detección de presencia de ADN mediante bioimpedancia por inducción magnética a multifrecuencia. En el prototipo se analizaron 5 muestras de ADN de esperma de salmón a  distintas concentraciones y una muestra de agua milli-Q. Paralelamente, se comprobó la concentración de las muestras mediante el espectrofotómetro NanoDrop 2000 (Thermo Fisher Scientific - Waltham, MA USA) . Tras un análisis estadístico que relaciona la resistencia vs reactancia se observan regiones específicas para cada concentración lo cual indica la sensibilidad del prototipo y su viabilidad para determinar la concentración de ADN. Se requiere de más estudios para respaldar las observaciones.



METODOLOGÍA

Se diseñó un sistema de inducción de campos magnéticos a través de bobinas coaxialmente alineadas con el analito centrado entre las mismas, para el desarrollo del sistema se utilizan 5 etapas las cuales son: control, generador de funciones, inductor-sensor, detector de ganancia y fase, convertidor analógico digital. Los distintos componentes de cada etapa se integraron en una carcasa y se alimentaron con una fuente de grado médico elpac power systems. La programación del microcontrolador e interfaz gráfica se llevo a acabo por el lenguaje de programacion python, el cual se dividio en dos funciones principales: barrido de frecuencias y convertidor. El sistema induce un campo magnético en la muestra dependiendo de sus propiedades eléctricas, dicho campo magnético es  perturbado respecto al campo inicial evidenciándose en la magnitud y fase. Estos parámetros se correlacionan con las características del analito siendo de interés para determinar su relación con la presencia de ADN. La evaluación del prototipo  se realizó a través  de determinar su sensibilidad a diferentes concentraciones de ADN.  Se utilizaron 5 muestras de 50 µL de  ADN  de esperma de salmón a diferentes concentraciones y una muestra de agua milli-Q como referencia del vehículo. Cada concentración de ADN se cuantificó por triplicado mediante espectrofotometría UV-Vis a través del NanoDrop 2000 (Thermo Fisher Scientific - Waltham, MA USA). Estas mismas muestras se evaluaron en el Biosensor de ADN inductor-sensor determinando  los distintos parámetros de magnitud y fase a diferentes frecuencias, la medición se realizó nueve veces por muestra. Como resultados de la medición con el biosensor de ADN  se obtuvieron datos de magnitud y fase, mediante procesamiento fuera de linea se analizo y se grafiacaron mediate un diagrama de dispersión.


CONCLUSIONES

El prototipo biosensor de ADN presenta sensibilidad ante las distintas concentraciones de ADN en frecuencias de campo magneticas especificas. Se requiere mejorar el prototipo incluyendo filtros para reducir el ruido y el número de  repeticiones de las mediciones. Se evidencia la viabilidad del prototipo biosensor de ADN  para determinar la presencia de ADN mediante impedancia por inducción magnética.
Gómez Hernández Nelli Guadalupe, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

DESARROLLO DE PROPUESTAS DE MEJORA EN PROCESOS INDUSTRIALES


DESARROLLO DE PROPUESTAS DE MEJORA EN PROCESOS INDUSTRIALES

Gómez Hernández Nelli Guadalupe, Instituto Tecnológico Superior de Guanajuato. López González Norma Lucía, Instituto Tecnológico Superior de Guanajuato. Maldonado Durán Israel, Instituto Tecnológico Superior de Guanajuato. Murrieta Méndez Perla Vianney, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La finalidad de toda organización es cumplir sus objetivos y metas, para que esto sea posible es necesario analizar sus procesos para verificar si existen fallas o áreas de oportunidad que den pauta para implementar propuestas de mejora en función de las problemáticas que se hayan detectado. Esto es de gran relevancia, ya que en México el 75% de las pymes fracasan y cierran sus establecimientos antes de cumplir los dos años de haber iniciado operaciones, definitivamente las micro, pequeñas y medianas empresas deben encontrar en su entorno las herramientas necesarias para mejorar la innovación y la gestión. En la empresa que sirvió como objeto de estudio para el presente trabajo se aplicaron los intrumentos de la Metodología JICA para la recolección de datos, logrando con el análisis de los datos detectar que la pricipal problemática que podría afectar su funcionamiento se encontraba en las áreas de producción y recursos humanos, en la primera se observó que sus problemas principales es que no tienen un mantenimiento del control de ingeniería establecida, no patentan sus productos y no tienen un responsable para el control de equipo e instalación del mismo, mientras que en el área de recursos humanos, existe mal ambiente laboral, no cuenta con algún sistema de apoyo a la superación personal del empleado o si lo tiene no se le esta dando la atención o importancia necesaria, además que a los trabajadores no se les estimula sus capacidades de la manera adecuada.



METODOLOGÍA

La empresa que sirvió como objeto de estudio pertenece al grupo de las pymes y se dedica a la elaboración de productos derivados del Maíz, para la recolección de datos se aplicaron instrumentos que permiten analizar las diferentes área de la empresa, cuyo orden metodológico es el siguiente: Analizar la situación general de la empresa y los factores externos. Realizar diagnósticos sector, se recopilará información de la empresa para posteriormente evaluarlo. Analizar los problemas y beneficios, así como las debilidades e intereses del negocio, y finalmente una comparación entre ellos. Realizar el proceso de planificación y asesoramiento. Realizar un informe de diagnóstico y sugerencias de mejora, así como sus respectivos formaos de apoyo.


CONCLUSIONES

Cuando la organización realiza sus actividades en función de la mejora continua son altas sus posibilidades de sobrevivencia, el proyecto realizado contribuyó de manera importante a la identificación de las áreas en las que se debe poner atención, estó, por lo detectado en el análisis de la información que se recabó sobre el funcionamiento de las diferentas áreas de la empresa, con base en ello  se realizó una propuesta de mejora que conlleva principalmente la aplicación de algunas herramientas de ingeniería industrial cuya finalidad es contrarrestar los puntos negativos encontrados, etre los mas preocupantes están, las necesidades de los colaboradores, el correcto funcionamiento de los procesos así como el involucramiento del personal en las actividades. Teniendo en cuenta que solo es una propuesta, con ello se pueden proyectar que lo beneficios que traerá la aplicación de la propuesta serán, una mayor productividad, liderazgo, identidad corporativa y una comunicación adecuada que ayudarán a alcanzar de manera más sencilla los objetivos y metas de la empresa. 
Gomez Hurtado Elvira Berenice, Universidad Tecnologica de León
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

PROCESO DE ELECTROCOAGULACIÓN PARA REMOCIÓN DE GLIFOSATO COMERCIAL EN AGUA CON ELECTRODOS DE ALUMINIO Y HIERRO


PROCESO DE ELECTROCOAGULACIÓN PARA REMOCIÓN DE GLIFOSATO COMERCIAL EN AGUA CON ELECTRODOS DE ALUMINIO Y HIERRO

Espinosa López Alondra Yazmín, Universidad Tecnologica de León. Gomez Hurtado Elvira Berenice, Universidad Tecnologica de León. Valdivia Moreno Oscar Emmanuel, Universidad Tecnologica de León. Zacariaz Martínez Sandra Teresa Giuliani, Universidad Tecnologica de León. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

En los ultimos años, han aumentado los problemas derivados del uso agroindustrial del herbicida glifosato, debido a que puede filtrarse en diferentes medios naturales, como los mantos acuiferos, causando daños al medio ambiente y a la salud de los seres humanos. El presente proyecto contribuye a atender dicho problema utilizando la electrocoagulación como medio de remoción del glifosato. 



METODOLOGÍA

Se realizaron experimentos a nivel laboratorio y se encontraron los parámetros adecuados para alcanzar altos niveles de remoción de una solución sintética con una concentración de 270 mg/L de glifosato. Se estudio el efecto de la variación del factor densidad de corriente  con los valores de 2.5 mA/cm2, 5.5 mA/cm2, 7.5 mA/cm2, 0.3 g/L de Cloruro de sodio, electrodos de aluminio y hierro  y tiempos de electrolisis de 20, 40, 60, 80 y 100 minutos.


CONCLUSIONES

Los resultados de la eliminación de glifosato se evaluaron de modo indirecto, a través de la demanda química de oxigeno (DQO). La remoción máxima obtenida de la electrocoagulación con electrodos de aluminio  fue de 48,75%, mientras que con electrodos de  hierro se obtuvo una remoción de 20%; en ambos casos con una densidad de corriente de 7.5 mA/cm2
Gómez López Jonathan, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos

INNOVACIóN FRUGAL PARA LA COMERCIALIZACIóN DE PRODUCTOS AGRíCOLAS DERIVADOS DEL PROGRAMA SEMBRANDO VIDA


INNOVACIóN FRUGAL PARA LA COMERCIALIZACIóN DE PRODUCTOS AGRíCOLAS DERIVADOS DEL PROGRAMA SEMBRANDO VIDA

Gómez López Jonathan, Instituto Tecnológico Superior de Los Ríos. Mosqueda Jiménez Santa Yuritzi, Instituto Tecnológico Superior de Los Ríos. Qué Juárez Pavel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, el Programa Sembrando Vida ha demostrado ser una iniciativa exitosa en la promoción de la agricultura sostenible y la generación de ingresos para comunidades rurales. Mediante la siembra y cuidado de árboles frutales y maderables, el programa ha logrado mejorar la calidad de vida de miles de familias campesinas, preservar el medio ambiente y fomentar la producción de cultivos agrícolas. Sin embargo, a pesar de los logros alcanzados en la producción, el proceso de comercialización de los productos agrícolas derivados del Programa Sembrando Vida presenta desafíos significativos, entre ellos, la falta de acceso a mercados consolidados, la limitada infraestructura logística en las áreas rurales, y la escasa diversificación de productos disponibles para la venta, dificultan la maximización de los beneficios económicos y el pleno potencial del programa. Actualmente, la mayoría de los agricultores beneficiarios del programa solo pueden vender sus productos en mercados locales y a intermediarios, lo que resulta en márgenes de beneficio reducidos y dependencia de terceros. Además, la falta de tecnologías y prácticas innovadoras limita su capacidad para agregar valor a sus cultivos y ofrecer productos más atractivos para mercados más amplios y exigentes, teniendo como causas directas el conocimiento técnico insuficiente de los sistemas agroforestales para el cultivo de la tierra y escasos recursos monetarios de los campesinos, así como la falta de capacitación en temas afines a la comercialización.



METODOLOGÍA

El objetivo de la investigación se centra en aplicar la innovación frugal en la cadena de valor del producto agrícola con mayor producción de la Ruta 2, derivado del Programa Sembrando Vida del municipio de Balancán correspondiente a la Región Tabasco-Península, que genere competitividad sostenible, por lo anterior, se considera como una investigación aplicada con un enfoque descriptivo por la interpretación de los resultados a la realidad del contexto actual. Se realizaron diversas actividades encaminadas al diseño de una propuesta fiable para los productores de la Ruta 2, entre ellas: Elaboración de un diagnóstico de las Comunidades de Aprendizaje Campesino (CAC) de la Ruta 2 (Apatzingán, Sacaolas, Cenotes, Capulín y Ramonal) del Programa Sembrando Vida en el municipio de Balancán, para identificar los productos que se cultivan a corto, mediano y largo plazo por los productores rurales, donde se a través del diseño de un instrumento de investigación aplicado a los productores rurales. Total, de productores adscritos en la Ruta 2 del Programa Sembrando Vida: 992 Cultivos con mayor producción a corto plazo: Chihua, mediano plazo: Limón persa y largo plazo: Mango. Cultivo con mayor potencial de comercialización: Chihua Diseño de estrategias de innovación frugal en la cadena de valor para lograr la comercialización de productos derivados de la chihua.


CONCLUSIONES

El proyecto de investigación da una alternativa para asegurar la sostenibilidad de los sistemas de producción agrícolas y aplicar prácticas resilientes que garanticen transformar los productos cultivados en productos comerciables e impulsar la economía de las familias dedicadas al programa Sembrando Vida. Por lo tanto, se reflejará en los siguientes aspectos: Incremento de ingresos para los agricultores: La mejora en la comercialización de los productos agrícolas permitirá a los agricultores acceder a mercados más rentables, lo que se traducirá en un aumento de sus ingresos y una mejora en su calidad de vida. Esto ayudará a fortalecer la economía local y reducir la pobreza en las comunidades rurales. Fomento de la sostenibilidad del programa: Al mejorar la comercialización de los productos agrícolas, se promoverá la sostenibilidad del Programa Sembrando Vida. Los agricultores tendrán un incentivo económico más fuerte para participar en el programa y seguir practicando la agricultura sostenible, lo que contribuirá a la conservación del medio ambiente y a la mitigación del cambio climático. Impulso a la innovación tecnológica: La implementación de estrategias de innovación frugal permitirá encontrar soluciones prácticas y de bajo costo para superar las barreras en la comercialización de los productos agrícolas. Esto fomentará la adopción de tecnologías y herramientas accesibles para mejorar la cadena de suministro, la logística y la promoción de los productos. Fortalecimiento de capacidades locales: El proyecto brindará capacitación y asesoramiento a los agricultores en áreas como la comercialización, el empaquetado, la promoción y el acceso a mercados. Esto fortalecerá sus habilidades y conocimientos en el ámbito empresarial, permitiéndoles ser más competitivos y exitosos en la venta de sus productos. Generación de empleo y desarrollo local: Al impulsar la comercialización de los productos agrícolas, se crearán oportunidades de empleo adicionales en las comunidades rurales. Esto no solo beneficiará a los agricultores, sino también a otros actores locales involucrados en la cadena de suministro, como transportistas, procesadores y vendedores minoristas. del producto, la productividad interna y la competitividad sustentable. 
Gómez López Juan Carlos, Universidad de Ciencias y Artes de Chiapas
Asesor: M.C. Jorge Fernando Ambros Antemate, Universidad Autónoma Benito Juárez de Oaxaca

DESARROLLO DE JUEGO SERIO SOBRE EL CARRO DE PARO UTILIZADO EN EL áREA DE ENFERMERíA, IMPLEMENTANDO ELEMENTOS DE GAMIFICACIóN CON UN ENFOQUE EDUCATIVO.


DESARROLLO DE JUEGO SERIO SOBRE EL CARRO DE PARO UTILIZADO EN EL áREA DE ENFERMERíA, IMPLEMENTANDO ELEMENTOS DE GAMIFICACIóN CON UN ENFOQUE EDUCATIVO.

Gómez López Juan Carlos, Universidad de Ciencias y Artes de Chiapas. Asesor: M.C. Jorge Fernando Ambros Antemate, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

En el contexto de los servicios de salud, es fundamental que los enfermeros estén preparados para enfrentar situaciones de emergencia de manera efectiva y rápida. Uno de los desafíos que enfrentan es el manejo adecuado del carro de paro, un equipo que contiene medicamentos, dispositivos y suministros necesarios para brindar atención inmediata a pacientes en estado crítico. Sin embargo, muchos enfermeros no están completamente familiarizados con el contenido.



METODOLOGÍA

A lo largo del avance de este proyecto, se ha utilizado un conjunto de pautas basadas en un Framework titulado, “The serious game design assessment framework”, el cual aborda 6 etapas que se deberán seguir, para desarrollar un juego serio con un enfoque educativo, pues de esto se espera obtener resultados significativos para el usuario final. El videojuego ha sido creado en Unity como motor de videojuegos. Además, se han añadido elementos de gamificación al prototipo, con el propósito de mejorar la experiencia del usuario y hacerla más divertida, fomentando así su motivación para seguir jugando mientras aprende. Este Framework se emplea para inspeccionar y explorar el enfoque conceptual de los juegos educativos, abarcando tanto sus metas explícitas como implícitas. Gracias a dicho marco, los investigadores y diseñadores de juegos educativos pueden analizar y comprender cómo se entrelazan los diversos elementos del juego para brindar una experiencia educativa valiosa y estimulante, asegurándose de que dichas interacciones se encuentren en consecuencia con los propósitos y objetivos educativos establecidos. Para nuestro Juego Serio se ha decidido que las etapas, sean aplicadas de la siguiente forma: Propósito: Nos enfocaremos al área de la enfermería, específicamente en el carro de paro, el cual sirve para concentrar de manera ordenada el equipo, material y medicamentos para iniciar adecuadamente las maniobras de reanimación cardiopulmonar y cerebral. Contenido e Información: Los usuarios finales, podrán adquirir y compartir su conocimiento acerca del funcionamiento del carro de paro, permitiéndole también, actuar de manera adecuada en caso próximos de emergencia, suministrando el medicamento adecuado al paciente. Mecánicas del Juego: el usuario tendrá acceso a un juego donde interactuará con un carro de paro médico y podrá seleccionar un cajón específico para aprender a manejar su contenido. Antes de empezar el juego, el usuario podrá leer una breve descripción y uso de los medicamentos o herramientas dentro del cajón. Durante el juego, el usuario contará con tres vidas para responder correctamente a las preguntas que el sistema le arroje, esto con el objetivo de hacer que el usuario seleccione el medicamento u herramienta del que, según él o ella, harían uso en caso de emergencia. Si la respuesta ingresada es correcta, se bonificará al usuario una estrella a su tabla de puntos o, de lo contrario, se restará una de la misma.    Ficción y Narrativa: Nuestro contexto ficticio dentro del juego sólo contará con un dinoenfermero, quién tiene el objetivo de combatir la segunda pandemia del Covid-19, para ayudar a sus dinoamigos.


CONCLUSIONES

la implementación de un prototipo basado en un juego serio para capacitar enfermeros en el uso del “carro de paro” es una iniciativa prometedora que busca mejorar las habilidades y preparar a los profesionales de la enfermería para atender emergencias médicas con mayor eficacia. Los juegos serios y la gamificación ofrecen un enfoque innovador y atractivo para la educación y capacitación, al aprovechar la motivación inherente a los juegos para lograr un aprendizaje más efectivo. El uso de este prototipo proporciona nuevas oportunidades para mejorar los resultados de aprendizaje y desarrollar habilidades en diversos campos, incluida la salud. La interacción con el carro de paro y las preguntas desafiantes relacionados con medicamentos y herramientas dentro del cajón fomentarán una toma de decisiones informada y precisa en situaciones de emergencia. Además, es relevante destacar la importancia de la experiencia previa en el programa “delfín”, que ha enriquecido el conocimiento sobre el proceso y desarrollo de videojuegos y ha permitido adquirir nuevos métodos de investigación para obtener información relevante de artículos. En conjunto, esta propuesta demuestra cómo la tecnología y el enfoque lúdico pueden ser herramientas poderosas para mejorar la formación de profesionales de la salud y, en este caso específico, de enfermeros, con el objetivo último de brindar una atención más efectiva y segura en situaciones críticas. 
Gómez Mora Leslie Abril, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla

REDES Y CIBERSEGURIDAD


REDES Y CIBERSEGURIDAD

Gómez Mora Leslie Abril, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Esta investigación explora diversas herramientas de hacking ético, como ClamAV, RKhunter, Lynis, LMD, OpenVAS y Chkrootkit, para evaluar su efectividad en mejorar la ciberseguridad de redes. Se analizarán sus capacidades de detección y prevención de amenazas, identificando vulnerabilidades comunes y ataques cibernéticos. Además, se investigarán sus ventajas, desafíos y posibles integraciones en estrategias de protección en entornos empresariales. El estudio se centrará en evaluar el rendimiento, la eficacia y la interoperabilidad de estas herramientas para fortalecer la postura de seguridad en sistemas y redes, contribuyendo al desarrollo de mejores prácticas para un hacking ético responsable.



METODOLOGÍA

En esta investigación se abordó el análisis de diversas herramientas de hacking ético, incluyendo ClamAV, RKhunter, Lynis, LMD, OpenVAS y Chkrootkit, para mejorar la ciberseguridad en redes. La metodología se basó en la configuración de una máquina virtual con el sistema operativo AlmaLinux, asegurando su aislamiento y seguridad. A continuación, se procedió a instalar y configurar las herramientas en la máquina virtual, garantizando que se utilizaran las versiones más actualizadas disponibles. Se diseñó un escenario de prueba representativo que simuló un entorno de red empresarial, incluyendo sistemas, servicios y configuraciones variadas. Mediante pruebas exhaustivas, se evaluó la capacidad de detección y prevención de cada herramienta ante diferentes amenazas, como malware, rootkits, vulnerabilidades y ataques de red. Los resultados fueron registrados y comparados en términos de precisión, eficacia y tiempo de respuesta. Se identificaron las fortalezas y debilidades de cada herramienta en relación con los distintos escenarios de prueba. Con base en los hallazgos, se proporcionaron recomendaciones para implementar estrategias efectivas de ciberseguridad en redes, aprovechando las herramientas analizadas. Se resaltó la importancia de mantener una ética y legalidad en todas las pruebas, asegurando el consentimiento y protegiendo la privacidad y confidencialidad de los datos. Se reconocieron las limitaciones del estudio y se presentaron conclusiones que destacaron las herramientas más eficaces para fortalecer la seguridad en redes en un entorno empresarial. El trabajo futuro se enfocará en áreas de mejora y posibles investigaciones adicionales relacionadas con la ciberseguridad y el hacking ético.


CONCLUSIONES

Las conclusiones de esta investigación sobre las herramientas de hacking ético para mejorar la ciberseguridad en redes son de vital importancia para el desarrollo sostenible de la industria, la innovación y la infraestructura. La implementación responsable de estas herramientas en entornos empresariales puede desempeñar un papel clave en el logro de los Objetivos de Desarrollo Sostenible (ODS) establecidos por la Agenda 2030 de las Naciones Unidas. El fortalecimiento de la ciberseguridad en redes se traduce en una mayor resiliencia de la infraestructura tecnológica, reduciendo el riesgo de interrupciones y ataques cibernéticos que puedan afectar la productividad y la estabilidad económica. La protección de datos sensibles y la prevención de amenazas cibernéticas contribuyen directamente al ODS 9, que busca promover la industria, la innovación y la infraestructura resiliente y sostenible. Además, el uso de herramientas de hacking ético facilita la identificación temprana de vulnerabilidades y la corrección proactiva de posibles debilidades en los sistemas, lo que promueve un enfoque preventivo para abordar los desafíos de seguridad. Esto es esencial para el ODS 17, que promueve la creación de alianzas para el logro de los objetivos globales, ya que la colaboración entre empresas, gobiernos y expertos en ciberseguridad es crucial para garantizar una protección efectiva de las infraestructuras críticas. En conclusión, la investigación demuestra que el uso adecuado de herramientas de hacking ético puede mejorar significativamente la ciberseguridad en redes, lo que contribuye directamente al progreso hacia un desarrollo sostenible en los ámbitos de industria, innovación e infraestructura. La adopción responsable de estas soluciones tecnológicas debe ser una prioridad para todas las organizaciones en la era digital, ya que garantizará un entorno empresarial seguro y estable, alineado con los objetivos globales de desarrollo sostenible.
Gómez Nuñez Yeraldin, Universidad de Guadalajara
Asesor: Dra. Blanca Zuami Villagrán de la Mora, Universidad de Guadalajara

CARACTERIZACIóN NUTRIMENTAL Y COMPUESTOS BIOACTIVOS DE HONGOS SILVESTRES MEXICANOS


CARACTERIZACIóN NUTRIMENTAL Y COMPUESTOS BIOACTIVOS DE HONGOS SILVESTRES MEXICANOS

Gómez Nuñez Yeraldin, Universidad de Guadalajara. Asesor: Dra. Blanca Zuami Villagrán de la Mora, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La Organización Mundial de la salud hace hincapié en diabetes, cardiovasculares, obesidad, hipertensión, enfermedades cardiovasculares, y algunos tipos de cáncer, como epidemia a nivel mundial, lo que se están  buscando alternativas más saludables de alimentación, poniéndole especial atención a las grasas; los productos de origen animal especialmente carnes rojas están relacionadas esto  debido  al  alto  contenido  de  grasa,  nula cantidad de fibra y la adición de aditivos químicos, así como el uso de nitritos en los productos cárnicos y los posibles riesgos de toxicidad y carcinogénesis. Esta demanda creciente de alimentos más sanos, los hongos silvestres comestibles ganen espacio en la industria, posicionándose como una alternativa o un sustituto para la seguridad alimentaria.



METODOLOGÍA

1. Materia seca La materia seca se calculó por la metodología propuesta por la AOAC 925.09 (1990). Donde se dejó la muestra en estufa a 105°C durante 24 h, pasado el tiempo colocar en peso constante. 2. Ceniza Al momento de calcular la ceniza, previamente realizado el secado a 105°C, se utilizó la misma muestra, se colocó 24 horas en mufla a 650°C. 3. Proteína Para el análisis de proteínas se realizó por el método Kjeldahl propuesto por la AOAC 920.87 (1990) se utilizó un factor de conversión de 4.38 para la determinación de proteína.  se pesó 1 g de la muestra en papel libre de Nitrógeno, posterior se realizó una digestión con H2SO4 (ácido sulfúrico), Adicionándole 1 pastilla de catalizador KJELCAT Cu, manteniéndolos durante 45 a 60 minutos. Terminando la digestión continuamos con la destilación, se tituló con HCl 0.5 N (ácido clorhídrico). 4. Grasas Las grasas totales se analizaron por el método Soxhlet, esta técnica se caracteriza por la separación de sólidos-líquidos, para la obtención del porcentaje de grasas totales realizado el manual de la AOAC. Se colocaron 2 g de la muestra (w2) hexano, el matras, sifón y  refrigerante se ensamblaron, y se colocaron en las planchas de calor a temperatura máxima 320°C, lo dejamos durante  2 horas , el dedal se elimina después las dos horas , el disolvente se  evapora e queda la grasa en el fondo del matraz, después llevaremos el matraz a un horno a 105°C durante 1 hora y al desecador  mínimo 1 hora, después registraremos el peso del matraz con grasa (w3) , Al momento de los cálculos se modificó la formula contemplado la corrección para obtener los resultados a 100g de materia seca. 5. Hidratos de carbono La cuantificación de azúcares solubles se realizará de acuerdo al método Androna (1952), que consiste en hacer en combinar el extracto con androna al 0.2%, con temperaturas a 100°C, leyéndolo a 632 nm. Para los resultados se utilizó la siente formula:   6. Fenoles Totales Se realizaron extracciones con metanol acidificado colocando 0.5 g de muestra, con 5 ml de MeOH acidificado, pasando un minuto en homogeneizador (FSH-2A highspeed homogenizer), posterior se colocó en 30 minutos en orbital (Reax 2), posterior se centrifugo a 13,000 rpm por 10 min a 4°C, se recolecto el sobrenadante, colando un lavado con las mismas indicaciones antes mencionadas, y se aforo a 10 mL. Para la reacción se coloco en micro paca con 12 μL de extracto, 12 μL Folin-Ciocalteu, 164 μL Carbonato de sodio, 116 μL agua destilada, se colocó en agitación durante 15 minutos, se contó la absorbancia a 750 nm. 7. Capacidad antioxidante Se desarrollaron 3 métodos diferentes FRAP, ABTS, DPPH, se utilizó la extracción de fenoles totales, el cual se coloco en microplaca con extracto y los reactivos correspondientes para cada muestra (ABTS = 35 μL muestra, 265 μL ABTS, con una absorbancia de 730 nm, FRAP = 70 μL extracto, 230 μL Reactivo FRAP, 5 μL agua destilada, absorbancia 595 nm, DPPH = 40 μL extracto, 260 μL de DPPH 190 Μm, con una absorbancia de 517 nm.


CONCLUSIONES

Los resultados en el análisis mostraron que Cantharellus coccobbae es la especie con el mayor contenido de minerales (12.73 %), duplicando el contenido Lactarius indigo (5.18 %). Los carbohidratos solubles se obtuvo un promedio de 11.47 %. Lactarius indigo (7.55 %) triplico el contenido de grasa comparado con  Cantharellus coccobbae (1.65 %), y duplica el contenido de Tricholoma  colpossi  (2.8 %), las proteínas obtuvieron un promedio 15.89 % con el mayor contenido  Cantharellus coccobbae (17.46 %). En general, la composición proximal de estos hongos se encuentra dentro del rango establecido para hongos comestibles, por lo que son una buena alternativa alimenticia. Cantharellus coccobbae (15.85 %) tiene el mayor cantidad de fenoles, comparado con Lactarius indigo (4.49 %) triplica su contenido. La capacidad antioxidante FRAP Lactarius indigo (11.17 g/mmol de trolox) contiene mayor cantidad, ABTS Tricholoma colpossi (5.45 g/mmol de trolox), por ultimo DPPH Cantharellus coccobbae (14.31 g/mmol de trolox) tiene mayor contenido. 
Gomez Oviedo Stefani Nataly, Instituto Tecnológico de Ciudad Guzmán
Asesor: Dr. Gerardo Núñez González, Universidad de Guadalajara

ANáLISIS DEL ESCURRIMIENTO PLUVIAL EN CENTROS URBANOS, CASO AUTLáN DE NAVARRO, JALISCO


ANáLISIS DEL ESCURRIMIENTO PLUVIAL EN CENTROS URBANOS, CASO AUTLáN DE NAVARRO, JALISCO

Gomez Oviedo Stefani Nataly, Instituto Tecnológico de Ciudad Guzmán. Asesor: Dr. Gerardo Núñez González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las ciudades enfrentan desafíos relevantes en cuestión de las precipitaciones intensas durante la temporada de lluvias que generan un notable escurrimiento pluvial en áreas urbanizadas, lo que provoca inundaciones, daños a la infraestructura y afectaciones a la calidad de vida de los ciudadanos. En la ciudad de Autlán de Navarro esto empieza a ser todavía más visible debido a su crecimiento de población y comienza a ser estudiado para comprender el comportamiento hidrológico local y así diseñar soluciones eficientes en el manejo de escorrentía urbana. Es fundamental comprender los patrones de escurrimiento, identificar las zonas vulnerables y evaluar la eficiencia de las infraestructuras existentes para el manejo del agua, así se podrán proponer acciones y estrategias de mitigación que permitan una mejor gestión del escurrimiento pluvial en la ciudad, promoviendo la reducción de inundaciones; la resiliencia, la adaptación frente a eventos climáticos extremos y el mejoramiento del entorno urbano para beneficio de sus habitantes y el medio ambiente.



METODOLOGÍA

Se llevó a cabo una búsqueda bibliográfica sobre los conceptos relacionados con el ciclo hidrológico y la hidrología urbana. Partiendo de allí se participó en un curso especializado en análisis de datos utilizando el lenguaje de programación R. Durante el curso, se adquirieron habilidades para manejar y analizar datos de forma eficiente. Estas técnicas estadísticas y herramientas son útiles al obtener resultados significativos y comprender los patrones. Con información proveniente de la CONAGUA y de las estaciones meteorológicas en Autlán de Navarro se procesaron los datos de precipitación para identificar y caracterizar los eventos de lluvia. Se realizaron gráficas y tablas para presentar y visualizar los resultados de forma clara y concisa. Para obtener el caudal de escurrimiento se necesitan algunos datos como el área, la intensidad de la lluvia y el coeficiente de escurrimiento. Para el área, se delimitó una calle en un mapa de Autlán de Navarro, en este caso fue la calle Abasolo desde su cruce con la calle Placere hasta Carrillo Puerto, tomando en cuenta ambas aceras, se contó las áreas de las azoteas y marquesinas; así como las medidas de la calle, lo ancho y alto de la banqueta. Se utilizó un software especializado para el análisis de intensidades de diseño. Con base en datos climáticos y de precipitación de Autlán de Navarro, se calcularon las intensidades de lluvia para diferentes periodos de retorno. Estas intensidades son esenciales para estimar la cantidad de escurrimiento generado durante eventos de lluvia intensa y para el diseño de sistemas de drenaje. Finalmente se realizó el cálculo del caudal de escurrimiento para el área de estudio seleccionada en Autlán de Navarro. Utilizando los datos de intensidades precipitación y coeficiente de escurrimiento se determinó la cantidad de agua que fluye y se acumula durante las precipitaciones.


CONCLUSIONES

Hasta el momento, se ha logrado avanzar en la recopilación y análisis de información sobre el ciclo hidrológico y la hidrología urbana en la ciudad de Autlán de Navarro. La revisión bibliográfica ha proporcionado una base sólida para entender los conceptos teóricos clave en el campo de estudio. Además, se han adquirido habilidades en el análisis de datos utilizando R, lo que permitirá un análisis más detallado de la información de precipitación. Se espera que se obtengan resultados significativos sobre el comportamiento hidrológico en la ciudad. Estos resultados serán de gran relevancia para el diseño de soluciones ingenieriles que contribuyan a una gestión más eficiente y sostenible del agua en el entorno urbano de Autlán de Navarro.
Gomez Perez Luis Edmundo, Instituto Tecnológico Superior de Pánuco
Asesor: Mtro. Manuel Antonio Arenas Méndez, Instituto Tecnológico Superior de Pánuco

SISTEMA IOT PARA MONITOREO DE SENSORES AMBIENTALES


SISTEMA IOT PARA MONITOREO DE SENSORES AMBIENTALES

Adauto Marciano Erik David, Instituto Tecnológico Superior de Pánuco. Gomez Perez Luis Edmundo, Instituto Tecnológico Superior de Pánuco. Asesor: Mtro. Manuel Antonio Arenas Méndez, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

El agua dulce, uno de los recursos más preciados de nuestro planeta, desempeña un papel fundamental para el sostenimiento de la vida en todas sus formas. Sin embargo, uno de los desafíos actuales radica en la invasión de la salinidad derivada del agua de mar en los ríos, lo cual repercute significativamente en la vegetación y fauna asociadas a estos ecosistemas, agravada por la escasez de lluvias, constituye un tema de gran relevancia en la actualidad (Gutiérrez, 2004). La incertidumbre sobre la calidad del agua en nuestras comunidades es una consecuencia directa de esta invasión de salinidad. El impacto negativo de utilizar agua con niveles elevados de salinidad afecta severamente diversas actividades, siendo la agricultura uno de los sectores más perjudicados. La presencia excesiva de sales en el agua de riego puede comprometer el crecimiento y rendimiento de los cultivos, poniendo en riesgo la seguridad alimentaria y el sustento económico de las comunidades agrícolas (SINC, 2016). Esta problemática nos a encaminado a que abordemos en este proyecto, se centra en la falta de un sistema eficiente y continuo para el monitoreo de la calidad del agua en el río de Pánuco Veracruz, México. La salinidad, turbidez y temperatura son indicadores cruciales de la salud ambiental de los cuerpos de agua y, en el caso de los ríos, pueden estar directamente relacionados con la conservación de la biodiversidad acuática y la sostenibilidad del ecosistema.



METODOLOGÍA

El sistema IoT consiste en monitorear algunas características importantes en el río Pánuco, como lo son la salinidad, turbidez y temperatura, para esto, se utilizó un diseño compacto de 3 sensores, con la finalidad de hacer una recolección de datos cada hora, el cual se ve reflejado en un servidor diseñado principalmente para sistemas IoT llamado ThingSpeak de esta manera tenemos una visualización en tiempo real de el estado del agua en el río. Para llegar a tener un sistema completamente optimo primero se realizó una investigación para la elección de sensores, los cuales son de bajo costo y con una buena precisión, la primordial para el lugar donde se van a desempeñar, la siguiente parte es escoger un microcontrolador capaz de realizar las funciones requeridas para esto optamos por usar una TTGO T-Call SIM800L, la cual nos permite conectarnos a internet por medio de una SIM card con plan de datos. De esta forma se almacenan los datos del monitero localmente en una unidad de memoria extraíble (SD) y al mismo tiempo se envían a la nube mediante la plataforma de ThingSpeak, el sistema cuenta con una pantalla oled de bajo consumo que nos permite observar los valores en tiempo real de los sensores. Otro punto muy importante el cual se tiene que abordar es la alimentación eléctrica para el consumo general del sistema, para ello se implementaron 2 celdas solares de 3.3 V. cada una conectadas en serie las cuales con un modulo de carga de baterías alimentan a la batería principal del sistema, de esta manera el sistema toma energía solar durante el día, en cuanto la luz del sol comienza a decaer, toma energía de la batería implantada. Otra alternativa que utilizamos fue el uso de la función "hibernar" para el sistema, que activa el bajo consumo de energía, solo cuando es necesario. Esto es crucial para ahorrar energía y asegurarnos de que el sistema no se quede inoperativo debido a la falta de la misma. Para la protección del sistema IoT se utilizó una caja de plástico con protección UV y resistente al agua (IP67) para asegurarnos de que no existan posibles fallos ocasionados por estos motivos. Finalmente, se llevaron a cabo pruebas del sistema IoT mediante su implementación en el río Pánuco, con el objetivo de verificar su eficacia y funcionamiento en condiciones reales.


CONCLUSIONES

Durante esta estancia de verano y el desarrollo e implementación del sistema IoT para el monitoreo del río Pánuco, hemos aprendido la importancia de la tecnología y su papel fundamental en la preservación de nuestros recursos naturales. La ardua investigación y selección de sensores, junto con la elección de un microcontrolador eficiente y la integración de energía solar, han sido aspectos fundamentales para garantizar un monitoreo estable y preciso de las características del agua en el rio. Esperamos que este sistema IoT brinde información precisa y actualizada sobre las condiciones del río Pánuco. REFERENCIAS: Gutiérrez, M., & Carreón-Hernández, E. (2004). Salinidad en el bajo Río Conchos:aportes y tendencias. Terra Latinoamericana, 22(4), 499-506. SINC. (26 de Febrero de 2016). Las actividades humanas aumentan la salinidad dela gua dulce. SINC Ciencia Contada en Español. Recuperado de: https://www.agenciasinc.es/Noticias/Las-actividades-humanas-aumentan-la-salinidad-del-agua-dulce#:~:text=Las%20actividades%20humanas%20como%20la,cient%C3%ADficos%20en%20la%20revista%20Science.
Gómez Reyes Grecia Valeria, Universidad de Colima
Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington

ANáLISIS DEL COMPORTAMIENTO DE LA RESISTENCIA A LA COMPRESIóN Y A LA FLEXIóN DEL CONCRETO HIDRáULICO CON ADICIóN DE ESCAMAS DE PESCADO Y REEMPLAZO DE METACAOLíN.


ANáLISIS DEL COMPORTAMIENTO DE LA RESISTENCIA A LA COMPRESIóN Y A LA FLEXIóN DEL CONCRETO HIDRáULICO CON ADICIóN DE ESCAMAS DE PESCADO Y REEMPLAZO DE METACAOLíN.

Barragán Velázquez Bianca Jazmín, Universidad Tecnológica de Nayarit. Gómez Reyes Grecia Valeria, Universidad de Colima. Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el ser humano, en busqueda del desarrollo urbano, en el desenfrenado objetivo por convertirse en una sociedad de primer mundo, de tener una vida civilizada, ha dejado de lado la integridad del planeta tierra. Por ello, es imperativo enfocar nuestra energía y ciencia a la investigación, a la busqueda y hallazgo de soluciones a todos estos problemas que nosotros mismos hemos creado. Una de las areas de oportunidad esta en los despojos de las fábricas pesqueras, son las escamas de pescado, que son estructuras laminares que cuentan con cierto grado de flexibilidad y dureza que le dan al pez la oportunidad de moverse con eficiencia, y a la vez, les brinda la protección necesaria con su rasgo de dureza. Las escamas están compuestas principalmente de colageno y de fosfato de calcio. Componentes altamente fructiferos y convenientes para el concreto, en teoria. Es por eso, que desea determinar cuan valiosos pueden resultar dichos compuestos en la mezcla del concreto hidraulico. Siguiendo por la linea del cuidado, proteccion y conservacion de los recursos tanto renovables y como no renovables de nuestro planeta tierra, esta investigacion tambien va enfocada al uso de materiales suplementarios, que mejoren las cualidades del concreto, reduciendo las cantidades de cemento en la mezcla, ya que es precisamente en la elaboracion de este elemento, que se genera mayor contaminación a la atmosfera del globo terraqueo. Dado que, para producir el Clinker, los componentes del cemento son sometidos a temperaturas arriba de los 1500° C, generando así, emisiones de dioxido de carbono; este es un gas inodoro, incoloro, ligeramente acido y no inflamable (Substances, 2007) es el causante del efecto invernadero, que absorben energia infrarroja del sol y emiten radiacion. El material indicado como cementante complementario es el metacaolin. Con el uso del metacaolin, como material suplementario, podemos adicionarlo al cemento para asi reducir las cantidades de este, en los diseños del concreto y complementar la mezcla con la puzolana artificial, derivada de la piedra de caolín y lograr así aumentar las cualidades del concreto reduciendo porosidad del concreto endurecido, acrecentando la densidad, disminuyendo la cantidad de agua utilizada en el proceso de curado de los elementos, ampliando la dureza y resistencia ante muchos de los sulfatos, entre muchas otras.



METODOLOGÍA

Lavado del Agregado. Con la finalidad de retirar impurezas y particulas de limo de nuestros agregados, se realizo un proceso de lavado con agua potable.  Secado. Ambos agregados se dejaron secar de 4 a 5 dias sobre costales. Una vez que los agregados estaban secos, se recolectaron por separado en un contenedor limpio y seco. Cuarteo. Este proceso consistió en homogeneizar la muestra y separarla en cuatro partes para después tomar 2 muestras de 5 kilogramos de grava y 3 muestras de arena de 500 gramos cada una para hacer la granulometria.                                                           Granulometria. Se procedió a realizar el tamizado de los materiales con los calculos respectivos.  Masas Unitarias. Es definida como unidad de masa por volumen, esto hara relacion de como se comportara el material en estado suelto y en estado apisonado, estos valores necesarios en el diseño de mezclas, en el que el suelto representara el material en el momento que se solicita y/o se descargue en la obra o en la concretera, el apisonado mostrará el comportamiento del material al momento de realizar la mezcla del concreto (SIGUID, 2017). Diseño de mezcla.  La resistencia de diseño requerida fue de 21 MPa y se estableció la relacion agua-cemento de 0.68 de acuerdo a la misma. De acuerdo a la granulometria, el tamaño máximo nominal (TMN) para el agregado grueso fue el tamiz de ¾ y el modulo de finura (MF) fue de 3.00. De estos valores se obtiene el volumen de árido grueso por unidad de volumen de hormigon, el cual es 0.60. Se tomo el contenido de aire igual al 2% ya que es de tipo no aireado. El grado de asentamiento fue máximo de 75 mm y minimo de 25 mm. Se obtuvo el agua aproximada en la mezcla que fue de 205 kilogramos. Se consideró una proporcion 1:2:3 para todas las mezclas. En base a esto se optó por adicionar el 0.2% de escamas de pescado y un reemplazo del 8% de metacaolín. Fabricacion de especimenes. La elaboracion de los especimenes de concreto se llevo a cabo en tres dias. Durante la elaboracion de las muestras se desarrolló la prueba del revenimiento (Slump). El resultado de dicha prueba fue de 2. Resultados. Ensayos de resistencia a la compresion: Muestras patron: 16.382375.43 MPa. Muestras con 2% de escamas de pescado:  13.241919.82 MPa. Muestras con 8% de metacaolin: 20.212930.783 MPa. Ensayos de resistencia a flexion: MR Viga Patron: 3.812 MPa. MR Viga con escamas: 3.302 MPa. MR Viga con Metacaolin: 3.659 MPa.  (Todos los especimenes tienen una edad de 7 dias).


CONCLUSIONES

En cuanto a la correlacion de la resistencia a la compresion y la flexion del concreto con y sin adiciones, se esperaba que los valores del MR respecto al valor de la resistencia a la compresion. Y con base a estos parametros deseados se determinó lo siguiente: *Los especimenes cilindricos con adiciones del 2% de escamas de pescado, obtuvieron una resistencia a la compresión del 7% menor en comparacion de la resistencia obtenida en las probetas patron. Sin embargo, la resistencia a flexion resultó más que favorable, pues logró porcentajes aceptables de correlacion de compresion y flexion del 18%, concluyendo asi, que la escama de pescado mejora la propiedad de elasticidad del concreto. *En comparacion a las muestras patron, las de las adiciones con 8% metacaolín, superaron a las primeras en un 18% en la resistencia a la compresion. En cuanto al módulo de rotura y la flexion, estas dos diferentes mezclas, obtuvieron valores semejantes, permitiendo concluir, que el metacaolin es sin duda un excelente cementate suplementario del cemento Portland, pues le brinda mayor resistencia a la compresion, iguala la resistencia a la flexión; ademas de que, a manera general, hace al concreto mas durable. Otra de las ventajas, es que minimiza los poros de la mezcla permitiendo así, que le concreto tenga mayor densidad y sea menos permeable y sobre todo lo más importante es que, su uso complementario permite usar menor cantidad de cemento y por ende contribuir a la reducción de emisiones dioxido de carbono.
Gómez Vega Silvana Denisse, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

ESTUDIO SOBRE EL ESTADO ACTUAL, FORTALEZAS Y DEBILIDADES DE LA MANUFACTURA ADITIVA EN LA INDUSTRIA


ESTUDIO SOBRE EL ESTADO ACTUAL, FORTALEZAS Y DEBILIDADES DE LA MANUFACTURA ADITIVA EN LA INDUSTRIA

Cuevas Ayala Bibiana Guadalupe, Instituto Tecnológico de Jiquilpan. Gómez Vega Silvana Denisse, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la industria moderna, la manufactura aditiva ha ganado relevancia como una tecnología innovadora para la creación de objetos en dimensión 3D mediante la adición sucesiva de material capa por capa. Esta técnica ha demostrado ser prometedora en términos de eficiencia, personalización y reducción de costos en comparación con los métodos de fabricación convencionales. Sin embargo, a pesar de su creciente adopción, existe la necesidad de llevar a cabo un estudio sobre el estado actual de la manufactura aditiva en la industria, para identificar sus fortalezas y debilidades. Este planteamiento de investigación busca responder las siguientes preguntas: ¿Cuál es el grado de implementación de la manufactura aditiva en la industria en la actualidad? ¿Cuáles son las principales fortalezas de la manufactura aditiva en términos de ventajas competitivas y beneficios operativos para las empresas? ¿Cuáles son las principales debilidades y limitaciones de la manufactura aditiva en la industria? ¿Qué sectores de la industria se han beneficiado más de la implementación de la manufactura aditiva y cuáles presentan mayores desafíos para su adopción? ¿Qué amenazas representa la manufactura aditiva en tanto al trabajo de los subordinados? ¿Cuáles son las perspectivas futuras y oportunidades de mejora para la manufactura aditiva en la industria?  



METODOLOGÍA

La investigación se llevó a cabo en las siguientes etapas: Recabar información sobre la manufactura aditiva, abarcando desde su origen, el cómo ha ido revolucionando, ventajas y desventajas. Analizar y lograr comprender que es la manufactura aditiva y ver sus impactos en la industria. Definir las oportunidades y desventajas de la manufactura aditiva para los ingenieros industriales. Aprender a usar SolidWorks. Presentar diseño de pieza industrial. Corregir errores del diseño de la pieza. Imprimir pieza en 3D. Documentar la información sobre la manufactura aditiva con visión en la ingeniería industrial y sobre el proyecto: Estudio sobre el estado actual, fortalezas, debilidades de la manufactura aditiva en la industria.  


CONCLUSIONES

El estudio sobre el estado actual, fortalezas y debilidades de la manufactura aditiva en la industria ha arrojado resultados sobre esta tecnología innovadora. Las principales fortalezas identificadas en la manufactura aditiva incluyen la capacidad de producir piezas altamente personalizadas, reduciendo así los tiempos de desarrollo y permitiendo una mayor flexibilidad en el diseño. Además, se ha destacado su contribución a la optimización de procesos, la eliminación de desperdicios y la simplificación de la cadena de suministro, lo que favorece la agilidad y competitividad de las empresas. Sin embargo, también se han señalado algunas debilidades y desafíos asociados a esta tecnología. Entre ellos se encuentran la limitación en la velocidad de producción en comparación con métodos tradicionales, la selección adecuada de materiales y la necesidad de contar con equipos y profesionales especializados. Asimismo, se ha resaltado que la manufactura aditiva todavía enfrenta cierta resistencia en algunos sectores de la industria debido a la falta de información y conocimiento sobre su aplicación. A pesar de estas limitaciones, el estudio revela que la manufactura aditiva ofrece un gran potencial de crecimiento y mejora para la industria. Se espera que, con el avance de la tecnología y el aumento de la experiencia en su uso, estas debilidades sean superadas y se abran nuevas oportunidades para su adopción en aplicaciones industriales.
Gomez Villa Brian, Universidad Autónoma de Baja California
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

CARACTERIZACIóN METALOGRáFICA DE RECUBRIMIENTOS FABRICADOS POR DEPOSICIóN DE ENERGíA DIRIGIDA USANDO STELLITE 6 + WC12CO.


CARACTERIZACIóN METALOGRáFICA DE RECUBRIMIENTOS FABRICADOS POR DEPOSICIóN DE ENERGíA DIRIGIDA USANDO STELLITE 6 + WC12CO.

Gomez Villa Brian, Universidad Autónoma de Baja California. Parra Arce Kitzia Karely, Instituto Tecnológico Superior de Guasave. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se han identificado problemas clave que impactan significativamente la calidad y el rendimiento de los recubrimientos como la porosidad y bajo porcentaje de dilución con relación a la aplicación que se le otorga al recubrimiento. De particular interés para el CIDESI son los compuestos de matriz metálica (MMC) de Stellite 6 reforzados con carburo de tungsteno 12 cobalto (WC-12Co), los cuales son depositados por Deposición de Metal por Láser. Uno de los problemas clave es la presencia de porosidad y la dilución variable en los recubrimientos MMC. Estas variaciones afectan la integridad y la vida útil del recubrimiento bajo condiciones de servicio, lo que disminuye su efectividad en aplicaciones industriales. Además, la precisión en la medición de las características geométricas del recubrimiento es esencial para comprender su estructura y asegurar que cumpla con los requisitos de diseño. Errores o imprecisiones en estas mediciones pueden llevar a interpretaciones incorrectas y afectar la toma de decisiones durante el proceso de optimización. Para abordar estos problemas, se busca establecer una ventana de procesos óptima mediante la investigación y aplicación de técnicas adecuadas.  Además, se pretende mejorar la precisión de la medición utilizando herramientas avanzadas de cómputo, como Image J. El análisis estadístico de los resultados, realizado a través del software Minitab, será fundamental para obtener conclusiones significativas respaldadas por evidencia empírica. Esto permitirá tomar decisiones informadas y orientadas hacia la mejora de la calidad y el rendimiento de los recubrimientos MMC/WC-12Co en diversas aplicaciones industriales.  



METODOLOGÍA

Se realizó una revisión del estado del arte con el propósito de analizar las tendencias en el campo de la manufactura aditiva, centrándose particularmente en la mezcla utilizada y los diversos parámetros de proceso. Para llevar a cabo el estudio experimental, se utilizaron un total de 24 muestras de MMC (Metal Matrix Composite) mediante la técnica de deposición de energía directa mediante LMD (Laser Metal Deposition), empleando una aleación metálica de polvos. Estas muestras se dividieron en 3 grupos de 8, cada uno con porcentajes específicos de dos réplicas de recubrimientos de Stellite 6 reforzados con carburo de tungsteno 12 cobalto (WC-12Co) de 70-30, 80-20 y 90-10, respectivamente. El estudio consistió en obtener información relevante para mejorar el proceso de deposición de energía directa mediante LMD, buscando la optimización de la calidad y las propiedades de los composites resultantes. Para lograr una observación precisa de las características geométricas de los cordones, las muestras se montaron en polímero baquelita, se llevó a cabo un proceso de pulido hasta obtener un acabado espejo, después se procedió a observarlas en un microscopio óptico. Para el análisis geométrico de las muestras, se utilizó el software ImageJ, enfocándonos en dos características específicas: poros y áreas. Estos datos resultan fundamentales para evaluar los efectos de la dilución y porosidad en las muestras de MMC obtenidas mediante el proceso de deposición de energía directa mediante LMD con aleación metálica de polvos. Con esta información, se buscó mejorar el proceso y optimizar la calidad y propiedades de los composites resultantes. Tras obtener la base de datos con los parámetros de proceso de potencia del láser, velocidad y tasa de alimentación con dos niveles, alto y bajo, se realizó un diseño factorial 2k, donde "k" representa los factores de potencia del láser, velocidad y tasa de alimentación.  Se llevó a cabo una aleatorización previa para garantizar la confiabilidad en los datos. Una vez procesados los datos, se generaron gráficas de efecto y ventanas de proceso que permitieron observar las afectaciones de cada factor en sus distintos niveles en relación con las variables de respuesta principales, así como el comportamiento frente a sus niveles alto y bajo, determinando si presentaban un comportamiento creciente o decreciente.  


CONCLUSIONES

La realización de este estudio nos ha permitido adquirir conocimientos fundamentales sobre temas relacionados con la manufactura avanzada, específicamente en manufactura aditiva, diseño experimental, microscopía y metrología. Basándonos en los datos y análisis estadísticos preliminares obtenidos, podemos concluir que ciertos parámetros, como la tasa de alimentación y la potencia del láser, tienen un impacto significativo en el porcentaje de dilución de los recubrimientos de MMC. Se ha verificado que, al aumentar la potencia del láser y disminuir la tasa de alimentación, el porcentaje de dilución tiende a incrementarse. Además, se ha confirmado que el control adecuado de la tasa de alimentación es esencial para obtener el porcentaje de dilución deseado en los recubrimientos MMC. Ajustes precisos en la tasa de alimentación permiten alcanzar el equilibrio adecuado entre la calidad y el rendimiento del cordón. En resumen, para obtener un rendimiento óptimo en los cordones MMC de Stellite 6 con carburo de tungsteno 12 cobalto, es crucial considerar el porcentaje de dilución y la porosidad al optimizar los parámetros de proceso. Estos hallazgos proporcionan información valiosa para la optimización de la técnica LMD en aplicaciones industriales, permitiendo una mejora significativa en la calidad y el rendimiento de los cordones de MMC.  
Gonzàlez Aguirre Carlos, Universidad de Guadalajara
Asesor: Dr. José Eduardo Casillas García, Universidad de Guadalajara

CARACTERIZACIÓN DE FOTOCATALIZADORES DE ZNBIMO Y SU EVALUACIÓN EN LA DEGRADACIÓN DEL 4-CLOROFENOL Y NAPROXENO.


CARACTERIZACIÓN DE FOTOCATALIZADORES DE ZNBIMO Y SU EVALUACIÓN EN LA DEGRADACIÓN DEL 4-CLOROFENOL Y NAPROXENO.

Gonzàlez Aguirre Carlos, Universidad de Guadalajara. Asesor: Dr. José Eduardo Casillas García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, el acceso a agua limpia es una de las necesidades más básicas que, por cada día que pasa, se vuelve más difícil de cumplir en todo el mundo. Esto es por la contaminación de los grandes cuerpos de agua dulce que existen en todo el mundo. Es de conocimiento general que la razón principal por la que se contamina el agua es por el vertido de contaminantes químicos por parte de la industria, agricultura o poblaciones. Debido a lo anterior, es importante hoy en día encontrar mejores métodos de tratamiento y más baratos. Por eso los procesos avanzados de oxidación han recibido mucha atención los últimos años porque pueden oxidar completamente a los compuestos orgánicos en productos inofensivos como CO2 y H2O. Es por esto, que el presente trabajo se centra en la investigación sobre la actividad fotocatalítica de materiales compuestos por una base de ZnBi con distintas proporciones de Mo que pueden ser utilizados para el tratamiento de aguas. A estos catalizadores de ZnBiMo se le medirá su efectividad al degradar compuestos contaminantes comúnmente encontrados en aguas negras: 4-clorofenol y naproxeno. Aunado a lo anterior se les realizará a estos materiales un extenso estudio sobre su composición, estructura y superficie para conocer sus características a detalle.



METODOLOGÍA

Para este trabajo se utilizaron 4-clorofenol y sal sódica de naproxeno como reactivos de las reacciones fotocatalíticas, estos fueron distribuidos por Sigma-Aldritch. Se sintetizaron previamente los catalizadores en el laboratorio. Se utilizaron 6 fotocatalizadores distintos para este trabajo. Estos fueron ZnBi, ZnBiMo0.5%, ZnBiMo1%, ZnBiMo2%, ZnBiMo3% y ZnBiMo5%. Estos catalizadores fueron usados de dos formas distintas: como secos a 110° y como calcinados a 550° (ambos en horno de laboratorio por 4 horas). A estos se les realizaran pruebas de caracterización que se mencionan a continuación. Los patrones de difracción de rayos X se obtienen con el difractómetro de rayos X del laboratorio de nanomateriales catalíticos del CUCI en un rango de 5-80°. La espectroscopía UV-vis se realiza con el espectrómetro VARIAN Cary-100 en un rango de 190-400 nm, así, se obtuvieron los espectros de UV-sólidos y el cálculo de energías bandgap. Todos los estudios de área de superficie específica fueron realizados con el método de BET, la distribución de tamaño de poro de los catalizadores se determinó mediante el método de BJH, además las isotermas de fisisorción de nitrógeno fueron obtenidas con el equipo Quantachrome Autosorb AG-C. Las degradaciones fotocatalíticas del 4-clorofenol se realizan como se indica a continuación. A partir de una solución de 200 mL de agua potable a una concentración de 40 ppm de 4-clorofenol se le agrega 200 mg de catalizador. Se lleva a cabo la reacción en un reactor batch bajo condiciones de temperatura y presión ambiente, a la reacción se le agrega un flujo continuo de aire de aproximadamente 1 mL/s, se agita a una velocidad de 300-350 RPM y con una lámpara de luz UV que fungirá como fuente permanente de luz durante la reacción, todo esto para simular las condiciones de cualquier efluente de agua a tratar. La reacción se llevó a cabo por 5 horas, donde la 1° hora de reacción se realizó sin la fuente de luz y las restantes 4 horas con ésta, realizando muestreos cada media hora. De las muestras recolectadas a lo largo de la reacción se monitorea la concentración del contaminante al someterse al espectrómetro VARIAN Cary 100, en el espectro se busca la longitud de onda característica del 4-clorofenol (λ=279 nm) y se monitorea su concentración. Las alícuotas muestreadas son filtradas para remover el catalizador con membranas de nitrocelulosa de la Millipore Corporation. Se pretende recuperar al final de la reacción el catalizador utilizado. Tras determinar las degradaciones del 4-clorofenol, se realizaron dos degradaciones con los 2 catalizadores más activos usando el mismo proceso, pero con una solución de concentración igual a 20 ppm de 4-clorofenol y 20 ppm de naproxeno.


CONCLUSIONES

Según lo obtenido en las degradaciones, el fotocatalizador más activo que se encontró en este trabajo fue el ZnBi seco a 110°. Éste obtuvo una degradación total del 4-clorofenol aunque al degradar 4-clorofenol con naproxeno logró degradar hasta un 54%.  La muestra de ZnBi absorbe la luz a una longitud de onda de 371 nm, y tiene una energía de bandgap de 3.44 eV, ya que la muestra absorbe a partir de una longitud de onda relativamente baja (400nm) este material podría usarse como fotocatalizador con luz visible pese a tener la energía de bandgap más alta de los catalizadores estudiados. La isoterma de fisisorción de nitrógeno nos dice que este es un material mesoporoso y una estructura de capas laminares, además se obtuvo en la distribución de tamaño del poro por el método de BJH, que en general posee un tamaño de poro de 40 nm; además que por el método de BET se obtuvo el área específica de superficie (12.62 m2g-1), el volumen de poro (.04886 cm3g-1) y el tamaño promedio de poro (2.147 nm). También se calcularon las constantes de reacción para su reacción en 4-clorofenol (0.0103 min-1) y en 4-clorofenol con naproxeno (0.0029 min-1). Tanto este catalizador como el de ZnBiMo 0.5% tienen gran potencial en poder ser degradadores de otros compuestos orgánicos. Este trabajo se centró únicamente en dos contaminantes, pero como sabemos, existen millones y cabe la posibilidad de que sean buenos degradando otros contaminantes, sobre todo si estos son clorofenoles, fenoles o compuestos allegados al naproxeno por su composición y química similar. Se necesitarán estudios futuros para conocer más a fondo la capacidad de alguno de estos catalizadores para degradar más contaminantes. Se espera que estos materiales sean deseables para su aplicación en un tren de tratamiento de aguas.
Gonzalez Arce Josue Abraham, Universidad Nacional de Ingeniería
Asesor: Dra. Lina Agustina Bernal Martínez, Tecnológico de Estudios Superiores de Jocotitlán

ESTUDIO DEL TRATAMIENTO DE AGUAS CONTAMINADAS CON CIANURO MEDIANTE FOTOCATáLISIS DE ARENA VOLCáNICA EN UN REACTOR DE LECHO FIJO CON LUZ SOLAR


ESTUDIO DEL TRATAMIENTO DE AGUAS CONTAMINADAS CON CIANURO MEDIANTE FOTOCATáLISIS DE ARENA VOLCáNICA EN UN REACTOR DE LECHO FIJO CON LUZ SOLAR

Gonzalez Arce Josue Abraham, Universidad Nacional de Ingeniería. Asesor: Dra. Lina Agustina Bernal Martínez, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

La utilización de cianuro en Nicaragua en la industria minera para la obtención de oro y plata es una problemática ambiental con repercusión en los recursos naturales. La mayor incidencia de esta situación es reflejada en la contaminación de ríos y fuentes subterráneas de agua potable ocasionada por vertidos accidentales o intencionales, dando como resultado grandes afectaciones en la salud de los habitantes aledaños a la actividad, así como la flora y fauna que lo rodea. La raíz reside en el uso descontrolado de esta sustancia química tanto por el sector minero nacional como transnacional. Se han registrado incidentes donde depositan indiscriminadamente esta sustancia en diversos ríos aledaños, así como la deposición de lodos provenientes de las extracciones los cuales terminan contaminando los recursos hídricos subterráneos de agua potable con cianuro. Nicaragua cuenta con una gran cantidad de recursos naturales y fuentes de agua, sin embargo, parte de dichos recursos se han contaminado debido a diversas actividades industriales presentes, es por ello que la detoxificación de agua contaminada con cianuro en zonas como la Región Autónoma de la Costa Caribe Norte es una problemática actual del país, ya que imposibilita el acceso de agua potable segura a cada uno de los ciudadanos que necesitan de la misma, correspondiendo a su vez con el ODS-6 que plantea: Garantizar la disponibilidad y la gestión sostenible del agua y el saneamiento para todos.



METODOLOGÍA

En el tratamiento de aguas contaminadas por cianuro utilizando como fotocatalizador arenas volcánicas negras, será necesario en primera instancia la obtención del material (recolección y acondicionamiento), caracterización fisicoquímica y microbiológica del tipo de agua, caracterización del catalizador (arenas volcánicas negras), establecer la modificación y/o el diseño del reactor de lecho fijo y el estudio cinético   para evaluar la eficiencia del fotocatalizador, sin embargo es importante mencionar que algunos estudios ya realizados, avalan el gran potencial de dicho catalizador, la utilización del mismo y la viabilidad del proceso dependerán del catalizador utilizado, con lo cual, se propone como investigación es caracterizar las que se encuentran en Nicaragua, específicamente en el volcán Cerro Negro con el fin de innovar en la utilización de catalizadores de origen natural. La caracterización de dicho fotocatalizador según sugieren estudios previamente realizados, se desarrollará mediante el análisis de difracción de rayos X, porosimetría de adsorción de nitrógeno, porosimetría de mercurio, espectroscopia UV-Visible de reflectancia difusa y espectroscopia infrarroja por transformada de Fourier, microscopia electrónica de barrido  con el fin de obtener información relevante acerca del tipo de estructura del catalizador, la composición química y el band gap del material fotocatalítico. Así como la caracterización del agua contaminada con el fin de cuantificar sus componentes y determinar la eficiencia del proceso a condiciones reales y de laboratorio con una concentración previamente conocida. Se llevará a cabo un estudio de fotólisis directa del contaminante para evaluar si la degradación del cianuro presente por radiación solar directa. El tratamiento de las aguas contaminadas se llevará a cabo en un fotorreactor de lecho fijo cilíndrico rodeado de un colector solar parabólico con recirculación y condiciones de exposición a luz solar. La utilización de arena volcánica como fotocatalizador brinda muchas ventajas en la aplicación del tratamiento de aguas contaminadas, dentro de las principales se destaca la posibilidad de utilizarse en un fotorreactor de lecho fijo, siendo esta la principal ventaja debido a que se evita el proceso de recuperación del catalizador, además de ser bastante económico gracias a su disponibilidad y origen. Las condiciones fotocatalíticas en la degradación de agua contaminada con cianuro serán tanto el pH como el tiempo de reacción. El pH es una variable importante del proceso, ya que dependiendo del mismo se podrían obtener productos indeseables, con lo cual se establecerá que el tratamiento deberá llevarse a cabo en condiciones básicas de operación siendo estas a un pH entre 11 y 12, esto con el fin de evitar la formación del gas cianuro de hidrógeno, por otro lado, con un tiempo de reacción aproximado de 1 a 3 horas.


CONCLUSIONES

La degradación de cianuro mediante fotocatálisis heterogénea según diversas investigaciones ha brindado buenos resultados en la descontaminación de aguas contaminadas con cianuro, siendo en muchos casos la descomposición del contaminante reducido a CO2 y nitrógeno, ayudando así mismo a la descontaminación del medio ambiente al minimizar el impacto de sus productos, así como el poder obtener agua de mejor calidad para cada uno de los habitantes aledaños a la actividad minera, obteniendo así un sistema viable y sustentable para la detoxificación de aguas contaminadas por la actividad minera las cuales son utilizadas a diario por las personas, cumpliendo así mismo con el ODS-6 Garantizando la disponibilidad y la gestión sostenible del agua y el saneamiento para todos. Por otro lado, estudios han validado la utilización de un catalizador natural como las arenas volcánicas negras como viables y de gran oportunidad, es por ello, que la investigación en la utilización de dicho catalizador proveniente de un recurso natural en Nicaragua siendo la fuente de materia prima el Cerro Negro en la utilización para tratamientos de aguas contaminadas con cianuro conlleva una oportunidad de investigación innovando así mismo, al utilizar un fotocatalizador nuevo de origen natural, y con todas las ventajas que conlleva su implementación, validando a su vez, la utilización del sistema de tratamiento con arenas volcánicas para la descontaminación de distintas aguas contaminadas que representen una problemática medioambiental para la sociedad.
González Ascencio Osvaldo Isay, Universidad de Guadalajara
Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco

ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA


ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. González Ascencio Osvaldo Isay, Universidad de Guadalajara. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Quintero García Oliver Israel, Universidad de Guadalajara. Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

El dengue transmitido por los mosquitos Aedes aegypti y Aedes albopictus es un problema de salud crítico en las zonas tropicales de nuestro país. Sin embargo, incluso en áreas urbanas con un clima cálido y subhúmedo, como la zona metropolitana de Guadalajara, existe un riesgo considerable, especialmente durante el verano. Aunque los casos registrados en Jalisco son relativamente pocos, alrededor de 150 confirmados por año en promedio, es importante considerar que la mayoría de los casos pueden no ser diagnosticados, ya que otras regiones del país con clima similar y menor densidad poblacional informan y registran más casos anualmente. Entre la información necesaria a la hora de atacar esta problemática, está la estimación de densidad poblacional de los mosquitos y riesgos de transmisión. Ésta se realiza haciendo uso de ovitrampas distribuidas estratégicamente en zonas críticas de la región, utilizadas para recolectar huevos de vectores de dengue (Ae. aegypti y Ae. albopictus). Las ovitrampas utilizadas en el área metropolitana de Guadalajara consisten en dispositivos hechos de un bote plástico de color negro de 1 L. de capacidad, el cual es llenado a partes de volumen y recubierto sobre el borde de agua con una papeleta de pellón o papel filtro. Uno de los problemas presentes en el uso de este método de monitoreo del dengue es la falta de practicidad y fiabilidad en el conteo manual de los huevos de Ae. aegypti y Ae. albopictus en ovitrampas por parte del personal del Departamento de Dirección del Programa de Enfermedades Transmitidas por Vectores del Gobierno de Jalisco. Para abordar esta situación, es necesario digitalizar el proceso de conteo de huevos, que actualmente se realiza de forma manual por el personal gubernamental. Además, es importante analizar la información procesada para determinar la precisión del conteo de huevos en contraste con los datos públicos. El conteo manual de los huevos no solo se ve afectado por la salud visual del personal a largo plazo, si no que también presenta una fiabilidad altamente variable debido a la fatiga visual que se produce en la concentración de la vista en puntos específicos como lo demanda el conteo que realiza el personal. Al abordar el siguiente problema, también se podría reducir el margen de error en el conteo de huevos en un considerable porcentaje.



METODOLOGÍA

Con base al análisis situacional previo, realizado en base a los reportes emitidos por la Secretaría de Salud de Jalisco, en el cual se conoció el proceso de vigilancia y monitoreo de las ovitrampas instaladas en la zona, se ha detectado la necesidad de vigilar y cuantificar la cantidad de huevecillos producidos por el mosquito Aedes Aegypti y Aedes Albopictus transmisor de la enfermedad del dengue. El hecho de cuantificar los huevecillos captados en las ovitrampas le proporciona al sector salud información para determinar las estrategias a implementar para combatir la proliferación de dicho mosquito. Sin embargo, se percibe que este proceso de vigilancia y cuantificación se realiza de forma manual, por lo cual sería importante realizarlo con base a tecnologías emergentes que coadyuven en esta tarea para aumentar la optimización del tiempo y los niveles de confianza en el conteo y monitoreo. Se ha tomado como punto de partida el hecho de que, para una computadora, las imágenes no son más que una matriz de información donde se almacena el valor del píxel en que se encuentra sobre una pantalla. Cada uno de dichos píxeles se identifica por sus coordenadas y el nivel de intensidad con el que se visualiza. En las imágenes en blanco y negro dicho nivel de intensidad es un valor en el rango 0 - 255, siendo 0 la oscuridad absoluta y 255 la máxima luminosidad. Entre medias estaría toda la escala de grises. En las imágenes en color cada píxel se compone de tres valores, correspondientes a la intensidad de los tres colores primarios: rojo, verde y azul. De tal manera que para el desarrollo del proyecto, se han aplicado los aportes conceptuales de los diversos autores consultados así como las cuatro fases ya mencionadas: adquisición, preprocesamiento, determinación de objetos y análisis de imágenes del mundo real.


CONCLUSIONES

Una de las técnicas empleadas para el procesamiento de la imagen fue la binarización. Esta técnica tiene como función principal convertir la imagen en escala de grises a una imagen binaria, donde los píxeles se representan con valores de blanco o negro. La binarización permite que la computadora perciba la imagen de manera más efectiva, se simplifica la complejidad de la imagen y se resaltan los contornos y características distintivas. A través de la binarización es posible distinguir los contornos de la imagen y los objetos que contienen, de esta manera podemos identificar los huevos en el pellón, para reducir la cantidad de falsos positivos basándonos en un análisis previo de los rangos en los que se encuentran los tamaños de los huevos. De esta manera, el algoritmo puede realizar un conteo preciso de la cantidad de huevos presentes en el pellón. El avance de este algoritmo de conteo, que emplea técnicas de visión artificial, representa una alternativa considerablemente más precisa y eficiente en comparación con los métodos actuales que el personal de la Secretaría de Salud de Jalisco utiliza para contar manualmente los huevecillos presentes en el pellón. Además del ahorro de tiempo, el enfoque de visión artificial muestra un mayor grado de consistencia y fidelidad en los datos obtenidos. Al eliminar el factor subjetivo asociado con el conteo manual, se minimizan las posibles discrepancias y errores humanos, asegurando resultados más precisos y confiables en el análisis. En conclusión, los resultados de esta investigación respaldan la superioridad del enfoque de visión artificial en términos de ahorro de tiempo, eficiencia y precisión en el conteo de huevecillos. Esta tecnología promete ser una herramienta valiosa para mejorar la calidad y efectividad de los procesos de conteo en diversas aplicaciones, incluida la labor del personal de la Jurisdicción Sanitaria en el monitoreo de huevecillos y otras tareas relacionadas.
Gonzalez Barragan Carlos Alexander, Instituto Tecnológico de Chilpancingo
Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo

EXPLORANDO LA VIOLENCIA DE GÉNERO EN LOS ÁMBITOS ESCOLAR, LABORAL Y COMUNITARIO: UN ENFOQUE INTEGRADO MEDIANTE MINERÍA DE DATOS Y KDD


EXPLORANDO LA VIOLENCIA DE GÉNERO EN LOS ÁMBITOS ESCOLAR, LABORAL Y COMUNITARIO: UN ENFOQUE INTEGRADO MEDIANTE MINERÍA DE DATOS Y KDD

de la Cruz Vazquez Diana Laura, Instituto Tecnológico de Chilpancingo. Garibay Salgado Cesar Isaias, Instituto Tecnológico de Chilpancingo. Gonzalez Barragan Carlos Alexander, Instituto Tecnológico de Chilpancingo. Hipolito Gatica Kevin Osvaldo, Instituto Tecnológico de Chilpancingo. Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La violencia de género es un fenómeno global que afecta a mujeres y niñas en diversos contextos, comprometiendo su seguridad, bienestar y desarrollo integral. Si bien se han realizado esfuerzos significativos para abordar este problema, aún persisten desafíos importantes en la compresión de sus manifestaciones en diferentes ámbitos, como el escolar, laboral y comunitario. México presenta antecedentes significativos en violencia de género que lamentablemente continúan presentes en la vida cotidiana de la mayoría de las mujeres, lo que constituye una seria problemática social. Esta violencia se manifiesta en diversas formas, tales como violencia doméstica, acoso callejero, discriminación laboral, explotación sexual, feminicidios y trata de personas. En la actualidad, se cuenta con técnicas y tecnologías avanzadas que pueden aplicarse en el ámbito de la minería de datos. La pregunta surge sobre si es posible utilizar estas herramientas para encontrar patrones que identifiquen las principales características que resultan en violencia de género.



METODOLOGÍA

El tipo de investigación es descriptivo, debido a que busca determinar las variables comunes en la población con violencia de género e intrafamiliar, tomando como referencia los datos recolectados en la encuesta Nacional sobre la Dinámica de las Relaciones en los Hogares 2021 (INEGI), y aplicando técnicas de minería de datos, para generar modelos predictivos y descriptivos, aplicando la metodología KDD (Descubrimiento de conocimiento en bases de datos), utilizando como herramienta tecnológica WEKA, la cual genera los modelos y sus métricas de evaluación, para determinar cuál es el mejor modelo, y tomarlo como referencia para la toma de decisiones.


CONCLUSIONES

El uso de técnicas de minería de datos en el estudio de la violencia en México es inestimable para comprender patrones y factores de riesgo, facilitando la toma de decisiones informadas. El análisis de datos del INEGI sobre violencia de género en diferentes ámbitos muestra características específicas, destacando la importancia de abordarla de manera contextualizada y adaptar estrategias de prevención. Durante la investigación se presentaron los siguientes desafíos, durante la aplicación de los algoritmos J48 y Naive Bayes a un conjunto de datos optimizado utilizando WEKA. Se llevaron a cabo varios pasos de pre procesamiento para abordar errores e inconsistencias en los datos: • Identificación correcta de Clases: Asegurar la asignación correcta de clases y sus variables relacionadas para permitir una predicción precisa. • Renombrar Variables: Mejorar los nombres de las variables para una mejor comprensión y claridad. • Optimizar Variables: Agrupar variables comunes para mejorar la identificación y el análisis. • Resolver Incoherencias: Abordar discrepancias entre las respuestas a diferentes preguntas para refinar el conjunto de datos. • Crear Conjuntos de Datos Únicos: Generar conjuntos de datos individuales para cada clase para identificar variables no reconocidas por el conjunto de datos principal y posteriormente eliminar las variables no relacionadas. Los análisis descriptivos y predictivos permiten identificar variables relevantes y generar modelos para predecir y prevenir la violencia. La combinación de enfoques cuantitativos y cualitativos ofrece nuevas herramientas para abordar la problemática y tomar decisiones más efectivas. En general, esto contribuye a una mejor comprensión de la violencia y a promover medidas más adecuadas para enfrentarla. Mediante el análisis descriptivo y predictivo, se logró identificar variables relevantes y generar modelos que permiten predecir y prevenir la violencia. Sin embargo, es crucial considerar las implicaciones éticas y legales en la utilización de datos personales y garantizar la protección de la privacidad.
González Bautista Miguel Eduardo, Instituto Tecnológico de Reynosa
Asesor: M.C. Mariano Braulio Sánchez, Instituto Tecnológico Superior del Sur de Guanajuato

DISEñO Y MODELADO DEL SISTEMA DE SUSPENSIóN Y DIRECCIóN DE UN VEHíCULO TODO TERRENO


DISEñO Y MODELADO DEL SISTEMA DE SUSPENSIóN Y DIRECCIóN DE UN VEHíCULO TODO TERRENO

González Bautista Miguel Eduardo, Instituto Tecnológico de Reynosa. Asesor: M.C. Mariano Braulio Sánchez, Instituto Tecnológico Superior del Sur de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad en la región del Sur del Estado de Guanajuato existe una gran demanda de ingenieros con competencias desarrolladas teniendo como enfoque principal el sector automotriz. Y a través de proyectos como Baja SAE (Sociedad de Ingenieros Automotrices) motiva a los estudiantes a trabajar en un proyecto completo, desafiante, además de formar ingenieros capaces de diseñar y construir un vehículo todo terreno que pueda sobrevivir a un terreno accidentado. El proyecto de diseño y fabricación de un vehículo baja SAE esta dividido en diferentes sistemas como: chasis, frenos, transmisión de potencia, telemetría, suspensión y dirección entre otros cada uno de ellos con sus objetivos y responsabilidades plenamente identificados, el diseño y fabricación de un vehículo todo terreno, diseñar y construir un vehículo no es una tarea sencilla debido a que se debe analizar cuidadosamente cada uno de los sistemas que contempla el carro, además de aprovechar al máximo la potencia que entrega el motor sin sacrificar la seguridad del conductor, espacios suficientes para los componentes del vehículo, entre otros puntos básicos. El sistema de suspensión es uno de los principales sistemas debido a que su importancia radica en garantizar la seguridad del conductor, así como adaptarse a las irregularidades del terreno, el diseño de la suspensión requiere tener en cuenta factores dinámicos y otros como la resonancia y la amortiguación crítica. El proyecto aportará un prototipo de un carro para el ITSUR, que puede servir como fuente de inspiración a quien desee iniciar una empresa en la fabricación de este tipo de vehículos. Permitirá una mayor difusión de la institución y de la carrera de Ingeniería en Sistemas Automotrices



METODOLOGÍA

Se realizaron tres diferentes modelos empleando SolidWorks con base a la normativa SAE internacional. La estructura es el punto de partida en el diseño del vehículo ya que todos los componentes y sistemas se acoplan a esta, por tal motivo se priorizo en obtener una estructura resistente, reforzada y con baja densidad permitiendo obtener una alta resistencia especifica. Una vez dimensionados los modelos, la selección del material fue el acero 1018 con base a la norma ANSI seleccionando un tipo de tubería de 1 in cedula 40. La simulación de resistencia e impacto se realizó mediante dos softwares diferentes SolidWorks y ANSYS versión estudiantil. Para ello primeramente se aplicaron los cordones de soldadura en los puntos de unión después se procedió a realizar el mallado, así como configurar los soportes y las cargas aplicadas. En el primer estudio se considero una volcadura donde la carga aplicada fue de 750 lb, con la finalidad de garantizar la resistencia de la estructura, se realizó la simulación considerando un choque frontal, para ello se transfieren las cargas a la zona frontal del vehículo. Suspensión. Para el diseño de la suspensión se tomaron en cuenta los comportamientos dinámicos presentes en el vehículo así como su influencia en la suspensión, para tal efecto fue necesario ubicar y posicionar los hardpoints de las horquillas mediante los cuales se calculará la eficiencia de la suspensión, se tomo en cuenta la posición del amortiguador ya que el propósito es que la horquilla no genere demasiado estrés en dicho componente y que este a su vez absorba la mayor cantidad de oscilaciones producidas por el terreno. Se decidió que la suspensión trasera fuera más robusta y con una carrera de expansión y compresión mayor, debido a que la parte trasera del vehículo será la que acumule el mayor peso y ambos cuentan con soporte para cumplir con la función de sostener el vehículo. Se propuso el diseño doble A para mantener una construcción sencilla y económica al simplificar el diseño. El modelo CAD se realizó en SolidWorks debido a que permite realizar un análisis cinemático y dinámico de un mecanismo empleando como complemento un motor de SolidWorks, también es posible adquirir los parámetros requeridos por el modelo como el centro de masa, las inercias, etc.,


CONCLUSIONES

La simulación en llevada acabo tanto en SolidWorks como en ANSYS permitió observar que la estructura de los modelos propuestos tiene buena resistencia y son aptas para la fabricación y acoplamiento de los demás sistemas. Los resultados preliminares de la suspensión muestran que funcionará de forma adecuada garantizando la seguridad del vehículo y permitirá una eficiente absorción de las irregularidades del terreno, así mismo se garantiza que los neumáticos delanteros mantengan la misma área de contacto durante todo el recorrido.
Gonzalez Cabanillas Ailin, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA Y MEJORA CONTINUA EN EMPRESAS DEL SUR DE SINALOA


LOGíSTICA Y MEJORA CONTINUA EN EMPRESAS DEL SUR DE SINALOA

Cruz Regalado Ariana Daheli, Universidad Politécnica de Sinaloa. Gonzalez Cabanillas Ailin, Universidad Politécnica de Sinaloa. Salazar Ibarra Isela Donahi, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La globalización impulsa la competitividad empresarial entre las cadenas de valor y cadenas de suministro, ambas importantes y con la necesidad de la innovación constante, lo anterior puede ser posible si la estructura organizacional es eficiente y eficaz, aun con lo anterior el factor calidad es esencial, el cual se puede definir como realizar las actividades a la primera y bien con referencia empresarial; es decir, es necesario que se comprenda qué es lo que la hace funcionar, los procesos claves medios por indicadores estratégicos, ser sostenible y la toma de decisión asertiva son tendencia actual y futura. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la capacidad del sector logístico y transporte en mejorar continuamente,  pues si bien las necesidades como el ser competitivo ya no es opcional, es una cualidad natural de la organización, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio de campo que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento empresarial relacionado con el ámbito logístico y mejora continua. El alcance de la investigación cuantitativa de tipo campo es identificar si las condiciones en materia logística y mejora continua en las empresas del Sur de Sinaloa son adecuadas, desde la perspectiva empresarial del sector industrial.  



METODOLOGÍA

Para este estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos escritos y a distancia con medios digitales de tecnología de la información y la comunicación, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El método de recolección de datos es a través de instrumento de encuesta con 60 reactivos, se aplicó a personas directivas de empresas, con una muestra de 85 organizaciones, de la cual se seleccionó tres reactivos orientada a conocer las opiniones sobre la capacitación de la gestión logística y cadena de suministro (variable A1), capacidad en mejora continua (variable A2); así también, la capacitación en la gestión de calidad (variable A3), para cada reactivo se aplica una categorización de la siguiente forma Muy  necesario (5), Necesario (4), No necesario (3), No sé (2) y No aplica (1). Se analiza la información de forma gráfica estadística para realizar una argumentación sustentada abordando si las condiciones en habilitación del personal en materia logística y mejora continua en las empresas del Sur de Sinaloa son adecuadas, desde la perspectiva empresarial del sector industrial.  


CONCLUSIONES

La población encuestada se encuentra en empresas de giro industrial, en áreas disciplinares de logística y transporte, de la muestra general de 85 personas se muestra un resultado estadístico descriptivo en la variable A1 con una media de 3.9818 y una desviación estándar de 1.147, lo cual indica que la mayoría de las empresas están de acuerdo en que capacitan a su personal en gestión logística y cadena de suministro, mientras que en la variable A2 una media de 4.6941 con una desviación estándar de 0.5123, significa que las organizaciones están muy de acuerdo en que la mayoría de sus colaboradores tienen las habilidades de realizar mejoras continuas; así también, la variable A3 una media de 4.2824 con una desviación estándar de 0.9208, eso describe que la empresa está muy de acuerdo en la necesidad de que los empleados deben ser capacitados con mayor frecuencia en la gestión de calidad, los resultados en materia logística y mejora continua en empresas del Sur de Sinaloa nos proporcionan que las variable A1, A2 y A3 describen en que los subordinados deben ser capacitadas con mayor frecuencia para el desarrollo de sus habilidades en ámbitos de la logística y mejora continua, con el propósito de aportar la continuidad en proyectos orientados al punto 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030.  
González Calixto Mariana, Instituto Tecnológico de Puebla
Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango

DESARROLLO DE ACOPLE PARA ETAPA DE MEDICIóN DE GASES DE EFECTO INVERNADERO DE UN ROBOT CARTESIANO


DESARROLLO DE ACOPLE PARA ETAPA DE MEDICIóN DE GASES DE EFECTO INVERNADERO DE UN ROBOT CARTESIANO

González Calixto Mariana, Instituto Tecnológico de Puebla. Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con el artículo titulado Estimación de las emisiones de gases de efecto invernadero provenientes del ganado en México, 1990-2018 publicado en la Revista internacional de estadística y geografía del INEGI en el año 2021, las actividades ganaderas son la tercera fuente de generación de dióxido de carbono (CO2), después del sector transporte y energético. Por lo que, el conocimiento preciso sobre las emisiones de gases de efecto invernadero (GEI) en este sector se vuelve fundamental para optimizar su producción y energético. En este contexto, el proyecto realizado en el Instituto Tecnológico Superior de Huauchinango se basa en automatizar el método de producción de gas in vitro, el cual por medio de determinado número de muestras colocadas en frascos de vidrio ámbar y cerrados de forma hermética, ubicados en un baño maría a una temperatura constante de 39 °C mide la presión de gas en intervalos de tiempo predeterminados (0, 1, 2, 3, 5, 7, 9, 12, 15, 18, 24, 30, 36, 42, 48, 60, 72 y 96 horas), lo que permite analizar cómo la fermentación de ciertos tipos de sustrato, se puede medir para mejorar su digestibilidad, lo que refiere a una disminución significativa del impacto ambiental asociado a las emisiones de GEI. Se realizaron observaciones detalladas del robot cartesiano existente; este opera en tres ejes (X, Y, Z) y su función principal es recorrer un área específica para medir la presión de gases contenidos en determinada cantidad de botellas ámbar. El robot, equipado con una CNC (adaptada para el trabajo de recorrido de toma de datos), una placa MKS DLC32, una placa de desarrollo ESP32, un sensor de presión y sensor infrarrojo, una pantalla LCD y una aguja, realiza un movimiento secuencial desde un punto 0 establecido hasta una dirección definida, interrumpiendo su recorrido de acuerdo con la cantidad de muestras que requieren ser analizadas para pinchar la tapa de cada botella y medir la presión del gas contenido en ella. Fue identificado que el mecanismo de pinchado de la tapa de las botellas comprometía las mediciones de presión, ya que el material de goma de la tapa puede presentar resistencia a la aguja que se encuentra vinculada al sensor, lo que resulta en errores de medición y un análisis incorrecto de la información. Al mejorar este proceso se busca lograr cambios notables en la obtención de datos relevantes para el cálculo y análisis posterior de los gases presentes en cada botella.



METODOLOGÍA

La metodología será cuantitativa ya que se requiere mejorar el proceso de medición de las muestras de gas contenidas en las botellas, para esto se corroborarán las propuestas de los mecanismos diseñados para la mejora del proceso de pinchado de las tapas. Los datos estarán presentados basados en, estética, funcionamiento, mejora en la medición y facilidad de implementación. El proceso consistirá en pruebas con cada una de las propuestas y se irán descartando basados en los puntos anteriores. Desarrollo Para abordar el problema identificado en el mecanismo de pinchado, se propusieron cinco diseños de mejora utilizando el software Solidworks. El primer diseño propuesto fue un actuador compuesto por siete piezas, principalmente de elementos cúbicos y cilíndricos. Este diseño incluía un resorte que permitiría al actuador ejercer una presión contra la botella para evitar que se levante al salir la aguja. Sin embargo, fue sugerido un segundo diseño cuyo planteamiento consideraba ser más eficiente, con esto en contexto se modificó la pieza inferior del primer diseño para lograr colocar correctamente la cabeza de la botella en relación con la aguja si esta se encontraba con un desfase posición y lograr que fuera más uniforme el pinchado. El tercer diseño contemplaba dos conos achatados para encajar con la parte inferior y la parte superior del actuador. Sin embargo, las simulaciones del sistema mostraron que este diseño no permitía el retorno de ambos conos a su posición inicial, por lo que no resultó factible. Después de varias iteraciones y pruebas de simulación agregando dos diseños más, se seleccionó un diseño final que constaba de un acople mecánico con dos cilindros que permitían un movimiento vertical continuo. Este diseño también incorporaba un resorte para resistir la subida de la botella después de ser pinchada; de igual forma, se incluían dos muescas en el primer cilindro para encajar con dos rieles en el segundo cilindro, permitiendo un movimiento vertical continuo y el retorno a su posición inicial cuando el actuador cambia de botella. Una vez seleccionado el diseño final, se procedió a desarrollar el acople mecánico. Este fue concebido para solucionar el problema identificado en la etapa de obtención de presión de las muestras, esperando con ello que la aguja del sensor de presión, realizara un proceso más constante y optimo en las mediciones. El nuevo diseño permite alinear correctamente la botella con el sistema de toma de muestra, mejorando la repetitividad del proceso en la medición de la presión del gas. Este acople fue diseñado para ser impreso en 3D, permitiendo una producción rápida y eficiente de la solución.


CONCLUSIONES

Durante la estadía de verano, el proyecto realizado en la institución permitió conocer la importancia de los métodos existentes para medición de gases de efecto invernadero observando el proceso automatizado con el que se trabajó; dado que el acople propuesto es un elemento más en todo el proceso, es importante destacar que aún se requieren pruebas adicionales para validar completamente la solución planteada e implementada. Es decir, se necesitan pruebas suficientes de medición de presión para confirmar la eficacia del acople en la mejora de la precisión de los datos. De igual forma, se requieren pruebas físicas y de resistencia del material para garantizar la durabilidad y el rendimiento a largo plazo del acople en condiciones de operación continua.
Gonzalez Castaño Lady Carolina, Universidad Autónoma de Manizales
Asesor: Mtro. José Leonel López Robles, Universidad Vizcaya de las Américas

REVISIóN DE LA IMPORTANCIA DE LA IMPLEMENTACIóN DE LA TECNOLOGíA DE LA INFORMACIóN Y LA COMUNICACIóN EN LAS EMPRESAS.


REVISIóN DE LA IMPORTANCIA DE LA IMPLEMENTACIóN DE LA TECNOLOGíA DE LA INFORMACIóN Y LA COMUNICACIóN EN LAS EMPRESAS.

Gonzalez Castaño Lady Carolina, Universidad Autónoma de Manizales. Asesor: Mtro. José Leonel López Robles, Universidad Vizcaya de las Américas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad uno de los mayores desafíos de las empresas es lograr sacar provecho a las herramientas tecnológicas que ofrece las TIC (tecnología de la información y la comunicación), y así poder generar valor agregado a corto, mediano y largo plazo de tal manera que no se pierda competitividad, credibilidad y prestigio en el mercado y ser sostenible. El desarrollo de la tecnología de la información y la comunicación ha desencadenado un verdadero cambio estructural en las empresas ya que se transformó la forma de producir, divulgar y utilizar la información en los diferentes ámbitos. Después de una revisión teórica en los diferentes contextos podemos determinar los aspectos relevantes que contribuyen a nuestro proceso de investigación, los cuales referenciamos a continuación y que nos proporcionan la sustentación teórica para dar continuidad a nuestra investigación.



METODOLOGÍA

Estudio observacional descriptivo, se realizó una revisión bibliográfica de artículos originales y de revisión publicados en diversas bases de datos como Springer, EBSCO, Scopus, ScCielo, Scholar Google, entre otras; investigación aun en proceso. Entre los hallazgos localizados en el análisis de la lectura, se puede mencionar a Amador, Naranjo, De Lucio & Morales (2022) quienes analizaron el desarrollo económico e implementación de las Tic e innovación en empresas, a través del método cuantitativo por medio de un cuestionario que se aplicó a empresas del Sector comercial, de servicios  e  industria  y/o  manufactura  de  países como Colombia y México  obteniendo como resultado, que  las  Pymes  son conscientes  de  los  beneficios  que  trae  la implementación  de  las  TIC  por  ello, la  mayoría  de  las  acciones  empresariales  incluyen estas herramientas desde el manejo de costos, obtención de información del mercado y cliente,  además  de  la planificación  estratégica  haciéndola  a  su  vez que participe  en  la toma  de  decisiones  empresariales  que  les  facilita  e  impulsa  una  competitividad  y sostenibilidad en el mercado; Las  Mipymes  no  solo  generan  cambios  en  el  área  administrativa  y  operacional  con  la adopción de las TIC sino que también han transformado factores en el área comercial que les  permiten  ser  más competitivas  en  el  mercado  desde  aspecto  sencillos  como  son mejoras  en  procesos  o  técnicas  de  producción  en  un  90 %. Por su parte Galo & Cano (2018), en su artículo Las Tics en las empresas: evolución de la tecnología y cambio estructural en las organizaciones, por medio de una revisión bibliográfica y análisis de la información a través de un  estudio descriptivo que busca especificar las propiedades, las características y los aspectos importantes del uso de la tecnología en las empresas y el cambio en la estructura de las mismas determinaron que el factor tecnológico es determinante para la competitividad en el mercado, de allí que, para lograr el crecimiento económico, los países se basen en la capacidad de innovación que éstos posean. En tal sentido, se concluyó que existe una relación directa entre la evolución de la tecnología y el cambio estructural en las organizaciones, producto de la adopción por parte de las mismas, de nuevas tecnologías de información y comunicación, adoptadas inicialmente como herramientas para afrontar nuevas realidades del entorno, lo cual produjo posteriormente en ellas cambios profundos en su diseño estructural, cultura y clima organizacional.  


CONCLUSIONES

Según revisión bibliográfica estos artículos nos han brindado una visión más amplia de la importancia de la implementación de las Tecnologías de la información y la comunicación, generando así ventajas competitivas y haciendo que las organizaciones participen en la globalización siendo sostenibles y trabajando con las herramientas que proporcionan ventajas competitivas, aunque por miedo y falta de conocimiento aún existen empresas que se niegan a aceptar el cambio. Teniendo en cuenta esta investigación, la implementación de las TIC nos ayudan a potencializar la empresa y contribuyen al crecimiento de la misma y de esta manera generan una ventaja competitiva para lograr obtener un mejor desempeño organizacional, además aportan al crecimiento económico y, por lo tanto, generan un valor agregado. Las empresas han entendido que las tecnologías de la información y la comunicación son herramientas que les ayudan al crecimiento y sostenimiento de sus empresas y les permite lograr una competitividad en el mercado tanto interna como externamente ya que se puede acceder a información del mercado, analizar a sus cliente, proveedores y competencia para toma de decisiones más acertadas; la implementación de estas herramientas tecnológicas se puede llegar a considerar  como un elemento clave para impulsar la productividad de las empresas; sin embargo existe la falta de apropiación y conocimiento del uso adecuado de la tecnología que ocasiona no poder optimizar muchas procesos y hacer más lento los tiempos de producción, la eficiencia y eficacia.
González Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez

PROYECTO_INVESTIGACIóN_CISCO


PROYECTO_INVESTIGACIóN_CISCO

González Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán. León González Jorge Eduardo, Instituto Tecnológico Superior de Apatzingán. Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán. Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

la configuracion de antenas es un problemas para muchas personas por el hecho de que muchas veces los han instalado de forma erronea en algunos hogares o lugares publicos. esto pasa porque en los sitios donde han sido instalados no son lo correctos, ya que muchas veces se tiene que en el lugar instalado tienen muchas interferencias. Entonces aqui mostaremos unos metodos los cuales nos ayudaran a poder instalar  de forma seguro una antena o router de red.



METODOLOGÍA

a continuacion se mostrara como configurar un protocolo llamado EIGRP: Para poder habilitar el proceso de EIGRP, se utiliza el comando de configuración global **router eigrp **, donde **asn** corresponde al número del sistema autónomo. El valor de ASN es de 16 bits, por lo que puede ir de 1 a 65535: Para nuestro caso, el ASN que utilizaremos será 10. Si uno de los routers posee un sistema autónomo diferente a 10, estos routers nunca harán vecindad Ahora que se tiene configurada la instancia de EIGRP, se deben habilitar las interfaces para que trabajen con este protocolo. Esto se realiza a través del comando network.  si está habilitado el terminal monitor en la línea donde estamos conectados (vty o consola). Para poder ver las redes que saben los routers, se usa el comando show ip route, pero si queremos ver las redes aprendidas por EIGRP, se le agrega eigrp al final del comando. En la tabla de enrutamiento, las rede que son aprendidas por EIGRP se les asigna la letra D, pero, ¿Por qué no es la letra E? Eso se debe a que cuando salió EIGRP, estaba el protocolo EGP vigente, por lo tanto, este usaba la E,  Como se puede ver, R1 y R2 conocen las redes 172.16.1.0/24 y 172.16.2.0/24 solamente usando el comando network 172.16.0.0 (por falta de imagenes ya que no pueden poner en este apartado, no se es muy explisitiva la explicacion de esta metodologia)


CONCLUSIONES

Con esta investigación esperamos que se pueda informar tanto a nosotros como a la gente sobre la instalación de sistemas de redes Cisco, principalmente antenas, la serie de procesos que se deben llevar a cabo, metodologías para plantear la instalación y cotización de los productos necesarios y la configuración de la misma, así poder garantizar una serie de instrucciones sencillas para permitir a la gente instalar sus propias antenas y satisfacer las necesidades del usuario. Logramos adquirir conocimientos que nos serán de utilidad al momento de ejercerlos en una situación de la vida real, la investigación se centra en la instalación de sistemas de redes, antenas, y computo de redes en general, la información fue proporcionada por Cisco y otros medios como libros acerca de redes, se espera poder ejercer estos conocimientos de manera sabia y responsable. Aprendimos principalmente la teoria basica de los componentes de una red, los equipos que utilizaremos y los protocolos que podremos seguir al realzar una red general.
González Conzuelo Ana Karen, Universidad Autónoma del Estado de México
Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla

COLLARíN DE PROTECCIóN RADIOLóGICA PARA TIROIDES UTILIZANDO MATERIAL MODIFICADO CON BARITA (BASO4) PARA LA IMPRESIóN EN 3D LCD.


COLLARíN DE PROTECCIóN RADIOLóGICA PARA TIROIDES UTILIZANDO MATERIAL MODIFICADO CON BARITA (BASO4) PARA LA IMPRESIóN EN 3D LCD.

González Conzuelo Ana Karen, Universidad Autónoma del Estado de México. Asesor: Dr. Ricardo Agustin Serrano, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Como seres humanos estamos constantemente expuestos a fuentes de radiación y es importante tomar en cuenta que la radiación ionizante puede resultar dañina para las células del organismo, ya que esta es un tipo de energía liberada por los átomos en forma de ondas electromagnéticas o partículas la cual puede causar efectos adversos en el cuerpo humano. A pesar de la existencia de los diferentes dispositivos de protección radiológica que cuentan con láminas plomadas, es fundamental buscar alternativas más cómodas y asequibles para el diseño de estas prendas. Una de las mayores ventajas que ofrece la impresión 3D es que los materiales utilizados son fáciles de conseguir y el diseño que se imprima puede ser tan personalizable como se requiera, esto favorecerá que los dispositivos de protección radiológica no sean complicados de portar tanto para el personal como para los pacientes en salas de radiodiagnóstico. Para el desarrollo de este proyecto se utilizará la impresión 3D de tipo LCD como herramienta pues este tipo de tecnología permitirá combinar los materiales usados comúnmente en la impresión 3D con la barita o baritina (BaSO4),  la cual es un mineral inerte no metálico y no tóxico el cual es utilizado de manera común en la industria petrolera, la industria de fabricación de vidrio pero también en la construcción de salas de rayos X pues debido a sus propiedades químicas absorbe radiación gama y puede reemplazar la carga en escudos nucleares. Se ha demostrado que a cierta concentración de la barita combinada con la resina es posible atenuar correctamente la radiación tal y como se logra al utilizar prendas plomadas de protección radiológica.



METODOLOGÍA

El diseño del collarín plomado de protección radiológica se pensó para ser diferente a los existentes en el mercado pero que a pesar de sus diferencias siga cumpliendo con el objetivo y con la estipulación del uso de estas prendas establecido en la NOM-229-SSA1-2002 y NOM-157-SSA1-1996. Además, dentro de la idea del collarín se busca que sea una prenda cómoda y menos rígida a comparación de un collarín plomado, por lo que se propuso como un diseño de piezas individuales que cubrieran una a la otra asemejando escamas o plumas, lo que le proporcionaría al diseño una flexibilidad limitada del movimiento de las piezas pero a su vez esta limitación garantizaría que no existan huecos dentro del diseño que favorezcan el paso de la radiación ionizante a la piel en la zona de la glándula tiroides. Para los primeros análisis fue necesario realizar una serie de pruebas mecánicas de esfuerzo-deformación a diferentes muestras de resina combinada con barita a diferentes concentraciones, las cuales se realizaron en el laboratorio de mecánica aplicando una carga máxima de 1.067 kg a 8 muestras de dimensiones 5x5 cm y un espesor de 5 mm de resina combinada con barita con una concentración de 0%, 10%, 20% y 30% y los resultados obtenidos resultaron en la confirmación la muestra de resina combinada con barita al 30% donde en el punto del límite elástico alcanzado a los 48 segundos de la prueba la carga máxima soportada fue de 1.067 kg. Sufriendo de un estrés aproximado de 49.12 KPa y una extensión del material aproximada de 2.33 m., por lo tanto, se obtuvo una deformación de 0.057 del material. Esto demuestra que esta combinación de la resina con la barita a pesar de sufrir un estrés mayor en comparación con las otras muestras, su límite elástico se encuentra en un punto más alto, lo que garantizará que la utilización de este material resistirá adecuadamente los movimientos necesarios para las maniobras realizadas durante los estudios de radiodiagnóstico. Dentro del laboratorio se contaban con diversas impresoras 3D, pero las más utilizadas fueron la Ender 3 y Monoprice Select Mini V2 para la impresión convencional utilizando PLA. Para la impresión 3D LCD se utilizó la impresora Creality LD-002H. Para versión preliminar de las piezas se utilizaron los softwares Autodesk Maya y Meshmixer para el correcto modelado, una malla preliminar de 3x3 piezas se imprimió en 3D con filamento PLA, el acomodo de la pieza para su impresión se llevó a cabo utilizando el software libre UltiMaker Cura. Este modelo tuvo que sufrir ciertos ajustes pues al imprimirse presentó algunas uniones no deseadas entre las piezas lo que limitó su movilidad, y además las piezas eran muy frágiles pues su espesor era de 0.2 cm por lo que se aumentó a 0.4 cm y además se procedió al correcto acomodo de las piezas para tener una movilidad optima. Es entonces cuando se imprimió utilizando la impresora en 3D LCD con resina, aún no combinada con barita, aquí se imprimió una malla pequeña de 3x2 piezas donde se verifico que no existieran detalles entre las uniones de cada pieza y además se verificó el espesor mencionado anteriormente. El acomodo de la pieza para su impresión se llevó a cabo utilizando el software libre Chitubox 64.  Finalmente se procedió a realizar una impresión 3D LCD de un área mayor, esta vez reduciendo aún más el tamaño de las piezas, pero conservando los cambios realizados anteriormente. Al realizar esta impresión se utilizó la combinación de resina añadida con un 30% de barita al contenido del total para realizar la impresión.


CONCLUSIONES

Resulto fundamental el diseño e impresión de los diferentes prototipos considerados dentro del desarrollo del proyecto pues esto facilitó identificar el diseño más optimo, flexible y resistente para su uso dentro de una sala de procedimientos de radiodiagnóstico. La diversificación de las técnicas de impresión 3D LCD nos permite explorar diferentes alternativas de utilización de los diferentes tipos de impresoras 3D. El prototipo es funcional dentro de la prueba realizada, pero es claro que existen áreas de oportunidad que permitirán que el material utilizado se aproveche de una mejor manera ideando nuevas formas de realizar la impresión correctamente y teniendo un área mayor de impresión 3D.
González Cornejo Axel Baruc, Universidad de Guadalajara
Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla

DISEñO DE UN ASISTENTE ROBóTICO PARA PERSONAS CON ENFERMEDADES ASOCIADAS CON LA PéRDIDA DE LA MEMORIA


DISEñO DE UN ASISTENTE ROBóTICO PARA PERSONAS CON ENFERMEDADES ASOCIADAS CON LA PéRDIDA DE LA MEMORIA

González Cornejo Axel Baruc, Universidad de Guadalajara. Solano Corona Pamela Sthepani, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La pérdida de memoria se asocia con una capacidad disminuida para aprender nueva información o recuperar información aprendida. Los informes de pérdida de memoria no reflejan necesariamente cambios en este dominio, pero pueden reflejar efectos en otro dominio cognitivo. La disminución en la capacidad para recuperar información puede causar pérdida o cambios en la memoria sin afectar el funcionamiento diario. Si la pérdida de memoria cambia las actividades diarias, puede ser un proceso demencial que debe explorarse de manera específica. La demencia es una enfermedad neurodegenerativa multifactorial que afecta progresivamente la memoria, el pensamiento y la capacidad para realizar las actividades cotidianas, llegando a un estado de discapacidad y dependencia. El aumento de la incidencia de esta enfermedad convierte a la demencia en un problema prioritario de salud pública, que requiere una acción rápida para desarrollar e implementar estrategias encaminadas a la prevención y reducción de los factores de riesgo, el diagnóstico precoz y la atención integral. La demencia debida a la enfermedad de Alzheimer (EA) es la forma más común de demencia y representa el 60-80% de todos los casos notificados. La prevalencia de demencia aumenta exponencialmente entre los 65 y los 85 años; este número se duplica cada 5 o 6 años y se mantiene estable entre los 85 y los 90 años. Actualmente se estima que en México aproximadamente un millón 300 mil personas padecen la enfermedad de Alzheimer, cifra que representa entre 60 y 70 por ciento de los diagnósticos de demencia y afecta con mayor frecuencia a las personas mayores de 65 años.



METODOLOGÍA

Este proyecto se enmarca en una investigación científica pura con un enfoque de investigación de tipo teórico exploratorio, el objetivo es realizar un análisis exhaustivo sobre la viabilidad y el potencial de un robot de asistencia para pacientes que presentan una enfermedad neurodegenerativa. La investigación se basa principalmente en la revisión bibliográfica y análisis de estudios o proyectos existentes relacionados con el tema, esto con la finalidad de obtener datos importantes que puedan ser utilizados al poner en práctica el proyecto Para el proyecto se tomaron en cuenta las siguientes etapas: Análisis de Requisitos: Esta etapa se realizó con el objetivo de conocer las necesidades y requerimientos del prototipo, se establecieron las funciones necesarias y los casos de uso. Adaptación del Turtlebot3: El diseño del prototipo del robot tomo como base el robot comercial Turtlebot3, se realizaron modificaciones tanto en su diseño físico (con miras a una construcción en físico) como en su programación. Desarrollo del Sistema de Programación: Se utilizaron técnicas de Inteligencia Artificial y visión por computadora para la implementación del sistema de programación en el robot. En esta etapa se consideraron los puntos vistos en la primera etapa, por ejemplo, que el robot se mantuviera a una distancia determinada del paciente, así como la programación de una alerta para dar a conocer cuando el paciente no se encuentre en su vivienda.


CONCLUSIONES

El desarrollo de este robot de asistencia es innovador y prometedor para mejorar la calidad de vida de las personas afectadas por enfermedades neurodegenerativas. Con la integración de la inteligencia artificial podrá aprender de acuerdo al comportamiento dinámico de los pacientes y permitirá que el robot pueda ser utilizado de diferentes formas. La transformación de un robot comercial como lo es Turtlebot3 permite que sea posible el diseño pueda llevarse a cabo con materiales que sean accesibles y no encarezcan el proyecto para que se pueda brindar a los pacientes asistencia y seguimiento necesario para una mejora en su calidad de vida. Cabe recalcar que por ahora la investigación aún se encuentra en la etapa teórica y aún no se ha concretado en forma de prototipo funcional. No obstante, se espera que la base teórica establecida proporcione una base sólida para la creación de prototipos físicos posteriores.
González Domínguez Saúl Fernando, Instituto Politécnico Nacional
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

MEJORA DE LA RECONSTRUCCIóN 3D USANDO TéCNICAS BASADAS EN APRENDIZAJE PROFUNDO CON APLICACIONES ENDOSCóPICAS


MEJORA DE LA RECONSTRUCCIóN 3D USANDO TéCNICAS BASADAS EN APRENDIZAJE PROFUNDO CON APLICACIONES ENDOSCóPICAS

González Domínguez Saúl Fernando, Instituto Politécnico Nacional. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Las cirugías mínimamente invasivas, son aquellas que se realizan por medio de incisiones (cortes) pequeñas y pocos puntos. Durante una cirugía mínimamente invasiva, se hace una o más incisiones pequeñas en el cuerpo y se introduce un laparoscopio (instrumento delgado en forma de tubo con una luz y una lente) a través de una abertura a fin de guiar la cirugía. Tienen varias ventajas como el poco sangrado, las bajas probabilidades de infección, menos dolor, cicatrices y una recuperación más rápida; pero también tiene la limitación de la pérdida del campo de visión y la falta de retroalimentación por tacto, es por ello por lo que es necesario tener herramientas las cuales permitan al médico tener una mayor capacidad para observar el lugar donde está realizando la operación. Para ello, podemos considerar construir un sistema con realidad aumentada, es decir, en donde a través de unos lentes y una cámara, podamos proyectar un modelo 3D, del interior del paciente, en la sección en donde realizando la cirugía, pero para poder construir un sistema de este tipo es necesario primero construir un modelo 3D, del interior del paciente, para ello, se pueden emplear técnicas de localización y mapeo simultáneo, usadas en la robótica, en combinación con aprendizaje profundo. 



METODOLOGÍA

Lo primero que se realizo fue el estudio de literatura acerca de SLAM(Simultaneous localization and mapping) y odometría visual, en donde se recuperó el algoritmo de Direct sparse odometry, el cual consiste en generar un conjunto de puntos tridimensionales  a partir de una secuencia consecutiva de imágenes, y se caracteriza por identificar puntos específicos representativos en una imagen como bordes de un objeto(para ello se emplea la técnica del gradiente) y no realizar una abstracción geométrica previa al procesamiento de la generación de los puntos en 3D, sino que trabaja directamente sobre la imagen. Para generar los puntos, se toman un par de imágenes consecutivas, con las que se realiza la reconstrucción 3D, a través de una serie de transformaciones, posteriormente se realiza una predicción, del lugar donde se encontraran esos puntos, para finalmente tomar las siguientes dos imágenes consecutivas y realizar el mismo proceso, con lo que se puede minimizar el error entre la predicción y el nuevo valor obtenido. Posteriormente, se seleccionó el algoritmo de surfelmeshing para poder realizar la fusión de las imágenes RGB con los puntos en 3D, generados por el algoritmo DSO, y con ello construir una malla de un modelo 3D, que será el resultado final. Se realizaron pruebas con la misma base de datos que se empleó para probar DSO. Para el siguiente paso, el centro de investigación nos proporcionó 4 videos de colonoscopia, por lo que se continuo a probar, DSO en estos videos, pero para ello, hubo que analizar el flujo de trabajo con el que funciona DSO, porque el formato en el que se solicitan las imágenes de entrada en DSO, no es el mismo que un video normal, sino que están cargados con algunos parámetros adicionales, para poder solucionar esto, se estudió la publicación de RNN-SLAM, el cual combina DSO, con una red neuronal, que genera la profundidad y una estimación para la posición de la cámara. De esta forma, se entrenó la red y se probo todo el proceso, desde el procesamiento de las imágenes hasta la generación de la malla con los videos colonoscópicos. Es importante mencionar que el algoritmo de RNN-SLAM, emplea una red neuronal para la estimación de profundidad, llamada U-NET, la cual, usualmente, se usa para asignar una característica a cada píxel de una imagen. En este caso, la característica asignada es la profundidad. Es decir, la entrada de la red es una imagen normal y la salida es una imagen con los valores de la profundidad. Para la estimación de posición se emplea una red VGG16, que es una red convolucional que suele ser usada para realizar clasificación de imágenes, solo que, en lugar de tener como salida, un valor estimado de la imagen referente a la probabilidad de que la imagen pertenezca a una clase, la salida son los 6 grados de libertad de la cámara de manera relativa a la posición anterior, la entrada es la imagen de la cámara junto con su estimación de profundidad. Una vez, que se generaron los modelos 3D, empleando esa red, se trató de explorar la posibilidad de incorporar un método no supervisado para entrenar la red neuronal, para ello, se estudió la publicación de AF-SFMLearner, el cual es una publicación, en el que se usa una red para estimar la profundidad de una imagen tomada por laparoscopia, la red consiste en una ResNet-18 y una Monodepth2, en serie. Monodepth2 es una red creada para tomar dos imágenes consecutivas de un video y realizar la estimación de profundidad. Mientras que la ResNet, es una red convolucional usada para la clasificación de imágenes. En este mismo artículo, se estima la posición únicamente con la Monodepth2. La manera no supervisada en la que se entrena la red es comparando un parámetro llamado Apperance Flow, que toma en cuenta el brillo y las transformaciones geométricas en la imagen en contraste con las transformaciones en la profundidad y posición.   En las últimas semanas del proyecto, se trabajó, en la incorporación del modelo de la red neuronal de AF-SFMLearner con el flujo de generación de puntos 3D del algoritmo de DSO, para finalizar probando este nuevo método con los videos de colonoscopía. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre SLAM, odometría visual y aprendizaje profundo, de igual forma, se pudo poner en práctica estos conocimientos empleando estas técnicas en la generación de modelos 3D basados en videos de colonoscopías, y se exploró la posibilidad de emplear una red neuronal la cual se  entrene a través de aprendizaje no supervisado, sin embargo, al ser un extenso trabajo aún falta realizar varias pruebas, y realizar un mejor entrenamiento de la red neuronal, así como explorar otros métodos que mejoren la calidad de los modelos 3D generados. 
González Estrada Mariam Saray, Instituto Tecnológico de Querétaro
Asesor: M.C. Cinthya del Carmen Aguilar Soriano, Universidad Tecnológica de Tehuacán

LA GESTIÓN DE LA INVESTIGACIÓN Y LA DOCENCIA DE TECNOLOGÍA APLICADA EN LAS UNIVERSIDADES DE MÉXICO


LA GESTIÓN DE LA INVESTIGACIÓN Y LA DOCENCIA DE TECNOLOGÍA APLICADA EN LAS UNIVERSIDADES DE MÉXICO

González Estrada Mariam Saray, Instituto Tecnológico de Querétaro. Asesor: M.C. Cinthya del Carmen Aguilar Soriano, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

Antecedentes La estructura del sistema de educación superior en México es complejo y heterogéneo, conformado por varios subsistemas con diferentes características y misiones. El sistema de educación superior en México se contextualiza dentro del sistema educativo más amplio del país, que incluye la educación básica y la educación media superior. En el pasado, las universidades en México funcionaban bajo sus propias leyes y tenían autonomía legal. Sin embargo, en 1973 se integraron al sistema educativo nacional. Esta integración fue parte de un proceso de descentralización que tenía como objetivo distribuir las oportunidades educativas de manera más uniforme en todo el país. Los subsistemas dentro del sistema de educación superior en México varían en términos de ubicación, enfoque de la misión, dependencia y rendición de cuentas del gobierno, fuente de financiamiento, tamaño, matrícula, especialización en campos de estudio y niveles de programas. Esta diversidad permite una amplia gama de oportunidades y opciones educativas para los estudiantes. Sin embargo, también significa que las tasas de matrícula pueden variar ampliamente en el sistema de educación superior de México.  Preguntas de investigación Por medio de la investigación antes planteada observamos como las universidades en México han adoptado la filosofía de desarrollar recursos humanos con un mayor nivel de tecnología y no han considerado enfocarse en el desarrollo tecnológico a través de proyectos de investigación. Esta situación nos da la oportunidad para replantear la filosofía de las universidades en México, para de este modo aspirar y consolidar un modelo de transferencia y desarrollo de tecnología con enfoques y aplicaciones interdisciplinarios, efectivos y adecuados, que identifiquen claramente los procesos clave y fomenten la creatividad, con énfasis en el diseño y la innovación como forma de mejorar la capacidad institucional y el estatus de un país. Por lo anterior, se llega al punto de desarrollar las siguientes preguntas de investigación: 1.- ¿Cuáles son los ejes rectores de un modelo de gestión universitaria orientado a provocar el desarrollo de tecnología aplicada en México?  2.- ¿Cuáles son las oportunidades de mejora para que la transferencia tecnológica pueda ser capitalizada y aprovechada para promover la investigación? Objetivo general Analizar y diseñar un modelo de gestión universitaria orientado a mejorar las capacidades institucionales de transferencia del conocimiento, que permita la innovación del modelo de desarrollo tecnológico, así como proporcionar los recursos necesarios para ser constantemente actualizado por medio de la investigación.



METODOLOGÍA

En consideración de los antecedentes teóricos antes mencionados y de las características específicas de este estudio, se ha decidido abordar la variable desarrollo de tecnologías, por lo que se deberán analizar documentos, registros y materiales pertinentes; incluso, algunos datos pueden ser de carácter cuantitativo (estadísticas sobre la problemática). La investigación para este trabajo será del tipo cualitativa, a través de un diseño de investigación-acción, con el objetivo de analizar los obstáculos de las IES en los ámbitos antes mencionados. Hasta llegar al punto de encontrarnos con información en donde se encuentren los puntos principales para en análisis de este proyecto. Es decir, el análisis tecnológico en el modelo de investigación en las universidades de México. Modelo educativo tradicional en las universidades de México El modelo educativo tradicional en las universidades mexicanas se basa principalmente en conferencias, con profesores entregando información a los estudiantes en un formato de comunicación unidireccional. Este enfoque a menudo implica una experiencia de aprendizaje pasiva para los estudiantes, en la que se espera que absorban y memoricen grandes cantidades de información. El énfasis en este modelo está en la reproducción del conocimiento, más que en el pensamiento crítico o la aplicación de conceptos. Los estudiantes a menudo son evaluados en función de su capacidad para regurgitar información en lugar de su comprensión o análisis del material. Este enfoque limita la participación y el compromiso de los estudiantes, ya que no participan activamente en el proceso de aprendizaje ni se les anima a pensar de forma crítica. Como resultado, el modelo educativo tradicional en las universidades mexicanas puede dificultar el desarrollo de habilidades importantes como la resolución de problemas, la creatividad y el pensamiento independiente.  Los hallazgos indicaron que los estudiantes sentían que el modelo educativo actual no promovía adecuadamente el pensamiento crítico. Esta falta de énfasis en el pensamiento crítico puede limitar la capacidad de los estudiantes para analizar información, hacer conexiones entre diferentes conceptos y aplicar su conocimiento a situaciones del mundo real.


CONCLUSIONES

El modelo tecnológico actual nos muestra la necesidad de desarrollo institucional y de investigación, el desarrollo tecnológico, la retención y el espíritu de emprendimiento ante los momentos de incertidumbre de este proceso, entre otras cosas. Se pudo observar que es necesario fortalecer la formación de recursos humanos para el desarrollo tecnológico, y fortalecer la conceptualización de los procesos de formación y aprendizaje involucrados en la investigación de recursos humanos desarrollados en el campo técnico, construir vínculos con otras organizaciones e instituciones nacionales e internacionales y buscar fuentes de financiamiento públicas y privadas, nacionales e internacionales para superar los obstáculos al desarrollo de la investigación tecnológica. Es decir, queda en evidencia las diversas áreas de oportunidad que tienen las universidades de México. 
González Fuentes Ángel Guadalupe, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

DISEñO Y PROTOTIPO DE RODILLOS PARA MEDIR LA TENSIóN EJERCIDA SOBRE SUSTRATOS FLEXIBLES


DISEñO Y PROTOTIPO DE RODILLOS PARA MEDIR LA TENSIóN EJERCIDA SOBRE SUSTRATOS FLEXIBLES

González Fuentes Ángel Guadalupe, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La medición de la tensión ejercida sobre sustratos flexibles es un aspecto crítico en diversos campos de investigación, como la biomecánica, la ingeniería de materiales, la electrónica flexible y la robótica. La necesidad de estos moldes surge debido a las limitaciones encontradas en los equipos tradicionales basados ​​en estructuras metálicas para variar el radio o el ángulo de las muestras durante la medición. que pueden ser costosos, poco versátiles y difíciles de adaptar a necesidades específicas de investigación. Con el avance de la tecnología de fabricación aditiva, la impresión 3D ofrece una oportunidad prometedora para diseñar y prototipar moldes personalizados y altamente funcionales. En este trabajo se presenta el diseño y prototipo de rodillos impresos en 3D para medir la tensión en sustratos flexibles. Estos rodillos proporcionaran una solución eficiente y económica para superar las limitaciones de los equipos tradicionales.  



METODOLOGÍA

Se llevo a cabo una revisión exhaustiva de la literatura científica y técnica relacionada con la medición de tensión en sustratos flexibles y las tecnologías de fabricación aditiva, centrándose en los avances recientes en la impresión 3D de dispositivos de medición Con base en la información recopilada se procedió con el diseño y modelado en 3D de los rodillos utilizando un software de modelado 3D. Se consideraron diferentes parámetros, como el material de impresión, el tamaño y forma de los rodillos, y su adaptabilidad para variar el radio y el ángulo de las muestras. Los rodillos se diseñaron con una superficie de contacto suave y uniforme para evitar cualquier daño o deformación no deseada  en los sustratos flexibles durante la medición.  Los factores que se contemplaron en el diseño fueron los siguientes: -Se contemplo la capacidad de personalización para que cada grupo de investigación puede adaptar los rodillos a sus necesidades específicas, ajustando el radio y el ángulo de acuerdo con los requerimientos de las muestras. Esto permite una mayor versatilidad y precisión en las mediciones. -Rapidez y facilidad de fabricación: Los rodillos impresos en 3D pueden diseñarse y fabricarse en un corto período de tiempo, lo que acelera el proceso de investigación. Además, la facilidad de fabricación permite realizar ajustes y mejoras rápidamente en caso de ser necesario. -Coste reducido: Comparados con los equipos tradicionales de estructuras metálicas, los rodillos impresos en 3D son considerablemente más económicos, lo que reduce la barrera de entrada para la investigación en este campo. -Portabilidad y compactibilidad: Los moldes impresos en 3D son ligeros y compactos, lo que facilita su transporte y almacenamiento. Además, su diseño compacto permite un uso más eficiente del espacio de laboratorio. -Contribución a la sostenibilidad: La impresión 3D utiliza materiales más sostenibles en comparación con los procesos de fabricación tradicionales, lo que reduce el impacto ambiental. Una vez hecho los diseños contemplando todos los requerimientos se procedió realizar la impresión 3D de los rodillos diseñados utilizando tecnología de fabricación aditiva utilizando la impresora 3D Ender-6. Para finalmente verificar la calidad los prototipos impresos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la electrónica flexible, impresión aditiva y diseño de moldes. El diseño y prototipo de rodillos impresos en 3D para medir la tensión ejercida sobre sustratos flexibles representa una solución eficiente y económica para la comunidad científica e investigadora. Estos rodillos ofrecen ventajas significativas en términos de personalización, coste, rapidez y precisión en comparación con los equipos tradicionales basados en estructuras metálicas. Su aplicación puede impulsar avances en campos como la biomecánica, la ingeniería de materiales, la electrónica flexible y la robótica, fomentando así la innovación y el progreso científico en estas áreas. Sin embargo, al ser un proyecto extenso aun nos encontramos en la parte de prototipo pero con estas consideraciones, se abre un nuevo horizonte de oportunidades para futuras investigaciones basadas en la utilización de tecnologías de fabricación aditiva
González García Edgardo Mauricio, Instituto Tecnológico de Morelia
Asesor: Mg. Martha Yaneth Segura Ruiz, Universitaria Agustiniana Uniagustiniana

REQUERIMIENTOS PARA EL DESARROLLO DE UN TUTOR INTELIGENTE INCLUSIVO PARA LA ENSEÑANZA-APRENDIZAJE DE LA PROGRAMACIÓN ORIENTADA A OBJETOS


REQUERIMIENTOS PARA EL DESARROLLO DE UN TUTOR INTELIGENTE INCLUSIVO PARA LA ENSEÑANZA-APRENDIZAJE DE LA PROGRAMACIÓN ORIENTADA A OBJETOS

González García Edgardo Mauricio, Instituto Tecnológico de Morelia. Perez Baxcajai Alma Rosa, Universidad Mexiquense del Bicentenario. Zaragoza Mendoza Gonzalo, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Martha Yaneth Segura Ruiz, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a una encuesta realizada por Microsoft en abril del 2016, 70% de los jóvenes dice saber de tecnología, pero 6 de cada 10 jóvenes no saben lo que es programar. Se conoce que en las escuelas de nivel básico se promueva el aprendizaje a nivel básico de lenguajes como Java y C++, sin embargo, no se ahondan en temas más avanzados como puede ser los impartidos en la materia de programación orientada a objetos, la cual sirve de piedra angular para los diferentes paradigmas del desarrollo de software que hay actualmente. La programación orientada a objetos (POO) es un tema esencial en el ámbito de la informática y el desarrollo de software. Sin embargo, muchos estudiantes encuentran dificultades para comprender los conceptos y principios fundamentales de la POO, lo que puede obstaculizar su progreso académico y su capacidad para desarrollar aplicaciones y soluciones informáticas de manera efectiva. Además, existe una necesidad creciente de brindar una educación inclusiva que atienda las diversas necesidades de los estudiantes, incluidos aquellos con discapacidad auditiva. Los métodos de enseñanza tradicionales pueden no ser adecuados para todos los estudiantes y pueden dejar a algunos atrás, lo que resulta en una brecha de conocimiento y comprensión. Para abordar estos desafíos, se propone desarrollar un tutor inteligente e inclusivo para estudiantes de programación orientada a objetos. El tutor inteligente será una herramienta interactiva basada en la inteligencia artificial y la programación orientada a objetos que ayudará a los estudiantes a comprender los conceptos y principios clave de la POO, resolver dudas y brindar un apoyo personalizado adaptado a las necesidades individuales de cada estudiante. El problema radica en definir los requisitos y características específicas que debe tener este tutor inteligente para garantizar su efectividad y su inclusividad. Es fundamental identificar las funcionalidades clave que permitirán al tutor brindar explicaciones claras y ejemplos prácticos y garantizar la accesibilidad para personas con discapacidades. Además, se deben definir las bases de hechos que contendrán la información necesaria para que el tutor inteligente proporcione respuestas precisas y relevantes a las preguntas de los estudiantes, así como analizar la estructura del motor de inferencia para que pueda proporcionar una asistencia contextualizada. En este escenario, durante la estancia de verano se investigaron las diferentes características y requerimientos de un sistema experto innovador y accesible que ofrezca una amplia gama de herramientas didácticas interactivas, destinadas a facilitar el aprendizaje de programación orientada a objetos.



METODOLOGÍA

Mediante una metodología explorativa se busca comprender el problema de manera más profunda, recopilando y analizando la información relevante de diversas fuentes. Para poder desarrollar de forma exitosa la investigación se establecieron los objetivos del tutor inteligente, como brindar apoyo a los estudiantes, facilitar el aprendizaje de conceptos complejos, resolver dudas y adaptarse a las necesidades individuales, de igual forma determinar los aspectos clave de la inclusión que se deben abordar, como la accesibilidad para personas con discapacidad auditiva. En la investigación se realizó la revisión bibliográfica sobre los principales conceptos de la programación orientada a objetos, la educación inclusiva y las tecnologías de tutoría inteligente. Se recopilaron y analizaron investigaciones y proyectos similares relacionados con sistemas expertos, el lenguaje de programación Python, tutores inteligentes y el aprendizaje de programación orientada a objetos. También se identificaron las necesidades específicas de los estudiantes de programación orientada a objetos y los posibles obstáculos que pueden enfrentar. Al seguir una metodología explorativa, es posible diseñar un tutor inteligente inclusivo y efectivo para estudiantes de programación orientada a objetos, teniendo en cuenta las necesidades y perspectivas de los usuarios y asegurándote de brindar un apoyo valioso en su proceso de aprendizaje.


CONCLUSIONES

Durante la estancia de verano se pudo definir los requisitos de la base de hechos, la base de conocimientos y el motor de inferencia del tutor inteligente con información recopilada hasta el momento, la cual incluye características y algunos ejemplos relacionados con la programación orientada a objetos, así como características de accesibilidad para personas con discapacidad auditiva y los requisitos no funcionales para el sistema experto. Los requisitos se muestran a continuación:  El sistema experto debe incluir explicaciones sobre la creación e interpretación de diagramas y códigos. Capacidad para responder preguntas: El sistema experto debe ser capaz de responder preguntas formuladas por los usuarios sobre conceptos de programación orientada a objetos, proporcionando explicaciones claras y ejemplos relevantes. Explicaciones paso a paso: El sistema debe ser capaz de ofrecer explicaciones detalladas y paso a paso sobre cómo abordar ciertos problemas o implementar determinadas funcionalidades en programación orientada a objetos. Recomendaciones y sugerencias: El sistema experto debe ser capaz de identificar y señalar errores comunes en el código para proporcionar recomendaciones y sugerencias útiles siguiendo las mejores prácticas en programación orientada a objetos. Soporte para diferentes niveles de habilidad: El sistema debe ser capaz de adaptarse y brindar apoyo a usuarios con diferentes niveles de habilidad en programación, desde principiantes hasta expertos. Evaluación del rendimiento del usuario: El sistema debe contar con mecanismos para evaluar el progreso y el rendimiento del usuario. Ayuda contextual y documentación integrada: El sistema debe proporcionar ayuda contextual para funciones y métodos, y también contar con documentación integrada que ofrezca descripciones detalladas. Al ser un proyecto extenso aún falta mucho por investigar, analizar y desarrollar. Se espera que los resultados alcanzados sirvan como base para el logro de los objetivos del proyecto y para futuras investigaciones.
González Hernández Dilmar, Universidad Tecnológica de La Selva
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

DESARROLLO DE LA APLICACIÓN MÓVIL EDUSMART


DESARROLLO DE LA APLICACIÓN MÓVIL EDUSMART

Garcia Caballero Jesus, Universidad Tecnológica de La Selva. González Hernández Dilmar, Universidad Tecnológica de La Selva. Morales Ancheyta Cesar Adrian, Universidad Tecnológica de La Selva. Solorzano Roblero Octavio, Universidad Tecnológica de La Selva. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto aborda la problemática de la falta de recursos didácticos digitales que puedan ser consultado fuera de aula de clases por lo estudiantes, así como, la inserción de la gamificación como parte del proceso de enseñanza y aprendizaje en las escuelas, ya sean públicas como privadas, con un enfoque específico en la creación de una aplicación dirigida a ser adquirida por instituciones educativas. Si bien el público objetivo son las instituciones educativas del sector público y privado, nuestros principales usuarios serán los maestros y los alumnos. El propósito de la aplicación es proporcionar a los maestros una plataforma que les permita gestionar el contenido temático y crear exámenes de manera interactiva y lúdica. De esta manera, se busca fomentar un enfoque más dinámico y atractivo para la enseñanza, involucrando a los estudiantes de una forma más activa en el proceso de aprendizaje. Por otro lado, los alumnos serán beneficiados al poder consultar recursos didácticos a cualquier hora y lugar, además, resolver los exámenes en un entorno gamificado, lo que hará que el aprendizaje sea más entretenido y motivador.  



METODOLOGÍA

Para el desarrollo de la aplicación móvil, se basó en la metodología ágil llamada incremental, primeramente, se parte de un bosquejo que dentro de esta metodología se denomina como el primer incremento, se codifica este primer bosquejo y se manda a aprobación del cliente, siendo éste la primera versión de la aplicación; a partir de ésta, se desarrolla el siguiente incremento, donde se eliminan errores del incremento anterior y se agregan nuevas funcionalidades, iniciando nuevamente el ciclo de codificación y validación del cliente; el proceso finaliza cuando la aplicación está libre de errores y está validado por el cliente, teniendo así la versión final de la aplicación. (Domínguez-Gutú et al., 2022, Somerville 2011)


CONCLUSIONES

El proyecto de desarrollo de la aplicación ha avanzado de acuerdo con el plan de trabajo establecido. Hasta la semana 5, se han completado diversas actividades clave que nos han permitido sentar las bases para la creación de la aplicación móvil y web conectadas, enfocadas en la gestión de temas y subtemas, y la publicación de contenido. La metodología ágil adoptada para el desarrollo del software ha demostrado ser efectiva en la gestión de las iteraciones y la corrección continua de actividades, lo que ha facilitado un progreso constante y la identificación oportuna de posibles ajustes necesarios para alcanzar nuestros objetivos.   En cuanto al diseño de la aplicación, se han definido la gama de colores y la tipografía, lo que ayudará a proporcionar una identidad visual coherente en ambas plataformas. Además, se han creado mockups y wireframes para la aplicación móvil y aplicación web, lo que nos ha permitido visualizar la estructura y distribución de los elementos de manera más clara y eficiente. En el ámbito de la base de datos, después de investigar y evaluar diferentes gestores de bases de datos, se ha seleccionado uno que se ajusta adecuadamente a los requerimientos del proyecto.  Asimismo, se ha avanzado en el desarrollo de la API, lo que permitirá la conexión entre la aplicación móvil y la aplicación web. Además, hemos iniciado con el desarrollo del módulo de creación de temas y subtemas, así como la funcionalidad de publicación de contenido, que son componentes centrales de nuestra aplicación.  BIBLIOGRAFÍA. Domínguez-Gutú, J., Bonifaz-Solórzano, R., Trejo-Trejo, G. A., Constantino-González, F. E. & Gordillo-Espinoza, E. (2022). 4LG3BR4: Una aplicación móvil para el aprendizaje del Álgebra básica. Investigación Aplicada, Un Enfoque en la Tecnología, 7(13), 1-14. Sommerville, I. (2011). Ingeniería de Software (Novena ed.). Pearson Educación.
González Herrera Cristian, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

SISTEMA DE REALIDAD VIRTUAL PARA ESTIMULAR EL SISTEMA VESTIBULAR, MEJORAR EL EQUILIBRIO Y FORTALECER LOS MÚSCULOS EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD


SISTEMA DE REALIDAD VIRTUAL PARA ESTIMULAR EL SISTEMA VESTIBULAR, MEJORAR EL EQUILIBRIO Y FORTALECER LOS MÚSCULOS EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD

González Herrera Cristian, Instituto Tecnológico de Estudios Superiores de Zamora. Telles Rodríguez Miguel Ángel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

La rehabilitación mediante el uso de la Realidad Virtual (VR) se presenta como una estrategia para mejorar la experiencia y a las actividades que han perdido relevancia o interés con el tiempo para las personas que están realizando su rehabilitación. La Realidad Virtual ofrece la posibilidad de crear ambientes inmersivos y realistas que pueden aumentar el interés de las personas y renovar áreas para la fisio terapia. La Realidad Virtual ofrece la oportunidad de transformar y mejorar espacios y actividades al brindar experiencias inmersivas y envolventes a través de dispositivos de VR. Al recrear estos lugares virtualmente y permitir que las personas experimenten en un entorno virtual y se pueda generar un interés renovado y una mayor atracción hacia estas actividades, uno de los retos más grandes que se nos plantea es hacer que el sistema sea lo más versátil posible ya que no sabemos en qué condiciones se encuentre el paciente, así que debemos adaptarnos y dar solución.



METODOLOGÍA

El proyecto se dividió en siete semanas. La primera semana se destinó a tomar una capacitación para familiarizarnos con el desarrollo en Unity, utilizando la versión 2019 y el lenguaje de programación C#. Aunque algunos miembros del equipo no estaban familiarizados con este entorno de desarrollo, se logró avanzar después de invertir algo más de tiempo del esperado. En la segunda semana, se procedió con la asignación del ejercicio que consiste en levantarse de una silla, dar algunos pasos hacia adelante y luego regresar a sentarse, es una parte fundamental del juego y tiene beneficios importantes para la rehabilitación y mejora física. Se decidió crear un escenario de una tienda donde el usuario asume el papel del despachador, y cada vez que se sentara, llegaría un cliente a pedir un objeto. La propuesta debe cumplir con ciertos requisitos, basados en el ejercicio asignado, como que el usuario debe levantarse, ir por el objeto, entregarlo al cliente y finalmente sentarse de nuevo. Este ejercicio es importante para el proceso de rehabilitación porque consiste en desafiar el equilibrio y la estabilidad, estimulando el sistema vestibular y mejorando la percepción espacial y la coordinación de movimientos, lo que ayuda a reducir el riesgo de caídas y mejora la función del sistema vestibular. Además, este ejercicio trabaja los músculos del núcleo y la columna vertebral, lo que contribuye a mantener una postura adecuada durante el movimiento. Fortalece los músculos de las piernas, mejorando la confianza y capacidad para levantarse y caminar, lo que es esencial para realizar actividades diarias de manera independiente. El entorno del jugador consta de una silla que servirá para cumplir con la mecánica de que el jugador se siente, una mesa grande frente a él que servirá para soltar los objetos que deben entregarse y otras dos mesas a los lados en las que estarán posados los objetos interactuables que son los que se deben entregar para facilitar el acceso a estos. La ambientación del juego tiene un estilo medieval. Una vez que se obtuvieron todos los recursos recopilados, comenzamos con el desarrollo del juego. El ejercicio asignado involucra un sujeto que debe partir de estar sentado en una silla, levantarse, caminar, avanzar unos pasos, tomar un objeto y volver a sentarse. Se decidió crear un escenario de una tienda donde el usuario asume el papel del despachador, y cada vez que se sentara, llegaría un cliente a pedir un objeto. La propuesta debe cumplir con ciertos requisitos, basados en el ejercicio asignado, como que el usuario debe levantarse, ir por el objeto, entregarlo al cliente y finalmente sentarse de nuevo. El entorno del jugador consta de una silla que servirá para cumplir con la mecánica de que el jugador se siente, una mesa grande frente a él que servirá para soltar los objetos que deben entregarse y otras dos mesas a los lados en las que estarán posados los objetos interactuables que son los que se deben entregar para facilitar el acceso a estos. La ambientación del juego tiene un estilo medieval. Una vez elaborado, diseñado y desarrollado el escenario, procedimos con la programación, la parte más retadora del proyecto. Se implementaron varias funcionalidades, incluyendo la capacidad de que los objetos fueran tomados por el usuario utilizando una librería de Steam que proporciona soporte para VR. Luego se agregaron una variedad de frutas que el usuario debe entregar al NPC y se les dio funcionalidad con scripts para estimar la velocidad de lanzamiento y aplicar físicas realistas. Además, creamos un NPC con animaciones de caminar y detenerse, programamos su comportamiento utilizando un subproceso para que llegue a la mesa grande que está frente al usuario a pedir un objeto y después se irá luego de recibirlo o al pasar cierta cantidad de tiempo, lo que le da al juego una mecánica de contrarreloj y lo hace más desafiante. Finalmente, se agregaron colliders en el piso para que, si la fruta caía al suelo, volviera a su posición original y el usuario no tuviera que realizar movimientos bruscos que pudieran lastimarlo.


CONCLUSIONES

El proyecto de rehabilitación mediante el uso de Realidad Virtual (VR) ha demostrado ser una estrategia exitosa para mejorar la experiencia y el interés de los pacientes en las actividades de fisioterapia. La integración de la VR con este ejercicio proporciona una alternativa atractiva y prometedora para potenciar la función física y la calidad de vida de los pacientes en proceso de rehabilitación. Es fundamental continuar investigando y adaptando estas tecnologías para maximizar sus beneficios y personalizar su aplicación según las necesidades y condiciones individuales de cada paciente. Asimismo, se abre un horizonte de posibilidades para seguir transformando y enriqueciendo la experiencia de rehabilitación mediante el uso de la Realidad Virtual, lo que contribuirá a impulsar la recuperación y el bienestar de los pacientes de manera más elegante y profesional.
Gonzalez Higareda Mayred Fernanda, Instituto Tecnológico de Zitácuaro
Asesor: Dra. Rita Cecilia de la Hoz del Villar, Fundación Universitaria Tecnológico Comfenalco

CARTAGENA 2023: UN ACERCAMIENTO A LA ECOINNOVACIóN DE PRODUCTOS


CARTAGENA 2023: UN ACERCAMIENTO A LA ECOINNOVACIóN DE PRODUCTOS

Gonzalez Higareda Mayred Fernanda, Instituto Tecnológico de Zitácuaro. Asesor: Dra. Rita Cecilia de la Hoz del Villar, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, se han podido observar algunos de los daños originados por la explotación de los recursos naturales, como puede ser la ausencia de agua en varias regiones del mundo, la contaminación del aire, el surgimiento de nuevas enfermedades, entre otros efectos.  El presente estudio de caso busca proponer y promover los diferentes principios y estrategias sostenibles que ayuden a minimizar el calentamiento global que se vive hoy en día, busca concientizar a las personas y empresas acerca de cómo este está afectando la manera de vivir.  Uno de los objetivos que se quiere alcanzar es que cada vez sean más las empresas que aplican la Ecoinnovación para hacer frente a estos problemas a través de la experiencia de las que ya lo están aplicando, identificar aquellos procesos que ayuden a optimizar los recursos naturales en el desarrollo y diseño de productos para lograr tener un equilibrio ecológico. 



METODOLOGÍA

El diseño de la investigación permite conocer los procedimientos que se deben de llevar a cabo para obtener los resultados que busca dicha investigación. Existen diferentes tipos, cada uno de ellos enfocado a diferentes áreas o aplicaciones que se pueden desarrollar en una investigación. En este caso, el objetivo que se plantea es explorar las estrategias de Ecoinnovación en las etapas de diseño con miras a desarrollar productos sostenibles que promuevan el consumo responsable, por lo tanto el diseño de la investigación es no experimental, es decir, no se controlaran ni alteraran los sujetos de estudio, sino que estos serán observados en su ambiente natural. Por otro lado, el estudio de caso tiene un enfoque cualitativo, ya que no busca recopilar datos numéricos, sino opiniones y experiencias de aquellas empresas que diseñan productos, específicamente se busca analizar estrategias de innovación ecológica que puedan estar aplicando algunas empresas, con el fin de poder promover la Ecoinnovación  e identificar cual es la mejor manera de poder aplicarla en el diseño de productos y servicios, para que así, nuevas empresas puedan unirse al cambio y a la innovación ecológica. La muestra es el conjunto de elementos que reúnen las características necesarias para representar la población, es decir, la muestra es la parte representativa del todo denominado población. En la investigación cualitativa el tamaño de la muestra, puede oscilar desde un individuo o una situación hasta un número más amplio de individuos o situaciones. (Ruiz Olabuénaga, 2003, p. 63). La unidad de estudio de la presente investigación son aquellas empresas que diseñan productos en Cartagena. Para la recolección de datos se utilizan diversas técnicas de acopio de información, según el autor Tójar Hurtado (2006), estas son los instrumentos que el investigador utiliza para acceder a los datos (p. 228). De acuerdo a ello, el presente estudio de caso tomara como técnica la Entrevista semiestructurada y como instrumento un cuestionario de 23 preguntas abiertas, las cuales darán respuesta a las diferentes variables presentes en el Marco Teórico y servirán de guía para el desarrollo de la Entrevista, además las preguntas permitirán recolectar la información necesaria para posteriormente analizarla. El análisis de la información se realizará a través de la estadística descriptiva, la cual permite presentar los datos recolectados en tablas y gráficos para que estos puedan ser descritos e interpretados de la mejor manera, y así poder generar conclusiones y recomendaciones más acercadas al objetivo del estudio de caso.


CONCLUSIONES

El estudio de caso indica que las empresas están reconociendo cada vez más la importancia del desarrollo sostenible, adoptando estrategias que integran conceptos como la innovación ecológica, los Objetivos de Desarrollo Sostenible (ODS), la economía circular y el customer insight, con el propósito de contribuir al ambiente, mantener su competitividad en el mercado y optimizar los procesos hacia un enfoque más integral y proactivo en busca de la sostenibilidad.
Gonzalez Hinojosa Juliana, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco

INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN UNIVERSIDADES MEXICANAS DE JALISCO Y GUANAJUATO


INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN UNIVERSIDADES MEXICANAS DE JALISCO Y GUANAJUATO

Alvarado Nava Nallely Elizabeth, Universidad de Guadalajara. Alvarez Cabrera Ruth, Universidad de Guadalajara. Gonzalez Hinojosa Juliana, Instituto Tecnológico Superior de Irapuato. Ramos Gómez Cynthia, Universidad de Guadalajara. Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Esta investigación se realiza debido a la preocupante disparidad de género que se ha observado en las facultades de ingeniería en universidades mexicanas, particularmente en las regiones de Jalisco y Guanajuato. Aunque en las últimas décadas ha habido un aumento significativo en el número de mujeres que ingresan a carreras de ciencias, tecnología, ingeniería y matemáticas (STEM), todavía persisten desafíos en la retención y titulación de estas estudiantes. El ingreso de mujeres a las facultades de ingeniería ha aumentado, pero en muchos casos, se observa una disminución gradual de su presencia a lo largo de la carrera. Esta tendencia sugiere la existencia de barreras que afectan negativamente la permanencia y éxito académico de las estudiantes en estas áreas. El propósito fundamental de esta investigación es identificar y analizar los factores que inciden en el ingreso, permanencia, egreso y titulación de las estudiantes mujeres en las facultades de ingeniería de dichas regiones. Algunos posibles factores a considerar incluyen estereotipos de genero arraigados en la sociedad y en el ámbito académico, falta de modelos a seguir femeninos en posiciones de liderazgo en el campo, sesgos inconscientes en la evaluación y tutoría de las estudiantes, así como la falta de programas específicos de apoyo para el desarrollo profesional y académico de las mujeres en ingeniería.



METODOLOGÍA

La investigación se llevó a cabo mediante la recolección de datos numéricos de información relacionada con los estudiantes de dicha Institución de Educación Superior en México. La información fue obtenida de la base de datos de La Asociación Nacional de Universidades e Instituciones de Educación Superior (ANUIES) en sus anuarios estadísticos. Se estudiaron las diferencias existentes en los últimos tíes años, para permitir encontrar discrepancias entre los datos y de esta forma compararlos estadísticamente. El estudio consta de cuatro fases: Fase 1. Estudio de población y muestreo: se describe de dónde provienen los datos. Fase 2. Recopilación de datos: identificación de las variables que se van a medir Fase 3. Análisis de datos: consiste en el análisis y procesamiento de la información y los datos. Fase 4. Obtención de los resultados.


CONCLUSIONES

En conclusión, esta investigación sobre el ingreso, egreso y titulación de estudiantes mujeres en facultades de ingeniería en universidades mexicanas de Jalisco y Guanajuato ha sido de vital importancia para comprender y abordar la brecha de género existente en el ámbito de carreras STEM. A través del análisis exhaustivo de los datos recopilados, se ha confirmado la persistente desigualdad de género en estas áreas de estudio, evidenciando que, aunque el número de mujeres que inician carreras en ingeniería ha aumentado, muchas de ellas enfrentan obstáculos que limitan su permanencia y titulación. Los resultados han permitido identificar factores críticos que afectan la participación de las mujeres en la ingeniería, como estereotipos culturales, sesgos en la evaluación y tutoría, así como la falta de modelos a seguir y programas de apoyo específicos para ellas. Estos hallazgos instan a la necesidad de desarrollar estrategias y políticas que promueven la igualdad de oportunidades y la equidad de género en las facultades de ingeniería. Al crear un ambiente más inclusivo y diverso en estas carreras, se podrán aprovechar los talentos y perspectivas únicas de las mujeres, lo que a su vez impulsaría la innovación y el avance tecnológico de manera más significativa. Asimismo, se detecta la importancia de fomentar la participación temprana de las niñas en actividades STEM y de ofrecer mentoría y redes de apoyo para fortalecer su interés y confianza en estos campos. Esta investigación, sin duda, sienta las bases para futuros estudios y acciones que contribuya a cerrar la brecha de género en la ingeniería y a construir un futuro más igualitario y prometedor para todas las estudiantes interesadas en seguir una carrera en ciencias, tecnología, ingeniería y matemáticas en México. Las estrategias presentadas ofrecen un enfoque integral para promover la participación de mujeres en carreras STEM y cerrar la brecha de género en estos campos. Cada una de estas estrategias aborda desafíos específicos que han obstaculizado históricamente la inclusión de mujeres en ciencia, tecnología, ingeniería y matemáticas. Es esencial hacer hincapié en que la lucha por la equidad de género en carreras STEM debe ser constante y que estas estrategias deben implementarse de manera concertada y sostenida para logra resultados significativos. La promoción de la participación de mujeres en STEM no solo es un asunto de justicia y derechos humanos, sino también una oportunidad para enriquecer estos campos con una diversidad de talento, perspectivas e ideas. Trabajar hacia un futuro más diverso e igualitario en carreras STEM no solo beneficio a las mujeres, sino que también impulsa la innovación y el progreso en la sociedad en su conjunto. Al adoptar estas estrategias y continuar buscando nuevas formas de promover la inclusión, estamos dando pasos significativos para lograr un mundo donde todas las personas, sin importar su género, tengan igualdad de oportunidades para participar y liderar en los campos de ciencia, tecnología, ingeniería y matemáticas
Gonzalez Lopez Karen Aislinn, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla

PREDICCIóN DE PATRONES DE COMPORTAMIENTO EN DATOS MéDICOS DE COVID-19 MEDIANTE INTELIGENCIA ARTIFICIAL.


PREDICCIóN DE PATRONES DE COMPORTAMIENTO EN DATOS MéDICOS DE COVID-19 MEDIANTE INTELIGENCIA ARTIFICIAL.

Cubides Jaimes Maria Fernanda, Universidad de Investigación y Desarrollo. Gonzalez Lopez Karen Aislinn, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La pandemia del COVID-19 ha desafiado los sistemas de salud en todo el mundo. La inteligencia artificial puede procesar grandes volúmenes de datos y encontrar patrones cruciales para entender la propagación del virus y la efectividad de las medidas. En el contexto del COVID-19, estas técnicas pueden identificar patrones de comportamiento, características clínicas y estrategias de intervención. La calidad y disponibilidad de los datos serán desafíos en el proyecto. La elección de los algoritmos adecuados será fundamental para obtener resultados precisos. La evaluación teórica del modelo será crucial para determinar su confiabilidad en situaciones reales. Se exploraron datos médicos de COVID-19 en estudiantes de 18 a 28 años para reducir errores en el análisis. Este proyecto representa una oportunidad para explorar el potencial de la inteligencia artificial en la toma de decisiones médicas y la gestión de la pandemia a nivel nacional e internacional. Se espera obtener información valiosa para una respuesta más efectiva ante futuras emergencias sanitarias.



METODOLOGÍA

La metodología consistió en una investigación preliminar y recopilación exhaustiva de datos sobre COVID-19 en estudiantes jóvenes, seguida de la preparación y limpieza rigurosa de los datos. Se diseñaron modelos de inteligencia artificial y se evaluó su viabilidad para predecir patrones de comportamiento relacionados con la enfermedad. A continuación, los pasos a seguir en la metodología: 1.Recopilación de datos: Se realizó una investigación preliminar exhaustiva, abarcando la revisión de fuentes bibliográficas y bases de datos nacionales e internacionales, definiendo la base de datos del gobierno mexicano sobre COVID-19. 2.Preparación y limpieza de datos: Se eliminó el ruido y los valores atípicos en el análisis posterior, revisando cada registro para asegurar su integridad. Se aplicaron técnicas de normalización y estandarización para homogeneizar los datos. 3.Aplicación de técnicas de preprocesamiento de datos: Se utilizaron técnicas avanzadas para abordar los desafíos específicos de datos médicos de COVID-19: valores faltantes y variables categóricas. La imputación de valores faltantes y la codificación de variables categóricas se llevaron a cabo para mejorar la calidad de los resultados y la precisión de las predicciones. 4.Exploración y análisis descriptivo de los datos: Mediante técnicas de visualización, se exploraron los datos médicos de COVID-19 en estudiantes de edades entre 18 y 28 años. Se identificaron tendencias, distribuciones y correlaciones entre variables clave para guiar el proceso de modelado. 5.Diseño y exploración de modelos teóricos de inteligencia artificial: Se diseñaron modelos centrados en algoritmos de Selección Múltiple y Árbol de Decisión, demostrados en la clasificación y análisis de datos epidemiológicos. La interpretabilidad del Árbol de Decisión fue considerada crucial para la toma de decisiones informada. 6.Ajustes teóricos en los modelos considerando las limitaciones y especificidades de los datos médicos: Se realizaron ajustes para abordar las características específicas de los datos médicos de COVID-19. Se exploraron técnicas de selección de características y reducción de dimensionalidad para mejorar la capacidad predictiva del modelo. 7.Evaluación de la viabilidad teórica de los modelos seleccionados: Se evaluó la capacidad de los modelos para capturar patrones de comportamiento relevantes en los datos médicos de COVID-19 en estudiantes de edades entre 18 y 28 años. Se compararon con investigaciones previas utilizando métricas de evaluación adicionales. 8.Análisis y evaluación teórica del modelo: Se realizó un análisis detallado del desempeño de los modelos de Selección Múltiple y Árbol de Decisión, dividiendo el conjunto de datos en conjuntos de entrenamiento y prueba utilizando técnicas de validación cruzada. Los resultados se contextualizaron y discutieron sus implicaciones prácticas para la toma de decisiones en salud pública y la planificación de intervenciones. En resumen, esta metodología permitió realizar una investigación detallada en la Predicción de Patrones de Comportamiento en Datos Médicos de COVID-19 mediante Inteligencia Artificial en estudiantes de edades entre 18 y 28 años. Los resultados obtenidos pueden tener un impacto significativo en la comprensión de la propagación del virus y la efectividad de las intervenciones, contribuyendo a una mejor gestión de la pandemia y al diseño de estrategias de salud pública más efectivas.


CONCLUSIONES

En conclusión, este proyecto de pasantía investigativa ha sido una invaluable contribución al campo de la salud y la inteligencia artificial, brindando una visión detallada y exhaustiva del proceso de aplicación de técnicas avanzadas para la predicción buscando patrones de comportamiento en datos médicos relacionados con COVID-19 en estudiantes de edades comprendidas entre los 18 y 28 años. La combinación de una amplia investigación preliminar, rigurosa preparación y limpieza de datos, exploración analítica y diseño de modelos teóricos han permitido obtener resultados prometedores.  Los modelos empleados de Selección Múltiple y Árbol de Decisión han demostrado ser efectivos en la predicción de comportamientos asociados con la pandemia y este estudio sienta las bases para futuras investigaciones en el campo de la salud e IA. Sin duda se ofrece una herramienta valiosa para anticipar tendencias y mejorar la toma de decisiones médicas y la gestión de esta crisis sanitaria.
Gonzalez Marín Juan Daniel, Universidad Tecnologica de León
Asesor: Mtro. Héctor Daniel Núñez Cuevas, Universidad Tecnologica de León

DESARROLLO DE HERRAMIENTAS PARA EL ENTRENAMIENTO EN AUTOMATIZACIóN DE PROCESOS


DESARROLLO DE HERRAMIENTAS PARA EL ENTRENAMIENTO EN AUTOMATIZACIóN DE PROCESOS

Casique Alvarez Alejandra, Universidad Tecnologica de León. Dominguez Valencia Abril Yunuen, Universidad Tecnologica de León. Gonzalez Marín Juan Daniel, Universidad Tecnologica de León. Olguin Garcia Andrea, Universidad Tecnologica de León. Asesor: Mtro. Héctor Daniel Núñez Cuevas, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La automatización de procesos industriales es la integración de diferentes tecnologías como: diseño de maquinaria, equipo electrónico, software y hardware computacional, que sean capaces de llevar todo tipo de procesos de producción, selección y control de manera autónoma; es decir, que haga mínima la participación del personal. La necesidad de diseñar equipo para el entrenamiento en el tema de automatización de procesos se origina desde el momento en que se requiere aprender a utilizar los diferentes elementos que pueden conformar un sistema automatizado especialmente para el alumnado de la carrera de ingeniería en sistemas productivos; el alumnado que toma esta materia comprende los conceptos teóricos y prácticos en la utilización del software especializado en los temas de automatización tales como el uso de simuladores como Fluid-SIM, el cual tiene como objetivos crear, simular, y aprender a realizar la conexión de circuitos electroneumáticos, electrohidráulicos, digitales y electrónicos. Sin embargo, al momento de realizar las conexiones en la parte práctica de la asignatura, el uso constante y los errores propios del proceso de aprendizaje, causan el deterioro apresurado de los equipos y debido al control y flujo de recurso económico, se ha complicado la adquisición del material necesario para cubrir los requerimientos de la asignatura. Durante algunos cuatrimestres se ha intentado costear un panel de entrenamiento para que el alumnado pueda aplicar de la mejor manera los conocimientos teóricos obtenidos durante la materia de automatización, lamentablemente, a pesar de tener diferentes cotizaciones de la celda de entrenamiento no ha sido posible obtenerla, pues no se cuenta con los recursos económicos necesarios, ya que estos equipos tienen un costo elevado. Por lo anteriormente mencionado surge la alternativa de diseñar y posteriormente fabricar un panel de entrenamiento o celda de entrenamiento, con el equipo necesario que esté al alcance de las posibilidades económicas de la universidad esperando una reducción de costos de al menos un 30% del costo de una celda comercial.



METODOLOGÍA

Detección de las necesidades de las hojas de asignatura de la materia de Automatización de procesos. Definición de la hipótesis a demostrar con el proyecto mediante una lluvia de ideas del equipo de investigación. Planeación las actividades a realizar mediante un diagrama de Gantt. Determinación los roles de cada integrante del equipo destacando las habilidades de cada uno. Diseño del boceto conceptual del panel de entrenamiento. Práctica con equipo de neumática, electroneumática y PLC. Elaboración del diseño de la estación en SolidWorks. Listado de los insumos requeridos para el proyecto. Cotización con proveedores de la región los materiales necesarios para el montaje de la celda. Elección de los proveedores que mejor se adapten a las necesidades del proyecto.


CONCLUSIONES

Durante la estancia de verano, se logró adquirir conocimientos teóricos para la comprensión de la materia de automatización, así como prácticos para el uso correcto de los equipos como lo son las válvulas, electroválvulas, cilindros de efecto simple y doble efecto, módulos de relevadores y fuentes de voltaje. Aplicando dichos conocimientos en el diseño de la celda de entrenamiento que cumpla con los requerimientos para permitir al alumnado obtener el conocimiento necesario en el área de automatización, sin embargo, dicha celda no será fabricada en este periodo debido al tiempo requerido para ello y los recursos económicos necesarios. Es importante mencionar que la hipótesis planteada en un inicio se cumple pues la inversión total proyectada para la fabricación de la celda o módulo de entrenamiento para la fabricación se presupuesta alrededor de los MX$90,000 Incluyendo el gasto estimado del tablero de control de la celda, mientras que la compra de una celda didáctica de manufactura, de los fabricantes más populares el precio ronda entre los $300,000. - a $500,000. - pesos mexicanos, siendo que la inversión para la fabricación de la celda diseñada en este proyecto representa un 22.5% del precio de la celda comercial, sin embargo, también es importante identificar las ventajas y desventajas que brinda este proyecto ante la adquisición de una celda de automatización comercial. Ventajas de la fabricación de una celda de automatización: Reducción de costos de adquisición. Facilidad de modificaciones y adecuaciones de acuerdo a las necesidades. Comprensión plena del funcionamiento de la celda de manufactura por parte de los diseñadores alumnos. La misma fabricación de la celda crea un conocimiento relacionado a la materia de Automatización de Procesos Libertad de diseño y equipo modular para posteriores actualizaciones o mejoras. Elección de tamaño según necesidades. Posible inclusión de materias relacionadas con el estudio de métodos. Desventajas de la fabricación de una celda de automatización: El tiempo para manufacturarla. El interés del alumnado para aprender sobre esta y poder fabricarla. La obtención de cada uno de los equipos y materiales necesarios. El tiempo de espera para la obtención de cada equipo. Posibles fallos por la fabricación de la celda debido al proceso natural de aprendizaje. Ventajas de la compra de una celda comercial: Una celda comercial es comprada y entregada sin necesidad de fabricación o modificación personal. No hay preocupación y dificultad por el diseño y obtención de los equipos. Vienen con manuales de uso y soporte técnico Tienen garantía por fallas o daños de fábrica. Desventajas de la compra de una celda comercial: El costo de adquisición es muy elevado. El diseño, funciones y finalidad de la celda no pueden ser modificados. Las refacciones solo se pueden obtener con la empresa donde se compra la celda. El mantenimiento debe ser especializado.
González Morán Yoatzin, Instituto Tecnológico de Chilpancingo
Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional

ROBóTICA EDUCATIVA


ROBóTICA EDUCATIVA

González Morán Yoatzin, Instituto Tecnológico de Chilpancingo. Soto Palafox Sara Isabel, Instituto Tecnológico de Hermosillo. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se realiza una investigación del estado del arte de la robótica educativa en Latinoamérica. El objetivo principal es proporcionar una visión actualizada de esta área, su impacto en la educación y en el aprendizaje del STEAM (Ciencia, Tecnología, Ingeniería, Arte y Matemáticas), y las plataformas utilizadas por los educadores. Con la creciente implementación de la robótica educativa en escuelas de nivel básico (primaria y secundaria), se han descubierto beneficios significativos, como el desarrollo de nuevas técnicas de aprendizaje interdisciplinario y la promoción del pensamiento lógico y computacional, la creatividad y el interés por las ciencias. Este estudio destaca la importancia de la robótica educativa como herramienta para fomentar habilidades clave en los estudiantes. Los resultados obtenidos ofrecen una visión panorámica valiosa para investigadores, docentes y profesionales interesados en el campo de la educación y la robótica. Asimismo, se imprimen en 3D robots Otto, los cuales se arman con diversos componentes electrónicos, se programan en el software Arduino y se realizan pruebas de funcionamiento, con el objetivo de aprender las bases de la robótica y adquirir las habilidades necesarias para enseñarla a niños. 



METODOLOGÍA

Pruebas de los movimientos a implementar en el Robot   Se realizaron la primera prueba de los movimientos del Robot con ayuda de un Joystick module 2pcs simulando un control remoto, haciendo interactuar LEDs realizando movimientos a la derecha, izquierda, adelante y atrás. Seguidamente se cambiaron los LEDs por Servos Motor (SG90) 1PCS los cuales serán los medios por los cuales las piernas, pies y/o brazos tengan movimientos. El Joystick realiza la función de simulación del control en la aplicación con el cual por medio de un patrón me movimientos este podrá moverse y se incluirá sonidos.  Selección del Robot a desarrollar   Se hizo uso de Otto DIY , el cual incluye una serie de prototipos de Robots para ser impresos y programables. Un robot modular de código abierto con una personalidad épica, un compañero para el aprendizaje de la tecnología y la creatividad. Cada uno de los participantes en la investigación eligió su prototipo a trabajar. Los modelos elegidos fueron el Otto Starter y la Humanoid Expansion, los cuales tiene características y funciones diferentes.  Impresión en 3D del Robot  Se le entregaron cada uno de los archivos STL que conforman las piezas del robot al encargado del laboratorio de impresión 3D de la Unidad Profesional Interdisciplinaria de Ingeniería Campus Hidalgo (UPIIH) para que realizara la impresión 3D de los robots utilizados. Una vez impresas, se retiraron los soportes y el sobrante de cada una de las piezas para obtener un acabado correcto.  Armado del robot   Para el modelo Otto Starter se utilizaron 4 servomotores, un sensor ultrasónico, un Arduino Nano con la Shield Expansion, un buzzer activo, una batería de 9V, un módulo bluetooth HC-06 y cables de conexión; mientras que para el modelo Humanoid Expansion se añadieron dos servomotores más y una matriz LED 8x8. Para el armado de ambos modelos se siguieron guías de instrucciones para cada respectivo modelo. Esta etapa se dificultó debido a que los servomotores contenían manecillas desiguales, unas grandes y otras finas, las cuales no encajaban en las piezas o quedaban sueltas. Sin embargo, se resolvió haciendo cambio del tipo de manecilla o cortándolas para que estas encajaran en los brazos y piernas. Cada componente se conectó al Arduino Nano dentro de la pieza que compone la cabeza, los servomotores conectados a las entradas digitales. Para el modelo Humanoid Expansion se colocó la matriz LED en la parte del pecho.   Programación del robot y diseño de app controladora  Se programó el robot en el IDE de Arduino para que realizara movimientos laterales, hacia adelante y hacia atrás, bailes, sonidos, mostrar mensajes en la pantalla LED, detenerse al detectar la proximidad de algún obstáculo, entre otras funciones. También se hicieron pruebas en la app de Otto Blockly, en donde se hace uso de la programación a bloques, lo cual facilita la enseñanza a niños o principiantes en la programación.  Se realizo una aplicación en App Inventor con botones los cuales ayudan al control de los movimientos de Robot, se incluyó un botón para la conexión de bluetooth y otro más para detener la interacción del Robot el cual es STOP esta aplicación se conecta por medio del Modulo bluetooth. 


CONCLUSIONES

Durante la estancia del verano de investigación se adquirieron conocimientos y habilidades afines a la robótica educativa, tales como: la mecánica para el armado del robot Otto; la programación con el uso de Arduino y Otto Blockly, para programar desde cero los movimientos del robot o los movimientos predeterminados, respectivamente; el diseño y programación de la app controladora del robot a través de App Inventor; además de estrategias de análisis e investigación. Este conjunto de aptitudes es de ayuda para entender el funcionamiento e importancia de cada una de las partes que conforman el proyecto, ayudando así a cumplir con los objetivos de poder transmitir conocimiento a niños. 
González Pérez Vanessa Berenice, Instituto Politécnico Nacional
Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California

MOVING ANIMALS: UN VIDEOJUEGO PARA APOYAR LA INTEGRACIóN VISUAL-MOTRIZ DE PERSONAS CON EL TRASTORNO DEL ESPECTRO AUTISTA


MOVING ANIMALS: UN VIDEOJUEGO PARA APOYAR LA INTEGRACIóN VISUAL-MOTRIZ DE PERSONAS CON EL TRASTORNO DEL ESPECTRO AUTISTA

González Pérez Vanessa Berenice, Instituto Politécnico Nacional. Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Los niños con el Trastorno del Espectro Autista (TEA), a menudo enfrentan dificultades en la coordinación motriz, especialmente en la coordinación ojo-cuerpo, lo que puede afectar su desarrollo motor y calidad de vida. Las terapias tradicionales son importantes, pero resultan poco atractivas y poco motivadoras para ellos. Una alternativa son los exergames, videojuegos que combinan tecnología de juegos con actividad física. Sin embargo, los exergames existentes no se ajustan a las necesidades de esta población y pueden ser cognitivamente exigentes y poco adecuados para sus habilidades. Por lo tanto, se plantea el diseño de un exergame personalizado denominado "Moving Animals" para apoyar a niños con TEA a practicar ejercicios de coordinación ojo-cuerpo. Moving Animals está basado en el exergame FroggyBobby, el cual es un videojuego para apoyar la coordinación visual-motriz de los miembros superiores del cuerpo de niños con TEA con problemas de coordinación. El proyecto sigue un enfoque de diseño centrado en el usuario y busca resolver desafíos técnicos relacionados con el diseño visual, la programación y la animación. El objetivo es proporcionar una solución innovadora y efectiva para apoyar el desarrollo motor de niños con problemas de coordinación y mejorar su experiencia en las intervenciones terapéuticas.



METODOLOGÍA

Este proyecto utiliza la metodología Design Thinking, una metodología creativa y centrada en el usuario para abordar problemas complejos y generar soluciones innovadoras. Se basa en la comprensión profunda de las necesidades y deseos de los usuarios para diseñar productos que satisfagan esas necesidades. Las cinco etapas clave son: Empatizar, Definir, Idear, Prototipar y Evaluar. La etapa de Empatizar implicó una comprensión profunda de los usuarios para identificar sus necesidades, deseos y desafíos. Se llevaron a cabo entrevistas y observaciones para ponerse en el lugar del usuario y entender su perspectiva. En la etapa de Definir, se estableció el problema específico a abordar durante el desarrollo del proyecto. Se enfocó en las necesidades del usuario para guiar el proceso de diseño hacia soluciones relevantes y significativas. Se definieron los ejercicios terapéuticos motrices a incluir en el videojuego, así como las características para apoyar las habilidades de coordinación ojo-cuerpo de los niños con TEA. La etapa de Idear fue la principal etapa que abarcó esta estancia de investigación. En esta etapa, se generaron una variedad de ideas y posibles soluciones para resolver el problema identificado. Se idearon diferentes ideas de niveles, interfaces gráficas para menús, un módulo de seguimiento de pacientes y un nuevo mundo en el videojuego. En la etapa de Prototipar, se desarrollan prototipos rápidos y de bajo costo para probar las ideas seleccionadas en la etapa de Idear. En esta etapa se trabajó con la integración de los diseños de menús, el módulo de seguimiento del paciente y el diseño del nuevo mundo "Monkey Duddy". Sin embargo, por restricciones de tiempo en términos de la duración de la estancia, está integración queda como trabajo a futuro. La etapa de Evaluar, implica evaluar los prototipos y recopilar comentarios del usuario para determinar la viabilidad y eficacia de cada solución. Esta fase, en el contexto del proyecto, queda pendiente para realizar pruebas del sistema con niños con TEA y psicoterapeutas una vez que se integren los nuevos diseños. El alcance del proyecto se limitó al diseño de interfaces de menús, módulo de seguimiento de pacientes y nuevo mundo, por lo que se propone llevar a cabo la evaluación de estas adiciones en etapas futuras.


CONCLUSIONES

La realización del sistema Moving Animals ha sido un emocionante y enriquecedor proceso de investigación, enfocado en el bienestar de personas con TEA. Participar en la modificación y adición de funcionalidades del sistema basado en FroggyBobby ha sido gratificante. Diseñar las interfaces gráficas de los menús fue un desafío interesante, buscando una presentación atractiva y amigable para el usuario. La retroalimentación recibida será clave para perfeccionar el diseño y brindar una experiencia de usuario placentera. La implementación de un nuevo mundo con niveles adicionales fue un proceso desafiante, buscando mantener el interés y mejorar habilidades visuales y motrices. El módulo de seguimiento de pacientes y personalización es crucial para adaptar el juego a las necesidades individuales de cada usuario, prometiendo una herramienta terapéutica efectiva y significativa. Lamentablemente, debido a restricciones de tiempo, el alcance de este proyecto abarcó sólo el diseño de las interfaces de menús, el módulo de seguimiento de pacientes y el nuevo mundo, dejando su integración e implementación de los mismos como trabajo a futuro. En general, la realización del videojuego Moving Animals ha sido un fascinante viaje hacia una herramienta terapéutica innovadora para personas con TEA. La combinación de tecnología, diseño y pruebas busca contribuir al bienestar de esta población. Participar en este campo de investigación ha sido enriquecedor. Se espera que la continuidad de este proyecto pueda proporcionar un aporte significativo, comprendiendo la importancia de soluciones terapéuticas efectivas y accesibles.
Gonzalez Reyes Ximena, Universidad Autónoma del Estado de México
Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima

CONTROL DE ROBOT OMNIDIRECCIONAL A TRAVéS DE LA DIADEMA EMOTIV EPOC


CONTROL DE ROBOT OMNIDIRECCIONAL A TRAVéS DE LA DIADEMA EMOTIV EPOC

Gonzalez Reyes Ximena, Universidad Autónoma del Estado de México. Lopez Torres Gabriela, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Una lesión en la medula espinal se define como el daño en su estructura dentro del canal vertebral. Cuando este tipo de lesiones afecta el segmento medular cervical se provoca cuadriplejía, la cual es la parálisis en la parte superior del cuerpo (hombros, brazos, manos y dedos) y la parte inferior del cuerpo (pecho, piernas, pies y dedos de los pies). De acuerdo con la Organización Mundial de la Salud entre 250 000 y 500 000 personas sufren cada año en todo el mundo lesiones medulares. Estas lesiones pueden obligar a una persona a depender de sus cuidadores desde sus actividades en la vida cotidiana hasta en sus necesidades básicas.  Sin embargo, con el uso de diversas tecnologías asistenciales se puede lograr facilitar la movilidad, la comunicación, la autoasistencia o las actividades domésticas. En este verano de investigación se buscó obtener una comunicación en tiempo real entre la diadema Emotiv Epoc la cual es una herramienta de obtención de señales electroencefalográficas y un robot omnidireccional para lograr controlar la dirección de este mediante él envió de señales a través de los diferentes gestos faciales.



METODOLOGÍA

Para la elaboración de este proyecto se inició trabajando con el análisis de estructura, diseño y función de la diadema EMOTIV EPOC+ de 14 canales, así como del software de esta, Emotiv Launcher. Particularmente se empleó la aplicación de EmotivPRO, en la cual se comenzaron a adquirir señales electroencefalográficas de diferentes sujetos de prueba por medio de la diadema, una vez corroborado que la conexión entre diadema y sujeto obtuviera un rango aceptable de entre el 50% y el 100 % se comenzaron a grabar dichas adquisiciones para posteriormente ser analizadas. De las señales obtenidas se buscó identificar específicamente cuáles eran los movimientos faciales que activaban cada uno de los 14 canales característicos de la diadema los cuales fueron identificados como AF3, F7, FC5, F8, AF4. Determinando así que los movimientos más característicos y de utilidad fueron cuatro: el guiño izquierdo, guiñó derecho, el apretar la mandíbula y el levantamiento de ambas cejas. Posteriormente para poder examinar dichas señales y buscar sus propiedades de utilidad se buscó un ambiente de programación idóneo, siendo el seleccionado MATLAB versión R2022b, de igual manera se empleó la interfaz EEGLAB la cual es una caja de herramientas de MATLAB distribuida bajo la licencia BSD gratuita para el procesamiento de datos de electroencefalografía.  Seguidamente con la ayuda de la herramienta Lab Streaming Layer se logró la conectividad de la diadema con Matlab, en donde los datos de las señales electroencefalográficas fueron guardados en tiempo real en la estructura EGG, en la variable data, la cual iba creciendo periódicamente de acuerdo con el número de muestras tomadas en la señal. Una vez la señal estuviera guardada e importada en Matlab, se desarrolló un programa que identificara el umbral delimitante de los canales activados que enviaría la señal al robot omnidireccional. En dicho programa al importar el archivo de Emotiv .csv , se acomodaron los datos de los canales, para posteriormente realizar un  muestreo de dicha información de la señal en el tiempo y a través de un análisis previo se identificaron los canales a graficar, es decir los que por medio de los diferentes gestos faciales fueron activados,  después mediante la función findpeaks se localizaron los picos los cuales fueron los responsables de mover al robot en las diferentes direcciones asignadas: guiño derecho gira a la derecha, guiño izquierdo gira a la izquierda, levantar ambas cejas desplazarse hacia atrás y por ultimo apretar la mandíbula desplazarse hacia adelante. Para que el movimiento del robot fuera en tiempo real es decir en el tiempo en que duró la grabación se utilizó la función TICTOC de Matlab que cuenta el tiempo de la señal mandada cada segundo, después ingresa a un ciclo for y a través de unas banderas se nos indica que pico va pasando, y así sucesivamente hasta que todos los picos hayan sido leídos. Con esto se aseguró que el robot realizara la secuencia de movimientos grabada y cuando terminara se detendría. Por último, al detecta un cambio en la señal se mandó llamar una función externa que es la que tendría la comunicación directa con el robot omnidireccional, esto a través del uso de un servidor colocado en una computadora fija. Se mandó llamar la IP de dicho servidor, se asignaron cuatro temas a las cuatro ruedas del robot y se suscribieron en dicho servidor, luego se mandaron a llamar las velocidades para posteriormente ser convertidas en texto para que de esta manera los valores, el tema y las velocidades se publicaran en el servidor.


CONCLUSIONES

En el periodo de la estancia de investigación se lograron adquirir conocimientos teóricos sobre las distintas aplicaciones de las señales encefalografías, así como el uso de las diversas tecnologías con que las que se puede trabajar este tipo de señales y como esta unión puede llegar a mejorar la calidad de vida de las personas que sufren limitaciones de movimiento en sus extremidades. Si bien se logró un avance en el desarrollo del proyecto, se espera obtener una comunicación en tiempo real que realice el movimiento del robot y no solo se trabaje con señales previamente grabadas.
González Sánchez David, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla

OPERACIóN, ANáLISIS Y CONTROL DE UN PROTOTIPO EXPERIMENTAL PARA PROCESOS DE ELECTROLISIS PARA LA OBTENCIóN DE GAS COMBUSTIBLE HIDRóGENO Y SU IMPLEMENTACIóN COMO VECTOR ENERGéTICO


OPERACIóN, ANáLISIS Y CONTROL DE UN PROTOTIPO EXPERIMENTAL PARA PROCESOS DE ELECTROLISIS PARA LA OBTENCIóN DE GAS COMBUSTIBLE HIDRóGENO Y SU IMPLEMENTACIóN COMO VECTOR ENERGéTICO

Becerra Romero Alejandra Betsabe, Benemérita Universidad Autónoma de Puebla. Bolaños Jimenez Yazmin Magaly, Benemérita Universidad Autónoma de Puebla. Calderón Galicia Flor Lizbeth, Benemérita Universidad Autónoma de Puebla. González Sánchez David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Manuel Pacheco Aguirre, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente la crisis ambiental que vivimos a nivel global ocasionada en gran parte por los gases de efecto invernadero que son producto de la quema de hidrocarburos para la obtención de energía eléctrica, requiere una innovación en la forma en la cual obtenemos nuestra energía, y esta nueva forma tiene que ser de una manera renovable y amigable para el ambiente.   En México según la encuesta realizada por el INEGI en el 2018 Encuesta Nacional sobre Consumo de Energéticos en Viviendas Particulares (ENCEVI) indica que el 99% de las viviendas en México cuenta con electricidad, de las cuales, solo el 0.25% usa paneles solares para la obtención de su energía eléctrica. Es preocupante la poca relevancia y uso de las energías renovables en México. He aquí la importancia de empezar a invertir en la implementación e investigación de nuevas fuentes de energía.   Para poder llevar a cabo la electrolisis, se tendrá que preparar un prototipo, en donde el armado y montado se llevará a cabo por los estudiantes miembros de este programa de investigación, esto con el fin de fortalecer la forma práctica y no solo la teórica.



METODOLOGÍA

Armado de prototipo Para el montaje del prototipo fue necesario investigar qué tipo de tubería nos convenia más para usar, la primera propuesta fue usar tubo de polipropileno (ppr), este material se cotizo y se hizo un diagrama de flujo de proceso, pero esta propuesta fue descartada, ya que, el diámetro interior de este tubo era muy grande, y eso nos podría haber dado problemas al momento de correr las pruebas. Por lo tanto, se optó por mangueras de plástico y conexiones tipo fitting, las cuales las tienen un recubrimiento antibacteriano, por esto mismo las podemos encontrar en diversas conexiones para agua potable. Una vez teniendo los materiales necesarios se paso a hacer el montaje del prototipo. Para sostener todo el sistema, se propuso usar bases de madera, las cuales funcionaron satisfactoriamente. Como en todo proyecto, surgieron complicaciones, pero se superaron gracias al trabajo en equipo, por ejemplo, una de las conexiones fitting nos llegó de una medida diferente a la solicitada, por lo tanto, tuvimos que idear una adaptación para una conexión del prototipo. Una vez solucionados los inconvenientes, se paso a la fase del armado para hacer pruebas hidráulicas, con el fin, de corregir cualquier fuga de líquido, las cuales, si se presentaron, pero se sellaron fácilmente con teflón. Preparamos las conexiones a utilizar antes del armado. Teniendo todo listo, se pasó al armado Este prototipo fue diseñado para ser un sistema multifuncional, y por lo mismo, puede funcionar con diversos tipos de bomba para impulsar la sustancia a estudiar y diferentes tipos de tanque y capacidades. Otra ventaja de este sistema es que se pueden añadir nuevas partes dependiendo del objetivo. Montado de puertas automáticas Como parte de la estancia y para mejorar el espacio en donde se colocó el prototipo, se diseñaron e instalaron puertas automáticas. Se realizó a escala un modelo del mecanismo de las puertas. En la aplicación circuit.io se diseñó un modelo del circuito usando arduino uno. Se programo un código para accionar los servomotores al contacto de una llave en el sensor RFID Se armaron y pegaron las piezas, brazos y circuitos al espacio. Finalmente se realizaron pruebas.


CONCLUSIONES

Durante la estancia fue importante tener un conocimiento previo relacionado a el tema, esto, para entender y tener un panorama general de lo que se buscaba hacer en este tiempo. A su vez, lo realizado en este programa fue interesante, ya que pusimos nuestras habilidades a prueba y adquirimos nuevas, de igual forma, fue una oportunidad para entender que no todos tenemos las mismas habilidades y que eso sigue siendo funcional en un equipo de trabajo porque todos pudimos hacer cosas distintas y complementar nuestro trabajo. El poder realizar el prototipo nos hizo reflexionar sobre la importancia que tienen las energías renovables y que, así como otros países invierten en ellas, México también lo debería de hacer. En esta ocasión pudimos poner nuestro granito de arena para que los alumnos de la Facultad de Ingeniería Química de la BUAP puedan seguir con la investigación y trabajo del prototipo antes mencionado. El seguimiento de resultados los estaremos obteniendo durante clases, gracias a que ya tenemos un prototipo funcional. Durante la estancia obtuvimos una experiencia práctica única, nos encargamos de cotizar cada uno de los materiales usados en diversos lados, tuvimos que investigar acerca de las ventajas y desventajas de cada material, así como su funcionamiento y cómo armarlo de manera correcta Finalmente, cabe destacar que con la culminación de este programa en su edición 2023, nos sentimos sumamente felices y agradecidos con las personas que nos apoyaron, con la estancia hemos adquirido nuevas habilidades, esperando poderlas aplicar en nuestra vida escolar y en nuestra vida personal, pudiendo reafirmar que la ingeniería no solo es aplicable en la industria y en los laboratorios de práctica.
Gonzalez Santiago Carlos Alberto, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Yunellis del Carmen Burgos Pereira, Fundación Universitaria Tecnológico Comfenalco

MODELO RELACIONAL PARA ACTIVIDADES INNOVADORAS Y LA PRODUCTIVIDAD EMPRESARIAL DE LAS EMPRESAS DEL SECTOR CONSTRUCCIÓN CARTAGENA DE INDIAS


MODELO RELACIONAL PARA ACTIVIDADES INNOVADORAS Y LA PRODUCTIVIDAD EMPRESARIAL DE LAS EMPRESAS DEL SECTOR CONSTRUCCIÓN CARTAGENA DE INDIAS

Gonzalez Santiago Carlos Alberto, Tecnológico de Estudios Superiores de Jocotitlán. Ortiz Cano Alberto, Instituto Tecnológico de Morelia. Sánchez Huerta Víctor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Yunellis del Carmen Burgos Pereira, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

En Cartagena de Indias, Colombia, las empresas prestadoras de servicios de mantenimiento industrial y de construcción se adaptan a las necesidades específicas de la región y ofrecen una variedad de características y servicios. Algunas de las características comunes de estas empresas en Cartagena de Indias son las siguientes:  Experiencia y especialización: Las empresas de mantenimiento industrial y de construcción en Cartagena de Indias suelen tener experiencia en proyectos tanto a nivel local como nacional e internacional. Cuentan con personal capacitado y especializado en diferentes áreas técnicas, como electricidad, mecánica, automatización, soldadura, entre otros. Amplio rango de servicios: Estas empresas ofrecen una amplia gama de servicios para cubrir las necesidades de mantenimiento y construcción de diversas industrias. Esto puede incluir mantenimiento preventivo y correctivo de maquinaria y equipos, reparaciones, instalaciones eléctricas, proyectos de ingeniería, montaje y desmontaje de estructuras, entre otros. Cumplimiento de normas y estándares: Las empresas prestadoras de servicios de mantenimiento industrial y de construcción en Cartagena de Indias se adhieren a las normas y estándares de calidad, seguridad y medio ambiente establecidos tanto a nivel local como internacional. Esto garantiza la ejecución de trabajos de forma segura y confiable.  Uso de tecnología y equipos modernos: Estas empresas emplean tecnología avanzada y equipos modernos en sus proyectos. Pueden utilizar herramientas de diagnóstico, software especializado, maquinaria de última generación y materiales de calidad para garantizar la eficiencia y la calidad en sus servicios.  Flexibilidad y adaptabilidad: Las empresas se adaptan a las necesidades específicas de cada cliente y ofrecen soluciones personalizadas. Pueden trabajar en diferentes sectores, como petroquímica, minería, manufactura, energía, construcción civil, entre otros.  Cumplimiento de plazos y presupuestos: Estas empresas se comprometen a cumplir con los plazos acordados y a trabajar dentro de los presupuestos establecidos. Tienen la capacidad de gestionar proyectos de diferentes tamaños y complejidades, asegurando la entrega oportuna y eficiente.  Servicio de atención al cliente: Las empresas de mantenimiento industrial y de construcción en Cartagena de Indias brindan un servicio al cliente de calidad, con atención personalizada y una comunicación fluida. Están comprometidas en satisfacer las necesidades y expectativas de sus clientes.



METODOLOGÍA

La metodología define el camino a seguir para alcanzar los objetivos propuestos, y debe identificar y describir el uso de métodos, procedimientos, técnicas analíticas cualitativas y cuantitativas que se utilizarán para alcanzar cada uno de los objetivos específicos.  Según Neill & Córtez (2018), los métodos utilizados en la investigación científica pueden dividirse en métodos lógicos y métodos empíricos.  En los primeros se encuentran los métodos deductivos, método inductivo, método hipotético deductivo, y en los segundos se encuentran la observación, medición y experimentación.  Se recomienda redactar la metodología por objetivo específico y definir para cada uno de ellos, el procedimiento, técnica o herramienta a utilizar, por ejemplo, observaciones, encuestas, entrevistas, diseños de experimentos, simulaciones, validaciones, pruebas, ensayos y otros, las variables a analizar cuando aplique y la información o datos que aspira a obtener y los resultados. Debe ser incluido en la metodología, la identificación del acompañamiento realizado por el actor asociado (cuando aplique) en las diferentes etapas del proyecto, indicando las acciones a realizar y los resultados que se obtendrán en su ejecución.  


CONCLUSIONES

En la industria metalmecánica y petroquímica, hay varias maquinarias y tecnologías de la industria 4.0 que se están implementando o están por implementarse para mejorar la eficiencia, la productividad y la seguridad, algunas son: ·        Internet de las cosas. ·        Robótica avanzada. ·        Fabricación aditiva. ·        Realidad aumentada. ·        Analítica de Datos y big data. En los sistemas de gestión de la cadena de suministro se buscará satisfacer las necesidades de formación en las áreas de Talento Humano, Corporativa, seguridad y salud, acceso a mercados, gestión de activos, mantenimiento, inventarios y herramientas ofimáticas.  
Gonzalez Solis Leticia Lizette, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

FORMACIóN DE PELíCULAS DE QUITOSANO-AUNPS/MWCNTS-COOH CON PROPIEDADES SEMICONDUCTORAS.


FORMACIóN DE PELíCULAS DE QUITOSANO-AUNPS/MWCNTS-COOH CON PROPIEDADES SEMICONDUCTORAS.

Gonzalez Solis Leticia Lizette, Universidad de Guadalajara. Lopez Castro Andrea del Carmen, Universidad de Guadalajara. Orozco Sahagún Ignacio, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los nanotubos de carbono de pared simple son materiales ideales como semiconductores tipo-p en celdas solares, sin embargo, su producción aún es costosa. Como alternativa, los nanotubos de pared múltiple, pueden usarse como remplazo debido a que son de mucho menor costo. Sin embargo, debido a que no presenta propiedades ópticas en el intercalo del UV-visible, contribuye a la disminución en la eficiencia de la celda. Como alternativa, para aumentar las propiedades ópticas de los nanotubos de pared múltiple, se plantea dispersar nanopartículas de oro-quitosano en la superficie de los nanotubos de pared multiple para que absorba en un intervalo mayor de longitudes de onda y aumenta su eficiencia. Dichas nanopartículas deben estar distribuidas homogéneamente, por lo tanto, se plantea la funcionalización de los nanotubos de carbono, para permitir la interacción con las nanopartículas de oro y poder formar sistemas nanoestructurados.



METODOLOGÍA

Síntesis de nanopartículas de oro La síntesis de nanopartículas de oro (NPsAu) se realizó mediante el método descrito por Israel et al., 2020. Para sintetizar las NPsAu, se preparó una solución al 2% en peso de CH3CO2H. Posteriormente, se preparó una solución al 0.5% de quitosano disuelto en la solución de CH3CO2H. Posteriormente se mezclaron, la solución de HAuCl4·3H2O en y solución de quitosano, se sónico por un lapso de 16 min utilizando el equipo Qsonica sonicators con una amplitud de 20%. Oxidación de MWCNTs Los MWCNTs fueron oxidados, para funcionalizarlos con ácidos carboxílicos y grupos hidroxilo. Para ello, se prepararon dos soluciones ácidas de 4 M de HNO3 y 10 M de H2SO4. Enseguida, se realizó una mezcla con un volumen de 20ml a una relación 1:3 de las soluciones y se adicionaron 100 mg de MWCNTs, posteriormente se realizaron lavados con agua bidestilada hasta obtener un pH aproximado de 6. Para cuantificar la cantidad formada de ácidos carboxílicos, se realizó una titulación ácido fuerte-base fuerte. Las concentraciones utilizadas de NaOH y HCl fueron 0.05M para ambos ácidos. Para comenzar la titulación, los MWCNTs fueron colocados en la solución de NaOH, se añadió el ácido clorhídrico hasta mantener un pH constante. Una vez finalizado se graficaron los datos para así obtener el valor de Pka, para identificar la cantidad de ácidos carboxílicos obtenidos. Formación de una película nanoestructurada de PAM/Chitosan-AuNPs/(MWCNT-COOH) Las películas se realizaron con distintas muestras para determinar su funcionalidad. Para su preparación, se realizó una polimerización de acrilamida (AM)-acido acrílico (AA) 80:20 (relación en peso m/m) utilizando 100gr de agua bidestilada y como iniciador 1% de persulfato de potación a base del peso de la mezcla AM-AA a una temperatura de 60 °C en atmosfera inerte, hasta lograr una mezcla viscosa. Se utilizaron recipientes caja Petri con un diámetro de 3 cm y se colocó una solución de AM-AA en cada recipiente (aproximadamente 5gr), en una estufa a 35 °C se colocaron durante 6hr hasta lograr una película media seca, después se le añadieron 4.5 gr de la solución de nanoestructuras Chitosan-AuNPs/(MWCNT-COOH) se dejaron secar por 1 día en la estufa a 35 °C.   Caracterización Espectrofotometría UV-Visible Para identificar la longitud de onda de absorción de las NPsAu, se usó espectrofotometría de UV-Visible en un equipo (Varian Cary 300 UV-Visible Spectrophotometer).   Calorimetría diferencial de barrido Este equipo se uso para identificar la diferencia en la temperatura de transición vítrea que tenía el copolímero puro y el copolímero con nanoestructuras, debido a la interacción física. Se realizo la medición de esta mediante un calorímetro diferencial de barrido (DSC Perkin Elmer 6).   Impedancia Electroquímica Para determinar la conductividad eléctrica a diferentes temperaturas y resistencia eléctrica de las películas de Poli(AM-AA) se usó impedancia química en un equipo HIOKI, IM3590 Chemical Impedance Analyzer. Para la conductividad eléctrica, cada una de las películas fueron puestas en un termoagitador para transferir calor, se realizaron las mediciones a diferentes temperaturas para obtener el efecto de la conductividad. Posteriormente, en este mismo equipo se realizaron pruebas de resistencia eléctrica, se realizaron las mediciones a cada una a diferentes cambiando la frecuencia eléctrica. TEM y SEM Las nanopartículas de oro fueron identificadas por Microscopía electrónica de Transmisión en un equipo Jeol 1010. Las muestras fueron preparadas colocando una dispersión de NPsAu y colocadas en rejillas de cobre de 200 mallas. Para la identificación de las nanoestructuras Chitosan-AuNPs/(MWCNT-COOH), se usó microscopía electrónica de barrido en un equipo Tescan Mira 3 MLU. Las muestras fueron preparadas realizando un corte transversal a la película, después de haber sido colocadas en nitrógeno líquido por dos minutos.


CONCLUSIONES

La longitud de onda de absorción máximo o superficie de resonancia de Plasmon de todas las réplicas de las NPsAu sintetizadas (537nm), demuestran reproducibilidad del proceso de síntesis.  Además, la distribución de absorción, hace posible que pueda ser absorber en un amplio rango de longitudes de onda, lo que permitirá aumentar la eficiencia en una celda, necesitando menos energía para pasar de la banda de valencia a la banda de conducción. La obtención de las nanopartículas pudo ser demostrada a partir de SEM y TEM. El aumento en la temperatura de transición vítrea, demuestra la interacción física de las nanoestructuras con la superficie de copolímero. El aumento en la conductividad eléctrica de las nanoestructuras demuestra que se comportan como un semiconductor, ya que a medida que aumenta la temperatura muestran menor resistencia a la conducción eléctrica.
González Tolentino Jorge Ramón, Instituto Tecnológico Superior de Huauchinango
Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DE MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO


GESTIóN DE MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO

González Tolentino Jorge Ramón, Instituto Tecnológico Superior de Huauchinango. Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En el departamento del Atlántico, la industria agroindustrial enfrenta problemas en la gestión del mantenimiento de sus equipos. Las malas predicciones de mantenimiento convencionales, que se realizan mediante bitácoras y observación presencial, han dado resultado en tiempos muertos y paros no planificadas en la producción. Esto ha llevado a un incremento de recursos debido a costosos mantenimientos correctivos, afectando la productividad y eficiencia de los equipos agroindustriales. El objetivo principal de este proyecto es dar solución a esta problemática mediante el desarrollo de un dispositivo basado en un modelo de Manufactura Integrada por Computador (CIM) y la implementación de inteligencia artificial. El propósito es mejorar la toma de decisiones de mantenimiento y disminuir el proceso de supervisión presencial, permitiendo la detección temprana y automática de posibles problemas en los motores, como rodamientos, engranajes, ejes, desequilibrio estructural y otras fallas comunes. La Falta de un sistema de monitoreo en tiempo real ha llevado a la industria agroindustrial a depender de inspecciones manuales, lo que retrasa la identificación de problemas y reduce la eficiencia operativa. Por lo tanto, la implementación de este dispositivo basado en inteligencia artificial tiene como objetivo principal reducir los paros inesperados y evitar llegar a mantenimientos correctivos.



METODOLOGÍA

Fase 1: Investigación de las fichas técnicas de motores, durante esta etapa se realizó el análisis técnico del fabricante, identificando las condiciones ideales de trabajo. Por otro lado, se investigaron cuáles son los fallos más comunes que se presentan en los motores para así señalar cuales son las variables más importantes por monitorear. Fase 2: En esta etapa se hizo la selección de materiales a utilizar por lo cual se designaron dos variables a monitorear de esta manera se propuso usar sensores de vibraciones y temperatura, para el caso de los sensores de vibración se propuso usar un acelerómetro (PCE-PVS 10), que permite tomar vibraciones en 3 ejes X, Y y Z, para la parte de la temperatura se selecciono el sensor PT100 que trabaja con un resistor de platino.  También se utilizó una pantalla táctil de 6 pulgadas que permita mostrar una interfaz de fácil uso al operador y sin dejar atrás se seleccionó un microcontrolador (RASPBERRY PI) que permita obtener los datos de los sensores para después sean subidos a la nube donde se tendrá un registro predeterminado de las condiciones ideales del equipo, para que pueda hacer dichas comparaciones y dar un informe preciso del estado actual del equipo. Fase 3: Durante esta etapa se realizó un diseño prototipo mediante un software CAD, en este caso se implementó SolidWorks para hacer el modelado deseado, una vez que se cuenta con el diseño se pueden identificar mejoras o correcciones, de esta manera al pasar a la etapa de construcción no se presenten errores y gastos no deseados de producción. Fase 4: En la etapa de programación se desarrolló del software de  de acciones de mantenimiento: Se programará un software basado en inteligencia artificial utilizando la metodología CRISP-DM, siguiendo las seis fases de desarrollo: comprensión del negocio, comprensión de los datos, preparación de los datos, modelado, evaluación y despliegue. Evaluación de las acciones de mantenimiento: Se evaluarán las acciones de mantenimiento sugeridas por el software, analizando su efectividad y eficiencia en la gestión de los equipos de postcosecha en el sector agroindustrial. Escenarios: Durante esta fase, se realizarán pruebas y evaluaciones del software tanto en entornos de prueba controlados como en situaciones reales de gestión de mantenimiento en empresas agroindustriales.


CONCLUSIONES

Durante la estancia de verano de investigación se trabajó con el monitoreo de variables en los motores, para de esta manera aplicar las tecnologías virtuales que permitan el monitoreo automático de dichas variables , adquiriendo conocimientos de  cómo hacer un buen plan de mantenimiento en motores de corriente alterna, debido a que es un prototipo extenso aún se encuentra en desarrollo de la elaboración de manera física, se espera que este sea capaz de poder generar un diagnóstico de un equipo y de esta manera proporcionar  un plan de mantenimiento predictivo con mayor exactitud aun plan convencional, así evitando paros inesperados y gastos innecesarios por mantenimientos correctivos
Gonzalez Vega Jose Adrian, Instituto Tecnológico de Matamoros
Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla

SÍNTESIS DE NANOCOMPUESTOS A BASE DE ORO E HIDROGELES DE ACRILAMIDA Y N-(3-(DIMETILAMINO)PROPIL)METACRILAMIDA PARA POSIBLES USOS AMBIENTALES Y BIOMÉDICOS.


SÍNTESIS DE NANOCOMPUESTOS A BASE DE ORO E HIDROGELES DE ACRILAMIDA Y N-(3-(DIMETILAMINO)PROPIL)METACRILAMIDA PARA POSIBLES USOS AMBIENTALES Y BIOMÉDICOS.

Gonzalez Vega Jose Adrian, Instituto Tecnológico de Matamoros. Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El uso masivo de medicamentos y productos farmacéuticos tiene un significativo impacto tanto en el medio ambiente como en la salud humana. La eliminación inadecuada de los residuos de medicamentos, así como su paso a través de los sistemas de tratamiento de aguas residuales, puede ocasionar la contaminación de cuerpos de agua y ecosistemas acuáticos, generando preocupaciones ambientales y sanitarias. Además, la administración sistemática de medicamentos presenta desafíos relacionados con el control de dosis, el cumplimiento terapéutico y la generación de residuos farmacéuticos. Los fármacos son sustancias biológicamente activas que afectan específicamente a los mecanismos de control de organismos vivos, por ejemplo, regulando el metabolismo, influenciando el equilibrio hormonal o mitigando la transmisión intercelular de señales. Cuando se liberan en el medio ambiente, esta actividad biológica puede tener consecuencias negativas para la flora y la fauna, afectando a los organismos no objetivo y el ecosistema en general. Incluso, "se ha demostrado que algunos fármacos de alteración endocrina tienen efectos adversos en concentraciones muy bajas, como feminizar los peces macho, impedir la reproducción o causar la regresión de la población" (Kidd et al. 2007). Además, el uso excesivo de medicamentos ha contribuido al aumento de la resistencia antibiótica. Esta resistencia puede desarrollarse tanto dentro del cuerpo humano como en el medio ambiente, "cuando los residuos antibióticos están presentes y se transfieren a bacterias patógenas" (Allen H et al. 2010). Como resultado, se ha reconocido la importancia de adoptar enfoques de administración localizada de medicamentos para reducir la resistencia antibiótica.



METODOLOGÍA

Para abordar estos problemas, se han propuesto diversas estrategias de síntesis y administración de medicamentos que minimicen los efectos negativos en el medio ambiente y la salud humana. Una de estas estrategias es la síntesis de nanocompuestos utilizando nanopartículas de oro. Los nanocompuestos son estructuras que combinan diferentes materiales a nanoescala, lo que les confiere propiedades únicas y aplicaciones potenciales en diversas áreas, incluida la medicina. La síntesis de nanopartículas de oro se puede llevar a cabo mediante diferentes métodos, como el método de Turkevich, el método electroquímico y la exposición solar. En el método de Turkevich, se preparan soluciones de cloruro de oro y citrato de sodio, y mediante la agitación y la ebullición, se agregan gotas de citrato de sodio a la solución de cloruro de oro, lo que produce nanopartículas de oro con diferentes tonalidades. En el método electroquímico, se prepara una solución electroquímica con cloruro de oro, nitrato de potasio y polietilenglicol, y mediante la aplicación de una diferencia de potencial en una celda electroquímica, se sintetizan los nanocompuestos. En la síntesis del nanocompuesto mediante la exposición solar, se mezcla cloruro de oro con N-(3-(dimetilamino)propil)metacrilamida y acrilamida, y la mezcla se expone a la luz solar para formar el hidrogel. Estos nanocompuestos son luego caracterizados mediante técnicas como espectroscopía UV-Vis, espectroscopía infrarroja y pruebas de hinchamiento. La espectroscopía UV-Vis permite analizar el tamaño y la morfología de las nanopartículas de oro, mientras que la espectroscopía infrarroja proporciona información sobre los grupos funcionales presentes en los nanocompuestos. Las pruebas de hinchamiento evalúan la capacidad de absorción de líquidos de los hidrogeles, lo que puede ser útil para aplicaciones como la liberación controlada de fármacos.


CONCLUSIONES

Los resultados de la caracterización indican que las nanopartículas de oro obtenidas son esféricas y se encuentran en un tamaño de 10-80 nm. Asimismo, se identificaron diversos grupos funcionales presentes en los nanocompuestos mediante espectroscopía infrarroja. Además, se observó que los hidrogeles presentan una alta capacidad de hinchamiento y retención de líquidos a lo largo del tiempo. La investigación en nanocompuestos con nanopartículas de oro es de gran relevancia, ya que ofrece la posibilidad de desarrollar medicamentos más efectivos y menos perjudiciales para el medio ambiente y la salud humana. Estos nanocompuestos podrían utilizarse en aplicaciones como la liberación controlada de fármacos, lo que permitiría reducir la dosis administrada y minimizar los efectos secundarios. Además, los nanocompuestos podrían ser empleados en terapias dirigidas, lo que contribuiría a mejorar el cumplimiento terapéutico y a reducir la generación de residuos farmacéuticos. No obstante, es importante destacar que se necesitarían más estudios y pruebas rigurosas para aplicar estos nanomateriales en medicina y garantizar su seguridad y eficacia antes de que puedan ser implementados de manera generalizada. La investigación en nanotecnología aplicada a la medicina está en constante evolución, y es esencial que se realicen más investigaciones y ensayos clínicos para validar las aplicaciones de estos nanocompuestos. En conclusión, el uso masivo de medicamentos plantea importantes desafíos para el medio ambiente y la salud humana. La contaminación ambiental y la resistencia antibiótica son problemas urgentes que requieren una respuesta colaborativa de la comunidad científica y la industria farmacéutica. La síntesis y caracterización de nanocompuestos con nanopartículas de oro representa una prometedora estrategia para desarrollar medicamentos más efectivos y menos perjudiciales. Sin embargo, se necesita más investigación para asegurar su viabilidad y seguridad antes de su aplicación en la medicina. Al abordar estos desafíos de manera responsable y sostenible, podremos avanzar hacia un futuro más consciente y saludable para todos.
Gonzalez Victoria Venecia Shajarit, Instituto Tecnológico de Toluca
Asesor: M.C. Mauro Sánchez Sánchez, Instituto Tecnológico de Toluca

MEJORA DE LAS PRESTACIONES DE UN MODELO DE DEEP LEARNING PAR VISIóN ARTIFICIAL EN LA INDUSTRIA MEDIANTE LA GENERACIóN DE MUESTRAS SINTéTICAS CON BLENDER


MEJORA DE LAS PRESTACIONES DE UN MODELO DE DEEP LEARNING PAR VISIóN ARTIFICIAL EN LA INDUSTRIA MEDIANTE LA GENERACIóN DE MUESTRAS SINTéTICAS CON BLENDER

Gonzalez Victoria Venecia Shajarit, Instituto Tecnológico de Toluca. Asesor: M.C. Mauro Sánchez Sánchez, Instituto Tecnológico de Toluca



PLANTEAMIENTO DEL PROBLEMA

Se tiene un modelo de visión artificial, con el cual se generan una muestras de Blender (imagenes) para despues ser detectadas mediante la maquinaria correspondiente, el problema al quje nos enfrentamos aqui, es que dicho proceso tarda alrededor de 10 minutos en renderizarse, lo cual representa una gran cantidad de tiempo para procesos que deben ser muy rapidos y eficientes.



METODOLOGÍA

Al iniciar el proceso de aprendizaje, se requirio que comenzara a adentrarme totalmente en python, con unos cursos que me facilitaron, y con la ayuda del investigador, para asi poder estar familiarizada, dado a que yo no iba a escribir codiso, pero se necesitaba que supiera en lo que estabamos trabajando.  Posterior a esto comenzamos a hacer muestras con nuestro generador, el cual nos desglosaba en medida de tiempos, en cual era la parte que nos demoraba mas tiempo en este proceso, y asi poder planetar algunas alternativas de medidas de tiempo que no estabamos tomando principalmente, como lo fueron: -Tiempo que tarda en guardarse en el sistema. -Tiempo en extraer la imagen desde nuestra base de datos.  -Tiempo en abrir en sistema las imagenes.


CONCLUSIONES

Al poder desglosar de manera mas especifica cada una de las variables que integra este generador, se logro detectar que el principal foco de alerta venia directamente de Blender, no de python, en el cual el renderizar estas imagenes representa una gran cantidad de tiempo, y se requiere buscar alternativas, que al buscarlo mismo Blenderproc, te da algunas alternativas a la hora de llamarlo al modelo.  Se busca ir mejorando los tiempos de manera que sea de forma automica y muy rapida, ya que por el momento se logro alcanzar un total de 6 minutos, lo cual reprrsenta un avance el cual se quiere mejorar más. 
Gordillo Hernández Isis Melissa, Instituto Politécnico Nacional
Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima

ROBóTICA EDUCATIVA


ROBóTICA EDUCATIVA

Gordillo Hernández Isis Melissa, Instituto Politécnico Nacional. Vázquez Chávez Tristan Angel, Instituto Politécnico Nacional. Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La robótica educativa es una disciplina que utiliza la tecnología para mejorar los procesos de aprendizaje de los estudiantes. Es un hecho que la tecnología año con año se ve más envuelta en nuestra vida cotidiana, incluirla en el entorno educativo en unos años será muy común, pues los alumnos desde edades tempranas se desenvuelven en entornos relacionados a la industria, ingeniería y ciencia. La robótica educativa se engloba dentro de la llamada educación STEM (Science, Technology, Engineering and Mathematics), modelo de enseñanza destinado a enseñar conjuntamente ciencia, matemáticas y tecnología. La Educación STEM tiene presencia en diferentes áreas productivas pues incide en la esfera educativa, profesional y empresarial, y su promoción impacta directamente en el desarrollo nacional. Según estudios realizados por la OCDE (Organización para la Cooperación y el Desarrollo Económicos), el 80% de los empleos serán reemplazados por carreras STEM en 2030, y es que el mundo ha cambiado de manera radical en los últimos 20 años, todo apunta a que el avance de los cambios será aún mayor.  Incluir la robótica educativa en planes de estudio de escuelas de nivel Básico y Medio Superior, ayudará a los alumnos a superar los desafíos que presenta la cuarta revolución industrial y crecer de manera inclusiva y sostenible, impulsando así la empleabilidad de dichos alumnos en su etapa laboral.



METODOLOGÍA

Sigue-líneas con Lego Mindstorm Se usaron bloques Lego de la serie Mindstorm EV3, estos bloques están enfocados en la robótica y la programacion por medio de bloques, se usaron las piezas para armar un carro y 2 sensores de color. La programación se hizo usando el programa LEGO MINDSTORM EV3 home edition, el robot debia seguir el color negro, el codigo hacia que los sensores al dejar de detectar el color negro iba a alternar los motores de las ruedas para volver a buscar el color. Se colocó en una pista de madera con un circuito en cinta negra,  el carro siguió la línea alternando los motores para no perder el camino, el robot logró hacer el circuito. Brazo robotico Para realizar el brazo robótico se usaron servomotores y piezas de impresión 3D, una vez obtenido los modelos, estos se metieron al programa Flash Print 5 donde se visualizaron las piezas. Una vez que todas las piezas fueron impresas se procedió a ensamblar cada pieza junto los servomotores, el brazo consistió en una base rotatoria, un brazo que puede moverse hacia enfrente y hacia atrás y una pinza que puede abrirse y cerrarse, usando un total de 4 servomotores. La programación se hizo con Arduino, el programa consistió en un menú con 10 funciones: Calibración Arriba Abajo Adelante Atrás Derecha (base) Izquierda (base) Serie de movimientos Abrir pinza Cerrar pinzas En el programa se usaron las librerías Servo.h, se usó la sentencia switch para cada uno de los 10 casos, se utilizó el monitor serial para imprimir el menú y enviar las instrucciones al brazo, para cargar el código se usó una placa Arduino UNO, además se utilizó una fuente de voltaje para alimentar los servos y la placa. El código se probó y se procedió a hacerle modificaciones, como cambiar la velocidad de giro con el fin de tener un movimiento más suave y preciso. Carro controlado con guante Se usaron placas de programación ESP32, un giro sensor MPU6050, un guante, usando una baquelita se soldó el ESP 32 y el giro sensor. Se cosió  la baquelita al guante cuidando que ésta quedará firme, conectando una pila de 9 Volts y se verifica que funcionen. Se compró un kit para armar un carro. En una protoboard se conectó otra placa ESP 32 y un controlador de motores. Se usó el programa Arduino para realizar la programación del guante y el carro, el primer programa consistió en la lectura del giro sensor usando Serial plotter el cual es una gráfica en la que se muestran los movimientos al girar a cualquier ángulo en X, Y y Z. Se cargó el código al ESP 32. Para la recolección de datos se usó el software Python, en el cual se tenían cinco variables para recolectar datos: P1 (enfrente) P2 (atrás) P3 (derecha) P4 (izquierda) P5 (detenerse) En la interfaz  se podían ver los cambios al mover el sensor al igual que en las pruebas realizadas en Arduino, se elegía una variable para guardar datos y se movía el sensor dependiendo la variable, se generaron 5 archivos con los datos de cada movimiento. Una vez con los archivos de datos estos se volvieron a meter a un programa en python para generar un Dataset el cual se usará después para un entrenamiento con una red neuronal, una red neuronal es una inteligencia artificial que enseña a la computadora a procesar datos de una forma similar a los humanos. Para hacer el entrenamiento de la red neuronal se cargo el Dataset al programa de python con la red neuronal, en el entrenamiento se elige un número de Épocas que son las veces que la IA va a estar trabajando para aprender a procesar los datos, entre más épocas más precisos son los resultados pero es más lento el proceso, se usaron 10,000 épocas. Cuando se acaba el entrenamiento el programa genera, la estructura, el  procesamiento y las variables de la red neuronal. Con los datos de la red se hicieron las pruebas de esta, se cargaron los datos a un programa en arduino y se cargó el programa al guante, mediante el monitor serie el programa detectaba los movimientos del sensor y lo convertía en alguna de las 5 variables de movimiento dependiendo el ángulo. Después se obtuvieron las direcciónes MAC del guante y del carrito, para poder enviar datos de uno a otro. Después se hizo una verificación de envío de datos, se conectó una pila al guante y otras al carro, después de colocarse el guante empezarán las pruebas de control.


CONCLUSIONES

Durante la estancia de verano se logró realizar proyectos de robótica educativa, que ayudan a los alumnos a entender la programación y la robótica, tomando en cuenta que se desarrollan en un entorno de educación STEM, logrando así que los alumnos se interesen por el mundo de la ingeniería, ciencia y matemáticas.
Gorgua Mendoza Gustavo, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa

DISEñO DE ESTRATEGIAS SOSTENIBLES PARA GESTIóN DE LOS RESIDUOS GENERADOS EN EL PROCESO DE PRODUCCIóN DE MUEBLES DE MADERA MEDIANTE EL USO DE HERRAMIENTAS DE TOMA DE DECISIONES EN ORGANIZACIONES DE LA REGIóN CARIBE DE COLOMBIA


DISEñO DE ESTRATEGIAS SOSTENIBLES PARA GESTIóN DE LOS RESIDUOS GENERADOS EN EL PROCESO DE PRODUCCIóN DE MUEBLES DE MADERA MEDIANTE EL USO DE HERRAMIENTAS DE TOMA DE DECISIONES EN ORGANIZACIONES DE LA REGIóN CARIBE DE COLOMBIA

Gorgua Mendoza Gustavo, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El proyecto busca desarrollar estrategias sostenibles para la gestión de los residuos generados en el proceso de producción de muebles de madera en organizaciones de la Región Caribe de Colombia para mejorar la gestión y reutilización de los residuos generados en el proceso productivo. La metodología incluye una revisión del estado del arte de los modelos y estrategias de logística inversa en procesos productivos para la gestión eficiente de residuos. De igual forma, se desarrollará una caracterización de los residuos del proceso, para determinar el estado actual y las condiciones para su reutilización y disposición final. Se propone el desarrollo de un modelo de logística inversa en el proceso de producción de muebles de madera para la gestión eficiente de residuos y disminución del impacto ambiental. Con esta propuesta se busca la generación de valor agregado en la medida que se establezca un modelo de negocio, estrategia, planes y acciones que permita la clasificación de los residuos, su reutilización, remanufactura para la producción de productos secundarios y disposición final. De tal forma, que se puedan mitigar los impactos medioambientales, aumentar la productividad y generar ingresos por el aprovechamiento de los residuos en productos secundarios.



METODOLOGÍA

Preparación del Plan de Trabajo de Pasantía Delfín. Revisión de los modelos conceptuales de logística inversa propuestos por diferentes autores. Revisión de los casos de aplicación exitosos de estrategias de logística inversa aplicadas en empresas productivas. Revisión del estado del arte de los modelos de optimización de logística inversa desarrollados en los procesos productivos.


CONCLUSIONES

ESTADO DEL ARTE Actualmente la logística interpreta un rol muy importante en las cadenas de suministro ya que, es la encargada de gestionar todos los procesos emergidos en ella, en las últimas décadas diversos autores se han encargado de realizar investigaciones que ayuden a simplificar y hacer eficientes las cadenas de suministro para cumplir la demanda que surgen en estas, sin embargo muy pocos se han dado a la tarea de indagar de la importancia que tiene la logística inversa (RL) y buscar estrategias que hagan eficiente y controlable una cadena de suministro inversa (RSCH). Durante la última década, las redes de logística inversa han crecido dramáticamente dentro de muchas cadenas de suministro en diferentes industrias. Varios factores en evolución, incluidos el clima económico, la imagen ecológica, las leyes de protección del medio ambiente y las responsabilidades sociales, obligan a las empresas a revisar sus estrategias. (Yadollahinia et al., 2018) Es importante conocer herramientas de RL para las organizaciones, porque principalmente causa un impacto positivo en cuanto a ganancias monetarias, ya que el saber las estrategias adecuadas, permiten reintegrar los residuos generados en una nueva cadena de suministro, como los desperdicios, las devoluciones, producto no conforme, etc. Abriendo áreas de oportunidades de generar e innovar nuevos productos y reincorporar en una nueva cadena de suministro, haciendo sostenible una organización y ayudando a la sustentabilidad del medio ambiente en la globalización. Se ha aplicado en muchas industrias y sectores desde su concepción. A diferencia de la logística de envío, rastrear los bienes de consumo desde el punto de consumo hasta el punto de inicio no es un proceso bien estudiado. Implica muchas incertidumbres como el tiempo, la calidad y la cantidad de devoluciones. Los productos devueltos pueden ser remanufacturados, recolectar partes o desecharse de manera segura. Es importante implementar estas actividades de manera rentable. (Pandian & Abdul-Kader, 2017) La literatura ha demostrado que la rentabilidad de los RSC varía en el sentido de que algunos fabricantes se benefician de esto mientras que otros no. (Larsen et al., 2022) La pregunta a esto es, ¿por qué el beneficio puede variar? Las cadenas de suministro inversas (RSC) pueden proporcionar los beneficios de reducir la contaminación, crear nuevos puestos de trabajo y generar ingresos a partir de los materiales reciclables. Sin embargo, su implementación conlleva riesgos y resultados difícilmente predecibles. (Krug et al., 2021) La logística inversa ha evolucionado para ayudar a las empresas a reconocer los beneficios potenciales y superar los desafíos asociados con sus operaciones y estrategias. Tiene una influencia considerable tanto en la planificación y gestión de la producción como en la determinación de las capacidades óptimas de producción y almacenamiento. La recuperación de productos, que abarca la reutilización, la refabricación y el reciclaje de materiales, requiere una red de logística inversa estructurada para recolectar productos de manera eficiente al final de su ciclo de vida. (Jayant et al., 2014). En las últimas décadas, un número cada vez mayor de fabricantes ha implementado una cadena de suministro inversa (RSC) que aprovecha y recupera los productos, componentes o embalajes de manera más eficiente, apoyando así las ideas de la economía circular. (Larsen et al., 2022)Por lo general, las cadenas de suministro (SC) de las industrias de procesos tratan con redes basadas en procesos que involucran a proveedores, productores, almacenes, minoristas y distribuidores. Recientemente, las actividades de logística inversa comenzaron a ser consideradas también como parte de dichas redes, siendo estas las encargadas de incorporar a las cadenas productos no conformes/al final de su vida útil a través de procesos de recuperación. Esto respalda la exploración del concepto de conversión de residuos en valor dentro de los SC al mismo tiempo que aborda cuestiones ambientales importantes. (Barbosa-Póvoa, 2014)
Gracia Cohen Fryda Valeria, Universidad de Sonora
Asesor: Dra. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)

DESARROLLO DE UN MATERIAL NANOESTRUCTURADO CON POSIBLE APLICACIóN EN LA REGENERACIóN DE CARTíLAGO ARTICULAR


DESARROLLO DE UN MATERIAL NANOESTRUCTURADO CON POSIBLE APLICACIóN EN LA REGENERACIóN DE CARTíLAGO ARTICULAR

Gracia Cohen Fryda Valeria, Universidad de Sonora. Asesor: Dra. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El cartílago articular es un tejido presente en las articulaciones que actúa como amortiguador, reduciendo la fricción entre los huesos y permitiendo el deslizamiento. Este tejido tiene características como la escasez de vasos sanguíneos y nervios, baja densidad celular y una lenta regeneración, especialmente con la edad, lo que puede llevar a enfermedades degenerativas. Para abordar la regeneración del cartílago, se están desarrollando alternativas como la terapia con células madre e ingeniería de tejidos.



METODOLOGÍA

La primera parte consistió en realizar nano encapsulaciones de polímero con la finalidad de contener el fármaco que será liberado, en este caso por ser práctico, para garantizar la reproducibilidad de la metodología se realizaron las encapsulaciones en blanco, sin contener medicamentos. En el proceso de nanoencapsulado, se siguieron 8 ensayos, cada uno repetido 3 veces, utilizando una metodología de nanoprecipitación modificada. Las muestras se analizaron mediante DLS, potencial Z y SEM. Para el gel spinning, se preparó una solución de colágeno con NaOH y PBS, que fue inyectada a través de una jeringa para formar fibras de colágeno, que luego se sometieron a un proceso de secado y almacenamiento. En el electrospinning, se preparó una solución de colágeno al 25% W/V en ácido acético-agua, que se sometió a un campo eléctrico para formar nanofibras, que fueron recolectadas en un colector giratorio. La caracterización de las nanocápsulas se realizó mediante DLS, potencial Z y SEM, mientras que las fibras se caracterizaron unicamente por SEM .


CONCLUSIONES

Durante la estancia de verano Delfín se logró cumplir con el objetivo de adquirir nuevos conocimientos tanto teóricos como prácticos de laboratorio. En este caso se tuvo la oportunidad de participar en un proyecto donde se aprendieron nuevas técnicas de caracterización y mecánicas, llevándolo a la práctica en la formación de fibras de colágeno y nanocápsulas.  Si bien aún se está probando la reproducibilidad de la metodología y por ello no se puede mostrar el material ya aplicado, se espera que este sea de gran aportación para el área de la biomedicina.
Gracia Gonzalez Angel Eduardo, Instituto Tecnológico de Matamoros
Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE HIDROGELES SEMI-INTERPENETRADOS A BASE DE POLIACRILAMIDA, ADICIONADO CON QUITOSANO PARA EL TRATAMIENTO DE AGUAS RESIDUALES.


SíNTESIS Y CARACTERIZACIóN DE HIDROGELES SEMI-INTERPENETRADOS A BASE DE POLIACRILAMIDA, ADICIONADO CON QUITOSANO PARA EL TRATAMIENTO DE AGUAS RESIDUALES.

Gracia Gonzalez Angel Eduardo, Instituto Tecnológico de Matamoros. Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El agua, esencial para la vida, enfrenta amenazas por contaminantes como bacterias, pesticidas, plásticos y más. Más de 1.8 mil millones de personas consumen agua potable contaminada, causando enfermedades y muertes evitables. Es crucial entender las fuentes de contaminación y tomar medidas preventivas (Fewtrell, et al. 2004). A pesar de que el 70% del planeta es agua, solo el 1% es apta para consumo humano, lo que subraya la importancia de proteger este recurso limitado (Rojas, 2015). Contaminantes, desde basura hasta productos químicos, afectan ríos, lagos y océanos. La contaminación y la creciente población han provocado una crisis de agua dulce, poniendo en riesgo el abastecimiento de agua potable y otras necesidades básicas (Nunez, 2011). La industria textil es responsable de la contaminación del agua a nivel mundial. Sus procesos con altos consumos de agua y químicos liberan sustancias tóxicas en los ecosistemas acuáticos.



METODOLOGÍA

1. SÍNTESIS DE HIDROGELES A BASE DE POLIACRILAMIDA: Preparación de las Soluciones: Para la obtención de los hidrogeles semi-interpenetrados se preparó una solución de acrilamida 18 % y se añadió diferentes concentraciones de bisacrilamida en concentraciones de 1.5, 1 y 0.5 % (p/p) de que fungió como agente entrecruzamiento, además del 1% (p/p) de KPS como iniciador, posteriormente se introdujeron las soluciones en un baño ultrasónico para homogeneizar la solución por 15 min, una vez transcurrido el tiempo, se colocaron las soluciones en una placa de pozo para posteriormente introducirlas al horno para que ocurra el proceso de polimerización a una temperatura de 60 °C durante 50 minutos, después del tiempo de reacción se desmoldaron los hidrogeles de las placas de pozo y se les realizo 3 lavados con agua desionizada y uno en una solución al 30% metanol/agua y se dejan secar hasta obtener los xerogeles a peso constante. Para la obtención de los hidrogeles semi-interpenetrados se realizó la metodología anterior además se preparó una solución acida al 2 % de ácido acético y se disolvió quitosano al 2.5 % (p/p) y se prepararon relaciones 70% PAM y 30% quitosano, 60% PAM y 40% quitosano y 50% PAM y 50% quitosano. 2. CARACTERIZACIÓN Pruebas de hinchamiento Se pesaron 3 muestras de xerogel de cada concentración diferente de PAM con quitosano, para obtener el peso seco de cada uno de ellos. Se pusieron en contacto directo con agua desionizada y se registró el peso obtenido cada hora durante 5 horas después de iniciado la prueba. Posteriormente del sexto pesaje se registraron los pesos de estos cada 24 horas hasta obtener un peso constante. Mediante cálculos se determinó el contenido de agua para cada hidrogel, el porcentaje de hinchamiento y se llevó a cabo una cinética de hinchamiento. Espectroscopía infrarroja (IR) Se obtuvo partículas pequeñas de cada xerogel después de pulverizar los xerogeles con ayuda de un mortero. Se colocaron los xerogeles pulverizados en un espectrofotómetro infrarrojo para obtener los grupos funcionales que estos contenían. Se interpretaron los espectros que fueron obtenidas mediante el equipo de Espectroscopia infrarroja. Espectroscopia UV-Vis Se determino la longitud de onda de la máxima absorción para el colorante rojo Congo, se realizó una solución de 100 ppm y se tomaron alícuotas de diferentes concentraciones hasta obtener una buena absorbancia. Se realizó una solución de 40 ppm de rojo Congo, en donde se tomaron alícuotas de 40 ppm, 30 ppm, 20 ppm, 10 ppm y 5 ppm, para obtener la curva de calibración. Se coloco una muestra de xerogel distinta de cada tipo de hidrogel adicionado con quitosano, así como los blancos, en contacto con la solución problema de 40 ppm para obtener la remoción de colorante de cada una de las pruebas. Cinética de hinchamiento Se hicieron los cálculos para obtener la difusión de agua, la ecuación de primer orden, así como la ecuación de segundo orden y determinar la velocidad de hinchamiento.


CONCLUSIONES

RESULTADOS a. Pruebas de hinchamiento Los hidrogeles de PAM/Quitosano con un agente de entrecruzamiento del 0.5% presentaron un mejor rendimiento en las pruebas de hinchamiento en comparación con otros, incluso con los que solo contenían poliacrilamida. La adición de quitosano favoreció la captación de agua, mostrando un hinchamiento cercano al 1600%. Los hidrogeles con un agente de entrecruzamiento del 1.5% tuvieron un rendimiento más bajo debido a la dificultad en la penetración de agua en las cadenas poliméricas entrecruzadas. b. Espectroscopia Infrarroja: En la espectroscopía infrarroja (IR), se determinaron los grupos funcionales presentes en las formulaciones de hidrogeles, sin observar diferencias significativas entre las muestras analizadas. c. Espectroscopia UV-VIS En la espectroscopía UV-VIS, se determinó la concentración de remoción del colorante rojo Congo para cada formulación de hidrogel. Al ubicar las absorbancias en la curva de calibración, se obtuvo la remoción de colorante. d. Cinetica de hinchamiento En la cinética de hinchamiento, todos los hidrogeles mostraron un proceso de difusión Fickiana o caso 1. La ecuación de primer orden se ajustó mejor a los hidrogeles de PAM/Quitosano, y su velocidad de reacción fue más veloz que la de segundo orden.   CONCLUSIONES En conclusión, los objetivos del estudio se cumplieron satisfactoriamente. El hidrogel de PAM / Quitosano con una proporción de 50/50 y un agente de entrecruzamiento del 0.5% resultó ser el más óptimo para la absorción de agua. Estos resultados prometedores sugieren que los hidrogeles a base de poliacrilamida adicionados con quitosano podrían ser una alternativa de solución en el tratamiento de aguas residuales.
Guadarrama Flores Lucero, Universidad Mexiquense del Bicentenario
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

AGENTE VIAJERO Y ALGORITMO GENéTICO EN PYTHON: UN ENFOQUE EFICIENTE PARA RESOLVER UN DESAFIANTE PROBLEMA DE OPTIMIZACIóN


AGENTE VIAJERO Y ALGORITMO GENéTICO EN PYTHON: UN ENFOQUE EFICIENTE PARA RESOLVER UN DESAFIANTE PROBLEMA DE OPTIMIZACIóN

Diaz Mascareño Alfonso Arturo, Universidad Autónoma de Occidente. Guadarrama Flores Lucero, Universidad Mexiquense del Bicentenario. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El Agente Viajero presenta una complejidad computacional alta debido a su naturaleza combinatoria, lo que dificulta encontrar la solución optima para un gran número de ciudades. El problema del agente viajero es un desafío clásico de optimización combinatoria que busca encontrar la ruta mas corta que un agente debe tomar para visitar una serie de ciudades y regresar a su punto de partida, esta problemática es conocida por ser NP-duro, lo que significa que no existe una solución algorítmica eficiente para resolverlo en tiempo polinómico, sin embargo, los algoritmos genéticos, inspirados en la evolución biológica, han demostrado ser una poderosa técnica para abordar este tipo de problemas. Diversos algoritmos han sido propuestos para resolver este problema, y uno de los mas prometedores es el Algoritmo Genético (AG), este enfoque se inspira en la evolución biológica y utiliza operadores genéticos como selección, cruce y mutación para generar una población candidatas y mejorarlas progresivamente a lo largo de las generaciones.



METODOLOGÍA

Durante la estancia del Verano Delfín, se diseño e implemento un algoritmo genético en el lenguaje de programación Python para resolver instancias del problema del Agente Viajero. La metodología utilizada se dividió en las siguientes etapas: 1).- Representación del cromosoma: Se utilizo una representación basada en permutaciones, donde cada individuo en la población es una posible ruta del agente viajero. 2).- Inicialización de la población: Se genero una población inicial aleatoria de individuos que representan diferentes rutas. 3).- Evaluación de la aptitud (fitness): Se calculo la distancia total de cada ruta en la población utilizando una función de costo, que mide la longitud del recorrido. 4).- Selección de padres: Se implementaron técnicas de selección, como la ruleta o el torneo, para elegir a los mejores individuos que actuaran como padres para la siguiente generación. 5).- Operadores genéticos: Se aplicaron los operadores de cruce y mutación para generar nuevos individuos en la población. 6).- Elitismo: Se conservaron las mejores soluciones de cada generación para garantizar la convergencia hacia mejores resultados. 7).- Criterio de parada: Se estableció un criterio de parada basado en un número máximo de generaciones o en la convergencia hacia una solución satisfactoria. La metodología propuesta demostró ser efectiva en la resolución del problema del agente viajero, obteniendo soluciones cercanas al optimo para diversas instancias del problema. La combinación de la representación del cromosoma, la selección adecuada de operadores genéticos y la aplicación de elitismo permitió una búsqueda eficiente y convergencia hacia soluciones de alta calidad. Se realizaron pruebas exhaustivas y se ajustaron parámetros para optimizar el rendimiento del algoritmo.


CONCLUSIONES

La investigación realizada durante la estancia del verano Delfín ha demostrado que el uso del Algoritmo Genético en Python es una opción prometedora para abordar el problema del Agente Viajero. Los resultados obtenidos muestran que, si bien el algoritmo puede encontrar soluciones cercanas a la optima en instancias pequeñas, su eficiencia disminuye a medida que el número de ciudades aumenta. La principal ventaja del enfoque genético es su capacidad para explorar diferentes soluciones y encontrar soluciones aceptables en un tiempo razonable, sin embargo, al enfrentar instancias grandes del problema, el algoritmo puede requerir un tiempo considerable para encontrar soluciones de calidad. Para mejorar aun mas la eficiencia del algoritmo, seria conveniente investigar e implementar técnicas avanzadas, como el uso de operadores genéticos adaptativos o la hibridación con otros métodos de optimización, además, se sugiere realizar experimentos comparativos con otros enfoques de la literatura para evaluar la competitividad del Algoritmo Genético en instancias de mayor tamaño. En conclusión, la investigación llevada a cabo en la estancia del verano Delfín ha sido un punto de partida solido para explorar la aplicabilidad del Algoritmo Genético en Python para resolver el problema del Agente Viajero, los resultados obtenidos sientan las bases para futuras investigaciones que puedan enriquecer y perfeccionar este enfoque, brindando soluciones eficientes y efectivas para problemas de optimización en la vida real.
Guadarrama Prado Karla Alexandra, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Rodolfo Murrieta Dueñas, Instituto Tecnológico Superior de Irapuato

MODELADO 3D DE UN PROTOTIPO DE UN BIORREACTOR EN SOLIDWORKS.


MODELADO 3D DE UN PROTOTIPO DE UN BIORREACTOR EN SOLIDWORKS.

Batalla García Roberto Emmanuel, Instituto Tecnológico Superior de Irapuato. Guadarrama Prado Karla Alexandra, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Rodolfo Murrieta Dueñas, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La industria de la alimentación es uno de los sectores productivos con mayor demanda energética en México, situándose en segunda posición en cuanto a consumo energético (solo por detrás de la siderurgia) y consumiendo el 14% del total de la energía empleada por la industria.  Actualmente, varias empresas alimenticias cuentan con la presencia de al menos un biorreactor para sus procesos industriales, sin embargo, estas empresas no cuentan con un sistema actualizado el cual nos permita optimizar el mezclado que se produce dentro de ellos, por lo que estos equipos producen un gasto de energía considerablemente alto, además de que varios de estos ellos se encuentran al día de hoy obsoletos, sin embargo, se siguen utilizando debido a las condiciones de operación que son permitidas dentro de estas empresas.  Durante los últimos años, los biorreactores han utilizados en un número creciente de aplicaciones, desde la producción de medicamentos bio-adaptivos o fertilizantes y pesticidas ecológicos, hasta en la industria alimenticia, que es en la que se basa la presente investigación. El aumento de la producción de productos biológicos y reactores de un solo uso ha llevado a la necesidad de una precisión y flexibilidad aún mayores en la instrumentación que emplean. Estudios recientes han mostrado que más del 70% de las industrias alimenticias cuentan con biorreactores que utilizan agitadores para realizar sus mezclados. Debido a la agitación que se produce dentro de estos, se ha presentado un incremento en el gasto energético de dichas industrias. 



METODOLOGÍA

Se realizo una investigación acerca del correcto funcionamiento de un biorreactor de tipo tanque agitado, esto para conocer acerca de las variables que puedan ser manipuladas para poder establecer las condiciones iniciales y las condiciones limite al momento de trabajar. Una vez conocido el correcto uso que tiene un biorreactor, se consideraran tres etapas para realizar de una forma más optima el trabajo, las cuales consisten en: a) Dimensionamiento del biorreactor y del agitador en un sistema de cómputo numérico que ofrece un entorno de desarrollo integrado, b) Análisis en softwares de simulación, y c) Dibujo y modelado en softwares de diseño en 3D. Para el dimensionamiento del biorreactor y del agitador, se realizó una interfaz en el que se calculan las medidas de estos según la capacidad deseada, para ello, se utilizara Matlab, el cual, trabaja en un entorno de programación para el desarrollo de algoritmos, análisis de datos, visualización y cálculo numérico. Para ello, se desarrollará introduciendo las ecuaciones de diseño para un reactor de tipo tanque agitado además de ecuaciones para el dimensionamiento del agitador, de esta manera obtendremos las medidas correspondientes para nuestros equipos. Una vez teniendo el dimensionamiento de nuestro tanque, se realizará una simulación dentro del software VisiMix, el cual es una herramienta que nos proporciona una respuesta precisa sobre la mezcla que se llevara a cabo dentro del reactor, introduciendo las variables obtenidas con la interfaz de Matlab. Dentro de VisiMix se observará si el biorreactor cumple con las especificaciones necesarias para un correcto mezclado dentro de este. Habiendo simulado correctamente en VisiMix y obteniendo un resultado favorable sobre la mezcla dentro del biorreactor, se modelarán los diseños propuestos en 3D con ayuda de SolidWorks 2022, el cual es un software de diseño importante para la industria en la actualidad. Se opto por realizar el tanque y el agitador por separados. Se realizarán 3 diseños diferentes, utilizando el mismo tanque y agitador, pero cambiando la altura de este con respecto al fondo, el cual serán 10 cm, 15 cm y 20 cm.


CONCLUSIONES

En este trabajo se propuso la idea de un tanque que pudiera ser optimizado de una manera más eficiente, logrando reducir el consumo energético al momento de lograr una mejora en el mezclado, para ello, es indispensable conocer el control que el equipo debe de tener. Realizando diversas simulaciones, se observo que el diseño que ofrece dicha optimización es con el agitador a una altura de 15 cm del fondo, comparándolo con los otros dos diseños, en donde el mezclado no se realizo de la mejor manera, ofreciendo una mejor optimización al momento de realizar el trabajo.
Gualdron Godoy Laury Katherine, Universidad de Pamplona
Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac

ANáLISIS DE LA VIABILIDAD TéCNICA-ECONóMICA DEL APROVECHAMIENTO DE LA ENERGíA SOLAR MEDIANTE EL POTENCIAMIENTO DEL CONCENTRADOR SOLAR EN LA LUCHA CONTRA EL CAMBIO CLIMáTICO


ANáLISIS DE LA VIABILIDAD TéCNICA-ECONóMICA DEL APROVECHAMIENTO DE LA ENERGíA SOLAR MEDIANTE EL POTENCIAMIENTO DEL CONCENTRADOR SOLAR EN LA LUCHA CONTRA EL CAMBIO CLIMáTICO

Gualdron Godoy Laury Katherine, Universidad de Pamplona. López Murillo Katia Guadalupe, Universidad de Guadalajara. Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema: La aceleración de la transición energética es un tema crítico para enfrentar el cambio climático, especialmente en países con economías deficientes. En México, la alta radiación solar, alcanzando hasta 1000 watt/m2 en un día normal, presenta una oportunidad para el aprovechamiento de la energía termo-solar como parte de esta transición. Sin embargo, se necesita una metodología adecuada para caracterizar y utilizar eficientemente esta fuente de energía. El objetivo de este estudio es desarrollar una metodología basada en el método científico, enfocándose en la parte experimental, la ingeniería energética y ambiental, para aprovechar de manera óptima la energía solar termo-solar en México.



METODOLOGÍA

Metodología: Para alcanzar el objetivo planteado, se estableció un esquema basado en el método científico, centrándose en la parte experimental y la ingeniería energética y ambiental. Inicialmente, se exploraron sistemas físicos de concentración solar y cocina solar tipo caja para caracterizar el proceso de captación de energía solar. Se identificaron potenciales de energía por encima de los 800 wtts/m2 y un proceso de cambio de fase que llega a la saturación, indicando una disponibilidad para considerar su utilización a una escala mayor. Además, se realizó una revisión exhaustiva de la literatura científica, patentes registradas y sistemas comerciales relacionados con el aprovechamiento de la energía termo-solar. La caracterización del proceso de ebullición a partir de la concentración solar demostró que es posible alcanzar esta condición en el agua con una radiación solar mínima de 800 wtts/m2. Este hallazgo sugiere que el sistema puede ser utilizado en una amplia gama de procesos, siendo más rápido en comparación con otras tecnologías solares. Sin embargo, se detectaron condicionantes, como la inestabilidad de la atmósfera en tiempos de lluvia, lo que podría afectar la constancia del suministro energético.


CONCLUSIONES

El estudio demuestra que la transición hacia fuentes de energía más sostenibles es fundamental para abordar de manera urgente el cambio climático, especialmente en países con economías en desarrollo, como México. El aprovechamiento de la energía solar termo-solar juega un papel crucial en esta transición, aprovechando la alta radiación solar del país. El sistema propuesto en este estudio utiliza la energía solar como fuente primaria y tiene la capacidad de generar electricidad o calor de forma sostenible con el medio ambiente. Al reducir la dependencia de combustibles fósiles y disminuir las emisiones de efecto invernadero, este enfoque contribuye significativamente a la mitigación del cambio climático. Además, se destaca que este sistema puede beneficiar a comunidades rurales, urbanas e industriales, contribuyendo a erradicar la pobreza energética y mejorando la calidad de vida al proporcionar un suministro confiable de energía. La eficiencia del sistema también se ve fortalecida al complementar la energía perdida en el concentrador con otras fuentes renovables, lo que promueve un cambio positivo en la industria energética hacia tecnologías más sustentables. En conclusión, la metodología propuesta en este estudio puede ser una base sólida para el desarrollo y aprovechamiento efectivo de la energía solar termo-solar en México, impulsando la transición hacia un sistema energético más sostenible y reduciendo el impacto ambiental asociado con el uso de combustibles fósiles.
Guerrero Arenas Alondra Guadalupe María José, Instituto Tecnológico Superior de Guanajuato
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO


OBTENCIóN DE DATOS PARA LA INTERPRETACIóN DE GESTOS CORPORALES USANDO MéTODOS DE RECONOCIMIENTO

Guerrero Arenas Alondra Guadalupe María José, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Para poder comprender las diferentes formas de comunicación del ser humano, se requiere determinar diferentes acciones o reacciones, los cuales pueden reflejar diferentes emociones de acuerdo con las necesidades, sentimientos o mensajes, mostrado de una forma en que pueden ser gestos involuntarios, característicos, intuitivos o falsos, y que pueden ser indispensables para conocer las intenciones o la emoción dominante que están sintiendo y que incluso, pueden predecir acciones en un periodo futuro corto. Al realizar una lectura correcta del lenguaje corporal de una persona, se deben de considerar diversos factores, que en conjunto, pueden dar un resultado más certero, desde el contacto visual; la postura del cuerpo, donde estoy incluye de manera independiente la posición de la cabeza, los movimientos y posición de los brazos, manos y piernas, los movimientos de los labios, entre otros. Una de las acciones que se llevan a cabo para determinar el lenguaje corporal o no verbal de las personas frente a varias situaciones y por diferentes medios visuales (imágenes, videos o tiempo real), es por medio de puntos clave en diferentes zonas del cuerpo y el rostro, utilizando la librería de MediaPipe [4] en conjunto con el lenguaje de programación Python, que facilita la detección de rostros, el cuerpo y las manos, representándolas de forma gráfica en 2D y con ellos, realizar una estimación de las posturas que la persona está adoptando desde diferentes ángulos y perspectivas, todo por medio de coordenadas. Esto puede beneficiar en diferentes ambientes, creando un entorno de mayor seguridad, disminuyendo emociones negativas para evitar un sentimiento de miedo, estrés o incomodidad, pero también tomando en cuenta factores externos, y encontrándose dentro de un ambiente controlado para encontrar puntos neutrales y que no afecten los resultados en los comportamientos, pero que aún no pueden garantizar si la emoción reflejada es la misma que está mostrando de manera corporal, puesto que no se está en evaluaciones psicológicas. En este trabajo se busca obtener los datos de las posturas de una persona frente a una cámara, para poder realizar una lectura de su lenguaje corporal a través de métodos de reconocimiento.



METODOLOGÍA

Con los requerimientos solicitados para el funcionamiento del programa y las librerías importadas para los puntos corporales, se asigna la cámara que utilizará el programa, siendo la del dispositivo o una externa para la detección de los 33 puntos de referencia del cuerpo. Para las opciones de configuración, se debe de convertir la imagen de BGR a formato RGB para evitar errores de visualización al momento de correr el programa. Se deben de crear varios arreglos en donde se almacenarán los 33 puntos del modelo corporal y las coordenadas en donde se encuentren cada uno de ellos, tomando en cuenta que se empieza desde el punto 0 al 32, todo en tiempo real y actualizándose conforme la persona se vaya desplazando en el área de la ventana donde la cámara puede detectarlo. Se determina el alto y ancho de la ventana para sacar la proporción de la imagen en el eje x o y de acuerdo con el ancho y alto con lo que corresponda. Los puntos se almacenan y el programa determinará con ciclos los puntos de interés (inicial y final) para calcular la longitud y definir un rango para determinar las emociones que puede presentar el sujeto de acuerdo con los puntos de referencia que se encuentren cercano a una posición clave. Al momento de ejecutar el programa, este solo mostrará el modelo en el punto en que se encuentre la persona, una vez detecte movimiento y si se llega a una posición en concreto de acuerdo con los rangos previamente definidos, mostrará la emoción que puede llegar a sentir el sujeto. Las emociones en base al lenguaje corporal fueron seleccionadas de documentos confiables, los cuales analizan la psicología humana, movimientos y/o posiciones comunes que pueden reflejar sentimientos característicos, aunque estos pueden variar de acuerdo con el momento o la situación en que se presente la persona.


CONCLUSIONES

La detección puede llegar a presentar algunos fallos por los rangos cortos que fueron determinados, debido a que son las primeras pruebas y requieren de condiciones más complejas para un mejor resultado, también puede no detectar las extremidades del cuerpo, a causa de la posición en la que se encuentre la persona o la iluminación de la habitación, llegando a generar incluso más detecciones de emociones cuando no se ha definido un movimiento en la posición en la que se encuentre. Se deben realizar más pruebas con diferentes personas y diferentes escenarios, en los cuales también se incluyan más puntos como los dedos de las manos y expresiones faciales.
Guerrero Hernandez Luis Alberto, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: M.C. Alfredo Ayala Ortega, Instituto Tecnológico Superior de Pátzcuaro

DESARROLLO DE APLICACIONES PARA LA MODERNIZACIóN, INNOVACIóN Y MEJORA DE LOS SERVICIOS ADMINISTRATIVOS DE UNA INSTITUCIóN EDUCATIVA IMPLEMENTANDO PRáCTICAS ACTUALES E INNOVADORAS DE INGENIERíA DEL SOFTWARE


DESARROLLO DE APLICACIONES PARA LA MODERNIZACIóN, INNOVACIóN Y MEJORA DE LOS SERVICIOS ADMINISTRATIVOS DE UNA INSTITUCIóN EDUCATIVA IMPLEMENTANDO PRáCTICAS ACTUALES E INNOVADORAS DE INGENIERíA DEL SOFTWARE

Guerrero Hernandez Luis Alberto, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: M.C. Alfredo Ayala Ortega, Instituto Tecnológico Superior de Pátzcuaro



PLANTEAMIENTO DEL PROBLEMA

El Instituto Tecnológico Superior De Pátzcuaro tiene como objetivo desarrollar un ecosistema de aplicaciones para administrar las diferentes áreas de la institución y aplicar normas de calidad de software para garantizar la calidad en sus productos.



METODOLOGÍA

Se tomo como base y se implementó la metodología RUP (Rational Unified Process) la cual cuenta con las siguientes características: Requisitos análisis y diseño implementación pruebas Para asegurar la calidad en el proyecto se realizó un plan de aseguramiento de calidad se utilizaron las normas ISO/IEC 12207 Ingeniería de sistemas y software —Procesos del ciclo de vida del software, la norma ISO/IEC 9126-1 Ingeniería de software — Calidad del producto — Parte 1: modelo de calidad, la norma ISO/IEC 9126-2 Ingeniería de software - Calidad del producto - Parte 2: Métricas externas y la norma ISO/IEC 25000... De la norma ISO/IEC 12207 se tomaron los procesos necesarios para el ciclo de vida del software, procesos que se agrupan en siete grupos de procesos: Procesos de Acuerdo. Proyecto Organizacional-Procesos Habilitadores. Procesos del proyecto. Procesos Técnicos. Procesos de Implementación de Software. Procesos de soporte de software. Procesos de reutilización de software. De la norma ISO/IEC 9126-1 se tomó el modelo de calidad y las características que contiene para ser implementado al proyecto, en específico se tomó el modelo de calidad para la calidad externa e interna, el cual contiene seis características que a su vez se subdividen en subcaracteristicas. Funcionalidad Fiabilidad Usabilidad Eficiencia Mantenibilidad Portabilidad De la norma ISO/IEC 9126-2 se tomaron las métricas necesarias para evaluar las características y subcaracteristicas de la norma ISO/IEC 9126-1, y así validar el proyecto y asegurar su calidad. De la norma ISO/IEC 25000 se hizo un resumen de a que está dirigida cada norma que compone la familia de la norma ISO/IEC 25000. Se creo una tabla de procesos, la cual contiene los procesos para el proyecto y posterior mente se creó un modelo de procesos, con los procesos siguientes: Metas, políticas y reglas, recursos, entradas, salidas, actividades, métricas, funciones, esenciales, tipos de procesos, estructura, ficha de descripción, pasos, sub-pasos. El modelo de procesos posteriormente se validó con una métrica donde se califica la eficacia, importancia, utilidad y calidad. Se creo una tabla de requisitos con los siguientes requisitos, descripción, criterios de ajuste, dependencias, autor, historia, características, prioridad y restricciones. Después se validó cada requisito por separado con una rubrica donde se califica la eficacia, importancia, utilidad y calidad, después se ocupó un a métrica para validar la tabla entera con las mismas características eficacia, importancia, utilidad y calidad. Se creo un glosario con todos los conceptos necesarios del proyecto, el glosario se validó con una métrica donde se califica la eficacia, importancia, utilidad y calidad. Con toda esta información posterior mente se creó el documento para el plan de aseguramiento de calidad de software.


CONCLUSIONES

Durante el desarrollo del proyecto para implementar un ecosistema de aplicaciones en el Instituto Tecnológico Superior De Pátzcuaro, se aplicó la metodología RUP y se utilizaron normas de calidad de software para garantizar la calidad en el producto. La implementación de la metodología RUP permitió que el proyecto se estructurara en etapas definidas, y gracias a eso se logró una gestión efectiva del proyecto. Gracias a las normas que se utilizaron, se logró obtener una guía para evaluar y medir la calidad de producto final. En general con la implementación de las normas ISO/IEC y la metodología RUP, se busca garantizar la calidad de los productos desarrollados. Esta es una primera fase de diseño, se espera que posteriormente con el plan de aseguramiento de calidad de software se evalúen todos los productos resultantes.
Guerrero Palomares Lessly Yadira, Universidad Estatal de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PIRóLISIS DE MEZQUITE Y COCO A TRAVéS DE CONCENTRACIóN SOLAR


PIRóLISIS DE MEZQUITE Y COCO A TRAVéS DE CONCENTRACIóN SOLAR

Escobedo de la Cruz Glorialicia, Universidad de Sonora. Guerrero Palomares Lessly Yadira, Universidad Estatal de Sonora. Nolasco Martinez Jose Uriel, Benemérita Universidad Autónoma de Puebla. Zumaya Mercado Ciara Gabriella, Universidad de Guadalajara. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La producción de carbón vegetal se lleva a cabo a través de calentar la madera a altas temperaturas con una presencia mínima de oxígeno, cuyo resultado es un material combustible, poroso y con alto contenido en carbono que se aprovecha, mayoritariamente, como combustible, no solo de uso doméstico. A diferencia de la leña, el carbón tiene un mayor poder calorífico, no libera casi nada más que dióxido de carbono; ya que al combinarse el carbón del elemento con el oxígeno del entorno se forma esa reacción química. Sin embargo, su proceso de producción sigue siendo perjudicial hacia el ambiente, por lo que en este proyecto de investigación se busca obtener el mismo resultado mediante un proceso renovable en donde se aproveche la radiación solar en forma de energía solar térmica por concentración solar fototérmica para llevar a cabo la pirolisis de madera de mezquite y sustrato de coco. OBJETIVO  Obtener carbón vegetal mediante un proceso renovable, en este caso energía termosolar por concentración solar fototérmica, cumpliendo con el proceso de pirolisis para materia prima de madera de mezquite y sustrato de coco.



METODOLOGÍA

El proceso de pirólisis es la degradación térmica de una sustancia en ausencia de oxígeno, por lo que dichas sustancias se descomponen mediante calor, sin que se produzcan las reacciones de combustión. Para la obtención del carbón vegetal de coco y de mezquite se plantea el uso de tecnologías de energía solar. Las características básicas para realizar el proceso:  El único oxígeno presente es el contenido en el residuo a tratar. Las temperaturas de trabajo son inferiores a las de la gasificación, oscilando entre 400 °C, 600 ºC y 800 °C en las pruebas realizadas.   Uso de un reactor fijo de acero inoxidable.  Fuente de energía a través de concentración solar fototérmica. La energía que se utilizó para el proceso de la pirolisis es a base de la concentración solar fototérmica, por lo que se considera como un intercambiador de calor que transforma en energía solar a energía térmica a través de una concentración óptica. En la plataforma solar de Hermosillo se cuentan con varios tipos de concentración solar, pero para esta investigación se eligió enfocarse en un horno solar.  El sol es una fuente de energía distante que nos brinda radiación, dicha energía es la que utiliza el helióstato para reflejarla en el espejo parabólico de concentración. Una vez que la radiación es dirigida al concentrador estas son redirigidas hacia el foco de la parábola que en este caso es la posición o es la distancia a la que se encuentra nuestro reactor. Este factor es importante para saber la intensidad de radiación que va a recibir el reactor. En este caso para nuestra muestra se colocó a una distancia de 1.5 m del concentrador.  El análisis que se busca con el proceso de la pirolisis con la concentración solar a través de las distintas pruebas realizadas es ver el comportamiento de acuerdo con las tres temperaturas máximas que se consideraron y compararlos con los resultados obtenidos de cada muestra. A su vez también analizar el porcentaje de fracción volumétrica.  Como resultado del proceso se obtiene:  1. Gas, cuyos componentes básicos son CO, CO2, H2, CH4 y compuestos más volátiles procedentes del cracking de las moléculas orgánicas, así mismo con los ya existentes en los residuos. 2. Residuo líquido, compuesto básicamente por hidrocarburos de cadenas largas como alquitranes, aceites, fenoles, ceras formados al condensar a temperatura ambiente.  3. Residuo sólido, compuesto por todos aquellos materiales no combustibles, los cuales o bien no han sido transformados o proceden de una condensación molecular con un alto contenido en carbón, metales pesados y otros componentes inertes de los residuos.


CONCLUSIONES

A lo largo de nuestra estancia de verano se presentó un descubrimiento principal en la Plataforma Solar de Hermosillo que nos permitió obtener una aplicación de la energía termosolar en el proceso de pirolisis de mezquite y de coco, el cual nos ayudó a determinar las temperaturas y las tasas óptimas de calor a partir de la calidad química del carbón que se obtuvo, ya que según las diferentes variables de temperatura que manejamos se obtuvo una respuesta óptima en la liberación de gases (Metano, Monóxido de Carbono e Hidrogeno). Sin embargo, esta aplicación se obtuvo a base de la concentración solar que nos permitió aplicar metodologías novedosas y utilizar dispositivos especializados que son únicos en su tipo.
Guerrero Romo Ariadna Lizeth, Universidad Antonio Nariño
Asesor: Dr. Rene Cruz Guerrero, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo

DESARROLLO DE UN APLICATIVO SOFTWARE PARA EXAMINAR LAS SEÑALES ELECTROMIOGRAFICAS(EMG)


DESARROLLO DE UN APLICATIVO SOFTWARE PARA EXAMINAR LAS SEÑALES ELECTROMIOGRAFICAS(EMG)

Guerrero Romo Ariadna Lizeth, Universidad Antonio Nariño. Asesor: Dr. Rene Cruz Guerrero, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En Colombia y México, existen diversas enfermedades musculodegenerativas como la distrofia muscular de Duchenne, la distrofia muscular de Becker, la atrofia muscular espinal (AME), la distrofia miotónica tipo 1 y tipo 2, la enfermedad de Pompe y la distrofia facioescapulohumeral (FSHD). Diagnosticar estas enfermedades a tiempo es un desafío para los médicos debido a que los síntomas iniciales pueden confundirse con otras condiciones. La electromiografía (EMG) se ha convertido en una herramienta clave para el diagnóstico, evaluando la actividad eléctrica de músculos y nervios. Un diagnóstico temprano mediante señales electromiográficas permite abordajes médicos precisos y tratamientos específicos, incluyendo terapias de soporte, intervenciones farmacológicas, terapia física y ocupacional, e incluso acceso a terapias génicas emergentes en algunos casos.  



METODOLOGÍA

1. Recopilación de datos: Se recolectaron bases de datos existentes que contenían señales electromiográficas de diferentes patologías musculodegenerativas, como distrofia muscular, atrofia muscular espinal, distrofia miotónica, entre otras. Estos registros previamente diagnosticados por expertos médicos proporcionaron la información necesaria para entrenar y evaluar la red neuronal. 2. Preprocesamiento de datos: Antes de utilizar los datos en el entrenamiento, se sometieron a un proceso de preprocesamiento para eliminar ruido y artefactos, así como para normalizar y estandarizar las señales, asegurando así su calidad y uniformidad.   3. Creación de la red neuronal convolucional (CNN): Se desarrolló una red neuronal convolucional utilizando técnicas de aprendizaje profundo. Esta CNN fue diseñada para aprender y reconocer patrones específicos en las señales electromiográficas, lo que permitiría identificar el tipo de patología musculodegenerativa presente en cada muestra.   4. División de datos: La base de datos se dividió en dos conjuntos: un 80% para el entrenamiento de la CNN y un 20% para pruebas y evaluaciones del rendimiento.   5. Entrenamiento de la red neuronal: Se procedió a entrenar la CNN utilizando el conjunto de datos de entrenamiento. Durante esta fase, la red neuronal ajustó sus parámetros internos para mejorar su capacidad de reconocimiento y clasificación.   6. Evaluación y pruebas: Una vez finalizado el entrenamiento, se evaluó el rendimiento de la CNN utilizando el conjunto de datos de prueba. Se calcularon métricas de precisión, sensibilidad y especificidad para medir la eficacia de la red neuronal en la identificación correcta de cada tipo de patología.   7. Desarrollo del aplicativo: Con la red neuronal entrenada y validada, se procedió a desarrollar un aplicativo de análisis de señales electromiográficas. Este aplicativo permite a los usuarios cargar sus propias señales y obtener un análisis detallado sobre la posible patología musculodegenerativa presente en la muestra.   8. Prueba del aplicativo: Se realizaron pruebas exhaustivas del aplicativo utilizando señales electromiográficas de pacientes con diferentes patologías musculodegenerativas. Se verificó la precisión y fiabilidad del aplicativo para proporcionar un diagnóstico adecuado.   El resultado final es un aplicativo confiable que brinda a los profesionales médicos una herramienta de apoyo valiosa para el diagnóstico temprano y preciso de patologías musculodegenerativas mediante el análisis de señales electromiográficas. Este enfoque puede mejorar significativamente el manejo y tratamiento de estas condiciones médicas, contribuyendo así a mejorar la calidad de vida de los pacientes afectados.


CONCLUSIONES

En conclusión, la metodología descrita en este estudio permitió abordar el desafiante problema del diagnóstico temprano de diversas patologías musculodegenerativas en Colombia y México. La utilización de bases de datos existentes y el desarrollo de una red neuronal convolucional (CNN) demostraron ser una estrategia efectiva para identificar y clasificar diferentes tipos de enfermedades musculares mediante el análisis de señales electromiográficas. El enfoque de la CNN en el análisis de patrones en las señales electromiográficas mostró resultados prometedores en la detección precisa de las patologías evaluadas. La creación de un aplicativo adicional, basado en la red neuronal entrenada, representa una herramienta de apoyo valiosa para los profesionales médicos, facilitando la interpretación y análisis de las señales electromiográficas de pacientes con sospecha de enfermedades musculodegenerativas. Un diagnóstico temprano de estas enfermedades es crucial para proporcionar un tratamiento oportuno y adecuado, lo que puede mejorar significativamente la calidad de vida de los pacientes afectados y evitar el avance descontrolado de las patologías hasta un punto en el que los tratamientos convencionales resulten obsoletos. Además, este enfoque respalda la investigación médica y tecnológica en el campo de la neurología y el aprendizaje profundo, fomentando la búsqueda de nuevas soluciones para abordar los desafíos de la medicina neuromuscular. En última instancia, la implementación de esta metodología podría tener un impacto positivo en la atención médica de pacientes con patologías musculodegenerativas en Colombia, México y más allá, brindando la posibilidad de un diagnóstico temprano, tratamientos más efectivos y una mejor calidad de vida para quienes enfrentan estas complejas condiciones médicas.
Guerrero Sánchez Jose Guadalupe, Instituto Tecnológico de Querétaro
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEÑO, DESARROLLO Y CONTROL DE UN SIMULADOR BASADO EN LA CONFIGURACION DE UN ROBOT SCARA DE 3GDL


DISEÑO, DESARROLLO Y CONTROL DE UN SIMULADOR BASADO EN LA CONFIGURACION DE UN ROBOT SCARA DE 3GDL

Guerrero Sánchez Jose Guadalupe, Instituto Tecnológico de Querétaro. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de un simulador de brazo robótico de 3 grados de libertad con control adaptable para el seguimiento de trayectorias deseadas enfrenta varios desafíos y cuestiones que deben abordarse para lograr los objetivos de la investigación, donde se requiere una representación matemática precisa del brazo robótico de 3 grados de libertad para realizar una simulación eficiente. El modelado debe capturar la cinemática y la dinámica del brazo para obtener resultados realistas. La comunicación bidireccional entre MATLAB y SolidWorks es fundamental para establecer un vínculo sólido entre el controlador y el simulador. La integración debe ser estable y eficiente para permitir una interacción fluida.  El controlador debe ser capaz de adaptarse a diferentes trayectorias deseadas y condiciones de funcionamiento. Se debe investigar y desarrollar algoritmos de control adecuados que permitan un seguimiento preciso de las trayectorias y un rendimiento óptimo del brazo robótico. Es necesario realizar pruebas y análisis exhaustivos para evaluar la precisión y la eficacia del simulador y del controlador. Se deben definir métricas de rendimiento adecuadas para medir la calidad del seguimiento de trayectorias y la estabilidad del brazo robótico.



METODOLOGÍA

1. Diseño del plan de estudios El primer paso fue diseñar un plan de estudios que abarcara los temas fundamentales en robótica, sistemas mecatrónicos y control adaptable. Este plan incluia la metodología Euler-Lagrange para el modelado dinámico de sistemas, el control proporcional-derivativo (PD) con compensación de gravedad, la Transformada de Laplace, el algoritmo Denavit-Hartenberg y la teoría de Lyapunov para el análisis de estabilidad. 2. Clases teóricas y prácticas. Se impartieron clases teóricas para presentar los conceptos fundamentales en cada tema. Además, se realizaron sesiones prácticas en las que pudimos aplicar los conocimientos adquiridos a través de ejercicios y problemas relacionados con robótica y control. 3. Aprendizaje de herramientas prácticas  Se nos proporciono a los estudiantes la capacitación necesaria para utilizar herramientas prácticas como LaTeX, que fue utilizado para realizar tareas y reportes de investigación. También se enfatizo en el uso de software específico para el modelado (SolidWorks) y simulación (matlab) de sistemas robóticos y mecatrónicos. 4. Estudio de casos y aplicaciones prácticas Para comprender la relevancia y aplicabilidad de los conceptos aprendidos, se analizaron casos de estudio y ejemplos de aplicaciones prácticas en el campo de la robótica y sistemas mecatrónicos. Estos ejemplos ayudaron para ilustrar cómo los conocimientos teóricos se traducen en soluciones prácticas. 5. Proyectos de investigación  Se asignaron proyectos de investigación a los estudiantes para aplicar y profundizar los conocimientos adquiridos. Estos proyectos incluyen el diseño y simulación de sistemas robóticos específicos, la implementación de controladores PD con compensación de gravedad o la aplicación de la teoría de Lyapunov para el diseño de sistemas adaptables y estables. 6. Evaluación del aprendizaje Se realizaron evaluaciones periódicas para medir el progreso de los estudiantes en el dominio de los conceptos teóricos y prácticos. Las evaluaciones fueron mediante presentación de proyectos y reportes de investigación. 7. Retroalimentación y mejora continua  Se fomento la retroalimentación a nosotros los estudiantes para mejorar la calidad del proceso de enseñanza-aprendizaje. Se realizaron ajustes en el plan de estudios y las estrategias pedagógicas según las necesidades y comentarios de los estudiantes. 8. Análisis de resultados y conclusiones  Al final del proceso de enseñanza, se analizaron los resultados obtenidos por los estudiantes en términos de conocimientos adquiridos y habilidades desarrolladas en robótica, sistemas mecatrónicos y control adaptable. Se presentaron conclusiones sobre la efectividad del enfoque pedagógico y se identificarán áreas de mejora para futuras implementaciones.  


CONCLUSIONES

En nuestra estancia se cubrieron los temas vistos, como lo son, las clases teóricas y prácticas, el aprendizaje de herramientas prácticas, estudios de casos y aplicaciones prácticas, proyectos de investigación, evaluación del aprendizaje y retroalimentación. Por lo tanto, se cumplió con cada uno de los puntos definidos. La adquisición de este conocimiento de esta área (control y robótica), nos aporta como estudiantes herramientas que se pueden implementar a sistemas de control de péndulos o robots de n grados de libertad, para diversas aplicaciones de ingeniería.
Guevara Pérez Citlalli, Universidad Politécnica de Texcoco
Asesor: Dra. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

MODELO DE SIMULACIóN EN SIMIO DE LA DISTRIBUCIóN DE LA AYUDA HUMANITARIA DE LA CIUDAD DE MéXICO AL ESTADO DE TABASCO.


MODELO DE SIMULACIóN EN SIMIO DE LA DISTRIBUCIóN DE LA AYUDA HUMANITARIA DE LA CIUDAD DE MéXICO AL ESTADO DE TABASCO.

Guevara Pérez Citlalli, Universidad Politécnica de Texcoco. Asesor: Dra. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

La simulación es un proceso el cual se basa en un sistema para simular un proceso de algún modelo en particular ya sea real o imaginario, así mismo, la simulación se basa en percibir las capacidades y los comportamientos de dichos sistemas, ya sea para asimilar los costos, los riesgos y algunos limitantes que se puedan tener. La simulación es una herramienta la cual nos permite dar soluciones a un problema en específico, evaluar el comportamiento de los materiales, delimitar las capacidades y evaluar el comportamiento. (Méndez Páez, 2017) El presente estudio de modelo de simulación se basa en la distribución de la ayuda humanitaria ante eventos hidrometeorilogicos de la CDMX al estado de Tabasco. Se tomó como base el estado de Tabasco ya que la principal problemática ante la alta vulnerabilidad a las inundaciones de esa entidad se debe, entre otros factores, a la presencia de asentamientos humanos en zonas de riesgo; y la disminución de la capacidad de los causes; así como a la falta de infraestructura hidráulica de control en los ríos de la sierra, Usumacinta y Carrizal y de un plan integral de manejo de crecientes.  



METODOLOGÍA

Para llevar a cabo el modelo de simulación en SIMIO se realizó la metodología de Law & Kelton la cual consiste en 10 pasos, pero por el poco tiempo se llegó únicamente al paso 4. Dentro de los 4 pasos realizados, el primer paso fue la formulación del problema en el cual se realizó la formulación del problema en el cual se obtuvo los factores que generan las inundaciones de la planicie tabasqueña, los cuales destacan el sistema de ríos que bajan de la sierra, cuyo curso pasa por las inmediaciones de Villahermosa, y el río Usumacinta, que generan escurrimientos sin control, así mismo se realizó un criterio de comparación en el cual para la realización adecuada del estudio de simulación se contó con el apoyo del artículo de investigación sobre la “Distribución de la ayuda humanitaria ante eventos hidrometeorológicos en México”, realizado por la alumna Citlalli Guevara Pérez de la Universidad Politécnica de Texcoco, además que se recopilo diversa información en diferentes artículos, revistas, etc. El segundo paso se realizó la recolección de datos, en el cual se trabajó con la Identificación de variables de entrada, las variables dentro de la distribución de la ayuda humanitaria ante eventos hidrometeorologicos en México son: Tiempo de armado en los kits Tiempo de respuesta Centros de distribución (cantidad) Tiempo de distribución de la ayuda Tiempo de transporte (de la ciudad de México a tabasco) Tiempo que los kits pasan en el campo marte Así mimo es importante tener en cuenta que el tipo de transporte a utilizar es helicóptero, es por ello que el tiempo de recorrido que se tomara en cuenta es desde el campo marte hasta llegar a la zona afectada. En el paso 3 se realizó la verificación del modelo en el cual se analizó el modelo con personas familiarizadas con la operación del sistema. En este caso se utilizó diferentes artículos, principalmente el artículo de “Modelo de asignación y distribución de recursos de ayuda humanitaria de la Cruz Roja a nivel nacional.” En el cual se obtuvo la información de un modelo matemático para la asignación y distribución de ayuda humanitaria, con las siguientes características: minimiza el costo y tiempo de entrega, asignación de recursos, evaluar la utilidad y robustez del modelo, identificar las bodegas más utilizadas por la Cruz Roja en la distribución de ayuda, determinar los parámetros significativos para el costo y el tiempo de distribución. También se realizó un diagrama de flujo en el cual inicia con la solicitud de la ayuda, la ayuda se da gracias a los proveedores y los voluntarios los cuales dan los suministros, una vez teniendo los suministros de llevan al campo marte en el cual se hace el armado de los kits, finalmente se lleva a cabo todo el proceso de distribución para que la ayuda llegue al estado de tabasco. Finalmente se llevó a cabo el paso 4, en el cual se realizó la construcción del programa, en el cual la traducción del modelo conceptual se pasa al lenguaje de programación en el simulador  


CONCLUSIONES

Durante las 7 semanas trabajando en mi proyecto aprendí el funcionamiento básico del simulador SIMIO, el cual es un programa en donde se pueden realizar múltiples simulaciones versátiles, así mismo es capaz de modelar sistemas complejos como lo es el proceso de la distribución de la ayuda humanitaria, sin embargo otro gran conocimiento que adquirí fue la metodología de simulación, ya que siguiendo los 10 pasos que se toman en cuenta en dicha metodología pude obtener mis datos y poder pasar al modelo de simulación.  A lo largo de la estancia de verano, logre adquirir grandes conocimientos teóricos sobre la ayuda humanitaria donde la adquisición de estos conocimientos se llevó a cabo mediante investigaciones que realice a partir de otros artículos de divulgación y científicos para la obtención de la información requerida, aunque por el momento los saberes obtenidos únicamente fueron teóricos se espera que dicha adquisición sea útil para que con el tiempo se logre realizar un trabajo de manera teórico y práctico. Así mismo, durante en el proceso de estancia se pudo obtener una adecuada enseñanza sobre el cómo realizar una investigación de divulgación, pero sobre todo adquirí el conocimiento sobre la simulación en el programa SIMIO, en el cual pude aprender el lenguaje de simulación y el cómo poder llevar traducción del modelo conceptual al lenguaje de programación en el simulador para poder llevar a cabo el modelo de simulación.
Guexpal Tepox Adrián, Instituto Tecnológico Superior de Xalapa
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

PROTOTIPO IOT PARA EL MONITOREO Y CONTROL REMOTO DE VARIABLES ELéCTRICAS EN ASPERSORES DE AGUA UTILIZADOS EN SECTOR MINERO PARA LA DISMINUCIóN DE POLUCIóN.


PROTOTIPO IOT PARA EL MONITOREO Y CONTROL REMOTO DE VARIABLES ELéCTRICAS EN ASPERSORES DE AGUA UTILIZADOS EN SECTOR MINERO PARA LA DISMINUCIóN DE POLUCIóN.

Duran Cejudo Carlos Omar, Instituto Tecnológico Superior de Xalapa. Guexpal Tepox Adrián, Instituto Tecnológico Superior de Xalapa. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Las actividades de la industria minera en Colombia (principalmente en la extracción de carbón) generan un impacto negativo relacionado con la contaminación del aire a partir de las partículas liberadas a la atmósfera, cuya toxicidad depende del tamaño de las mismas, y de varios factores, tales como su naturaleza química, presencia de metales/metaloides traza, entre los cuales son comunes el plomo, cadmio, níquel, mercurio y arsénico, entre otros [1]. Atendiendo esta problemática desde el punto de vista tecnológico se colocaron distintos aspersores capaces de rociar agua alrededor del área donde esta actividad se lleva a cabo y lograr que las partículas no se esparzan por el aire. Al día de hoy esto ocurre de manera relativamente eficiente, ya que el accionamiento de estos dispositivos se lleva a cabo de forma manual. Lo que se busca es mejorar el proceso para que se lleve a cabo de manera automática al hacer el accionamiento desde un software capaz de realizar la acción. El desarrollo del prototipo descrito es una combinación efectiva entre hardware existente programable con tecnología LoRaWAN y una ejecución efectiva de esta misma. Cuidando los aspectos anteriores se pretende hacer una optimización de recursos, tareas e impactos en el ambiente y en la sociedad; logrando que la contaminación disminuya a través de un uso totalmente eficiente del internet de las cosas.



METODOLOGÍA

Se utilizo el DLOS8 Outdoor LoRaWAN como dispositivo gateway, dicho dispositivo esta conectado por medio de WiFi. Partiendo de ello, esté genera automáticamente una red WiFi; la contraseña ocupada para realizar la conexión es una genérica por parte del fabricante, en nuestro caso es Dragino. Por ende, la contraseña a ocupar fue dragino+dragino; para la configuración por medio de WiFi se realiza por medio de navegador entrando a la dirección IP 10.130.1.1 La interfaz de inicio de sesión del DLOS8 pide una cuenta para ingresar y poder realizar las configuraciones correspondientes, dichas credenciales son User Name: root; Password: Dragino El Gateway se conecta a una red de internet para poder tener comunicación con LoraWAN y así poder registrarse a la página de TTN (The Things Network), al momento de tener la conexión con una red de internet éste genera que el led de estado cambia a un verde estático. Gateway La creación del gateway en el servidor de TTN, empieza por la obtención de su ID desde su interfaz local, el cual se encuentra en el apartado de LoRaWAN. La página de TTN nos permitirá ingresar ese ID para enlazarlo a su servidor, por lo cual se ingresa con una cuenta previamente registrada que tenga las características idóneas para la implementación del prototipo. Una parte muy importante dentro de la página TTN es la elección del Cluster Picker, ya que tanto como el gateway y el dispositivo final (Controlador I/O) correspondan a una dirección de servidor de puerta de enlace específica, dicha información se encuentra en las páginas de los proveedores, en nuestro caso práctico ambos son Australia 1 (au1.cloud.thethings.network) La dirección del servidor de puerta de enlace debe coincidir con la configuración de la puerta de enlace; de lo contrario, tendrá problema para que el nodo final se una a la red. En la interfaz local del gateway se realizan ajustes en el plan de frecuencia del DLOS8 para que coincida con el nodo final que usamos, para que reciba los paquetes LoRaWAN del sensor LoRaWAN. Controlador I/O LoRaWAN Agregar un dispositivo final LoRaWAN a una red LoRaWAN nos permite observar los datos del sitio web de TTN. Partiendo desde la pestaña de aplicaciones de la página principal de TTN, en la cual se crea una nueva aplicación la cual solicitara datos de identificación únicamente. Al tener la aplicación creada, se prosigue a la creación del dispositivo final, para poder crearlo de forma correcta se necesitan las credenciales correspondientes, dicha información debe encontrarse dentro de la caja donde se encuentre el dispositivo, en la investigación se ocupó el LT-22222-L IO Controller; dentro de la caja donde se encuentra el dispositivo debe tener esta informacion: •    DEV EUI: código de identificación único para un dispositivo en particular. •    APP EUI: código de identificación para una aplicación definida en TTN v3. •    APP KEY: clave única para asegurar las comunicaciones con un dispositivo en particular. Algunas credenciales e información importante se pueden obtener por medio de comandos AT, dicha comunicación para ingresar dichos comandos es por medio de un conversor USB a TTL y por medio de la consola del software Serial Port Utility. Al tener toda la información necesaria del dispositivo para su registro en la página TTN, podemos encontrar diferentes apartados los cuales permiten el monitore de las señales TX y RX, las cuales nos indican el envió y la recepción de datos que se realiza entre el gateway y el dispositivo final cada determinado tiempo, cabe aclarar que ese intervalo de tiempo de igual forma puede ser manipulado por medio de los comandos AT. Finalmente, el apartado de Payload formatters enviar cargas significativas para el encendido o apagado de las E/S que contiene el controlador LT-22222-L IO Controller, en nuestro caso practico la carga se escribe en formato hexadecimal en el subapartado de Downlink, dicha carga fue la siguiente 03 00 00 en el FPort 2, para así encender una salida de relevador.


CONCLUSIONES

Una vez realizadas las pruebas anteriores se obtiene un ecosistema digital amigable entre el usuario y los diferentes componentes utilizados con la tecnología del internet de las cosas. Esta combinación de recursos permite un mejor manejo del controlador LT-222222-L el cual una vez programado y listo para usarse a un efector final podrá llevar a cabo tareas como encendido y apagado del dispositivo a conectar, monitorear diferentes variables que puedan llegar a ocuparse y por supuesto como resultado: automatizar procesos que anteriormente se llevaban de manera manual.
Guillen Castro Thania Judith, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre

ANALíTICA DE DATOS EN NúMERO DE ZONAS DE CARGUE Y DESCARGUE PúBLICAS, SEñALIZADAS Y ADAPTADAS AL TIPO DE VEHíCULO E INFRAESTRUCTURA DE RECIBO DE MERCANCíAS, VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.


ANALíTICA DE DATOS EN NúMERO DE ZONAS DE CARGUE Y DESCARGUE PúBLICAS, SEñALIZADAS Y ADAPTADAS AL TIPO DE VEHíCULO E INFRAESTRUCTURA DE RECIBO DE MERCANCíAS, VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.

Guillen Castro Thania Judith, Instituto Tecnológico de Ciudad Juárez. Orozco Ortega Wendy Elizabeth, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Considerando la gran relevancia que tiene para Bogotá D.C. el corredor logístico Avenida Centenario conocido como calle 13 que hace posible el suministro de bienes y servicios en toda la zona, y en especial nos concentramos en transporte de alimentos y productos agrícolas, lo que genera una entrada de 12.514 camiones y salida de alrededor de 12.744 camiones, incrementando el volumen vehicular de carga pesada en el sector. Este corredor no se encuentra en condiciones óptimas, para albergar tan alto flujo vehicular, estas condiciones se ven reflejadas en la mala señalización, deficiente demarcación vial, no existen andenes delimitados, así como los factores tanto culturales, logístico y de infraestructura que influyen en la deficiente movilidad. Estos vehículos generan así congestionamiento vial, lo que a su vez influye en diversas problemáticas, que reflejan una situación cada vez más compleja, en donde no solamente se ven impactadas la calidad de vida, sino, la productividad y competitividad del sistema productivo presente en la zona.



METODOLOGÍA

Inicialmente se realizó la selección de artículos relevantes para poder recopilar información específica de las zonas ideales de cargue y descargue, y posteriormente se realizó una ficha metodológica que nos proporcionó información resumida y concreta, para definir los puntos a detallar. Durante el proceso de investigación y análisis de la información inicial se procedió a ubicar y caracterizar el tramo vial del estudio de acuerdo a los flujos de tránsito actuales sobre el corredor, con el apoyo de Google Earth se realizó el mapeo de los principales puntos seleccionados a investigar y con la ayuda de Microsoft Forms se realizó la recopilación de información mediante una lista de chequeo. En este mismo contexto tomamos en cuenta los siguientes parámetros para la lista de chequeo, es decir, la zona de cargue y descargue cuenta con… Rampa nivelable: Dispositivo fijo o móvil destinado a cubrir el espacio entre un muelle de carga. Topes para evitar el golpeo de los vehículos de carga. Guías para el parqueo adecuado de vehículos de carga. Sistema de bloqueo de vehículos para evitar su movimiento durante la operación. Sistemas electrónicos de señalización: Conjunto de señales lumínicas y acústicas que, por una parte, indican al operario del muelle si se puede iniciar la carga o descarga. La iluminación necesaria para la operación. Señalización del tiempo especifico de permanencia para la operación. Suficiente área para la operación. Calidad de pavimento ideal para la operación. Mediante la revisión y el levantamiento de información del sitio se pretendió validar los riesgos en el momento de operación ya que son parte fundamental del propósito del proyecto, que es iniciar un observatorio para uno de los principales ejes viales de transporte de carga en la ciudad de Bogotá ya que es primordial para generar información pertinente para la toma de decisiones del sector con el fin de mejorar el servicio y la eficiencia. El análisis estuvo enfocado en las características de la vía y su riesgo para los usuarios, así como la importancia de la correcta señalización de las zonas de cargue y descargue, ya que en ocasiones los lugares de destino de los productos o mercancías, no están acondicionados para recibir a los vehículos de carga, lo que incide en la descarga o carga de estos lo cual genera inconvenientes en el flujo vehicular.


CONCLUSIONES

Teniendo en cuenta los análisis y resultados anteriormente presentados, a partir de las encuestas y de la información obtenida, se identifico que el no contar con zonas adecuada para el desarrollo de estas actividades presenta grandes problemas como los que ya se encuentran vigentes hoy en día, es decir, el tiempo, trafico, accidentes, entre muchos otros más. Durante esta estancia encontramos algunas similitudes y diferencias en cuanto a la situación en nuestro país, que se podrían sugerir para remediar un poco la operación y esperamos avance significativo en el desarrollo del tablero de información.
Guillén Smith Fabiola Eugenia, Universidad de Sonora
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

ESTUDIO TEóRICO Y EXPERIMENTAL DE LA REMOCIóN DE MALATIóN DEL AGUA POR MEDIO DEL PROCESO HíBRIDO DE ELECTROCOAGULACIóN Y FENTON-LIKE


ESTUDIO TEóRICO Y EXPERIMENTAL DE LA REMOCIóN DE MALATIóN DEL AGUA POR MEDIO DEL PROCESO HíBRIDO DE ELECTROCOAGULACIóN Y FENTON-LIKE

Barajas Corral Ricardo Elías, Universidad Tecnologica de León. Castillo Burgos Liviet Daylin, Universidad de Sonora. Galvan Oviedo Cristal, Instituto Tecnológico de Matamoros. Guillén Smith Fabiola Eugenia, Universidad de Sonora. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El Malatión es un insecticida perteneciente a la familia química de los organofosforados, y a pesar de ser muy eficiente en su objetivo, presenta el gran inconveniente de no ser biodegradable, por lo que el agua contaminada con esta sustancia se vuelve altamente tóxica y no apta para el consumo humano o animal. A pesar de que existen diferentes métodos para tratar el agua contaminada, estos suelen ser costosos, tardados o requieren de terceras sustancias que también pueden ser nocivas. Es por esto que se ha abierto camino a investigaciones sobre nuevos tratamientos, entre ellos, el método de electrocoagulación.   La electrocoagulación es un proceso de tratamiento de aguas residuales que utiliza corriente eléctrica para remover sólidos suspendidos, contaminantes y materia orgánica presentes en el agua. En este proceso, la corriente eléctrica provoca la liberación de iones metálicos desde los electrodos, típicamente de aluminio o hierro, dentro del agua residual. Estos iones metálicos reaccionan con las partículas y los contaminantes presentes en el agua, formando flóculos que se adhieren a las partículas suspendidas, grasas y materia orgánica.​ El proceso de oxidación Fenton-like es una variante del proceso de oxidación Fenton, el cual es un método avanzado de tratamiento de aguas residuales que se utiliza para eliminar contaminantes orgánicos y compuestos tóxicos persistentes. El proceso Fenton original se basa en la reacción entre peróxido de hidrógeno (H2O2) y iones de hierro (Fe2+), generando radicales hidroxilos (•OH) altamente oxidantes; sin embargo, en esta investigación se utilizará cobre en vez de hierro. Estos radicales atacan y descomponen los contaminantes orgánicos presentes en el agua en moléculas más pequeñas y menos tóxicas.​ En esta investigación se busca reducir la presencia de Malatión comercial en el agua mediante procesos electroquímicos (electrocoagulación y Fenton-Like).



METODOLOGÍA

El proceso de electrocoagulación se llevó a cabo mediante un reactor tipo filtro prensa, compuesto principalmente de electrodos de aluminio, con una superficie de flujo de 64 cm2 y capacidad de 2 L. El proceso de preparación de las muestras a estudiar se llevó a cabo de la siguiente manera: Mezclar el Malatión comercial de alta concentración (1000 g/L) por lo menos dos veces para que quede totalmente homogéneo. Verter una base de agua destilada en los matraces de 1 L antes de incorporar el Malatión. Tomar con la micropipeta la concentración deseada de Malatión, verter a los matraces antes mencionados y agitar. Agregar 0.3 g de NaCl y 1.2 g de Na2SO4 a la solución. Finalmente, aforar y agitar hasta que las sales se disuelvan. Es importante mencionar que todos los materiales e instrumentos a utilizar deben de estar previamente lavados y desinfectados; además, no se debe de omitir el primer paso debido a que afecta considerablemente en los resultados. Antes de iniciar cada proceso de electrocoagulación se debe dar previo mantenimiento al reactor. El proceso de electrocoagulación se realiza entre 60 y 100 min, tomando muestras cada 20 min, después de concluir con este proceso, se deben dejar reposar las muestras por 24 horas aproximadamente, como resultado de esta espera, los flóculos se sedimentan y se puede observar a simple vista como la concentración de Malatión baja. Para cuantificar la pérdida de concentración del Malatión en la muestra, se mide la Demanda Química de Oxigeno (DQO) del agua tratada por medio de absorbancia. La preparación de los viales de DQO se realizó siguiendo el método estándar de dicromato de potasio. Las concentraciones de Malatión, así como las densidades de corriente para la electrocoagulación a estudiar fueron: 100 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2   200 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  250 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  500 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  1200 ppm a 2.5 mA/cm2, 5.5 mA/cm2, y 7.5 mA/cm2  Una vez que las muestras pasaron por el proceso de electrocoagulación se someten a un segundo proceso llamado Fenton-Like. Para este último, se utilizaron dos distintas densidades de corriente (5 y 10 mA /cm2).  El proceso de Fenton-Like se realiza entre 60 y 80 min, tomando muestras cada 20 min. Es importante destacar que se debe iniciar el proceso solo cuando la muestra tenga un pH de 5. Como en el proceso de electrocoagulación, las muestras obtenidas de Fenton-Like, también deben reposar aproximadamente 24 horas para después leer su DQO mediante absorbancia. Una vez llevada a cabo la parte experimental del proyecto se realizó una capacitación en COMSOL Multiphysics, esta es una herramienta que se utiliza para el modelado y análisis virtual de fenómenos físicos. Mediante este software se logró observar el comportamiento de la velocidad y la presión del fluido al pasar a través del reactor y a su vez como es que sucedía la transferencia de iones Al3+ hacia la solución de Malatión con respecto al tiempo de electrolisis.


CONCLUSIONES

Durante la estancia de verano, se logró reforzar conocimientos básicos sobre ingeniería química, así como, la adquisición de nuevos conocimientos teóricos y prácticos. Aunque el agua después de los procesos de electrocoagulación y Fenton- Like, aún conserva materia orgánica, derivada de las reacciones generadas en los mismos, el porcentaje de remoción del Malatión en el agua alcanzó valores de hasta el 60%. Los resultados se pudieron apreciar de una manera más fiel, por medio del modelado y simulación del fluido, así como las respectivas reacciones, en COMSOL Multiphysics. Y con la generación de gráficos, se llevó cabo un análisis numérico y estadístico para conocer los niveles de control y tolerancias de la remoción en sus respectivas concentraciones.
Gutiérrez Aguilar Daniel, Universidad Autónoma de Occidente
Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente

DISEñO DE UN DISPOSITIVO MEDIDOR DE GLUCOSA Y PRESIóN ARTERIAL EN TIEMPO REAL COMO USO EN LA MEDICINA PREVENTIVA


DISEñO DE UN DISPOSITIVO MEDIDOR DE GLUCOSA Y PRESIóN ARTERIAL EN TIEMPO REAL COMO USO EN LA MEDICINA PREVENTIVA

Gutiérrez Aguilar Daniel, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la diabetes y la hipertensión son causas principales de muerte prematura en el mundo a causa de su falta de seguimiento y control. Según la Organización Mundial de la Salud (OMS), el número de personas con diabetes pasó de 108 millones en 1980 a 422 millones en 2014. Por lo cual, la continua creciente que muestran las estadísticas mundiales en las últimas décadas, muestran que los métodos utilizados actualmente no son suficientes para disminuir mucho menos erradicar estas enfermedades, sin duda alguna, nos muestran la necesidad de un enfoque distinto, urgente y de gran prioridad, donde no solo nos preocupemos por contraatacar una enfermedad ya desarrollada (y sobre la cual actualmente según las estadísticas, hay poco margen de éxito) si no en trabajar por prevenir futuros casos además de ayudar a mejorar los ya existentes. La medicina preventiva es quizás el área de la medicina más subvalorado de la misma, el problema no está en la ciencia ni en las personas, si no en la falta de atención en desarrollar medios que ayuden a la creación de cultura y conciencia, una muy pequeña parte de la población mundial desarrolla una conciencia a base de cultura general sobre los cuidados necesarios para la prevención de este tipo de afecciones, mucho menos en países en vías de desarrollo. Además, aún no existe suficiente tecnología de uso común y de fácil acceso que asista a esta necesidad.



METODOLOGÍA

De acuerdo con la relevancia y el contexto del presente estudio, se plantearon diversos objetivos. Los métodos, técnicas e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en técnicas de investigación documental y de campo bajo una metodología mixta. Por lo cual, se investigó en diversas fuentes de información sobre las categorías de análisis, estadísticas y el desarrollo tecnológico que existe, donde se observó que es necesario el uso de nuevas técnicas para la medición de la glucosa en sangre e hipertensión.


CONCLUSIONES

Durante la estancia de verano se logró crear un diseño para la visualización de un prototipo. El diseño, está enfocado en medir la glucosa sin la necesidad de acceder a la sangre directamente mediante pinchazos, la técnica nueva se conoce como lectura de glucosa en líquido intersticial, el cual permite leer los niveles de glucosa en la sangre, con un retraso de entre 5 a 10 minutos, a través de un pequeño dispositivo circular del tamaño de una moneda que se coloca en la cara lateral exterior del brazo e introduce un pequeño filamento a nivel subcutáneo en el cual mediante una reacción enzimática se van midiendo los valores de glucosa intersticial cada 5 minutos, por último este dispositivo se enlaza de manera inalámbrica con un receptor que puede almacenar y usar la información descargada para ser mostrada en tiempo real. Tomando como referencia la actual tecnología en el uso de tensiómetros de muñeca, se investigó la creación de uno que pudiera estar a su vez configurado para realizar (en número y en horas definidas) lecturas de presión arterial, de igual manera este dispositivo será el que se comunicara con el dispositivo medidor de glucosa vía inalámbrica para la obtención y lectura constante de los datos obteniendo así toda la información en tiempo real sobre las lecturas del usuario, este también podrá comunicarse con un software que podrá hacer un uso más amplio de la información y con ello mostrar mediante valores de referencia en cuanto a sexo, edad, peso y las tendencias que el usuario lleva según sea el caso. Además, se pretende que el proyecto crezca, incluyendo la existencia de estas tecnologías con mayor extensión, pasando al campo practico e incluyendo otras disciplinas como la electrónica y/o robótica.
Gutiérrez Alarcón Miguel Angel, Instituto Tecnológico de Culiacán
Asesor: Dr. Andrés David Rodríguez Toscano, Universidad de la Costa

POTENCIAL ENERGéTICO DE LOS SISTEMAS DE REFRIGERACIóN POR ABSORCIóN DE SIMPLE EFECTO ACTIVADOS CON ENERGíA SOLAR EN MéXICO


POTENCIAL ENERGéTICO DE LOS SISTEMAS DE REFRIGERACIóN POR ABSORCIóN DE SIMPLE EFECTO ACTIVADOS CON ENERGíA SOLAR EN MéXICO

Gutiérrez Alarcón Miguel Angel, Instituto Tecnológico de Culiacán. Asesor: Dr. Andrés David Rodríguez Toscano, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el mundo se enfrenta a dos problemáticas interrelacionadas de gran magnitud: la crisis energética y el calentamiento global. La creciente demanda de energía para abastecer las necesidades de las sociedades modernas, combinada con la quema de combustibles fósiles, ha generado una grave crisis energética y ha conducido a un aumento en las emisiones de gases de efecto invernadero que contribuyen al calentamiento global y al cambio climático. Dentro de este contexto, el sector de la refrigeración y climatización representa una parte significativa del consumo energético global y es responsable de una parte sustancial de las emisiones de gases contaminantes. Los sistemas convencionales de refrigeración basados en combustibles fósiles y electricidad no renovable, además de ser costosos, contribuyen a la degradación ambiental y a la aceleración del cambio climático. Una alternativa prometedora para abordar esta problemática es la implementación de sistemas de refrigeración solar. Estos sistemas hacen uso de la energía solar, una fuente de energía limpia y renovable, para proporcionar enfriamiento de manera sostenible, eficiente y respetuosa con el medio ambiente. En este trabajo, se abordará el estudio y análisis de un sistema de refrigeración solar activado con colectores solares de tubos evacuados con ayuda de un modelo termodinámico en las ciudades de Culiacán, Guadalajara, Monterrey y Ciudad de México. Todo esto con el objetivo de evaluar la viabilidad de la implementación de sistemas de refrigeración solar como una solución sostenible y eficiente para abordar la crisis energética y contribuir a la lucha contra el calentamiento global en el ámbito global.



METODOLOGÍA

Se determinan las variables ambientales de cada ciudad, obteniendo los valores de temperatura e irradiación a través de la base de datos de PVGIS. Con estos valores se determina el ángulo óptimo de inclinación y la mayor irradiación que se puede esperar conseguir en los colectores solares de tubos evacuados al analizarlos por el modelo de Hay-Davis en el programa de Engineering Equations Solver. A continuación, se elige la configuración del sistema de absorción y se desarrolla un modelo termodinámico con las propiedades del enfriador Thermax LT-10C para similar el comportamiento que experimentaría bajo las condiciones del sitio. A través de los valores de irradiación se concluye el área mínima de los colectores solares necesaria para alcanzar las condiciones nominales del sistema de absorción. A partir del área mínima se examina el comportamiento anual y se genera el ahorro con el costo eléctrico que se obtendría al sustituir este sistema por el sistema de enfriamiento convencional. Se inicia la evaluación económica ejecutando el valor presente y el retorno de inversión. Se hace un muestreo de dos años del costo de energía eléctrica de la ciudad estudiada, con esto se genera una ecuación lineal y estima el costo de la energía eléctrica a través de la vida útil del sistema. Con el comportamiento anual del sistema y el costo de energía eléctrica se obtiene el ahorro total, y con ello se desarrolla el valor presente neto con una tasa del 3.5% y del 6%. Con el valor presente neto se adquiere una ecuación lineal para cada caso de estudio y se extrae el retorno de inversión. Se discuten los resultados y se llega a una conclusión. Para terminar, se recopila, se organizan las ideas y se analizan los datos para la redacción del borrador del artículo científico.


CONCLUSIONES

La refrigeración por absorción es una tecnología alternativa que está incrementando en el mercado. Toda tecnología tiene un proceso de adaptación y aceptación, todo esto depende de la implementación y factibilidad que tienen. Por ello, se hacen análisis de las variables las cuales no son constantes para determinar una saludable inversión. De acuerdo con la relación del área/capacidad el mejor lugar para su instalación seria la ciudad de Culiacán con 1.94 m2/kW, sin embargo, en el análisis del valor presente neto no fue igual. Esto se debe a que en el valor presente neto se consideran otras variables como lo son los costos, la tasa de interés y el tiempo de recuperación, mientras que en la relación solo se basa en la capacidad nominal y la irradiación del sitio. Aun así, puede ser un buen indicio para encontrar lugares potenciales para el desarrollo de sistemas de refrigeración por absorción. El retorno de inversión y el valor presente neto el lugar que mostro los resultados más prometedores fue la ciudad de México con un retorno de inversión de 13.47 años y un NPV de 480342.37 USD con una tasa de interés del 3.5%, siguiéndole Guadalajara con 14.14 años y 474220.76 USD, luego Culiacán con 14.23 años y 475844.23 USD, para terminar con Monterrey con 18.40 años y 2601.83 USD. En adición, Monterrey también mostro el resultado menos favorable en la relación de m2/kW teniendo un valor de 2.31 m2/kW de capacidad de refrigeración. Monterrey es una ciudad con mucha nubosidad a través de todo el año además de contar con una naturaleza de superficie montañosa lo que dificulta aún más la incidencia de los rayos del sol en la ciudad. Ciudad de México obtuvo el primer lugar debido a los altos valores de irradiación y costos de la electricidad en el mercado, por consiguiente, Guadalajara continua en el siguiente escalón, y Culiacán a pesar de contar con una irradiación media mayor y altos niveles de temperatura no es suficiente para poder superar estas dos ciudades debido a que los bajos costos de la electricidad la limitan. Durante la estancia se logro adquirir conocimiento teórico de los sistemas de refrigeración por absorción y metodología para la evaluación económica de proyectos, además de obtener habilidades practicas en el manejo del software Engineering Equations Solver.
Gutiérrez Alcantar Maria Guadalupe, Universidad Tecnologica de León
Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León

SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)


SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)

Andrade de Pro Carlos René, Universidad Tecnologica de León. Gutiérrez Alcantar Maria Guadalupe, Universidad Tecnologica de León. Gutierrez Perez Brenda Esmeralda, Universidad Tecnologica de León. Hernandez Tavares Sergio, Universidad Tecnologica de León. Zendejas Gutierrez Simón Jonathan, Universidad Tecnologica de León. Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La Universidad Tecnológica de León (UTL) es una institución educativa pública de educación superior, fundada en 1995. La universidad cuenta con diversas áreas que dan apoyo al área académica, una de ellas es, la Dirección de Desarrollo Académico y Docente (DAyD) quién ha presentado la necesidad de automatizar la gestión de los procesos de Innovación educativa y de Formación académica debido a la creciente demanda de sus servicios, así como, la necesidad de implementar nuevos procesos que se tienen planeados. Cabe mencionar que la UTL cuenta con un Sistema de Información Táctico Operativo (SITO) que controla gran parte de los procesos académicos y de gestión, por lo que sería necesario que la creación de este sistema conviva con los datos que el SITO ya produce, pero que se conserve como un sistema independiente.



METODOLOGÍA

Tomando en cuenta el planteamiento del problema se decidió implementar la metodología de desarrollo de software denominada Ciclo de Vida Cascada con la variación del modelo V. Esta fusión de metodologías nos va obligando a realizar verificaciones y validaciones constantes del desarrollo del producto pasando por cada una de sus fases: Análisis, Diseño, Desarrollo, Pruebas, Cierre. Obteniendo como resultado un producto con la calidad esperada por el equipo y por las clientes. Adicional a la metodología, en cada fase se implementaron buenas prácticas de desarrollo de software como lo son: Técnicas de recolección de requerimientos, gestión de requerimientos, diseño UML, diseño de interfaces, generación y aplicación de estándares de desarrollo, pruebas unitarias, pruebas de integración, verificaciones y validaciones, La solución técnica para el proyecto consistió en el uso de las siguientes herramientas: SQL-server, HTML, JavaScript, JSP, XML y Vuetify. Se pretende que este sistema sea alojado en la nube de Azure, sin embargo, la pruebas en la nube ya no corresponden al alcance de este proyecto.  


CONCLUSIONES

Se cumplieron los objetivos y alcance señalado por nuestras clientes, gracias a la colaboración y compromiso tanto de las clientes como por el equipo. Dedicar tiempo no solo de desarrollo sino también de verificación y validación nos permitió un avance más certero y confiable. Se hizo una exposición final y la entrega de la Línea Base de Cierre a la Jefatura de Sistemas Informáticos quiénes serán los responsables de la instalación y mantenimiento del sistema.  
Gutiérrez Altamirano Andrea, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango

PROPUESTA DE COMERCIALIZACIóN DEL HONGO SETA EN LA REGIóN DE HUAUCHINANGO PUEBLA


PROPUESTA DE COMERCIALIZACIóN DEL HONGO SETA EN LA REGIóN DE HUAUCHINANGO PUEBLA

Gutiérrez Altamirano Andrea, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Huauchinango, Puebla, es una región recientemente interesada en abordar todo lo referente a la venta y producción de hongo seta. Aunque esta actividad puede tener beneficios económicos y culturales para la comunidad, también enfrenta diversas problemáticas logísticas y ambientales que pueden afectar tanto a los productores como al medio ambiente. Algunas de estas problemáticas incluyen: Infraestructura de transporte: La falta de infraestructura adecuada de transporte puede dificultar la distribución eficiente de los hongos y setas desde las áreas de producción hasta los mercados o centros de distribución. Carreteras en mal estado o la ausencia de sistemas de transporte adecuados pueden generar retrasos y aumentar los costos logísticos. Empaque y almacenamiento: El manejo inadecuado de los hongos durante el proceso de empacado y almacenamiento puede llevar a la pérdida de calidad y frescura, lo que impacta negativamente la comercialización de los productos y reduce el valor agregado. Capacitación y conocimiento técnico: La falta de capacitación y acceso a conocimientos técnicos actualizados puede limitar la implementación de buenas prácticas agrícolas y técnicas de producción más eficientes. Mercados y precios: La concentración de intermediarios en la cadena de distribución puede llevar a una disminución en los precios pagados a los productores y reducir su margen de ganancia. Competencia desleal: La competencia con productos de baja calidad o importados a precios más bajos puede dificultar la comercialización de los hongos locales.



METODOLOGÍA

Para la elaboración del presente proyecto fue necesario plantear principalmente nuestra Definición del problema y objetivos: Identificando claramente el propósito del proyecto. ¿Qué quiero saber sobre el mercado de hongo seta en Huauchinango? ¿Cuáles son los objetivos de investigación? Por ejemplo, podría ser entender la demanda y oferta del hongo, analizar la competencia en el mercado local o evaluar las diferentes formas de venta disponibles. Recolección de datos: Investigue sobre el hongo seta y el mercado en Huauchinango. Recopile información a través de fuentes secundarias como informes, estudios, artículos ya hechos en otros estados sobre estadísticas referentes a los problemas anteriormente descritos. Estudio del consumidor: Buscamos las preferencias y hábitos de consumo de los clientes en Huauchinango en relación con el hongo seta. Esto para ayudará a adaptar las estrategias de comercialización. Evaluación de canales de venta: se examinó los diferentes canales de venta utilizados actualmente para el hongo seta, como mercados locales, tiendas de abarrotes, restaurantes y ventas en línea. Salmones (2017) considera que el cultivo de hongos comestibles es una actividad con grandes beneficios económicos, ecológicos y nutricionales, considerando esto se hizo una ardua investigación para recabar información estadística sobre las mejores maneras de cosechar el hongo, su empaque y su embalaje para transportarlo, aunque conseguimos muy poca información referente de la venta del hongo zeta, en Huauchinango encontramos información sobre la venta y distribución de este hongo en lo que es en Chihuahua, lo que ayudó a encontrar algo de información sobre qué mercado está involucrado especialmente en la venta del hongo seta. Como se encontró que la mayoría de las personas que compran el hongo seta son de una economía estable, no tan pobre, no tan rica, como que la mayoría compran personas preocupadas por el consumo de productos orgánicos ricos en proteína y que sean frescos. Una de las desventajas que tenemos al vender el hongo seta fuera de nuestra región, ya que en nuestra región es muy húmeda y algo calurosa, lo que favorece su producción y venta en la región, pero para venderlo fuera de la región hay que investigar más profundamente su mejor embalaje para que el producto siga manteniendo sus características físico-orgánicas para que sean más atractivos al público en general.


CONCLUSIONES

Podemos concluir con que esta investigación fue bastante útil para lograr entender que en nuestro mercado debe de ser más investigado en cuestión la región de Huauchinango y en toda la República, puesto que la información para su distribución y venta del hongo seta es muy nula. La información de ciertas fuentes bibliográficas es de años posteriores, lo que no ayuda mucho a que la información sea de ayuda, se sugiere hacer más encuestas regionales en mercados y a personas de la región para tener una información más certera sobre el consumo y venta del hongo seta en nuestra región de huauchinango para obtener gráficos estadísticos más verídicos. Lamentablemente el tiempo de la investigación no fue suficiente y la difusión de nuestras encuestas no fue buena, por lo que se tuvo que hacer la investigación con solo fuentes de bibliografía y lograr una visión poco eficiente para obtener los resultados de la investigación del proyecto. En cuanto a nuestros objetivos logramos cumplir con el objetivo específico logrando proponer estrategias de manejo sostenible y buenas prácticas para la recolección, producción y comercialización de hongos seta, dando ideas como los es el transportar el hongo de manera enlatada, para un mejor transporte de este, al igual que se incluye las instrucciones de cómo es el mejor método de cosecha. Y me gustaría terminar citando que "El cultivo de hongos no es solo una ciencia, es un arte. Requiere paciencia, creatividad y un profundo respeto por la naturaleza." - Terence McKenna, el sembrar hongos setas es una gran actividad que no tiene como tal un método establecido para su cultivo ya que cada agricultor lo hace a su modo y dependiendo de las de las condiciones en las que se encuentre para sembrar, pero siempre es bueno buscar ideas e información más reciente para un mejor resultado.
Gutiérrez Barrera Alejandro, Instituto Tecnológico de Morelia
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

LIBRO DE PROGRAMACIóN EN PYHTON PARA MEDIA SUPERIOR


LIBRO DE PROGRAMACIóN EN PYHTON PARA MEDIA SUPERIOR

Gutiérrez Barrera Alejandro, Instituto Tecnológico de Morelia. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La educación es una formación cuyos metodos de enseñanza han ido evolucionando con las diferentes generaciones, desde libros muy basicos hasta Inteligencias Artificiales. Los investigadores siempre han optado por apoyar esta educación ya sea con investigaciones o publicando articulos/libros. Pero, dichos libros/articulos siempre han sido publicados para gente de universidad, maestría y doctorado cuando ellos tienen un mundo amplio para encontrar lo que necesiten. La mayor problematica que se presentan en este tipo de analisis es que la gente de Preparatoria o Secundaria tiene excases de contenido, o bien el contenido puede llegar a ser confuso para ellos.



METODOLOGÍA

Se hizo un pequeño analisis en que es lo que los muchachos de esas edades les gusta en esta epoca, los resultados arrojaron que la mayoría de los estudiantes estan mas interesados y acostumbrados a lo que son las redes sociales y los videojuegos. Utilizando estos resultados se opto por realizar una estructura para el libro en el que de inicio para explicar el concepto de programación se optara por la metodología de la transdisciplinariedad que es un proceso en el que se explica dicho concepto pero visto desde varias ramas de la vida, algunas de ellas por ejemplo la computación, la matematica, la sociología, la psicología, la linguistica y la filosofía, esto nos ayuda a tener una idea mas clara de lo que es la programación y su importancia en la vida. Teniendo en cuenta los gustos de los estudiantes para explicar conceptos basicos de la programación como lo es la variable y tipos de datos, operaciones aritmeticas, de concatenación, lógicas, de asignación, las entradas y salidas de datos, condicionales, bucles y control de bucles se utilizaron ejemplos relacionados a los videojuegos y las redes sociales. Como en todo y muchas veces con la pura teoria no basta para tener claro a lo que estamos jugando, por eso despues de los conceptos basicos se escriben en lenguaje de programación Python tres sencillos ejercicios y entendibles donde se utiliza todo lo visto. Esto les ayudara a los estudiantes de secundaria y prepa entender mejor la programación ya que relacionaran lo que mas les gusta en su vida diaria con este mundo de la programación, por eso para finalizar se da una pequeña introducción a lo que son las bases de datos para en una segunda edición continuar con estos temas mas complejos.


CONCLUSIONES

Durante la estancia del verano de investigacion se logro obtener un libro de Python para Media Superior en el que mediante una pequeña consulta a diferentes investigadores pudimos obtener el visto bueno del contenido. Se espera que el libro pueda salir en la plataforma de compras Amazon, en el que la intencion es ponerlo digitalmente gratituto para que todos los docentes que quieran utilizar el libro lo puedan hacer de forma gratuita o bien de forma barata tipo $5 pesos esto para garantizar una educación de calidad inclusiva y equitativa, y promover las oportunidades de aprendizaje permanente para todos y que los estudiantes puedan interesarse y meterse mas de lleno a este mundo lejos de malas influencias.
Gutierrez Carmona Daniela, Institución Universitaria de Envigado
Asesor: Dr. Ismael Mendoza Muñoz, Universidad Autónoma de Baja California

COMPARATIVO NORMATIVO Y GESTIóN DE LA SEGURIDAD Y SALUD EN EL TRABAJO MéXICO-COLOMBIA: ANáLISIS DE AGENTES DE RIESGOS EN OFICINAS


COMPARATIVO NORMATIVO Y GESTIóN DE LA SEGURIDAD Y SALUD EN EL TRABAJO MéXICO-COLOMBIA: ANáLISIS DE AGENTES DE RIESGOS EN OFICINAS

Gutierrez Carmona Daniela, Institución Universitaria de Envigado. Asesor: Dr. Ismael Mendoza Muñoz, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La Seguridad y Salud en el Trabajo es una disciplina que trata de la prevención de las lesiones y enfermedades relacionadas con el trabajo, y de la protección y promoción de la salud de los trabajadores. Tiene por objeto mejorar las condiciones y el medio ambiente de trabajo. La salud en el trabajo conlleva la promoción y el mantenimiento del más alto grado de salud física y mental y de bienestar de los trabajadores en todas las ocupaciones. En este contexto, la anticipación, el reconocimiento, la evaluación y el control de los peligros que surgen en lugar de trabajo o dimanantes del mismo y que pudieran poner en peligro la salud y el bienestar de los trabajadores son los principios fundamentales del proceso que rige la evaluación y gestión de los riesgos. Existen diversos puestos de trabajo donde se evidencia exposición a agentes de riesgo que ven comprometida la salud y seguridad de los colaboradores, las oficinas y espacios administrativos no se excluyen de estas condiciones y en estos igualmente los trabajadores se encuentran expuesto a una serie de agentes de riesgo donde se pueden ver comprometida su salud y seguridad. Es por esto y teniendo en cuenta la experiencia del docente y estudiante investigador, que han estado relacionados con la gestión integral de los riegos ocupacionales en diversos ambientes de trabajo y en el marco del verano de investigación Delfín 2023, se propone realizar un análisis comparativo de la normativa de Colombia y México, relacionada con la gestión de los principales agentes de riesgo presentes en oficinas y espacios de trabajo administrativos.



METODOLOGÍA

Revisión bibliográfica: Realiza una búsqueda exhaustiva de literatura científica, informes técnicos y normativas vigentes en el ámbito de la seguridad y salud en el trabajo en México y Colombia. Utiliza bases de datos académicas, repositorios institucionales y fuentes confiables para obtener información relevante. Recopilación de normativas: Identifica y recopila las leyes, reglamentos, decretos y resoluciones relacionadas con la seguridad y salud en el trabajo en ambos países. Organiza y analiza la normativa recopilada de acuerdo con los agentes de riesgo seleccionados. Análisis comparativo: Realiza un análisis detallado de la normatividad recopilada, resaltando similitudes y diferencias entre México y Colombia en cuanto a la regulación de los agentes de riesgo físicos y biomecánicos. Identifica las principales características y enfoques de cada país. Análisis de resultados y conclusiones: Realiza un análisis integral de los hallazgos obtenidos y las comparaciones realizadas. Destaca las similitudes, diferencias y desafíos identificados en la normatividad y gestión de la seguridad y salud en el trabajo entre México y Colombia. Extrae conclusiones basadas en los resultados y brinda recomendaciones pertinentes.  


CONCLUSIONES

RESULTADOS En México, la normatividad en seguridad y salud en el trabajo está regulada principalmente por la Ley Federal del Trabajo (LFT) y la Ley General de Salud (LGS). Además, existe la Norma Oficial Mexicana (NOM-001-STPS) que establece los requisitos mínimos de seguridad y salud en el trabajo para los centros de trabajo. Algunos aspectos relevantes de la normatividad mexicana en seguridad y salud en el trabajo para oficinas incluyen: Evaluación de Riesgos, Capacitación en materia de SST, Condiciones de trabajo, Primeros auxilios, Prevención de incendios. En Colombia, la normatividad en seguridad y salud en el trabajo está regida principalmente por la Ley 1562 de 2012 y el Decreto 1072 de 2015. También existe una entidad llamada el Ministerio del Trabajo, encargada de supervisar y aplicar las normas laborales en el país. Algunos aspectos relevantes de la normatividad colombiana en seguridad y salud en el trabajo para oficinas incluyen: Sistema de Gestión de Seguridad y Salud en el Trabajo (SG-SST): Los empleadores deben implementar un SG-SST para identificar, evaluar y controlar los riesgos laborales. Comité Paritario de Seguridad y Salud en el Trabajo, Capacitación en materia de SST, Ergonomía, Prevención de agentes psicosociales. CONCLUSIONES Ambos países, México y Colombia, muestran un enfoque en la prevención de riesgos laborales en oficinas, destacando la realización de evaluaciones de riesgos y la implementación de medidas preventivas. La capacitación y formación de los trabajadores en temas de seguridad y salud es una prioridad compartida en ambas naciones, buscando fomentar una cultura de prevención en los espacios de trabajo. La ergonomía y las condiciones de trabajo adecuadas son aspectos contemplados en la normativa de ambos países para prevenir lesiones y mejorar la calidad de vida laboral en oficinas. Sin embargo, el análisis comparativo de la normativa de seguridad y salud en el trabajo para oficinas en México y Colombia revela enfoques regulatorios distintos. Mientras que México se basa en la implementación de requisitos mínimos y medidas concretas, Colombia adopta un enfoque más integral mediante la obligatoriedad del Sistema de Gestión de Seguridad y Salud en el Trabajo, abordando aspectos específicos y considerando una visión más amplia de la prevención de riesgos. Estas diferencias resaltan la diversidad de enfoques en la gestión de la seguridad y salud ocupacional en ambos países, buscando siempre garantizar el bienestar de los trabajadores y la protección contra riesgos laborales. La implementación y el cumplimiento efectivo de estas normativas son fundamentales para garantizar un entorno laboral seguro y saludable en ambos países. La colaboración entre México y Colombia en el intercambio de buenas prácticas y lecciones aprendidas en seguridad y salud en el trabajo puede contribuir a fortalecer y mejorar los enfoques regulatorios y la gestión de riesgos en oficinas y espacios administrativos en ambos países.
Gutiérrez Cervantes Silvia Marlene, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer

MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS


MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS

Díaz Ibarra Jatsiry Citlally, Instituto Tecnológico de Tepic. Gutiérrez Cervantes Silvia Marlene, Instituto Tecnológico Superior de Irapuato. Herrera Diaz Ailed Lourdes, Instituto Tecnológico de Tepic. Juárez Ochoa Carmen Andrea, Instituto Tecnológico Superior de Irapuato. Mancilla Flores Lizeth Berenice, Universidad de Guadalajara. Ramírez Ulloa Abraxis Baruch, Instituto Tecnológico de Tepic. Savalza Castillo Karla Veronica, Universidad Autónoma de Nayarit. Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer



PLANTEAMIENTO DEL PROBLEMA

En la actualidad Colombia está enfrentando diversos retos a nivel del comercio internacional debido a las diferentes fuerzas que trae la globalización y que han llegado para transformar como se producen, los diferentes productos servicios que necesitan los consumidores, de igual manera, representa una oportunidad para que las empresas nacionales desarrollen estrategias con el propósito de lograr mayor productividad y competitividad en un mercado compuesto por clientes mucho más exigentes en cuanto a sus preferencias y necesidades. La globalización es parte esencial cuando se habla de competencia y actualización de metodologías, debido a que las empresas nacionales tienen la posibilidad de renovar sus procesos con el fin de automatizarlos como lo hacen algunas  empresas extranjeras, aunque se debe destacar que la entrada de nuevas tecnologías no se debe relacionar con la salida de capital humano.  La reingeniería de procesos está relacionada con la reducción de costos y aumento de utilidades, pero no con el recorte de personal como la gente lo supone. Las empresas en Colombia tienen tiene solo una opción en su planeamiento estratégico: es involucrase decididamente en procesos de transformación tecnológica con el fin de lograr estándares mundiales de alto nivel con el fin de lograr su sostenibilidad en el tiempo.



METODOLOGÍA

Tener casos de éxito en la adaptación a las megatendencias en el sector empresarial es fundamental, por lo que cuando se realizó una visita pedagógica  en la empresa Cohan: (Cooperativa de Hospitales de Antioquia), donde se pudo observar cómo se desarrolló un proyecto de automatización en sus procesos de venta, el personal directivo logró la implementación de almacenes verticales automatizados  para la optimización de procesos de picking y dicha implementación fue exitosa tanto así que sus ventas y tiempos de entrega mejoraron drásticamente. Antes la entrega de un pedido podía durar hasta 8 días para llegar al cliente final, ahora se entrega en 24 horas y lo más importante de todo, no salió ningún auxiliar de sus operaciones lo que la hacen un ejemplo a seguir de muchas empresas Colombianas de su sector ya que, tomaron las megatendencias a su favor y decidieron adaptarse a por medio de la tecnología. Como se ha dado a conocer, los recursos son siempre escasos y por ello es necesario invertir en aquellos proyectos que le den a la empresa la mayor rentabilidad posible tal como lo hizo la empresa Cohan, la tecnología en sí misma no es la solución, pero haciendo una planeación adecuada, la tecnología agrega valor, ayuda a que nuestras operaciones sean más eficientes, eviten errores y reduce los costos operativos y tiempos logísticos, estos elementos hacen que un proyecto sea rentable. En este caso, debemos estar plenamente convencidos de la relación entre la inversión y el sistema de almacenamiento que necesitamos. También, visitamos una de la empresa más representativas de la industria del Café en Colombia, Colcafé; esta es la primera empresa colombiana de café en exportar café en  diferentes presentaciones. Esta empresa en su proceso implementa un software con el cual se escanea el código de barras que está colocado en el pallet con la carga de mercancía, al momento de escanearlo arroja una ficha técnica, donde se especifica el historial del producto, es decir, detallando datos importantes como si será exportado o será distribuido a nivel nacional, y en caso de ser exportación nos indica el país de destino.


CONCLUSIONES

Con base en la información proporcionada, es importante destacar que las megatendencias globales tienen un impacto significativo en la eficiencia logística de las empresas colombianas. Las megatendencias son fuerzas transformadoras a gran escala que afectan a nivel mundial y que generan cambios importantes en la sociedad, la economía y la tecnología. Cada una de las empresas que se visitaron y evaluaron, implementan de forma distinta las megatendencias, sin embargo, todas lo realizan con la misma finalidad que es eficientizar y optimizar sus procesos. Algunas de las megatendencias globales relevantes para la eficiencia logística en Colombia incluyen la globalización, los cambios demográficos, la variabilidad y cambio climático, la escasez de recursos, la hiperconectividad, el traslado de los ejes del poder, y la urbanización. Estas tendencias han dado lugar a desafíos y oportunidades para las empresas que operan en el país, especialmente en el ámbito logístico. En conclusión, las megatendencias globales están transformando la forma en que las empresas colombianas abordan la eficiencia logística. Aquellas que logren adaptarse y aprovechar las oportunidades que estas tendencias ofrecen, a través de la implementación de tecnologías avanzadas, prácticas sostenibles y estrategias innovadoras, estarán en una mejor posición para mantenerse competitivas y satisfacer las demandas cambiantes de un mercado globalizado y en constante evolución. La colaboración entre el sector público y privado también es esencial para superar los desafíos logísticos y mejorar la infraestructura, lo que contribuirá en última instancia al crecimiento económico y desarrollo sostenible del país.
Gutiérrez Delgado Valeria Dinora, Instituto Tecnológico de Tepic
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS


FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS

de Robles Ramírez Miguel Israel, Instituto Tecnológico de Tepic. Gutiérrez Delgado Valeria Dinora, Instituto Tecnológico de Tepic. López Ramos Víctor Daniel, Instituto Tecnológico de Tepic. Medina Rodríguez Sebastián Jazael, Instituto Tecnológico de Tepic. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El "Framing" se refiere a la manera en que los medios de comunicación, a través de sus elecciones lingüísticas y visuales, dan forma a la cobertura de eventos y situaciones específicas. Varias disciplinas contribuyeron en la conformación de lo que hoy se conoce como teoría del Framing: la psicología, la sociología, los estudios sobre los movimientos sociales y la comunicación, por mencionar las áreas más sobresalientes. Al seleccionar ciertas palabras, imágenes o enfoques para presentar una noticia, los medios pueden influir en cómo las personas entienden y reaccionan a esa información. El problema planteado en la investigación es cómo se puede utilizar el "Framing" como una herramienta analítica para examinar cómo los medios de comunicación presentan las noticias y cómo esto afecta la percepción del público. Al abordar este problema de investigación, se busca comprender mejor cómo el "Framing" puede ser una herramienta útil para analizar y desentrañar los mecanismos detrás de la presentación de las noticias, y cómo esto afecta la comprensión del público sobre los acontecimientos y temas importantes en la sociedad. Además, este enfoque también puede tener implicaciones para la ética periodística y el papel de los medios de comunicación en la formación de opiniones y actitudes en la sociedad. 



METODOLOGÍA

Para lograrlo, se desarrolló una metodología que consistió en dos pasos fundamentales. Primero, se creó un conjunto de palabras o términos que representan los diferentes marcos temáticos que podrían estar presentes en los artículos de noticias. Este conjunto de palabras se conoce como "vocabulario de marcos temáticos". Se elaboró una lista de tópicos en el que se especifica a detalle cómo se evalúa cada criterio de la noticia, como tal la temática del estudio, cuyas opciones de encuadre son las siguientes:   1 = Economic, 2 = Capacity and resources, 3 = Morality, 4 = Fairness and equality, 5 = Legality, constitutionality and jurisprudence, 6 = Policy prescription and evaluation, 7= Crime and punishment, 8 = Security and defense, 9 = Health and safety, 10 = Quality of life, 11 = Cultural identity, 12 = Public opinión, 13 = Political, 14 = External regulation and reputation, 15 = Other. También se tomaron en cuenta tópicos de tonos en el que esté la noticia, cuyas opciones son las siguientes: Tono Neutral, Tono Positivo, Tono Negativo. Por otro lado, se debía especificar Autor, Fecha y Titulo (siempre y cuando la página de donde fue extraída la noticia contara con estos parámetros), por último, es necesario especificar el tópico general en el que se basaba la noticia. Cada noticia debe ser etiquetada mínimo 2 veces para que exista una mejor coherencia al especificar cada tópico.  Luego, se aplicaron diversas técnicas de clasificación, las cuales permitieron etiquetar automáticamente los marcos temáticos en los artículos de noticias basándose en el vocabulario creado previamente. Estas técnicas de clasificación mostraron resultados prometedores, ya que indicaron la posibilidad de mejorar el rendimiento general del sistema de predicción. 


CONCLUSIONES

Durante la estancia de verano, en su mayoría las noticias que fueron analizadas se enfocan en la observación de situaciones reales en casos concretos, tienen un enfoque más práctico y menos teórico. Nos permitió comprender como los medios de comunicación influyen en la percepción y la interpretación de la información por parte del público. Al desarrollar esta habilidad, podemos ser más conscientes de cómo la información es presentada y, en última instancia, tomar decisiones más informadas y responsables. En esta investigación, se aplicaron lenguajes de programación como Python, técnicas de procesamiento de lenguaje natural y algoritmos de inteligencia artificial para entrenar una herramienta llamada Label Box (la cual es completamente gratuita y sencilla de entender) la cual nos ayudó para analizar noticias basada en el concepto de "Framing". Python proporcionó una plataforma flexible y eficiente para manipular y analizar grandes conjuntos de datos de noticias, mientras que las técnicas de procesamiento de lenguaje natural permitieron extraer y comprender la información textual de manera automatizada. La inteligencia artificial se utilizó para entrenar modelos capaces de identificar patrones de "Framing" en las noticias y clasificar los diferentes marcos utilizados. El resultado de la investigación se materializó en una exposición y resumen sobre el entrenamiento del "Framing" desarrollado y su aplicación en el análisis de noticias. La exposición incluyó ejemplos prácticos de noticias analizadas, mostrando cómo la herramienta identificó y categorizó los marcos utilizados por los medios. Además, se presentaron gráficos y visualizaciones para ilustrar las tendencias de "Framing" y su distribución en las noticias. El resumen proporcionó una síntesis de los hallazgos clave, destacando la importancia de esta herramienta para comprender cómo los medios influyen en la percepción pública sobre temas importantes.
Gutiérrez García Bryan Daniel, Instituto Tecnológico de Morelia
Asesor: Dr. Salomón Ramiro Vásquez García, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE BIOPELíCULAS POLIMéRICAS A PARTIR DEL ALMIDóN DE LAS SEMILLAS DE AGUACATE POR MEDIO DE LAS TéCNICAS DE ELECTROHILADO E INMERSIóN


SíNTESIS DE BIOPELíCULAS POLIMéRICAS A PARTIR DEL ALMIDóN DE LAS SEMILLAS DE AGUACATE POR MEDIO DE LAS TéCNICAS DE ELECTROHILADO E INMERSIóN

Gutiérrez García Bryan Daniel, Instituto Tecnológico de Morelia. Asesor: Dr. Salomón Ramiro Vásquez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los polímeros sintéticos son un tipo de material que ha conseguido una gran importancia a lo largo de los años, esto debido a sus propiedades, como el hecho de que son muy resistentes a los químicos, tienen una baja densidad y algunos de ellos cuentan con una resistencia bastante elevada en relación a su peso, además de estas características los polímeros suelen ser más fáciles y baratos de producir que los metales, esto ha llevado a que sean materiales de lo más cotidianos, sin embargo, los polímeros sintéticos tienen la gran ventaja o desventaja, dependiendo desde la perspectiva que se vean, de que su degradación es demasiado lenta provocando daños ambientales. Los polímeros actualmente son una de las mayores fuentes de basura inorgánica, debido a la resistencia que presentan frente a los factores ambientales, esto ha hecho que ciertas especies animales sean puestas en riesgo, pudiendo así alterar de cierta manera la cadena trófica. Además de esto, en muchos lugares los polímeros son quemados para deshacerse de ellos, lo cual genera una gran contaminación atmosférica ya que muchos de estos liberan CO y CO2 e incluso algunos hidrocarburos. Teniendo esto en cuenta se busca desarrollar un biopolímero que cuente con características que le permitan cubrir algunas de las funciones que generalmente se les atribuyen a estos materiales, y que se tenga la posibilidad de que al ser desechados no contribuyan a tal problemática, pudiendo degradarse en cuestión de menos de 1 año y con la ventaja de no dejar restos dañinos tanto para los animales como para los humanos.



METODOLOGÍA

El proyecto se llevó a cabo utilizando distintas variedades de aguacate para identificar si hay cambios importantes al momento de realizar la caracterización y así conocer si variaron sus propiedades, se tomaron en cuenta las variedades de aguacate: Hass, Fuerte y Criollo, los cuales son fáciles de conseguir debido a su comerciabilidad. Una vez obtenidos los aguacates se extrajeron las semillas, las cuales cuentan con celulosa, lignina y lignocelulosa, necesarias para tener una buena resistencia mecánica y a la degradación, sin embargo, sin el almidón estas características no podrían ser aprovechadas, debido a que este es el que permite la compatibilidad con otros biopolímeros que funcionarían para poder formar las películas. Para poder aprovechar estos compuestos se molieron por separado, las semillas de las distintas variedades de aguacate con la finalidad de aumentar el área de contacto de las muestras. Después de la molienda se realizó un secado al ambiente para eliminar el exceso de humedad de las muestras. Al terminar, las muestras se llevan a molienda una vez más, esta vez con la intención de que las mismas parezcan un polvo, que será tamizado hasta una granulometría de 0.0029 pulgadas de diámetro, para luego calentarlas en un horno a 70°C durante 3 horas, eliminando así la humedad. Posteriormente se eliminan compuestos y grasas no necesarias de las muestras por medio del método soxhlet, usando un disolvente compuesto de 70% hexano y 30% agua, mismo que se evapora y llega a un condensador donde se enfría y cae en la muestra del cartucho, este proceso dura aproximadamente 2 horas y luego se deja secar al ambiente. Se realizan varias soluciones que contienen polvo de la muestra, alcohol polivinílico (PVA) y ácido acético, la que dio mejores resultados contenía 0.5 gramos de semilla de aguacate, 10ml de ácido acético y 1 gramo de PVA, calentado a una temperatura de 80°C, con una agitación de 600 rpm durante 2 horas. Se procede a la formación de las películas primero por inmersión, en el cual se deposita una cantidad de la solución en un sustrato sobre el cual después de terminar se deja secar dentro de una campana de extracción por 24 horas. Por electrohilado las soluciones son vertidas dentro de una jeringa que cuenta con una aguja y esta fue posicionada en una máquina de electrohilado, la cual libera cierta cantidad de muestra de manera continua a una velocidad muy baja hacia una placa cargada eléctricamente, la que genera hilos nanométricos que se acumulan en un sustrato, de donde luego serán recuperadas. En este proceso se variaron ciertos parámetros para lograr las películas, los que tuvieron mayor eficiencia fueron: Velocidad de inyección: 0.01 ml/min Distancia entre placa y jeringa: 16 cm Carga eléctrica: 17 kV De esta manera se obtuvieron películas con poca cantidad de fallos en su estructura y con un acabado más limpio al momento de retirarlas del sustrato. Cuando todo el proceso de fabricación de las películas terminó, se realizó una caracterización de las muestras obtenidas, para ver como variaban algunas de sus características de acuerdo al tipo de aguacate usado y el método de sintetización aplicado, las técnicas utilizadas fueron: FTIR TGA DSC Ángulo de contacto Estos muestran características como los grupos funcionales, la pérdida de materia y humedad, los cambios en el calor de la muestra, las propiedades térmicas del material y si el material se comporta como hidrofóbico o hidrofílico.


CONCLUSIONES

El proyecto de películas biopoliméricas utiliza las semillas del aguacate, ya que cuentan con propiedades como su resistencia mecánica y al desgaste. Al realizar el proyecto se pudo presenciar cómo el método de sintetización de las películas afectaba a las propiedades mecánicas de las mismas, ya que en el proceso de inmersión se obtenían durezas mayores y su punto de fluencia aumentaba, pero con la desventaja de mostrar una flexibilidad menor, contrario a lo ocurrido con las películas por electrohilado, donde su flexibilidad era más alta y su dureza baja, además de que en la película de inmersión el biopolímero se comportaba de manera más hidrofóbica. Al llevar a cabo las pruebas de caracterización mostradas en general no existía una diferencia muy notable entre las películas formadas con un tipo de aguacate u otro, sin embargo, si habia una diferencia entre aquellas formadas por electrohilado y las hechas por inmersión.
Gutierrez Ibarria Jesus Emmanuel, Universidad Autónoma de Nayarit
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DISEÑO CMOS DE SISTEMAS CAÓTICOS Y SU SINCRONIZACIÓN


DISEÑO CMOS DE SISTEMAS CAÓTICOS Y SU SINCRONIZACIÓN

Gutierrez Ibarria Jesus Emmanuel, Universidad Autónoma de Nayarit. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La teoría del caos trabaja con sistemas que evolucionan con el tiempo, pero con la particularidad que son sensibles a las condiciones iniciales, ya que una muy pequeña variación de estas puede provocar grandes diferencias en el comportamiento del sistema, conforme pase el tiempo. Es aquí donde se puede llegar a apreciar la importancia de esta teoría y sus posibles aplicaciones, no solo en el caso específico de la ingeniería, sino en una amplia gama de disciplinas, como puede ser las matemáticas, física, meteorología, biología, economía, etc. El diseño de sistemas caóticos con circuitos integrados ha tomado relevancia en los últimos años debido a todas sus posibles aplicaciones, que entre ellas se encuentran la criptografía, sincronización, generador de números aleatorios, cifrado de señales, entre otros. 



METODOLOGÍA

Para poder diseñar sistemas caóticos fue necesario realizar una extensa investigación a través de distintas bibliografías, con el fin de familiarizarse con ciertos términos y sobre todo las topologías y ecuaciones a utilizar. Posteriormente se procedió a realizar simulaciones con el software de MATLAB con la finalidad de tener el primer acercamiento con los sistemas caóticos y sus series temporales, de esta forma fue fácil darse cuenta que normalmente las amplitudes de los sistemas caóticos suelen ser muy grandes, por lo que para realizar un diseño de circuito integrado es necesario realizar un escalamiento. Así mismo al analizar las ecuaciones de estados es posible darse cuenta que se requiere de multiplicadores, sumadores, diferenciadores e integradores, los cuales son posible realizar mediante topología CMOS, tomando como base los espejos de corriente y los pares diferenciales. Primeramente, se diseñó en TopSPICE un espejo de corriente hecho con transistores semiconductores complementarios de óxido metálicos (CMOS) tipo N, en donde se pudo corroborar la primera parte de la teoría, que básicamente consiste en que las dos ramas de entrada de los transistores pasen la misma corriente, posteriormente se diseñó un par diferencial con transistores CMOS tipo N y dos resistencias con el fin de familiarizarse con el funcionamiento del mismo. En seguida se fusionó estos dos nuevos conceptos de tal forma que se diseñó un par diferencial con dos tipos de espejos de corrientes, uno hecho con transistores CMOS tipo P puestos en la parte superior y uno de tipo N en la parte inferior del par diferencial, en donde el desafío fue obtener una ganancia mayor a 30dB y que en la señal de salida no existieran distorsiones.  Después se diseñó otro amplificador diferencial, pero con la particularidad de que esté fuera de dos etapas, es decir con un par de transistores CMOS en cascode y conectados con el par diferencial a través de un arreglo de una resistencia y un capacitor puestos en paralelo, en donde se debía obtener una ganancia igual o mayor a 60dB y de igual forma al aplicarle una señal senoidal en la entrada no inversora, no debería de existir distorsiones en la señal. Posteriormente se procedió a medir las transconductancias en los circuitos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos tanto de sistemas caóticos como de diseño de circuitos analógicos, Así mismo durante la estancia se logró diseñar dos tipos de amplificadores (de 1 y 2 etapas), en donde, en el caso del amplificador se una etapa se logró una ganancia de 31dB, mientras que en el caso del amplificador de 2 etapas se logró una ganancia de 73dB, y en la salida no existía prácticamente ninguna distorsión, de igual forma es de mencionar que se midieron las transconductancias (gm) en cada uno de estos circuitos obteniendo 718uS en el primero y 25.3 mS en el de 2 etapas.
Gutiérrez Nava Martin Uriel, Instituto Tecnológico de Chilpancingo
Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO


DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO

Arias Aguilar Emmanuel, Instituto Tecnológico de Querétaro. Ceja Govea María Fernanda, Instituto Tecnológico de Estudios Superiores de Zamora. Gutiérrez Nava Martin Uriel, Instituto Tecnológico de Chilpancingo. Herrera Tovar Mariela, Instituto Tecnológico de Estudios Superiores de Zamora. Melgoza Tamayo Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Ríos Fuentes Karla Araceli, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los profesores en general tienen la necesidad de medir el aprendizaje de sus estudiantes. Para esto se piensa que una aplicación personalizable y gratuita pueda ayudar. Por supuesto existen muchas herramientas hoy en día, quizá la mas famosa sea Kahoot, sin embargo, en esa aplicación los estudiantes pueden responder sin necesidad de pensar en la respuesta, basta con oprimir cualquier botón. Otra forma de jugar mientras se mide el aprendizaje de los estudiantes es que ellos deban teclear la respuesta. En la aplicación se plantea realizar preguntas específicas por el profesor en el momento, y que así mismo las respondan los estudiantes, con esto se ayudará al aprendizaje constante de los estudiantes y se tendrán ventajas de mayor rendimiento.



METODOLOGÍA

La metodología utilizada consistió en una serie de pasos para creación de la aplicación web desde la planificación de las tecnologías utilizadas. 1. Recopilación de requerimientos con el cliente Se tuvo una reunión con el cliente para conocer el tipo de proyecto en el cual se estaría trabajando durante la estancia, a su vez se plantearon los requerimientos importantes para un buen desarrollo de la aplicación. En este caso, el cliente fue una profesora. 2. Planteamiento y estudios de las tecnologías Se realizó un análisis de diferentes tecnologías, con la finalidad de seleccionar y estudiar las que sean más acordes al tipo de proyecto y requerimientos que fueron planteados por el cliente. 3.Asignación de equipos de trabajo Se realizó el análisis de las actividades a realizar en el desarrollo de la aplicación y se asignaron equipos de trabajo y actividades para cada uno. 4. Creación de tablero de trabajo Se creó un tablero con las actividades asignadas con anterioridad para poder tener definidas las actividades, metas y avances durante el desarrollo. 5. Realización del prototipo de baja fidelidad Con los integrantes de los equipos de trabajo compuestos por dos integrantes en cada uno, se diseñaron las interfaces de cada una las pantallas de la aplicación web 6. Creación del modelo entidad- relación Se diseñó y se discutió el modelo entidad-relación con el propósito de definir los datos requeridos de acuerdo a la necesidad de la aplicación 7. Creación e implementación de la base de datos Se realiza creación de la base de datos con ayuda del diagrama entidad-relación 8. Conexión de base de datos Se realiza la conexión de la base de datos back-end y front-end 9. Implementación de Front-end Con ayuda mediante los prototipos de baja fidelidad la creación de front-end de las pantallas de la aplicación web. 10. Implementación de Back-end Se agregó la funcionalidad de las pantallas y el quiz con el uso de la base de datos. Resultados finales Se realizan las implementaciones correspondientes para la creación de de la aplicación web para su total funcionalidad.  


CONCLUSIONES

Este trabajo de investigación se implementó una aplicación web para impulsar el aprendizaje en estudiantes durante sesiones en línea, se concluyó con una aplicación web remasterizada con un diseño más dinámico y con funciones adicionales a las proporcionadas en el inicio del proyecto. La siguiente parte del proyecto consistirá en hacer análisis del uso de esta aplicación considerando distintos tipos de usuarios y grupos.
Gutiérrez Paredes Jacob, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango

MEJORAS EN EL SISTEMA DE PRODUCCIóN DEL HONGO COMESTIBLE PLEUROTUS OSTREATUS


MEJORAS EN EL SISTEMA DE PRODUCCIóN DEL HONGO COMESTIBLE PLEUROTUS OSTREATUS

Gutiérrez Paredes Jacob, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En el Instituto Tecnológico Superior de Huauchinango mediante un invernadero tipo túnel y con suelo de Tezontle se llevó a cabo la primera siembra de hongo seta (Pleurotus ostreatus). Para el proceso de producción se implementó un sistema artesanal, mediante el desarrollo de cinco etapas las cuales fueron: Etapa 1) Pasteurización, Etapa 2) Siembra, Etapa 3) Incubación, Etapa 4) Fructificación, Etapa 5) Cosecha. La pasteurización se realizó mediante el método de inmersión en agua caliente empleando como sustrato a la paja de trigo, esta etapa evidencio una problemática principal que trajo consigo la quema del 5% del total de paja al entrar en contacto con la base del depósito metálico., posteriormente durante el proceso de siembra se originó la pérdida del 1.8% de materia prima, debido a que durante el enfriado y mezclado (Paja y cal) se presentaba caída de paja, disminuyendo los tiempos operativos y ocasionando cuellos de botellas para el proceso., para finalizar durante el proceso de fructificación (1-21 días), el peso del producto en fase de crecimiento trajo consigo la fractura de 1 uno de los estantes, estas problemáticas originan la necesidad de la realización del presente proyecto, en el cual se proponen mejoras que favorecen la entrada, proceso y salida del sistema de producción, beneficiando notablemente al producto y al sembrador y/o productor de hongos setas en la Sierra Norte del Estado de Puebla.



METODOLOGÍA

En primera instancia se analizó el sistema de producción actual del invernadero, se ubicaron los principales problemas en las distintas etapas, los cuales fueron los siguientes: Entradas del proceso de producción: Se utilizó como sustrato la paja, con una eficiencia biológica de 113%. Pasteurización: Los sacos fabricados a partir de fibras sintéticas, cuya función principal es contener la paja, al momento de tener contacto directo con el depósito metálico se queman por el calor contenido. Siembra: Durante el enfriado de la paja y mezclado con cal se utilizaron dos mesas de 120 cm de largo, 40 cm de ancho y 72 cm de alto, por las dimensiones se generaba una caída constante de paja. Incubación-Fructificación: Se emplea el sistema de estantería fabricada de madera, un estante por exceso de carga, se fractura y queda en desuso. Una vez detectadas las fuentes que originan la problemática se procedió a investigar en diversas fuentes bibliográficas y de campo, las mejoras se describen a continuación: Entradas del proceso de producción: Se propone utilizar 70% paja y 30% pulpa de café teniendo una posible eficiencia biológica de 125%, mejorando el nivel de producción en un 10.6%., para la validación de esta propuesta de mejora se procederá a desarrollar un sistema de análisis de experimentos para validar la eficiencia biológica del sustrato. Pasteurización: Colocar un cilindro de malla con dimensiones menores al depósito actual, para sumergirlo con la paja dentro y posterior a la pasteurización sustraerlo con una polea para la filtración del sustrato., se diseñó el sistema descrito en el software especializado de SketchUp. Siembra: Utilizar mesas con dimensiones adecuadas, que contenga bordes de seguridad para evitar caídas de material, se diseñó el sistema descrito en el software especializado de SketchUp. Incubación- Fructificación: Utilizar un sistema de brocheta para optimizar espacio y asegurar la nula existencia de quiebres o fracturas de estantería se diseñó el sistema descrito en el software especializado de SketchUp. Cabe mencionar que, para la creación de los diseños, se tomó en cuenta el espacio físico del invernadero (6 X 5 X 3.35 metros), con una ocupación del 80% para el proceso productivo., finalizando con la presentación del costeo total para las propuestas de mejora.


CONCLUSIONES

Durante la estancia de Verano 2023, se investigó y analizó información cualitativa y cuantitativa sobre la correcta operación del sistema de producción de hongos setas, de igual manera desarrolle tres diseños que me permitieron ampliar mis conocimientos en el uso y manipulación del software de diseño SketchUp, así también conjunte la aplicación de diversas herramientas de Ingeniería Industrial para solventar las mejoras propuestas, basándome en la observación, el análisis, y la planeación para culminar en tiempo y forma con la realización del proyecto, teniendo en cuenta que estoy contribuyendo a la generación de un sistema de producción de hongos setas fiable, en el cual se controlan las variables que ocasionan problemáticas, mismas que se reflejan en pérdidas económicas y desinterés por parte de los Fungicultores de la región.
Gutierrez Perez Brenda Esmeralda, Universidad Tecnologica de León
Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León

SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)


SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)

Andrade de Pro Carlos René, Universidad Tecnologica de León. Gutiérrez Alcantar Maria Guadalupe, Universidad Tecnologica de León. Gutierrez Perez Brenda Esmeralda, Universidad Tecnologica de León. Hernandez Tavares Sergio, Universidad Tecnologica de León. Zendejas Gutierrez Simón Jonathan, Universidad Tecnologica de León. Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La Universidad Tecnológica de León (UTL) es una institución educativa pública de educación superior, fundada en 1995. La universidad cuenta con diversas áreas que dan apoyo al área académica, una de ellas es, la Dirección de Desarrollo Académico y Docente (DAyD) quién ha presentado la necesidad de automatizar la gestión de los procesos de Innovación educativa y de Formación académica debido a la creciente demanda de sus servicios, así como, la necesidad de implementar nuevos procesos que se tienen planeados. Cabe mencionar que la UTL cuenta con un Sistema de Información Táctico Operativo (SITO) que controla gran parte de los procesos académicos y de gestión, por lo que sería necesario que la creación de este sistema conviva con los datos que el SITO ya produce, pero que se conserve como un sistema independiente.



METODOLOGÍA

Tomando en cuenta el planteamiento del problema se decidió implementar la metodología de desarrollo de software denominada Ciclo de Vida Cascada con la variación del modelo V. Esta fusión de metodologías nos va obligando a realizar verificaciones y validaciones constantes del desarrollo del producto pasando por cada una de sus fases: Análisis, Diseño, Desarrollo, Pruebas, Cierre. Obteniendo como resultado un producto con la calidad esperada por el equipo y por las clientes. Adicional a la metodología, en cada fase se implementaron buenas prácticas de desarrollo de software como lo son: Técnicas de recolección de requerimientos, gestión de requerimientos, diseño UML, diseño de interfaces, generación y aplicación de estándares de desarrollo, pruebas unitarias, pruebas de integración, verificaciones y validaciones, La solución técnica para el proyecto consistió en el uso de las siguientes herramientas: SQL-server, HTML, JavaScript, JSP, XML y Vuetify. Se pretende que este sistema sea alojado en la nube de Azure, sin embargo, la pruebas en la nube ya no corresponden al alcance de este proyecto.  


CONCLUSIONES

Se cumplieron los objetivos y alcance señalado por nuestras clientes, gracias a la colaboración y compromiso tanto de las clientes como por el equipo. Dedicar tiempo no solo de desarrollo sino también de verificación y validación nos permitió un avance más certero y confiable. Se hizo una exposición final y la entrega de la Línea Base de Cierre a la Jefatura de Sistemas Informáticos quiénes serán los responsables de la instalación y mantenimiento del sistema.  
Gutierrez Torres Melanie Aidee, Universidad de Guadalajara
Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán

IMPORTANCIA DEL USO DE LOS POLíMEROS EN LA INDUSTRIA.


IMPORTANCIA DEL USO DE LOS POLíMEROS EN LA INDUSTRIA.

Gutierrez Torres Melanie Aidee, Universidad de Guadalajara. Ramírez Campos Karime Anahí, Universidad de Guadalajara. Santillán Martínez Fernanda Josefina, Universidad de Guadalajara. Velázquez Plascencia David, Universidad de Guadalajara. Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la Industria y los diversos sectores en los que se divide, depende mucho de un material avanzado: los polímeros. Estos, mayormente se utilizan en la creación e innovación de productos que faciliten su desarrollo y la forma en la que estos se pueden acoplar a nuestro estilo de vida. Pero, no se toman en cuenta del todo las consecuencias que puede traer al ambiente futuro el uso constante y desenfrenado de este material, pues tanto la producción de este mismo y de otros termoplásticos, traen un sinfín de afectaciones directas e indirectas al medio ambiente e incluso a nosotros mismos.



METODOLOGÍA

Los materiales poliméricos son elementos necesarios en nuestro día a día, por lo cual se debe disponer de un diseño y desarrollo racional que establezca parámetros de sostenibilidad. En los últimos años debido a las diferentes problemáticas que genera el sector industrial con el uso y creación de polímeros y sus productos, se han planteado nuevas vías científicas y tecnológicas para elaborar plásticos ecológicos, que impulsen nuevas materias primas menos contaminantes o cero contaminantes, así mismo se innova a partir de los reconocidos bio-polímeros, polímeros biobasados y polímeros nanotecnológicos, que no solo favorecen en la reducción de contaminación del planeta, sino que pueden reducir costos asociados a la producción y postconsumo por lo que van asociados a impulsar la reutilización, reparación y reciclaje final.


CONCLUSIONES

Con esta investigación, se busca concientizar a la Industria para que la innovación que tanto buscan desarrollar, vaya de la mano con el uso sostenible y poder lograr así, una industria resiliente ante los cambios negativos, pues de esta forma, se podrá lograr un equilibrio con el crecimiento y el cuidado mediambiental.  
Gutierrez Valadez Nancy Montserrat, Universidad de Guadalajara
Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia

PROTOTIPO DE UN SISTEMA MODULAR PREFABRICADO PARA VIVIENDA SOCIAL FLEXIBLE Y SOSTENIBLE EN VERACRUZ, MÉXICO.


PROTOTIPO DE UN SISTEMA MODULAR PREFABRICADO PARA VIVIENDA SOCIAL FLEXIBLE Y SOSTENIBLE EN VERACRUZ, MÉXICO.

Gutierrez Valadez Nancy Montserrat, Universidad de Guadalajara. Peña Plascencia María Fernanda, Universidad de Guadalajara. Saucedo Cazares Jessica Monserrat, Universidad Veracruzana. Xicohtencatl Gómez Alexa Irene, Universidad Veracruzana. Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En Poza Rica de Hidalgo, Veracruz, México, existe falta de salubridad, seguridad, confort y estética en la vivienda social. Esto hace que los usuarios carezcan de una buena calidad de vida.  Además, el sitio de los conjuntos habitacionales no es accesible debido a que se ubican en la periferia de la ciudad. Por otra parte, la falta de planeación de equipamiento urbano provoca el abandono de las viviendas. Lo que genera conjuntos fantasma propicios a ser zonas de inseguridad. Esa problemática social debe ser atendida para los estándares de calidad. La población se ve obligada a trasladarse para acceder a los servicios con los que no se cuenta dentro de la unidad, generando viviendas dormitorio. A causa de que éstas se encuentran alejadas del centro urbano, el costo de vida se incrementa volviéndose inaccesible.   Por tanto, se considera que el diseño de vivienda social no atiende las necesidades básicas de los usuarios de esta tipología de vivienda. ¿Podríamos proponer una alternativa de diseño de vivienda social flexible y sostenible para Poza Rica Veracruz?  El objetivo de esta investigación fue diseñar una unidad habitacional flexible y sostenible mediante el sistema modular. La hipótesis de trabajo de esta investigación fue Si diseñamos una vivienda social flexible y sostenible a partir de un sistema modular, mejoraremos las condiciones de los usuarios de la vivienda de bajos ingresos en Poza Rica.



METODOLOGÍA

La metodología utilizada en este proyecto se enfocó en primer lugar, en realizar un análisis de las necesidades habitacionales de la población objetivo y las condiciones del contexto. Luego, se revisaron investigaciones previas sobre vivienda social para identificar las mejores prácticas de proyectos análogos. En la siguiente fase, se desarrolló el diseño arquitectónico y urbano del prototipo de vivienda con módulos de 3.5 m. x 3.5 m. Además, se determinaron los parámetros de diseño estructural necesarios para garantizar la resistencia y estabilidad de la estructura. Se adoptó un enfoque modular para permitir ampliaciones futuras según las necesidades cambiantes de los usuarios. Esto implica la utilización de componentes prefabricados que se puedan ensamblar fácilmente y de manera eficiente. Se utilizaron herramientas de modelado tridimensional y simulación para evaluar la eficiencia térmica y energética del modelo propuesto. Finalmente, se presenta una propuesta integral que contempla la vivienda de interés social en Poza Rica. Desde una perspectiva flexible y sostenible, integrando el espacio público, el semipúblico y el privado. Contribuyendo de esta manera al desarrollo de un hábitat más inclusivo y amigable con el medio ambiente. Esta metodología garantiza un enfoque general del prototipo de vivienda social, con la visión de mejorar la calidad de vida de la población beneficiaria.


CONCLUSIONES

Con base al método planteado, se generó en el conjunto habitacional espacios públicos, semipúblicos y privados. Se toma en cuenta la importancia de tener comercio de fácil acceso para los habitantes. Asimismo, suficientes zonas con arbolado para generar un microclima y mejorar el confort del sitio. El área pública se compone de espacios verdes, comercio y vialidades seguras para el peatón. Los puntos de recolección de basura, caseta y cajones de estacionamiento son los espacios semipúblicos. Mientras que la unidad habitacional es de carácter privado, siendo esta el protagonista del conjunto. La alternativa planteada de vivienda social tiene como objeto generar espacios más seguros y confortables para quienes carecen de tener un ingreso económico digno. Como resultado, se produce un prototipo de sistema modular, para vivienda social flexible y sostenible. La implementación de componentes prefabricados que se puedan ensamblar fácilmente agiliza el proceso de construcción y facilita la posibilidad de modificar la vivienda en el tiempo. Asimismo, se busca optimizar el uso de recursos y minimizar los residuos durante la construcción, incorporando principios de sostenibilidad en cada etapa del proceso. El diseño estructural propuesto para el prototipo busca no solo brindar viviendas seguras y adecuadas a las familias de escasos recursos, sino también promover una solución resiliente y adaptable a largo plazo en el contexto de la vivienda social en el municipio de Poza Rica. Se busca en cada parte del proceso de diseño, la oportunidad de generar un cambio dentro del mercado inmobiliario.  En la mayor parte del territorio mexicano surgen problemas con la vivienda social por lo que la posibilidad de desarrollar propuestas a partir de un diseño modular permite reproducir esta experiencia en otras regiones. Abriendo así, el mercado a un mayor número de consumidores. El concepto de flexibilidad se desarrolla cuando los usuarios tienen la libertad de modificar los espacios dentro del módulo de acuerdo con necesidades. En definitiva, el resultado de la investigación permite construir diferentes tipologías de vivienda adaptándose a un sitio en particular. Lo que brinda alternativas que ayudan a mejorar la vivienda social de cualquier ciudad. Se concluye entonces que, la construcción masiva de viviendas sociales en México está dejando de lado a los usuarios. Por lo que, como solución se propone un módulo prefabricado, que funcione como base para proyectar un conjunto habitacional. De esta manera, se relacionan en nuestro prototipo las estrategias bioclimáticas y alternativas sustentables con la vida diaria de las personas.
Guzmán Cid Edgar Jossua, Universidad Tecnológica de Tehuacán
Asesor: Dr. Oscar Martínez Fuentes, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PéNDULO INVERTIDO CON RUEDA INERCIAL


PéNDULO INVERTIDO CON RUEDA INERCIAL

Guzmán Cid Edgar Jossua, Universidad Tecnológica de Tehuacán. Luna López Juan Jair, Universidad Tecnológica de Tehuacán. Asesor: Dr. Oscar Martínez Fuentes, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la industria aeroespacial, existen ciertas condiciones o parámetros que las naves necesitan cambiar, una de ellas es su orientación. En la mayoría de los casos se opta por la utilización de propulsores, pero debido a su costo y a su peso, y la generación de vibraciones, se buscan otras alternativas que generen el torque necesario en la nave espacial para poder cambiar la orientación, por ejemplo, a partir del intercambio de algún momento angular entre una rueda de inercia y la nave.  Para dar solución a esta problemática, se presenta el diseño, instrumentación y puesta a punto de una plataforma de péndulo invertido, así como el diseño de controladores robustos que emulen tareas espaciales y resuelvan algunos problemas. La plataforma se construye de manera que sea de bajo costo y pueda utilizarse para implementar y validar distintos algoritmos de control, así como para realizar tareas didácticas en la enseñanza de la teoría de control.



METODOLOGÍA

Se llevó a cabo una revisión exhaustiva del estado del arte utilizando buscadores académicos de alto nivel. Se prestó especial atención a la relevancia de la información y su relación con investigaciones previas. A continuación, se presentan los tipos de investigación implementados: Investigación teórica. La investigación teórica se implementa para generar conocimiento del sistema de control y componentes que podremos aplicar. Investigación aplicada. Se aplicará en la industria aeroespacial y también; a las personas que quieran o tengan la inquietud para realizar tareas didácticas en la enseñanza de la teorıa de control. Investigación aplicada tecnológica. Se busca que la industria aeroespacial y aeronáutica tengan como alternativa al uso de propulsores, una plataforma que genere el torque necesario en la nave espacial para poder cambiar la orientación. Investigación aplicada científica. En el ámbito científico, se busca implementar el modelo matemático para validar e innovar en distintos algoritmos de control.


CONCLUSIONES

Este proyecto se estructura en dos partes. La primera parte se enfoca en el desarrollo del modelado matemático y el diseño CAD del servo mecanismo, mientras que la segunda parte aborda la aplicación del modelo para estabilizar el péndulo. Actualmente, se ha concluido tanto el diseño CAD como el ensamblado del prototipo. También se llevado a cabo la realización de planos normalizados. Así mismo, continuamos con el desarrollo del modelado matemático para, posteriormente simular e implementar el modelo utilizando herramientas como Simulink y Arduino UNO. Por otro lado, la segunda parte se centra en desarrollar un método innovador que permite levantar el péndulo de manera eficiente y segura. Una vez completadas ambas partes, se obtiene una plataforma versátil para probar diversas aplicaciones en algoritmos de control. La plataforma permite evaluar el rendimiento de técnicas como el control de orientación, lógica difusa o redes neuronales al integrarlas con las interfaces entre Matlab y el controlador Arduino UNO.
Guzman Garcia Sebastian, Instituto Tecnológico de Piedras Negras
Asesor: Mg. John Alberto Betancur Maya, Instituto Tecnológico Metropolitano

DISEñO DE UN PROTOTIPO DE BAJO COSTO PARA LA MEDICIóN DE CALIDAD DEL AGUA


DISEñO DE UN PROTOTIPO DE BAJO COSTO PARA LA MEDICIóN DE CALIDAD DEL AGUA

Guzman Garcia Sebastian, Instituto Tecnológico de Piedras Negras. Asesor: Mg. John Alberto Betancur Maya, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

El acceso a agua potable y de calidad es fundamental para la salud y el bienestar de las comunidades. Sin embargo, en muchas partes del mundo, la calidad del agua se ve comprometida debido a la contaminación y la falta de sistemas de monitoreo efectivos. En este contexto, se ha desarrollado un prototipo de dispositivo de medición de calidad del agua que aborda esta problemática al evaluar las magnitudes de pH, turbidez y temperatura del agua. Este informe presenta el desarrollo, los objetivos y la importancia de este prototipo, así como sus implicaciones para mejorar la calidad de vida de la comunidad.



METODOLOGÍA

El prototipo diseñado es un sistema compacto y portátil que combina sensores electrónicos para medir tres parámetros cruciales en la calidad del agua: el pH, la turbidez y la temperatura. Estos parámetros son indicativos de la pureza, la claridad y la seguridad del agua para el consumo humano y otras actividades. El dispositivo utiliza tecnología de detección avanzada y un microcontrolador para capturar y procesar los datos en tiempo real. Los sensores de pH miden la acidez o alcalinidad del agua, lo que puede indicar la presencia de sustancias químicas nocivas o contaminantes. La medición de la turbidez revela la cantidad de partículas suspendidas en el agua, lo que puede afectar tanto la salud humana como el ecosistema acuático. Por último, la medición de la temperatura es esencial, ya que puede influir en la solubilidad de minerales y gases, afectando la calidad y la capacidad del agua para albergar vida.


CONCLUSIONES

La calidad del agua es una preocupación global, y es crucial abordarla para garantizar la salud pública y la sostenibilidad ambiental. El prototipo desarrollado para medir pH, turbidez y temperatura del agua representa un paso significativo hacia el monitoreo y la mejora de la calidad del agua en las comunidades. Al proporcionar una herramienta accesible y efectiva, este prototipo permite una detección temprana de problemas de calidad del agua y contribuye a la protección de la salud de las personas y el medio ambiente. En un contexto donde la contaminación del agua es una amenaza creciente, el prototipo no solo ofrece datos precisos y oportunos, sino que también promueve una mayor conciencia sobre la importancia de conservar y proteger este recurso vital. Al empoderar a las comunidades con información confiable, se fomenta la colaboración entre los ciudadanos, las autoridades y las organizaciones en la búsqueda de soluciones sostenibles. En conclusión, el prototipo de medición de calidad del agua es un avance prometedor en la búsqueda de un suministro de agua más seguro y saludable, y tiene el potencial de generar un impacto positivo en las comunidades alrededor del mundo.
Guzmán Lopez Mizraim, Instituto Tecnológico Superior de Tierra Blanca
Asesor: Dr. Erasmo Saloma Ruiz, Benemérita Universidad Autónoma de Puebla

CONVERTIDORES DC-DC E INVERSORES DC-AC A ALTAS FRECUENCIAS


CONVERTIDORES DC-DC E INVERSORES DC-AC A ALTAS FRECUENCIAS

Guzmán Lopez Mizraim, Instituto Tecnológico Superior de Tierra Blanca. Asesor: Dr. Erasmo Saloma Ruiz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

A lo largo de las siete semanas que duró el programa, fuimos capaces de realizar diversas actividades que fortalecieron nuestro conocimiento como pasantes de ingeniería electrónica. No solo eso, también tuvimos la oportunidad de nutrirnos con nuevos conocimientos.



METODOLOGÍA

Empezamos poco a poco, estudiando un tipo de transistor específico: los MOSFET. Esto nos permitió construir una sólida base en el tema. Comprendimos sus características, su funcionamiento, su simbología y las aplicaciones que tienen, especialmente para nuestro proyecto. Posteriormente, llevamos a cabo prácticas con estos dispositivos, enfocándonos en circuitos simples que nos ayudaron a visualizar su funcionamiento de manera tangible.   Más adelante, nos adentramos en los transistores IGBT, que serían fundamentales en los circuitos convertidores dc-ac de nuestro proyecto. Al igual que con los MOSFET, iniciamos estudiando estos dispositivos, entendiendo sus características, simbología, funcionamiento y aplicaciones. Una vez asimilado todo esto, nos dedicamos al diseño de dos circuitos dc-ac. El primero, un circuito con cuatro transistores, y el segundo, un circuito con seis transistores, ambos fueron posteriormente simulados.


CONCLUSIONES

Además, tuvimos la oportunidad de aprovechar las instalaciones de la institución y utilizar algunos módulos de entrenamiento para Control, lo que nos permitió expandir nuestro conocimiento y lograr éxitos en nuestras prácticas.
Guzmán Moreno Paola Itzel, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dra. Jorgelina Cecilia Pasqualino Na, Universidad Tecnológica De Bolívar

MONITOREO DE LA CALIDAD DE AGUA EN CUERPOS DE AGUA EN CARTAGENA DE INDIAS, COLOMBIA.


MONITOREO DE LA CALIDAD DE AGUA EN CUERPOS DE AGUA EN CARTAGENA DE INDIAS, COLOMBIA.

Guzmán Moreno Paola Itzel, Tecnológico de Estudios Superiores de Tianguistenco. Loredo Pérez Citlalli, Universidad de Guadalajara. Asesor: Dra. Jorgelina Cecilia Pasqualino Na, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

En Cartagena de Indias, Colombia, los cuerpos de agua como playas, ciénagas y lagos desempeñan un papel fundamental en la identidad, el turismo y la economía de la ciudad. Sin embargo, el rápido crecimiento poblacional y el desarrollo urbano no planificado han generado una serie de desafíos ambientales que amenazan la salud y la sostenibilidad de estos ecosistemas costeros. La proliferación de actividades humanas no reguladas, como descargas de aguas residuales sin tratar, vertidos de desechos sólidos, la presencia de colillas de cigarros y el uso irresponsable de playas han provocado un aumento en la contaminación del agua en estos cuerpos acuáticos. La calidad del agua es un factor crítico para el funcionamiento equilibrado de los ecosistemas costeros. Por lo tanto, es imperativo el monitoreo constante que evalúe regularmente los parámetros físicoquímicos y biológicos de éstos ecosistemas. Cartagena es la segunda ciudad con más turismo en Colombia, por lo que una de las principales actividades económicas de Cartagena es el turismo en sus playas, es por ello que es de suma importancia la conservación de sus playas y demás ecosistemas costeros. El monitoreo regular permite detectar tendencias y cambios en la calidad del agua, identificar fuentes de contaminación y evaluar los impactos de las actividades humanas en los ecosistemas costeros. Con esta información, se podrán diseñar estrategias y medidas de conservación orientadas a proteger la salud de estos valiosos recursos acuáticos.



METODOLOGÍA

  Monitoreo de playas  Nutrientes (Nitritos, nitratos y amonio) En muestras de  10 mL,para agregar el reactivo, esperar 6 minutos, verter en el cubo comparador de colores y observar Conductividad y sólidos solubles totales Sumergir el conductímetro en la muestra y anotar resultados. Temperatura y pH Sumergir el equipo en la muestra y anotar resultados. Dióxido de carbono Añadir 1 gota de fenoltaleína a 5 ml de muestra, si la solución queda rosa, la cantidad de CO2=0, si la solución permanece incolora, titular el reactivo HI 3818-0. Salinidad y gravedad específica Llenar de muestra el hidrómetro, esperar a que la aguja se estabilice y anotar resultados. Turbidez Colocar 10 ml de muestra dentro del equipo y leer rsultado   Demanda béntica de El Laguito. Se seleccionan 4 puntos de monitoreo Se construyen pequeños reactores con una bomba y una manguera. Los primeros 15 cm le corresponden a lodos, los otros 5 cm deberán ir libres y finalmente en el centímetro 20 colocar la bomba. En los reactores verter sólidos recolectados en El Laguito Dejar airear las muestras de agua recolectadas del Laguito por 20 minutos.  Verter en los reactores el agua aireada, mientras se deja bombear por cuatro horas y se toman mediciones de oxígeno cada hora. Realizar mediciones de oxígeno disuelto en cada muestra y medir parámetros, como turbidez, alcalinidad, nutrientes (nitrato, nitrito, amonio), densidad, salinidad, conductividad, potencial redox y sólidos disueltos. Identificación de microplásticos Secar la arena a 60°C por 48 horas. Disolver 359 g de NaCl en 1L de agua y agitar 48 h a 600 rpm a 60°C Se deja reposar la solución hasta temperatura ambiente. Se filtra la disolución salina a través de filtro de poro fino mediante uso de una bomba de vacío Se mezclan 50 g de suelo seco con 200 ml de la solución concentrada, a 600 rpm durante 2 minutos.  Se deja asentar la muestra por 6 horas Se filtra la muestra de arena en la disolución con el papel de poro fino mediante bomba de vacío. Se seca el filtro a temperatura ambiente en caja Petri de vidrio Se  una separación de microplásticos para su clasificación por microscopio o estereoscopio. Se repite la agitación, asentamiento y filtrado dos veces más. Monitoreo de la ciénega Virgen Se seleccionan 5 puntos de muestreo en la ciénega. Se toman muestra de los 5 puntos y además se realiza la medición de oxígeno, dióxido de carbono y turbidez.


CONCLUSIONES

El proyecto de monitoreo de playas en Cartagena arrojó resultados alentadores sobre la calidad del agua en tres áreas evaluadas: Bocagrande, Crespo y Playa Azul. Los valores encontrados para pH (7.8), oxígeno disuelto (6.06-6.24 mg/L), temperatura (30.3-31°C) y CO2 (7.62-16 ppm) se mantuvieron dentro de los límites aceptables, reflejando una excelente salud de los ecosistemas acuáticos. La ausencia de contaminantes como amonio, nitritos y nitratos, junto con una turbidez baja y salinidad adecuada (34.12-36.2 PSU), respaldan una calidad óptima del agua, al igual que la gravedad específica cuyos valores se encuentran alrededor de 1.026. Además, los sólidos disueltos totales (8.74-9.53 ppt) también se encontraron en niveles apropiados. El monitoreo de playas en Cartagena reveló que los parámetros analizados se encuentran dentro de los límites aceptables, con mínimas variaciones ocasionales. Se observó una excelente calidad del agua en todos los parámetros analizados. Los resultados indican que las playas de Cartagena mantienen una alta calidad del agua, lo que contribuye a la preservación de estos valiosos ecosistemas costeros. Sin embargo, es crucial seguir con el monitoreo periódico para detectar cambios a largo plazo y prevenir posibles impactos negativos por el crecimiento urbano y turismo. La gestión adecuada y la promoción de prácticas sostenibles son fundamentales para mantener la salud y la conservación de los ecosistemas costeros de Cartagena. En cuanto a la medición de la demanda béntica de El Laguito y la identificación de microplásticos en Bocagrande, aún no se han concluido dichos proyectos, por lo que no es posible presentar los resultados finales.  
Henao Ordoñez Frank Yinner, Corporación Universitaria Minuto de Dios
Asesor: Dr. Jorgue Andrick Parra Valencia, Universidad Autónoma de Bucaramanga

ANáLISIS DE LAS ACTIVIDADES REALIZADAS DURANTE EL PROGRAMA DELFíN: UNA REVISIóN DETALLADA


ANáLISIS DE LAS ACTIVIDADES REALIZADAS DURANTE EL PROGRAMA DELFíN: UNA REVISIóN DETALLADA

Henao Ordoñez Frank Yinner, Corporación Universitaria Minuto de Dios. Asesor: Dr. Jorgue Andrick Parra Valencia, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

La investigación académica es algo presente en cada momento del recorrido de las carreras, la asignación de tareas administrativas a estudiantes dentro del entorno educativo presenta una serie de interrogantes y desafíos que requieren una indagación profunda. A medida que las instituciones académicas buscan optimizar sus recursos y ofrecer una experiencia de aprendizaje integral, surge la cuestión de cómo la integración de tareas administrativas en el proceso educativo puede contribuir tanto al desarrollo de habilidades prácticas como al avance de la investigación académica. Sin embargo, es esencial explorar si esta práctica resulta en un equilibrio adecuado entre las responsabilidades administrativas y los objetivos de aprendizaje, y si su implementación impacta positivamente en la producción y calidad de la investigación académica. Además, se requiere un análisis exhaustivo de cómo esta asignación puede afectar la participación activa de los estudiantes en investigaciones académicas, su motivación y compromiso, así como su percepción del valor de dichas tareas administrativas en relación con su formación académica y futuras trayectorias profesionales. En este sentido, esta investigación busca examinar el impacto de la asignación de tareas administrativas a estudiantes en la intersección entre la experiencia educativa y la generación de conocimiento, arrojando luz sobre su efectividad, beneficios y posibles desafíos en la promoción de un entorno de investigación académica dinámico y enriquecedor.



METODOLOGÍA

Se definió el realizar actividades planificadas y asignadas con el propósito de generar un ambiente investigativo al estudiante, asociándose, revisando, desarrollando e implementando diferentes datos de acuerdo a la actividad asignada. A su vez, la participación de eventos investigativos de temas de interés para retroalimentar la investigación y mejorar esta. La metodología consta de un avance consecutivo, variando en las actividades desarrolladas con el propósito de dar distintas opciones y visiones de los trabajos en los que pueden tener fortalecimiento en la investigación del estudiante. En pro de la mejora, se da una validación y retroalimentación de los resultados y las conclusiones con los encargados y recibir retroalimentación para fortalecer la actividad y la investigación. Las actividades administrativas pueden ayudar a la investigación de los estudiantes, asignándose de acuerdo a los intereses y/o temas de la carrera que se realice. Es fundamental para comprender cómo la eficiencia en la gestión y organización de los recursos puede potenciar el desarrollo de proyectos académicos. Las tareas administrativas incluyen la planificación, coordinación, seguimiento y evaluación de actividades, así como la asignación de recursos y la comunicación efectiva. A continuación, se presentan ejemplos y referencias que respaldan la importancia de las tareas administrativas en el ámbito educativo: Planificación y coordinación de proyectos de investigación: la adecuada planificación de un proyecto de investigación es clave para su éxito. Una gestión administrativa eficiente permite definir objetivos claros, plazos y recursos necesarios para la investigación. En palabras de Kerzner (2017), "la planificación adecuada es esencial para evitar problemas en el futuro y asegurarse de que se cumplan los objetivos de la investigación". Gestión de recursos y presupuesto: la asignación adecuada de recursos financieros y materiales es esencial para llevar a cabo una investigación exitosa. Una gestión administrativa efectiva permite optimizar el uso de recursos y garantizar el cumplimiento de los objetivos. Según Trochim et al. (2018), "una gestión adecuada de los recursos es esencial para llevar a cabo una investigación con éxito". Seguimiento y evaluación de avances: el seguimiento regular del progreso de la investigación permite detectar posibles desviaciones y tomar acciones correctivas a tiempo. Una gestión administrativa adecuada facilita la evaluación continua de los avances y la toma de decisiones informadas. Según Tashakkori y Teddlie (2010), "la evaluación sistemática del progreso de la investigación es esencial para garantizar su calidad y eficacia". Comunicación y colaboración: la gestión administrativa también implica facilitar la comunicación y la colaboración entre los miembros del equipo de investigación. Una adecuada coordinación y comunicación permiten compartir ideas, intercambiar información y enriquecer el proceso de investigación. Según Davis y Davis (2018), "la colaboración efectiva entre investigadores es esencial para lograr resultados significativos".


CONCLUSIONES

Siguiendo los lineamientos del programa Delfín y la estrategia docente, se ha logrado establecer una sinergia efectiva entre diversas tareas asignadas y el fomento de habilidades de investigación en los estudiantes participantes de la estancia. No obstante, se observa que el grado de acompañamiento y participación activa del docente podría mejorarse en esta dinámica.   En pro de optimizar esta experiencia, es crucial redefinir la tipología de tareas propuestas, clarificar la naturaleza de los encargos y elevar la involucración tanto del cuerpo docente como de los estudiantes. Es esencial brindar un mayor respaldo y enfoque a los participantes. Vale la pena destacar la significativa contribución en la asistencia a eventos de relevancia, donde se ha propiciado el encuentro con diversos autores que abordan una amplia gama de temáticas de investigación.
Heredia Castro Elfego, Universidad Autónoma de Guerrero
Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

CARACTERIZACION DE LOSETA DE TIERRA COMPRIMIDA


CARACTERIZACION DE LOSETA DE TIERRA COMPRIMIDA

Beltran Aispuro Jessica Leonela, Universidad Autónoma de Occidente. Heredia Castro Elfego, Universidad Autónoma de Guerrero. Asesor: Mtra. Selene López Cameras, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

Con la finalidad de obterner metodos de confort termico mas amigables con el medio ambiente, se busca la creacion de losetas a base de elementos naturales, extraidos del mismo sitio, siendo capaz de volver al entorno, cumpliendo asi un ciclo de vida renovable. Dichos elementos son tales como: Suelos finos, suelos gruesos, conglomerantes, agua  y fibras. Buscando distintas maneras y procedimientos que nos ayude a lograr dichos objetivos.



METODOLOGÍA

La metodologia a seguir durante el verano, es el metodo Lumex, consta de 6 etapas: 1. Identificacion: Comprender los elementos que se van a utilizar, viendo su factibilidad. 2. Extracción: Se da inicio a la obteción de dichos materiales para su uso en el procedimiento. 3. Producción: Inicio al proceso del tratado de material para que sea adecuado, tal como preparacion, tamizado, etc. 4. Tecnificación: Ya obtenidos los materiales y listos para su desarrollo, se da inicio a las distintas variaciones de porcentajes en la composición. 5. Sistematización: Se comprende el uso del elemento como material constructivo y su compatibilidad con el entorno. 6. Operación: Una vez obtenido, se empieza el proceso de desarrollo como producto renovable.    


CONCLUSIONES

Una vez concluidas las 6 etapas, los resultados fueron favorables, obteniendo asi una loseta capaz de retardar el calor en zonas que lo requieran, ademas con la implementacion de nuevos materiales que mejoran su resistencia al agua. Los resultados, en conclusión, son gratificantes, demostrando asi que con materiales amigables con el entorno natural, se obtienen grandes aportes a la construcción y desarrollo sustentable.
Hermenegildo Adrián Berenice, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

IMPLEMENTACIóN DE PLATAFORMA WEB PARA PROMOVER ATRACTIVOS TURíSTICOS DEL MUNICIPIO DE ELOTA EN EL ESTADO DE SINALOA


IMPLEMENTACIóN DE PLATAFORMA WEB PARA PROMOVER ATRACTIVOS TURíSTICOS DEL MUNICIPIO DE ELOTA EN EL ESTADO DE SINALOA

Diaz Rivera Asaf, Tecnológico de Estudios Superiores de Jocotitlán. Enrique Becerril Jennifer, Tecnológico de Estudios Superiores de Jocotitlán. Hermenegildo Adrián Berenice, Tecnológico de Estudios Superiores de Jocotitlán. Mejía Lozada Izael, Instituto Tecnológico de Pachuca. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

El municipio de Elota, ubicado en el estado de Sinaloa, se enfrenta a desafíos significativos a pesar del constante crecimiento del turismo en la región. Aunque este sector ha experimentado un aumento, Elota aún no ha logrado posicionarse como uno de los destinos más reconocidos y visitados en el área turística que abarca la región. Esta falta de reconocimiento se debe en gran parte a la popularidad dominante de Mazatlán, que se considera el principal lugar para visitar en Sinaloa. En consecuencia, los municipios vecinos, incluido Elota, se han visto relegados a una baja actividad turística. Es importante destacar que Elota cuenta con lugares únicos, como el monumento de la Cruz del perdón, la Playa Ceuta, entre otros, que lo distinguen y lo convierten en un destino especial. Considerando lo anterior, surge una necesidad apremiante de resaltar tanto Elota como otras áreas turísticas en la región. Esto no solo ayudaría a incrementar el número de visitantes, sino que también permitiría un mayor crecimiento en las comunidades locales, mejorando aspectos económicos, sociales y culturales. Es esencial que se promueva la diversificación turística y se ponga en relieve la singularidad de Elota y sus maravillas, para que los turistas puedan explorar y disfrutar de todas las ofertas que la región de Sinaloa tiene para ofrecer más allá de Mazatlán. En consecuencia, permitirá la apertura de grandes oportunidades para el desarrollo integral de las comunidades locales, fomentando un turismo más equitativo y sostenible en toda la región.



METODOLOGÍA

Durante el desarrollo del sitio web turístico, se utilizó una metodología basada en prototipos que comprende ocho fases. Este enfoque permite generar versiones preliminares del sitio y obtener comentarios del cliente de forma iterativa, asegurando que el sitio cumpla con sus requisitos y expectativas. Además, el proyecto fue llevado a cabo de manera colaborativa con alumnos del ámbito turístico, quienes proporcionaron el material informativo para el sitio web. En el primer paso se identificó el problema que enfrenta el municipio de Elota para posicionarse como destino turístico a causa de la popularidad de Mazatlán en la región. Esto ha llevado a una actividad turística limitada en Elota y otros municipios cercanos, a pesar de contar con atractivos lugares. Es esencial promover el reconocimiento de Elota mediante un sitio web, lo que no solo aumentaría el número de visitantes, sino también beneficiaría a las comunidades locales en aspectos económicos, sociales y culturales. Después de identificar el problema, se elaboraron una serie de requerimientos con el propósito de impulsar el reconocimiento del municipio mediante la creación de un sitio web interactivo que motive a los turistas a visitarlo. Para lograr esto, el sitio web debe contar con un diseño atractivo que incluya una experiencia de visita virtual mediante representaciones de imágenes 360 y modelos 3D de los principales lugares de interés turístico. Se procedió a la construcción del prototipo, que comprendió dos etapas. En la primera etapa, se diseñó el sitio web utilizando el framework Figma para establecer su estructura y seleccionar las herramientas necesarias. Se eligió Vue.js para la interfaz y A-Frame para las escenas 3D con modelos creados en Blender de los lugares turísticos. En la segunda etapa, se inició la construcción del sitio web siguiendo el diseño previo, utilizando las herramientas mencionadas. El prototipo del sitio web entra en una etapa de evaluación, en la cual se verifica que el sitio cumpla con los requerimientos establecidos. Después de completar la evaluación, se lleva a cabo un análisis del feedback proporcionado por el cliente, con el fin de identificar posibles áreas de mejora y determinar la incorporación de nuevas funcionalidades, en caso de ser necesario. Tras la evaluación, en las etapas de modificación y pruebas se llevó a cabo un análisis e implementación de las posibles funcionalidades que podrían agregarse al sitio web, siempre y cuando fueran necesarias. En caso de no añadir nuevas funcionalidades se efectuaron mejoras al prototipo en las diferentes áreas que conforman el sitio web. Las mejoras se centraron en aspectos gráficos, como el modelado de estructuras, texturas y escalas, así como en depurar la información presentada en cada sección del sitio. Además, se trabajó en la optimización de objetos y videos dentro del entorno del sitio web. En todas las fases del desarrollo del sitio web, se registró detalladamente el proceso utilizado para crear cada uno de los elementos que conforman el sitio. Esto se hizo con el propósito de contar con información precisa y clara sobre el proceso seguido, lo que será de gran utilidad en las etapas posteriores del desarrollo. Finalmente, se dio por concluido el desarrollo del sitio web, asegurándose de que cumpliera con todos los requerimientos establecidos desde el inicio y verificando que estuviera libre de errores.  Una vez hecho esto a futuro se buscará que el sitio web sea alojado en un servidor público o privado para que los usuarios puedan acceder a este desde cualquier dispositivo con conexión a internet.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos en desarrollo web y realidad virtual, utilizando frameworks como Vue.js y A-Frame para diseñar un sitio web turístico que promueva la actividad turística del municipio de Elota, Sinaloa. El sitio ofrece una experiencia interactiva de visita virtual con imágenes 360 y modelos 3D de lugares de interés. Se utilizó una estructura de página de tipo SPA para cargar elementos sin recargar la página, también se implementaron herramientas adicionales para mejorar la carga de elementos, especialmente los modelos 3D, con planes de futuras mejoras. El desarrollo del sitio alcanzo un 80%, con planes para agregar una sección de administración y una sección de reseñas sobre el municipio.
Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit
Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara

APLICACIóN INFORMATIVA CON REALIDAD AUMENTADA PARA SMARTPHONE PARA EL CENTRO UNIVERSITARIO DE LA COSTA


APLICACIóN INFORMATIVA CON REALIDAD AUMENTADA PARA SMARTPHONE PARA EL CENTRO UNIVERSITARIO DE LA COSTA

Cervantes Paz Alejandra, Universidad Autónoma Benito Juárez de Oaxaca. Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit. Ramos Avalos Roberto, Universidad Tecnológica de Nayarit. Sangri Espitia Luis Arturo, Instituto Tecnológico de Matamoros. Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La problemática detectada en el Centro Universitario de la Costa (CUC) de Puerto Vallarta Jalisco conforme ha pasado el tiempo ha ido aumentando cada vez más y por ende sigue afectando a toda la comunidad estudiantil y a todos los usuarios que visitan por primera vez las instalaciones de este centro de estudios, ya que, este instituto tiene una alta demanda de solicitudes de ingreso debido a que también se encuentra ubicado en un municipio de grado turístico y recibe estudiantes tanto locales que habitan en el mismo estado o municipio y hasta alumnos internacionales. Otro de estos motivos es que el centro  universitario está afiliado a distintos programas de estudio lo que conlleva a recibir estudiantes de distintas partes nacionales e internacionales. Por estas razones al visitar por primera vez sus instalaciones  los alumnos se encuentran desorientados ya que desconocen dónde se encuentra cada área de las cuales se compone el campus, debido a que esta institución es muy amplia y se desconoce la ubicación de los mapas de los edificios o algún personal específico o asignado que oriente a los estudiantes o usuarios que ingresan por primera vez a este centro universitario, otro problema detectado es que los señalamientos dentro del instituto están bastante deteriorados y dañados, por lo tanto no son muy entendibles, lo que conlleva a verse involucrados en la problemática mencionada anteriormente.



METODOLOGÍA

Definición del Alcance y Objetivos: En esta fase inicial, el equipo se reunirá con representantes del Centro Universitario para comprender los requisitos y expectativas de la aplicación de realidad aumentada. Se establecerá el alcance del proyecto y se definirán los objetivos específicos, centrándose en proporcionar información detallada sobre instalaciones, edificios, departamentos, oficinas y el reptilario del campus. Planificación y Diseño: El equipo diseñará un plan detallado para el desarrollo de la aplicación. Esto incluirá la asignación de tareas, la definición de los entregables y la estimación de tiempos para cada fase del proyecto. Además, se definirán los requisitos para la captura de datos mediante la tecnología Vuforia y la integración de los área targets generados en Unity para crear el entorno virtual. Fase de Escaneo y Generación de Área Targets: En esta etapa, el equipo llevará a cabo el escaneo de las áreas relevantes del campus utilizando la tecnología Vuforia. Los datos recopilados se utilizarán para generar los área targets necesarios para la aplicación de realidad aumentada. Desarrollo del Entorno Virtual en Unity: Con los área targets generados, el equipo procederá a desarrollar el entorno virtual en Unity. Se crearán los modelos 3D y la interfaz de usuario necesaria para presentar la información adicional de cada ubicación en el campus. Implementación y Pruebas: En esta fase, se integrarán los area targets y el entorno virtual en la aplicación de realidad aumentada. Se llevarán a cabo pruebas exhaustivas para garantizar que la información se muestre correctamente en cada área target y que la aplicación funcione sin problemas. Pruebas de Campo y Retroalimentación: Una vez que la aplicación esté lista, se llevarán a cabo pruebas en campo en el campus universitario para validar su funcionalidad y experiencia de usuario. Se recopilará la retroalimentación de los usuarios para realizar ajustes y mejoras necesarias. Entrega y Despliegue Definitivo: Con todas las funcionalidades implementadas y las pruebas completadas, se preparará la aplicación para su lanzamiento definitivo en el campus universitario. Se llevará a cabo una capacitación más completa para el personal y los usuarios finales. Seguimiento y Mantenimiento Continuo: Una vez que la aplicación esté en funcionamiento completo, se realizará un seguimiento continuo para detectar y resolver cualquier problema que pueda surgir. Se considerará la posibilidad de agregar nuevas funcionalidades en el futuro para mejorar aún más la experiencia de los usuarios.


CONCLUSIONES

El desarrollo de una aplicación informativa con realidad aumentada para Smartphone en el Centro Universitario de la Costa (CUC) promete ser una herramienta valiosa para proporcionar información detallada sobre las instalaciones del campus, incluyendo edificios, departamentos, oficinas y el reptilario. Los usuarios podrán navegar con facilidad y confianza por el centro universitario, lo que mejorará significativamente su experiencia de ingreso y estancia, facilitando su adaptación y comodidad en el campus. La metodología implementada para el desarrollo de la aplicación ha sido cuidadosamente planificada y ejecutada en colaboración con representantes del Centro Universitario, asegurando que los objetivos del proyecto estén alineados con las necesidades reales de los usuarios. El aprovechamiento de tecnologías como Vuforia para el escaneo y generación de área targets, junto con el entorno virtual en Unity, ha permitido una experiencia de realidad aumentada fluida y precisa, garantizando la solidez técnica del proyecto. Esta tecnología no solo facilita la navegación en el campus, sino que también impulsa la imagen del Centro Universitario de la Costa como una institución moderna. La aplicación representa un avance significativo hacia la mejora de la calidad educativa y la satisfacción de la comunidad universitaria, consolidando al CUC como un referente en el ámbito educativo tecnológico.
Hernández Benítez Blanca Paola, Corporación Universitaria del Caribe
Asesor: Mg. Jorge Andres Angel Salazar, Universidad del Valle

ANALIZAR LOS PROCESOS Y PROCEDIMIENTOS DE UNA EMPRESA Y DETERMINAR CóMO LOS PRINCIPIOS DE INGENIERíA PUEDEN MEJORARLOS


ANALIZAR LOS PROCESOS Y PROCEDIMIENTOS DE UNA EMPRESA Y DETERMINAR CóMO LOS PRINCIPIOS DE INGENIERíA PUEDEN MEJORARLOS

Hernández Benítez Blanca Paola, Corporación Universitaria del Caribe. Asesor: Mg. Jorge Andres Angel Salazar, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

En el competitivo panorama empresarial actual, la optimización de procesos y procedimientos internos es esencial para lograr eficiencia operativa, satisfacción del cliente y sostenibilidad a largo plazo. La aplicación de los principios de Ingeniería desempeña un papel fundamental al revisar y mejorar estos procesos, buscando resultados excepcionales. Este análisis se centra en cómo la ingeniería se convierte en una herramienta valiosa para identificar oportunidades de mejora y optimización en las operaciones de una empresa, buscando un rendimiento sobresaliente. La evaluación de los procesos actuales se realiza mediante entrevistas, recopilación de datos y observación directa, para mapear las diversas actividades y flujos de trabajo en áreas clave como producción, distribución, ventas y servicio al cliente. La identificación de áreas de mejora se lleva a cabo mediante métodos de ingeniería como la ingeniería de procesos, sistemas y análisis de datos, que permiten detectar ineficiencias, cuellos de botella, redundancias y puntos débiles. La mejora de los procesos se logra aplicando principios de Ingeniería como la reingeniería de flujos de trabajo, simplificación de procesos complejos y la incorporación de tecnología para automatizar tareas. La optimización de recursos y la implementación de sistemas de gestión de calidad, como Six Sigma, también contribuyen a reducir defectos y mejorar la satisfacción del cliente. El monitoreo continuo y la mejora iterativa garantizan que las mejoras se mantengan y se realicen ajustes adicionales para mantener la ventaja competitiva en el mercado.



METODOLOGÍA

Para llevar a cabo esta investigación, se propone una metodología que abarca seis etapas. En primer lugar, se realizará una revisión bibliográfica exhaustiva para establecer una base teórica sólida y comprender las mejores prácticas utilizadas en ingeniería de procesos y procedimientos, así como en áreas relacionadas como la gestión de calidad y la mejora continua. Seguidamente, se llevará a cabo un diagnóstico detallado de los procesos y procedimientos actuales de la empresa objeto de estudio mediante técnicas de mapeo y análisis de flujo de trabajo, con el objetivo de identificar áreas de mejora. A continuación, se revisarán los principios de ingeniería aplicables y se seleccionarán aquellos más relevantes para la empresa en estudio. Con base en estos resultados, se diseñarán propuestas concretas para mejorar los procesos y procedimientos de la empresa, ajustándolas a sus necesidades específicas. Se evaluará el impacto potencial de estas propuestas en términos de costos, recursos y beneficios esperados. Finalmente, se elaborará un informe final que incluirá los resultados obtenidos, las propuestas de mejora y las recomendaciones prácticas para guiar la implementación de soluciones y como referencia para futuras investigaciones en este campo de la ingeniería empresarial.  


CONCLUSIONES

En conclusión, la aplicación de los principios de Ingeniería para analizar los procesos y procedimientos de una empresa ofrece una oportunidad valiosa para alcanzar eficiencia, eficacia y calidad en sus operaciones. La mejora continua es esencial para mantener una ventaja competitiva y adaptarse a los cambios en el entorno empresarial. En un entorno empresarial altamente competitivo y cambiante, la optimización de procesos y procedimientos se vuelve imprescindible para mantener la competitividad y el éxito a largo plazo. Los principios de ingeniería proporcionan un enfoque estructurado y metódico para abordar estos desafíos de manera sistemática y efectiva. Al implementar soluciones basadas en ingeniería, las empresas pueden lograr mejoras significativas y sostenibles en su desempeño general. El estudio tiene como objetivo proporcionar una guía valiosa para las empresas, permitiéndoles aplicar con éxito los principios de ingeniería en sus operaciones. Siguiendo este enfoque, las organizaciones pueden maximizar su potencial y optimizar sus operaciones de manera continua, logrando crecimiento sostenible y una posición de liderazgo en el mercado. Al abrazar los principios de ingeniería, las empresas pueden adaptarse rápidamente a los cambios, aumentar la eficiencia y ofrecer productos y servicios de mayor calidad, lo que contribuye a su éxito en un entorno empresarial competitivo y dinámico.
Hernández Bravo Saramaría Galilea, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa

SISTEMA SIMULADOR UNDIMOTRíZ


SISTEMA SIMULADOR UNDIMOTRíZ

Hernández Bravo Saramaría Galilea, Instituto Tecnológico Superior de Uruapan. Lucatero Díaz Ángel Josafat, Universidad Politécnica de Sinaloa. Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El uso de energías renovables es fundamental para reducir la dependencia de los recursos no renovables y mitigar el impacto ambiental causado por las fuentes de energía tradicionales. Entre las diversas fuentes renovables, la energía undimotriz, que proviene de las olas del océano, muestra un gran potencial para ser aprovechada como una fuente de energía limpia y sostenible en México. Para el desarrollo de sistemas de energía undimotriz eficientes, se ha recurrido a simuladores para modelar y evaluar el rendimiento de diferentes diseños y tecnologías. Estos simuladores permiten predecir el comportamiento de los dispositivos undimotrices bajo diversas condiciones del mar, lo que ayuda a optimizar su eficiencia y fiabilidad antes de implementarlos a gran escala.



METODOLOGÍA

El dispositivo simulador undimotríz está basado en una plataforma móvil de 1 grado de libertad, en modo lineal cartesiano. El dispositivo en desarrollo ya cuenta con un diseño y ensamble. Se realizaron pequeñas mejoras y cambios al diseño mecánico del prototipo, en el cual se cambió la forma de organización y se propusieron nuevas ideas para la transmisión del movimiento del motor que moverá una veleta que a su vez realizará un movimiento que simulará el comportamiento de las olas, así también se diseñaron piezas únicas para algunas partes, como una pieza especial que estará en el motor y un piñón que estará montado en el encoder con el que será posible la lectura del movimiento del motor a través de una banda dentada. Algunas piezas del prototipo se fueron imprimiendo en 3D para poder hacer pruebas de funcionamiento. Para poder realizar estas pruebas se implementó una pequeña plataforma en la que se montó el motor y el encoder, así como una base para el encoder con la que quedara a la misma altura del motor, esta base se rediseñó y se imprimió en 3D, también se diseñó e imprimió un pequeño adaptador con el que se pudiera unir el motor con el encoder y poder realizar la lectura de este a través de programación. En la programación se realizaron en primera instancia programas para probar los componentes a utilizar, como el encoder, en el cual se realizó un programa con el que puedes medir los pulsos por segundo que arroja este cuando se mueve. Se realizó un código para poder controlar el sentido del motor a través de un puente H y comprobar su correcto funcionamiento, y se implementaron diferentes controladores para ver el funcionamiento con cada unp, hasta finalmente trabajar con un arduino mega 2560. Para la programación y el control del prototipo, se utilizó el software matlab en donde se realizó un programa de apoyo para poder identificar el funcionamiento de la función de control PID predeterminada que tiene el software, en donde se median las rpm y se controlaba la velocidad del motor, mientras que en arduino se realizó un programa para poder mover el motor en cualquier sentido y poder hacer la medición hacia cual sentido es y cuantos pulsos contaba el encoder dependiendo de las vueltas que hacía. También se realizó un programa en matlab para hacer una comunicación serial entre arduino y matlab, en el cual se tenía pensado que a través de matlab se implementara el control pid y con el programa de arduino obtener los datos necesarios. En el intermedio de este proceso se estuvo investigando qué componentes utilizar y cómo utilizarlos, ya que se tenía que saber si eran adecuados para esta aplicación.  


CONCLUSIONES

Durante esta estancia de verano se logró tener claro cómo será un primer prototipo, la forma en la que se hará el control de este y con qué componentes se podrá hacer, por falta de tiempo no se pudo realizar el ensamble completo ni la implementación de algunas piezas y ya que es un proyecto muy extenso y se quedó en una etapa inicial, por lo que no se pueden mostrar las simulaciones que podría hacer el prototipo. Se espera que en el momento que se encuentren todas las piezas manufacturadas se pueda hacer un primer prototipo funcional con el cual se puedan realizar las pruebas necesarias para seguir trabajando en su control.
Hernandez Briones Benny Emerson, Universidad Tecnológica de Nayarit
Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla

TRAZANDO EL FUTURO EDUCATIVO: UN MODELO PREDICTIVO PARA LA DETECCIóN TEMPRANA DE ESTUDIANTES CON ALTO RIESGO DE REPROBACIóN ACADéMICA


TRAZANDO EL FUTURO EDUCATIVO: UN MODELO PREDICTIVO PARA LA DETECCIóN TEMPRANA DE ESTUDIANTES CON ALTO RIESGO DE REPROBACIóN ACADéMICA

Hernandez Briones Benny Emerson, Universidad Tecnológica de Nayarit. Llamas Bernal Veida Michell, Universidad Tecnológica de Nayarit. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Mediante el informe se presenta un enfoque innovador mediante un modelo predictivo basado en Regresión Logística para identificar a estudiantes con alto riesgo de reprobación académica. Se explica cómo este modelo se fundamenta en datos académicos y de rendimiento previo de los estudiantes y se destaca su utilidad para brindar apoyo proactivo y personalizado a aquellos que lo necesitan. Obteniendo que el modelo predictivo basado en Regresión Logística es una herramienta valiosa para mejorar la retención y el éxito académico, contribuyendo a una educación más inclusiva y efectiva.



METODOLOGÍA

La metodología se desarrolló de manera general en 4 fases, para de esta manera lograr trabajar de manera secuencial y ordenada, cada una de las fases se subdivide en distintas tareas y se explica detalladamente a continuación. Fase 1: Comprensión de los datos: Se llevó a cabo una exhaustiva recopilación de datos con el propósito de establecer un primer acercamiento al complejo problema de detección temprana de estudiantes con alto riesgo de reprobación académica. Se obtienen las siguientes tareas generales: Recolectar datos iniciales. Descripción de los datos. Exploración de los datos. Verificar la calidad de los datos. Fase 2: Preparación de los datos: En esta fase crítica, se realizó una minuciosa preparación y adaptación de los datos para asegurar que estén en la forma adecuada y listos para ser utilizados en el modelo predictivo. Se obtienen las siguientes tareas generales: Seleccionar los datos. Limpiar los datos. Construir los datos. Integrar los datos. Formateo de los datos. Fase 3: Modelado:  En esta fase de Modelado, nuestra contribución fue determinante para abordar de manera efectiva el problema de detección temprana de estudiantes con alto riesgo de reprobación académica. Se obtienen las siguientes tareas generales: Escoger técnica de modelado. Generar el plan de prueba. Construir el modelo. Evaluar el modelo. Fase 4: Evaluación: En esta fase final, se llevó a cabo una evaluación rigurosa del modelo para determinar su capacidad de detección temprana de estudiantes con alto riesgo de reprobación académica. Se obtienen las siguientes tareas generales: Evaluar los resultados. Revisar el proceso. Determinar los próximos pasos.


CONCLUSIONES

El modelo predictivo basado en Regresión Logística ha demostrado alta efectividad en detectar tempranamente estudiantes en riesgo de reprobación académica, con precisión, recall y F1 Score cercanos al 100%. Su aplicación permite estrategias de intervención temprana y apoyo personalizado, mejorando la retención y el éxito académico. Futuras investigaciones deben explorar otros algoritmos de aprendizaje automático e incluir factores adicionales en el rendimiento académico. Es una valiosa herramienta para educadores y consejeros, respaldando la toma de decisiones basada en datos, buscando un sistema educativo más sólido y equitativo.
Hernández Brito David Antonio, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero

DESARROLLO Y DISEñO 3D DE LAS PARTES QUE INTEGRAN EL FRAME DE UN VEHíCULO AéREO NO TRIPULADO MULTIRROTOR TIPO CUADRICóPTERO CONFIGURACIóN EN X.


DESARROLLO Y DISEñO 3D DE LAS PARTES QUE INTEGRAN EL FRAME DE UN VEHíCULO AéREO NO TRIPULADO MULTIRROTOR TIPO CUADRICóPTERO CONFIGURACIóN EN X.

Hernández Brito David Antonio, Instituto Tecnológico de Chilpancingo. Ramírez Reyes Marco Tulio, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

Una forma de diseñar la estructura y forma de un vehiculo Aéreo No tripulado Multirrotor es utilizando software de modelado 3D. Esta aproximación permite realizar estructuras más complejas capaces de mejorar ciertas características de las partes diseñadas para especializarse en una tarea específica. Desde mejorar la rigidez de un brazo utilizando menos peso hasta utilizar formas complejas para mejorar el aerodinamismo del VANT. Pero este proceso de prototipado requiere de soluciones de moldeo costosas y maquinaria especializada para producirla. Aquí es donde entran las tecnologías de impresión 3D. Estas herramientas permiten trasladar la geometría desarrollada a una pieza utilizando diversos tipos de impresoras. Esto reduce los costes de prototipado y agiliza las iteraciones a los modelos del proyecto. En este trabajo contribuyo al proyecto de investigación Propuesta de sistema de pulverización asistido por un VANT cuadricóptero, donde se trabajó explícitamente en el objetivo 3 del mismo proyecto que abordarán los procesos realizados para diseñar el frame de un prototipo de Vehículo Aéreo No Tripulado(VANT), así como el proceso que se realizó para comprobar la viabilidad el diseño impreso mediante impresión 3D y su refinamiento en base a los resultados obtenidos en la evaluación de los mismos.



METODOLOGÍA

La metodología seleccionada fue la creación de prototipos, debido a que la naturaleza del proyecto requiere de varias iteraciones entre las diferentes etapas del desarrollo de los prototipos, agilizando el desarrollo y mejorando de forma recursiva estos mismos hasta alcanzar su perfección. Esta metodología, se compone de las etapas de levantamiento de requerimientos, diseño del prototipo, construcción del prototipo, evaluación del prototipo, refinamiento del prototipo y producto. Esto puede implicar una fase de creación de prototipos que ayude a evitar malas decisiones sobre los requerimientos y el diseño.   Etapa 1: Levantamiento de Requerimientos En esta primera etapa del trabajo se realizó la recolección de información relacionada con construcciones de VANT 's cuadricopteros clase 450 mm  configuración X.  Etapa 2: Diseño del prototipo En esta etapa se hizo uso de diversas funciones del software Blender para el modelado 3D del diseño del prototipo siguiendo las normativas y restricciones encontradas en la etapa anterior, así como también de las necesidades propias del proyecto. Etapa 3: Construcción del prototipo Para la tercera etapa se realizó la preparación del material digital, siendo estos los diseños preliminares realizados en la etapa anterior, exportando el contenido en archivos con extensión .stl para analizarlos en el software Ultimate Cura y preparar la configuración de impresión 3D. Como siguiente paso se exportaron los archivos con extensión .gcode para ingresarlos a la impresora 3D por medio de una memoria microSD. Por último se realizó la configuración de la impresora 3D para que el filamento logrará calentarse y ser moldeable para la impresión, tomando como parámetros las temperaturas de la punta y cama magnética de la impresora, siendo estas 135 y 80 grados celsius respectivamente. Siendo este proceso repetido cada vez que se imprimió una pieza distinta del modelo. Etapa 4: Evaluación del prototipo Se recolecto la información de cada pieza impresa, se evaluaba si se necesitaba reimprimir, modificarse físicamente o rediseñarse dependiendo del tipo de parámetro que no haya cumplido. Etapa 5: Refinamiento del prototipo Para la etapa 5 se realizaban procesos dependiendo de la evaluación de las piezas, dependiendo del paramatro establecido con el que no cumplieron. Etapa 6: Producto Para la etapa final se realizó un registro de las piezas del modelo completo que ya cumplían con los parámetros y finalmente se presentaron en un conjunto para observar la evolución del proyecto. Su realizacion se llevó a cabo de forma digital, desarrollando los prototipos utilizando el software de modelado y animación en 3D, Blender; así como de manera física utilizando una impresora 3D de la tecnología Fused Deposition Modeling (FDM) y filamento del material Acrilonitrilo butadieno estireno (ABS) de color blanco.


CONCLUSIONES

De las piezas impresas, se encontró que las mas grandes se deformaban al finalizar su impresión debido a las características del material ABS, que es susceptible a deformarse conforme se enfría. Para solucionar este problema se colocó una barrera entre el aire acondicionado del laboratorio para mantener una temperatura de impresión constante. Esta solución logró reducir el deformamiento de algunas piezas, pero no lo eliminó por completo.  También se refinaron modelos para ser más resistentes frente a las fuerzas de compresión presentes en el prototipo. El prototipo inicial de los codos del tren de aterrizaje, que contaba con un grosor de aproximadamente 1 mm no resistía las fuerzas de compresión de una mano, por lo que se procedió a incrementar el grosor de las paredes del modelo a 3 mm. Este cambio permitió una mejor impresión y firmeza de la pieza. Las piezas fueron revisadas tomando en cuenta que puedan resistir las fuerzas de compresión presentes a las que serán sometidas una vez se integren al prototipo final, así como la severidad de deformación en su estructura, en caso de presentarla. En base a su rendimiento se aceptaron o se tomaron en cuenta para mejorar el diseño o el proceso de impresión, teniendo como resultado final una parte de la estructura del tren de aterrizaje firme y resistente.
Hernandez Camarillo Andrea del Carmen, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

LAS POSIBILIDADES DE USO DE RESIDUOS DE CONSTRUCCIóN Y DEMOLICIóN EN LA FABRICACIóN DE MATERIALES ALTERNATIVOS DE CONSTRUCCIóN ECONóMICOS PARA DISMINUCIóN DE EXTRACCIóN DE RECURSOS NATURALES.


LAS POSIBILIDADES DE USO DE RESIDUOS DE CONSTRUCCIóN Y DEMOLICIóN EN LA FABRICACIóN DE MATERIALES ALTERNATIVOS DE CONSTRUCCIóN ECONóMICOS PARA DISMINUCIóN DE EXTRACCIóN DE RECURSOS NATURALES.

Hernandez Camarillo Andrea del Carmen, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las cantidades de recursos naturales que diariamente son extraídas debido a su necesidad en la industria de la construcción dan lugar a una problemática ambiental de agotamiento de recursos que reduce su disponibilidad en los próximos años, tan solo en el Estado de México …en el 2018, con base a la agenda estadística de minería mexicana … se reportó una producción de 44,016,457 toneladas de material pétreo (SGM, 2019), 16 procedentes de más de 200 bancos. (Velázquez, 2021),  a su vez los procesos implementados para las actividades de extracción generan un gran consumo energético que el cual incrementa la huella de carbono y un aumento en la generación de residuos por producción, sumándose a la problemática de los residuos generados por demolición y construcción que debido a una gestión inadecuada terminan en zonas de acumulación agravando los problemas de contaminación dado a que los elementos físicos y químicos se terminan filtrando al agua provocando degradación de suelos. Las prácticas administrativas inadecuadas para el tratamiento de los residuos de construcción y demolición han desperdiciado la oportunidad de desarrollar alternativas que puedan hacer uso de estos residuos para cubrir parte de la necesidad de materiales nuevos. Por esta razón se realizó una revisión de literatura acerca de estos problemas y las soluciones que algunos investigadores proponen a ellos.



METODOLOGÍA

Se realizó una búsqueda y selección de bibliografía para revisión y comparación de resultados obtenidos en diversas investigaciones que dependió principalmente de cuatro ejes que tienen relación directa con la problemática expuesta para definir el alcance, establecer los límites y objetivos, cuentan con palabras clave como lo fueron que facilitan la filtración de información relacionada con el tema principal. Estos cuatro ejes fueron, Principales zonas de obtención de escombro, Ladrillos y materiales de construcción a base de reciclaje, Reutilización de materiales de escombro y demolición y Materiales alternativos y económicos de construcción. Estos cuatro puntos encapsulan los conceptos para encontrar información sobre la obtención de la materia prima, su tratamiento y procesos para reutilizarla, estadísticas de impacto y generación de la misma, sus propiedades, fabricación de alternativas de materiales similares a materiales nuevos, etc. La literatura revisada fue pertiente con máximo 5 años de antigüedad, para obtener los resultados más recientes a su vez se hizo búsqueda de información en inglés lo que expandió la cantidad de información disponible al buscar en un idioma distinto al español. La revisión de fuentes de información se concentró en verificar que los libros, artículos científicos y tesis encontradas pertenecieran a fuentes oficiales de universidades, revistas científicas o páginas gubernamentales oficiales particularmente para la obtención de estadísticas, debido a que la industria de la construcción es de gran importancia para el desarrollo y crecimiento de las ciudades es un área de investigación de mucho interés. Se llevó a cabo una lectura crítica para la evaluación de la calidad de las metodologías y resultados de los diferentes estudios o investigaciones que aseguran su relevancia y confiabilidad. La organización, síntesis y análisis comparativos fueron los siguientes pasos a seguir resumiendo y clasificando los resultados, igualmente identificar patrones y perspectivas similares entre investigadores diferentes. Al final se obtuvo un listado de referencias que contienen información para las diferentes variables definidas que permiten comparar los resultados obtenidos entre ellas, tal es el caso de los resultados obtenidos en una investigación en Brasil (Lima et al, 2021) donde las mezclas alternativas que contaban con un 15% de residuos de concreto de demolición y 25% de fibra de cáscara de arroz como sustitutos del cemento Portland obtuvieron mejores resultados de resistencia y vida útil estimada en comparación a la mezcla de referencia. El reciclaje de escombros para la fabricación de materiales de construcción no es nuevo y ya se han hecho previas investigaciones donde obtuvieron resultados como El concreto con agregado reciclado de la etapa estructural tenía resistencias aún mayores que el concreto con agregados naturales. Este comportamiento se atribuyó a la gran cantidad de materiales cementosos en la composición de este tipo de concreto. (Garzón y Clavijo, 2020: 24). En el caso de usar un agregado reciclado mixto (MRA, RCA y RMA) compuesto por menos del 90% de materiales cementosos y contaminantes e impurezas, como espuma, vidrio, yeso, plástico, cartón, conchas representando el 0.3%, como lo fue el caso de (Salgado y Silva, 2021), donde todos los agregados reciclados presentaron resultados muy similares entre sí y también en comparación al agregado natural, definiendo que estos pueden tener hasta el 20% de fracción cerámica.


CONCLUSIONES

Podemos notar que la mayoría de los investigadores recomiendan usar residuos de construcción y demolición en porcentajes entre el 20% y 10%, ya que se confirma que los agregados obtenidos del reciclaje de escombros, aunque presentan diferencias en algunas de sus características, pueden ser susceptibles de emplearse como materias primas en un nuevo material para la construcción como el concreto, pues no todas las mezclas se requieren para uso estructural. Los agregados reciclados se ha vuelto una alternativa en la fabricación de concretos ya que pueden ser una estrategia con diversos beneficios entre los cuales están mejorar las propiedades mecánicas, reducir costos, aumentar la durabilidad, así como a su vez ayudar a la disminución de problemas de generación excesiva de residuos o emisiones de CO2, naciendo la necesidad de reciclar los residuos de la industria para mejorar los procesos en la búsqueda de una construcción más sostenible.
Hernández Cazares Arlette, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

MICROSIMULACIóN DE CRUCERO VIAL EN IRAPUATO


MICROSIMULACIóN DE CRUCERO VIAL EN IRAPUATO

Avila Paz Victoria, Instituto Tecnológico de Ciudad Juárez. Gallardo Villegas Andres Alejandro, Instituto Tecnológico de Ciudad Juárez. Hernández Cazares Arlette, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

México ocupa el séptimo lugar mundial en accidentes viales, en el 2022 se registraron al menos 40 fallecimientos al día a causa de eventos viales y un aumento del 28% respecto a personas heridas. En algunos puntos de la ciudad se presentan problemas de congestión vehicular debido a la infraestructura vial y malas prácticas de conducción, por lo que se propone realizar una microsimulación de puntos de conflicto.



METODOLOGÍA

El inicio de esta investigación se centró en la recopilación de información clave para entender esta problemática mediante la técnica conocida como Data mining el cual es un proceso de descubrimiento y extracción de información útil mediante métodos de estadística, inteligencia artificial, aprendizaje automático y bases de datos para analizar datos y encontrar relaciones significativas entre variables, tales como la cantidad de personas que utilizan transporte público, cantidad de accidentes viales en el municipio, etc. Posteriormente se realizó una investigación de campo, toma de tiempo y muestreo del área, en una avenida llamada cuarto cinturón vial una de las calles mas afectadas por esta problemática, después de eso se migro dicha información al programa VISSIM, donde se realizó la simulación de ese muestreo, con el objetivo de encontrar la manera en que se reduzca la cantidad de accidentes viales.


CONCLUSIONES

La microsimulación permitió identificar que las malas prácticas de conducción, en este caso la invasión de carriles, contribuye a incrementar un 28% la línea de espera en los semáforos del punto evaluado. Considerando todos los aspectos que toman un papel importante a la hora de manejar, consideramos que es importante contar con una mejor educación vial para prevenir este tipo de siniestros.  Cabe mencionar que realizar esta investigación nos ayudo a expandir mucho nuestros conocimientos mediante el uso de nuevas herramientas como Google Colab, Octave, Qgis, Vissim y sobre todo expandir nuestra capacidad de análisis estadístico.
Hernández Cázares Javier, Universidad de Guadalajara
Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia

INSTRUMENTACIóN DE PROTOTIPO PARA MONITOREO DE PARáMETROS ECG EN PACIENTES CON AUTISMO.


INSTRUMENTACIóN DE PROTOTIPO PARA MONITOREO DE PARáMETROS ECG EN PACIENTES CON AUTISMO.

Hernández Cázares Javier, Universidad de Guadalajara. Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

El autismo es un trastorno mental que se caracteriza por una alteración en la interacción social. Algunos de los síntomas que se llegan a presentar son las deficiencias en la comunicación con otras personas, así como en las interacciones sociales y patrones repetitivos y restrictivos de comportamiento, actividades o intereses. Se estima que alrededor de 6 mil 200 personas nacen al año con autismo en México, sin embargo, no se les da la visibilidad que merecen. Se encontró que para muchas personas es complicado comprender a estas personas y sus emociones, incluso a sí mismos es difícil que se entiendan, por lo que es necesario que realicen terapias en espacios especializados. Sin embargo, estos espacios resultas insuficientes o incosteables, así que en los espacios gratuitos solo se les da un corto seguimiento. Es por ello que existe la necesidad de crear dispositivos para que estas personas logren comprender las emociones que sienten en determinados momentos.



METODOLOGÍA

Se tomó una capacitación básica sobre modelaje en 3D con el software SolidWorks. A lo largo de la misma, se realizaron tres piezas donde cada uno tenía un propósito distinto. En la misma línea, fue necesario aprender a calibrar la impresora 3D puesto que para los proyectos era necesario imprimir las piezas. Posteriormente, se realizó un curso básico de microcontroladores, utilizando Arduino. Donde se aprendió desde encender un LED hasta el control de motores DC mediante drivers y de motores a pasos. Para la programación se utilizaron diversas fuentes de información, así como el IDE de Arduino. Utilizando las funciones de osciloscopio voltímetro y monitor serial. De esta manera se conoce qué es lo que ocurre durante la ejecución del circuito. Adicionalmente, se armó una grúa para pacientes utilizando herramientas como la llave de triquete y las llaves españolas. Dicha grúa era necesaria para proyectos futuros que requieran levantamiento de pacientes. También se hizo una visita al Centro de Rehabilitación y Educación Especial (CREE) para dar apoyo en la colocación del equipo para monitoreo de parámetros ECG. Dicho equipo se conforma por un guante que tiene por objeto medir la respuesta galvánica de la piel y el ritmo cardiaco, el antebrazo es el lugar donde se oculta el circuito que almacena los datos obtenidos del guante, la pechera que es lugar donde se almacena el circuito que recoge los datos provenientes del sensor respiratorio que se encuentra en el mismo lugar, por último, se tiene el casco que cuenta con una bandana llamada MindFlex utilizada para encontrar señales de EEG básicas.  Todo este equipo bajo el concepto del superhéroe Iron-Man. La visita principalmente se realizó para observar si las piezas que ya se tenían diseñadas tenías las medidas adecuadas, así como para determinar las modificaciones pertinentes. Así como la observación del funcionamiento de los sensores. En dicha visita, se determinó que el antebrazo debería ser modificado, así como cambiar el sensor utilizado para medir la frecuencia respiratoria. Agregando a esto, se apoyó en la modificación del antebrazo y de una pieza de la pechera, ambas piezas de la armadura tienen como propósito esconder la circuitería del sistema de monitoreo. Se dio una pequeña clase sobre neurología y electrofisiología. Esto con el fin de aclarar dudas sobre el funcionamiento del cuerpo y de las conexiones sinápticas. Se investigó acerca de las señales ECG, su frecuencia de captura y la anatomía del corazón. Se revisó la tapadera que cubre los circuitos. Entonces se comenzó el proceso de lijado, así como el proceso de rellenado. Se continuó y terminó con el diseño de la pieza del antebrazo, puesto que la primera modificación no fue adecuada. También se pintaron dos piezas correspondientes al casco. Se prosiguió con la lectura sobre la frecuencia de captura de las señales ECG ya que es necesario conocer esta frecuencia para realizar el circuito de tal forma que capte la menor cantidad de artefactos posibles. Después se realizó la primera propuesta de diagrama eléctrico para el sensor ECG.  Una vez revisada la primera propuesta, se concluyó que era necesario agregar nuevas etapas, así como mejorar el diseño ya que el anterior se basa en un circuito de electromiografía. Se inició diseñando la fase de adquisición de señal, misma que pasará por posteriores etapas para amplificar, rectificar y procesar la señal obtenida. Las próximas fases son de filtrado con el objeto de limitar los rangos de frecuencias captados, de 0 a 150 Hz, así como la fase de rectificación y amplificación de la señal. Se terminó el diseño del circuito en Proteus, así como el diagrama a bloques del sensor ECG. Se realizó el diagrama a bloques se tienen 4 etapas, resumidas en: adquisición, filtrado, amplificación y la salida. Posterior al término del circuito y del diagrama a bloques, se apoyó en la realización de la estructura de la programación con propuestas de diagramas de flujo y en el apoyo para el armado de la base de una estructura para escaneo de cavidades craneales con la finalidad de sacar las medidas adecuadas del cráneo del paciente y realizar de manera óptima el casco a utilizar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos básicos sobre modelado 3D en el programa SolidWorks, así como el uso de diferentes herramientas como el vernier. Así mismo, estos conocimientos fueron aplicados para la realización de algunas actividades como lo fue el modelado de ciertas piezas del prototipo. Al ser un trabajo que requiere tiempo y muchas pruebas, no es posible mostrar resultados aún, por lo que espera que con las actividades realizadas y las piezas diseñadas la fase de pruebas se realice de manera satisfactoria y que el prototipo cumpla con el cometido de hacer que el paciente avance rápidamente en sus terapias.
Hernández Cerón Abigail, Instituto Tecnológico de Pachuca
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

REMOCIÓN DE METALES PESADOS EN SOLUCIÓN ACUOSA EMPLEANDO UN ADSORBENTE PREPARADO VÍA HIDROTERMAL


REMOCIÓN DE METALES PESADOS EN SOLUCIÓN ACUOSA EMPLEANDO UN ADSORBENTE PREPARADO VÍA HIDROTERMAL

Hernández Cerón Abigail, Instituto Tecnológico de Pachuca. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es una de las problemáticas que afecta al medio ambiente, y como consecuencia puede afectar la salud humana y animal. Los contaminantes que son vertidos sobre los recursos hídricos provienen principalmente de actividades industriales, y dentro de estos se encuentran los metales pesados. Se han desarrollado diversos métodos para la remoción de dichos contaminantes, destacando la adsorción por su alta eficacia y fácil operación. Entre los materiales empleados como adsorbentes se han utilizado múltiples residuos agroindustriales debido a su abundancia y bajo costo. Considerando lo anterior, este trabajo se enfocó en la remoción de cadmio, cobre, zinc y plomo empleando un adsorbente preparado vía hidrotermal a partir de la cáscara de arroz.



METODOLOGÍA

El adsorbente empleado se obtuvo a partir del tratamiento hidrotermal de la cáscara de arroz. Previo al tratamiento térmico la biomasa fue triturada y tamizada hasta obtener un tamaño de partícula de 20-35 mallas. El material se lavó con agua desionizada hasta tener un pH constante. Posteriormente, se realizó el tratamiento hidrotermal a 190 °C durante 12 h, empleando una relación biomasa/ácido ascórbico (0.1 M) de 1/10 (g/mL). Una vez finalizado el tratamiento térmico el material se lavó con agua desionizada y se secó durante 24 h. Los estudios de adsorción se llevaron a cabo durante 24 h empleando soluciones de cobre, cadmio, zinc y plomo con concentraciones iniciales de 100 mg/L, a pH 5, 30 °C y 120 rpm, poniendo en contacto 10 mL del adsorbato (V) con 0.02 g (m) del adsorbente. Transcurrido el tiempo de equilibrio el adsorbente fue separado de la solución mediante filtración. La concentración final (Cf) de los adsorbatos y sus concentraciones iniciales (Ci) se determinaron con un equipo de Absorción Atómica. Con los resultados obtenidos se calcularon las capacidades de adsorción (q, mg/g) mediante el siguiente balance de masa: q=[(Ci-Cf)*V]/m donde V es el volumen del adsorbato (L) y m es la masa de adsorbente (g) utilizada en los experimentos de adsorción.


CONCLUSIONES

Los resultados obtenidos con el tratamiento físico indicaron que después del tratamiento hidrotermal de la biomasa se tiene un rendimiento de 69.55 %. Los estudios de adsorción presentaron capacidades de adsorción favorables para los metales trabajados, removiendo en mayor cantidad el cobre, seguido el plomo, y por último cadmio y zinc.
Hernandez Coba Yamith Enrique, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: M.C. Cinthya del Carmen Aguilar Soriano, Universidad Tecnológica de Tehuacán

GESTIóN DE LA INVESTIGACIóN Y LA DOCENCIA EN COLOMBIA


GESTIóN DE LA INVESTIGACIóN Y LA DOCENCIA EN COLOMBIA

Hernandez Coba Yamith Enrique, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: M.C. Cinthya del Carmen Aguilar Soriano, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

Las universidades desempeñan un papel crucial en gestionar y fomentar el desarrollo de campos de aplicación y formar profesionales con habilidades distintivas. Los estudiantes, al entrar al campo laboral, contribuyen al avance tecnológico e innovación tanto a nivel nacional como internacional. En Colombia de acuerdo con las divisiones de las Instituciones de Educación Superior (IES) y sus orígenes, aun se presenta una gran brecha en cuanto al desarrollo y la implementación de tecnologías se trata. Ya que en cada IES rigen diferentes tipos de normas por parte del gobierno, y esto refleja una brecha en las inversiones de patentes de transferencias tecnológicas y en la distribución en las Actividades de Ciencias, Tecnología e Innovación (ACTI). La mayor problemática detectada radica en las barreras del modelo actual de transferencia tecnológica, ya que este no permite el desarrollo exitoso de las Oficinas de Transferencia Tecnológica en las Universidades (OTTU), por la falta de personal idóneo en las mismas, además de la escasa visibilidad de las OTTU, lo que conllevan a la poca participación de los investigadores, los cuales podrían ser piezas claves para las resolvencia en los rubros políticos. Para que se puedan dar más aplicaciones y utilizaciones de algunas incubadoras en las universidades (spin-offs), para tener mayor visibilidad de las mismas.



METODOLOGÍA

La metodología se centró en el uso exclusivo de bases de datos ciencia y tecnología en Colombia para obtener una amplia cantidad de información relacionada con los objetivos de la investigación. Se realizó una búsqueda exhaustiva, abarcando una variedad de temas y disciplinas, que incluían los resultados de programas de incentivos aplicados a universidades en Colombia, los resultados de producción de tecnología convertidos en patentes en dichas universidades, y la identificación de las principales barreras del modelo actual de transferencia tecnológica.   Para optimizar los resultados, se utilizaron palabras clave y términos específicos en la búsqueda. La selección de las bases de datos se basó en su reputación y autoridad en el campo de estudio, garantizando así la calidad y fiabilidad de los datos recopilados. Se establecieron criterios de inclusión y exclusión para asegurar la incorporación únicamente de datos pertinentes y de alta calidad en el análisis. Una vez recopilada la información de las bases de datos, se procedió a analizarla y sintetizarla para extraer los hallazgos clave y responder a los objetivos de la investigación. Los resultados obtenidos de las bases de datos se utilizaron como fundamento para las conclusiones y recomendaciones del estudio. Es importante resaltar que el enfoque riguroso y basado en evidencia fue posible gracias al uso exclusivo de bases de datos como fuente de información, lo que permitió obtener una gran cantidad de datos relevantes para el campo de estudio.


CONCLUSIONES

Durante la estancia de verano se llegó a concluir que, en Colombia, las universidades se centran en promover la investigación y la enseñanza con responsabilidad social en aspectos económicos, sociales y ambientales. En el campo de la ingeniería, se destaca el avance durante las cuatro revoluciones industriales, especialmente en la era de Industria 4.0. Estas instituciones académicas impulsan el progreso tecnológico mediante proyectos en diversas áreas, como tecnologías agrícolas, energías renovables, salud y biotecnología, tecnologías de la información y comunicación, sostenibilidad y medio ambiente. Además, crean empresas derivadas para comercializar los conocimientos y tecnologías desarrolladas en sus investigaciones. Para proteger estas innovaciones, se utilizan patentes y modelos de utilidad, que otorgan derechos exclusivos de explotación por un período de 10 años. Aunque ha habido un aumento en la inversión en investigación, desarrollo e innovación tanto del sector público como privado, se sigue trabajando para aumentar estas inversiones y fomentar la innovación y el emprendimiento en el país. Sin embargo para reducir la situación de las brechas tecnológicas entre las IES en Colombia se recomiendan, Impulsar la cooperación entre las Instituciones de Educación Superior (IES) y organismos gubernamentales, establecer recursos financieros destinados a la investigación y transferencia tecnológica, adoptar políticas que motiven y premien la innovación, proporcionar programas de capacitación especializados, crear redes de colaboración y difusión de conocimientos, fomentar la colaboración con el sector privado y llevar a cabo una evaluación continua del avance logrado. Y por otro lado Sugerencias para mejorar la transferencia tecnológica en instituciones académicas y fortalecer las incubadoras (spin-offs): Proporcionar formación y contratar personal capacitado en las Oficinas de Transferencia Tecnológica (OTTU). Incrementar la visibilidad de las OTTU mediante estrategias de comunicación y mercadeo. Estimular la participación de investigadores en la transferencia tecnológica. Simplificar los procesos administrativos y ofrecer apoyo financiero para facilitar la creación de spin-offs. Establecer alianzas estratégicas entre universidades, empresas privadas y entidades gubernamentales. Evaluar constantemente el impacto y la eficacia mediante seguimiento y evaluación. Implementar estas recomendaciones puede fortalecer la transferencia tecnológica y fomentar el progreso en distintos ámbitos, incluyendo el político y económico. En este contexto, las universidades colombianas juegan un papel relevante al impulsar el desarrollo tecnológico en diversas áreas, promoviendo la protección de las innovaciones y buscando aumentar la inversión en investigación y desarrollo para estimular la innovación y el progreso en Colombia.
Hernández Decena Madeleyne Belmaris, Universidad Autónoma de Chiapas
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO. EFECTO DEL USO DE FIBRAS DE HENEQUéN SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO.


CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO. EFECTO DEL USO DE FIBRAS DE HENEQUéN SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO.

Hernández Decena Madeleyne Belmaris, Universidad Autónoma de Chiapas. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Existe gran variedad de estructuras de concreto reforzado en todo el mundo por lo cual en muchas de estas estructuras logra apreciarse agrietamiento y delaminación a causa de la corrosión en el acero, por lo tanto, se convierte en caso de estudio. El estado de Campeche cuenta con varios puentes, entre ellos, el que une Isla Aguada con Isla del Carmen y el puente del Zacatal, que se encuentra al otro extremo de la Isla del Carmen, ambos colocados sobre el mar; en su mayoría presentan algún grado de deterioro por corrosión, por lo que se busca nuevas alternativas que no comprometan a las nuevas generaciones. Obteniendo materiales compuestos más resistentes, reduciendo así la velocidad de corrosión del acero de refuerzo, para este proyecto se optó por utilizar fibras de henequén. Ya que se busca mejorar las propiedades mecánicas a compresión y tensión del concreto reforzado y también pensado que al utilizar fibras de henequén habrá que retomar producción de la misma y contribuir económicamente a los agricultores, así como ambientalmente al utilizar un producto natural. La investigación tiene como objetivo saber el comportamiento de las fibras de henequén sobre las propiedades de durabilidad de muestras de concreto reforzado.



METODOLOGÍA

Para llevar a cabo el proyecto, conseguimos fibras de henequén de uso comercial las cuales se cortaron a cada 2 centímetros. La cantidad de fibras que se utilizó en cada colada fue respecto al porcentaje de peso del cemento. Se elaboraron cilindros de concreto 7.5 cm de diámetro y 15 cm de altura con acero de refuerzo de 3/8 de diámetro (testigos); cilindros de 7.5 cm de diámetro y 15 cm de altura con acero de refuerzo de 3/8 de diámetro y con adición de fibras de henequén; cilindros de 15 cm de diámetro y 30 cm de altura para 43 pruebas de resistencia a la compresión. Para cada uno de estos cilindros de concreto se realizó y realizara pruebas de resistencia a la compresión, resistividad, y potenciales de corrosión.  También 8 vigas de sección cuadrada de 5 cm de longitud por 20 cm de lado para ensayo de resistencia a la flexión. En la elaboración de la mezcla de concreto, se realizó el diseño de la misma tomando en cuenta factores tal y como la relación agua-cemento, el contenido de agregado fino y grueso, el reductor de agua. En este proyecto se tuvo que tamizar por dos semanas el agregado para que se pudiera realizar los pasos tal y como lo marca la norma. Debido a que el material es originario de Campeche y no cumplía con lo especificado de las normas, porque se salía de las curvas granulométricas. Debido a que las pruebas de cada cilindro de concreto eran por triplicado se tuvo que colar en dos días, realizando dos coladas por día. Se tuvo que pedir ayuda con personal calificado para saber cómo era la forma correcta de añadir los agregados y revolverlos. Ya que también esto es un factor importante al momento de ir obteniendo los resultados. La norma marca que lo más viable para hacer pruebas es hacerlas por triplicado nosotros nos apegamos y decimos seguirla tal y como lo menciona realizando testigos, FH (fibra de henequén) 0.5%, FH (fibra de henequén) 1% y FH (fibra de henequén) 2% de contenido de henequén. Una vez terminando de colar, se esperó un lapso de cuatro horas para empezar a desmoldar, luego se procedió a curarlas por inmersión en una solución saturada de hidróxido de calcio desde ese momento se empezó a correr los días de curado. Después se tuvo que volver a estudiar la parte teórica del proyecto para luego aprender a utilizar de los instrumentos de medición y empezar con las pruebas pasados los 7, 14, 28 y 90 días de curado. Los cilindros de concreto que no tenían varilla de refuerzo únicamente se les puede hacer prueba de resistividad. La prueba se lleva a cabo cuando el cilindro sale del curado ya que se necesita que este se encuentre húmedo para que exista conductividad. Y se realiza para saber que tan resistente es un concreto. La prueba de potencial se realiza a los cilindros que tienen acero de refuerzo y es para saber una aproximación de que tan corroído se encuentra, entre más negativo sea el resultado la probabilidad de corrosión aumenta. Al realizar la prueba a los cilindros, estos deben de estar húmedos ya que con la presencia de un electrolito permite conductividad y arroja lecturas más exactas. La prueba de esfuerzo a la compresión se realiza a los cilindros de concreto que no tienen varilla de refuerzo en este caso a todos los cilindros se les hizo un cabeceo, porque no venían en su totalidad lisos en la parte superior de ellos y esto podía afectar al peso que se ejerce sobre él. También como parte de la formación se tomó un curso de Durabilidad de Infraestructura de concreto reforzado para complementar un poco más lo que se venía estudiando para que conforme se vaya terminando se vaya comparando los resultados y saber si realmente se cumplió el objetivo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos los cuales se llevaron a la practica en su debido momento. El aprendizaje significativo que se ha tenido en este verano es de mucha ayuda en la formación como ingeniero civil. Los resultados obtenidos de los cilindros de concreto en la prueba de esfuerzo a compresión hasta el día de hoy son los esperados ya que han ido en aumento conforme los días. En los datos de resistividad que se obtienen en los resultados existe una mayor resistividad cuando los cilindros de concreto tienen un FH 0.5% en comparación con las muestras testigo que no tiene añadida fibra de henequén. En los resultados de potenciales de corrosión cuando existe un 0.5% de FH en los cilindros es menos la probabilidad de corrosión que se presenta a diferencia de las otras condiciones que tenemos en los cilindros de concreto. Los resultados de resistencia a la compresión se muestran más favorables con el 0.5% de contenido de fibras de henequén.      
Hernández Echeverría Alejandra, Universidad de Guadalajara
Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo

PROPUESTA DE HERRAMIENTAS PARA ESTABLECER LA CADENA DE SUMINISTRO DE RESIDUOS DE CONSTRUCCIóN EN BUCARAMANGA


PROPUESTA DE HERRAMIENTAS PARA ESTABLECER LA CADENA DE SUMINISTRO DE RESIDUOS DE CONSTRUCCIóN EN BUCARAMANGA

Díaz Barajas César, Universidad de Guadalajara. Hernández Echeverría Alejandra, Universidad de Guadalajara. Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La gestión de residuos de construcción es un desafío ambiental y económico que enfrentan muchas sociedades en la actualidad. A medida que la industria de la construcción crece y se desarrolla, la cantidad de residuos generados aumenta significativamente. Estos residuos incluyen materiales como concreto, ladrillos, madera, metal y plástico, entre otros, que resultan de la demolición, renovación y construcción de edificios e infraestructuras. El sector de la construcción contribuye a muchos de los impactos medioambientales. Según Barrientos (2016), la industria de la construcción es la principal consumidora de recursos en el mundo. Se estima que el 40% de la energía total y el 30% de emisiones de CO2 provienen de dicha industria. Veliz et al., (2022) menciona que los residuos de construcción y demolición (RCD) representan entre el 30 y 40% del total de residuos sólidos en el mundo. Además, en la última década la industria de la construcción fue responsable de la producción de más de 850 millones de toneladas de RCD al año, lo que corresponde aproximadamente al 36,4% de la producción total de residuos (Pimentel et al., 2022). También, la industria de la construcción genera la mayor proporción de emisiones de CO2 a nivel mundial, ya que el 23% del dióxido de carbono de las actividades económicas mundiales son causadas por este sector. (Luciano et al., 2022). En Colombia, grandes cantidades de residuos o escombros producto de la industria de la construcción son dispuestos en lugares inadecuados o son mal utilizados, como relleno en sitios que a futuro servirán como zonas de construcción de nuevas edificaciones, transformando estos espacios en terrenos inestables y muy difíciles de ser aprovechados (Acuña Garrido & Muñoz Yi, 2011). En Bucaramanga, al igual que en muchas otras ciudades, la generación de residuos de construcción y demolición (RCD) constituye un desafío ambiental y logístico significativo. La falta de una cadena de suministro eficiente para la gestión de estos residuos dificulta su adecuada disposición y aprovechamiento, lo que puede resultar en impactos negativos para el medio ambiente y la calidad de vida de los ciudadanos. El problema radica en la ausencia de estrategias y mecanismos efectivos para establecer una cadena de suministro de RCD en Bucaramanga. Actualmente, se observa una carencia de coordinación y colaboración entre los diferentes actores involucrados en la gestión de estos residuos, como las empresas constructoras, los proveedores de materiales, las empresas de demolición y los centros de reciclaje. Según Santos Marián et al., (2011) los residuos de construcción y demolición (RCD) generan impactos ambientales negativos en el medio inerte, biótico y humano. En el medio inerte, se observa el consumo de materias primas y energía, modificaciones geomorfológicas, contaminación de acuíferos, ríos y atmósfera. En el medio biótico, los impactos incluyen la pérdida de hábitat debido a la extracción y ocupación de suelos, así como la degradación de la calidad del suelo. En el medio humano, se destacan el ruido y las vibraciones del tráfico de vehículos pesados, la degradación paisajística en entornos naturales y urbanos, y la ocupación de suelos que podrían tener otros usos. La gestión adecuada de los RCD y la implementación de medidas sostenibles son importantes para mitigar estos impactos negativos.



METODOLOGÍA

Para este proyecto se utilizó una metodología cualitativa la cuál se dividió en 3 fases: Fase 1 Primeramente, se realizó una revisión de literatura relacionada al tema de investigación, donde se consultaron bases de datos multidisciplinarias de artículos y textos académicos. Tales como Scopus, Springer y ScienceDirect. Con la literatura revisada se recopilaron datos sobre la gestión de la cadena de suministro, los actores involucrados en la cadena de suministro de los residuos de construcción y las barreras en la gestión de RCD. Después, la información recabada fue expuesta y discutida en el aula de la Universidad de Investigación y Desarrollo. Realización de presentaciones y resúmenes de la literatura investigada. Fase 2 Establecimiento de las etapas de la cadena de suministro para la gestión de los residuos de construcción y demolición. Analizar cuáles son las etapas de una cadena de suministro y como se relaciona con la gestión de los RCD. Identificar las barreras que intervienen en la gestión de RCD. Fase 3 Planteamiento de instrumentos para establecer una cadena de suministro de los residuos de construcción y demolición. Elaboración de preguntas y planteamiento de entrevistas en formularios de Google.


CONCLUSIONES

Se identificó que los actores clave involucrados en la cadena de suministro de los RCD son las empresas de construcción, el gobierno, las compañías de recuperación de residuos, las empresas de transporte, cooperativas de recicladores, compañías de separación y operadores del vertedero. Todos los actores clave desempeñan roles cruciales para promover la sostenibilidad y la gestión eficiente de los materiales. Se estableció que las etapas de la cadena de suministro de los RCD son la generación, recolección, transporte, clasificación y separación, reciclaje, reutilización y disposición final. La cadena de suministro de RCD es importe para promover prácticas sostenibles, reducir el impacto ambiental y fomentar el reciclaje eficiente de materiales. Contribuye a la economía circular y ayuda a preservar los recursos naturales para un futuro más sostenible. Se proponen como instrumento el uso dos de encuestas, para las cuales se plantearon preguntas que permiten conocer la opinión de las empresas de construcción y de las empresas de recuperación y reciclaje para así poder establecer la cadena de suministro de los RCD en la ciudad de Bucaramanga.
Hernandez Elizalde Wendy Cecilia, Universidad Autónoma de Sinaloa
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DISEñO DE MAQUINA DOBLADORA DE VARILLA


DISEñO DE MAQUINA DOBLADORA DE VARILLA

Cortés Aparicio Yael Itsuky, Benemérita Universidad Autónoma de Puebla. Hernandez Elizalde Wendy Cecilia, Universidad Autónoma de Sinaloa. Hernandez Sanchez Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Jiménez Rodríguez Anayansi, Universidad Autónoma Benito Juárez de Oaxaca. Sanchez Fonseca Edna Julieth, Instituto Tecnológico Metropolitano. Valenzuela Medina Fabian, Universidad Autónoma de Sinaloa. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el área de la construcción se tiene la necesidad de fabricar hogares, puentes, edificios entre otros, por lo que se requiere resolver el problema de la fabricación de estribos que son varillas de alambrón de acero, que unen las varillas en los castillos, por lo que se plantea el diseño una maquina dobladora de varilla, capaz de doblar por medio de una secuencia con un sistema mecánico y un sistema de moldeo fijo, dirigido por un motor, este diseño se propuso dado que era necesario un prototipo de bajo costo, esto debido a que en el área de la construcción en México ha crecido un 5% de acuerdo a la cámara Mexicana de la industria de la construcción (CMIC), durante el año 2021.



METODOLOGÍA

Para el diseño de la maquina dobladora de varilla se utilizaron materiales biodegradables para el prototipado por impresión 3D, dichos materiales fueron el acido polilactico (PLA) y poliuretano termoplastico (TPU), además de los diseños se pueden realizar bajo cualquier software asistido por computadora como ejemplo Solidworks, autodesk, FreeCAD,  entre otros, los pasos a seguir para el dieño de la maquina dobladora de varilla fuerón los siguientes 1) Se realizó una búsqueda del estado del arte y de vigilancia tecnológica en diferentes buscadores de patentes como Google Patents, EspaceNet,  Patentscope, entre otros más. 2) Posteriormente se realizó con dicha búsqueda inicial una serie de propuestas diseñadas por medio de algún Software CAD para diseño 3D, para posteriormente realizar la impresión de dichos modelos para su fabricación por manufactura aditiva, con PLA.  3) La serie de prototipos se realizaron haciendo simulaciones de movimiento mecánico por computadora y realizando una comparativa con el movimiento en ambiente real.  4)  A la par de la realización de la fabricación por manufactura aditiva de los diferentes prototipos se realizó la escritura de la solicitud de patente que actualmente continua en proceso para solicitar el trámite ante el Instituto Mexicano de la Propiedad Industrial (IMPI).  5) Se realizaba una serie de vigilancias tecnología cada vez que se quería realizar otra propuesta de prototipo y verificar el estado del arte en los diferentes buscadores de patente.  6) Finalmente se construyó el prototipo que cumple las simulaciones mecanicas y en ambiente real,  para verificar la prueba de concepto, por manufactura aditiva que es una representación a escala para la maquina real que se construirá, en caso de conseguir recursos.


CONCLUSIONES

Las diferentes conclusiones que llego el equipo fueron que se aprendió una metodología diferente de como investigar la alta tecnología así de cómo usar el diseño por computadora, la impresión 3D en diferentes materiales para realizar prototipos de manera rápida y como profundizar en un tema para realizar su vigilancia tecnológica además de realizar el desarrollo de la escritura de patente y la solicitud de la misma ante el IMPI en un futuro, en este caso, la maquina dobladora de varilla de alambrón y materiales de inferior densidad así como de sus diferentes aleaciones, dado que fue un reto desarrollar un prototipo mecánico, que cumpliera las caracteristicas de funcionalidad tanto en simulación por computadora y en ambiente real a escala, el mayor reto fue realizar el proceso para hacer los dobleces de la varilla es por medio de un sistema sincronizado de engranajes.
Hernández Elizondo Gustavo Adolfo, Instituto Tecnológico de Ciudad Guzmán
Asesor: Dra. Natalia Cisneros Aguilar, Instituto Tecnológico de Ciudad Guzmán

MóDULO DE REGISTRO Y ANáLISIS ESTADíSTICO DE USUARIOS APP STUDENTSBUS 2.0


MóDULO DE REGISTRO Y ANáLISIS ESTADíSTICO DE USUARIOS APP STUDENTSBUS 2.0

Hernández Elizondo Gustavo Adolfo, Instituto Tecnológico de Ciudad Guzmán. Asesor: Dra. Natalia Cisneros Aguilar, Instituto Tecnológico de Ciudad Guzmán



PLANTEAMIENTO DEL PROBLEMA

El gobierno de Zapotlán el Grande, Jalisco, realizó la donación de un autobús para transporte escolar, que permite a los estudiantes del Instituto Tecnológico de Ciudad Guzmán y a los estudiantes del CBTA N°293, hacer uso de él, por lo que se decidió crear una aplicación móvil que mejorara este servicio. Una de las funciones de esta aplicación, es llevar un control de la información de los estudiantes que hacen uso de éste y en qué horarios, para realizar un análisis y tomar decisiones que mejoren el rendimiento del servicio. Otra de las funciones es mostrar a los usuarios la posición del autobús, para saber si ya ha pasado o si se retrasó en algún punto, permitiendo a los usuarios tomar las medidas necesarias para no llegar tarde a sus clases, además de mostrar el horario que el transporte sigue.



METODOLOGÍA

1. Definición del enfoque El enfoque de esta investigación será el desarrollo de un módulo de una aplicación móvil para Android que permita el registro de asistencia de estudiantes al subir al autobús escolar, utilizando un lector de código QR. 2. Diseño de la investigación La investigación será de tipo aplicada, ya que tiene como objetivo desarrollar una aplicación móvil para resolver un problema específico en el contexto escolar. 3. Población y muestra La población objetivo de la investigación son los estudiantes que utilizan el servicio del autobús escolar y los administradores encargados de supervisar el transporte. La muestra no será necesaria para esta investigación, ya que el desarrollo del módulo se basará en el análisis de requisitos y necesidades del sistema. 4. Recopilación de datos Los datos necesarios para el desarrollo del módulo se obtendrán a través del análisis de requisitos y la descripción del problema proporcionado. 5. Procedimiento El desarrollo del módulo de la aplicación móvil seguirá las siguientes etapas: 5.1. Diseño de interfaz: Se diseñarán las interfaces de usuario para el registro de usuarios, ingreso a la aplicación, visualización y modificación de datos personales, registro de asistencia y consulta de horarios. 5.2. Implementación del registro de usuarios: Se implementará la funcionalidad para permitir a los estudiantes registrarse utilizando un correo electrónico y contraseña. 5.3. Implementación del registro de asistencia con código QR: Se desarrollará la funcionalidad para registrar la asistencia de los estudiantes al escanear el código QR en el autobús escolar. 5.4. Generación de reportes y estadísticas: Se desarrollará la funcionalidad para generar reportes y estadísticas a partir de los datos almacenados en Firebase. 6. Validación y pruebas Durante el proceso de desarrollo, se realizarán pruebas para asegurar que todas las funciones de la aplicación funcionen correctamente. Se verificará que el registro de usuarios, el registro de asistencia mediante código QR, la visualización de horarios y la generación de reportes se realicen sin problemas. 7. Implementación y despliegue Una vez que la aplicación haya sido probada y validada, se procederá a su implementación y despliegue. Se creará un paquete de instalación que los usuarios podrán descargar e instalar en sus dispositivos móviles. 8. Evaluación y seguimiento Una vez que la aplicación esté en funcionamiento, se realizará una evaluación continua para verificar su desempeño y recibir retroalimentación de los usuarios. 9. Conclusiones y recomendaciones Al finalizar el desarrollo e implementación de la aplicación móvil, se realizará un análisis de los resultados obtenidos y se redactarán conclusiones sobre la efectividad y utilidad del módulo.


CONCLUSIONES

El desarrollo del módulo de la aplicación móvil para el registro de asistencia de estudiantes al subir al autobús escolar y generación de reportes, se presenta como una solución potencialmente efectiva para mejorar la gestión del transporte escolar. Aunque los resultados aún no han sido obtenidos, se espera que la aplicación contribuya significativamente a optimizar el proceso de registro de asistencia, brindando una mayor seguridad y eficiencia en la recolección de datos. Se prevé que el uso de un lector de código QR agilizará considerablemente el proceso de registro de asistencia, reduciendo el tiempo que los estudiantes deben emplear en este procedimiento y evitando posibles errores manuales. Además, la generación automatizada de reportes y estadísticas permitirá a los administradores acceder de manera rápida y sencilla a la información relevante, facilitando la toma de decisiones y el análisis del servicio de transporte escolar. En cuanto a los usuarios, se espera que la aplicación les ofrezca una experiencia más fluida y conveniente para registrar su asistencia y acceder a los horarios del camión escolar. La implementación del registro mediante correo electrónico y contraseña, asegurará la privacidad de los datos personales, brindando confianza y tranquilidad a los estudiantes al utilizar la aplicación. Sin embargo, para obtener conclusiones más concretas sobre la efectividad y funcionalidad del módulo, es necesario llevar a cabo pruebas exhaustivas con usuarios reales en un entorno escolar con la aplicación en funcionamiento. Estas pruebas permitirán evaluar la usabilidad, eficiencia y confiabilidad de la aplicación, identificando posibles problemas o áreas de mejora que puedan surgir en el uso diario. Además, la retroalimentación de los usuarios será fundamental para el proceso de mejora continua de la aplicación. Sus comentarios y sugerencias permitirán realizar ajustes y optimizaciones en futuras actualizaciones, asegurando que la aplicación cumpla adecuadamente con sus objetivos y se adapte a las necesidades y preferencias de los usuarios.
Hernandez Felix Luis Antonio, Instituto Tecnológico de Querétaro
Asesor: Dra. Melisa Andrea Acosta Coll, Universidad de la Costa

TECNOLOGíAS BASADAS EN EL INTERNET DE LAS COSAS Y LA INTELIGENCIA ARTIFICIAL COMO SOPORTE PARA LA MEJORA DE PROCESOS DE PRODUCCIóN EN GRANJAS ACUíCOLAS EN EL DEPARTAMENTO DEL ATLáNTICO.


TECNOLOGíAS BASADAS EN EL INTERNET DE LAS COSAS Y LA INTELIGENCIA ARTIFICIAL COMO SOPORTE PARA LA MEJORA DE PROCESOS DE PRODUCCIóN EN GRANJAS ACUíCOLAS EN EL DEPARTAMENTO DEL ATLáNTICO.

Hernandez Felix Luis Antonio, Instituto Tecnológico de Querétaro. Asesor: Dra. Melisa Andrea Acosta Coll, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En el marco del programa Delfín se desarrollará la pasantía de investigación de forma remota en la Universidad de la Costa, a través de la participación en el proyecto de investigación *Tecnologías basadas en el Internet de las Cosas y la Inteligencia Artificial como soporte para la mejora de procesos de producción en granjas acuícolas en el departamento del Atlántico*. Dentro de este proyecto se realizaran labores de investigación en la etapa del desarrollo del sistema de alerta temprana (SAT) para el monitoreo de los parámetros de calidad de agua, realizando actividades de revisión y desarrollo de códigos de programación para la conexión y calibración de los sensores. Asimismo, se trabajará en la redacción del artículo de investigación que presenta los resultados del diseño e implementación del SAT.



METODOLOGÍA

Revision bibliográfica


CONCLUSIONES

Sistema automatizado y artículo redactado sobre la investigación.
Hernández García María del Carmen, Universidad de Ciencias y Artes de Chiapas
Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua

ESTUDIO DE LA ROTURA DE LA PRESA CAYEHUACAN.


ESTUDIO DE LA ROTURA DE LA PRESA CAYEHUACAN.

Gamboa Cruz Mizuri, Universidad de Ciencias y Artes de Chiapas. Hernández García María del Carmen, Universidad de Ciencias y Artes de Chiapas. Asesor: Mtro. Oscar Jesus Llaguno Guilberto, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

para esta investigacion se realizo , el estudio de la presa cayehuacan , ubicada en , axochiapan morelos , cuyo objetivo principal es analizar mediante una simulacion hidraulica , la rotura de la presa , su comportamiento y los datos que pueda causar en caso de haber poblaciones. 



METODOLOGÍA

Este estudio se basa en la presa cayehuacan conociendo todos sus datos como es la ubicación geográfica de la presa y de terreno de estudio, en este caso nos enfocamos a lo que podría ser una posible falla (Rotura), la simulación la aremos con tres programas el primero es, DXF2XYZ es una herramienta fácil de usar que nos permite convertir archivos de Auto CAD (DXF y DWG) en este caso vamos a convertir un DXF a un TXT apoyándonos con el bloc de notas. Una vez que convertimos el archivo en TXT nos vamos apoyar con el programa (Qgis 3.30) donde vamos a crear dos polígonos, y con la ayuda del( CEM) descargado de la página de Conagua  vamos a crear el polígono de la presa y el polígono delimitando un área de terreno, también crearemos un ráster de cada polígono, para después hacer una unión, y creamos una malla, después de todo haciéndolo con herramientas de Qgis, una vez creado eso exportamos cada archivo que creamos guardándolo en una carpeta limpia, después nos dirigimos al tercer programa utilizado es el programa (iber) donde delimitaremos el rio , la presa , los poblados , con ello creando superficies , después guaramos el archivo y lo vamos a comprimir en formato zip, nos dirigimos a la página de VNE IMTA esto para obtener el número de escurrimiento del agua , después de obtener el número de escurrimiento del agua ,descargamos los datos que la pagina nos da una vez que insertamos el zip, después nos dirigimos de nuevo a el programa Qgis y insertamos los datos obtenidos de la pagina NVE IMTA , clasificamos y vemos la tabla de atributos, para corroborar que todo este en orden , creamos mapas de clasificación de  vegetación ,  NcondN y clasificación guarnamos , ahí mismo en Qgis trabajaremos con nuestro CEM , LOS POLIGONOS Y RASTER , añadiéndole rugosidad , guardamos el archivo y nos dirigimos a (iber) donde le pondremos valores a la presa y crearemos una nueva malla que englobe todo el área de trabajo, y crearemos un modelo , le meteremos valores , siguiente haremos la simulación de la posible rotura con la ayuda de (iber) insertando datos como tales la cota ,la brecha , name, namo , también insertamos el dato del tiempo y empezamos a calcular , nos tomara el tiempo de aproximadamente 36 horas en generar la simulación , después se creara los mapas de tirantes , obteniendo y dado por terminado la simulación de la rotura de la presa cayehuacan.  


CONCLUSIONES

En conclusión, llegamos a los resultados que la presa cayehucan se rompió en un tiempo determinado de 6 a 10 minutos, esto ah que las especificaciones de la presa son de materiales sueltos, la presa es clasificada como una presa mediana ah lo que la presa tendrá una rotura más rápida, arrasando y llevándose a la localidad de cayehuacan y a san antonio coayuca, que se encuentran ubicados cerca , causando daños materiales, pérdidas humanas, pérdidas económicas
Hernandez Gonzalez Jorge Ivan, Universidad de Guadalajara
Asesor: Dr. Esteban Alberto Correa Bedoya, Universidad de Medellín

BAñO ELECTROLESS NI- P Y NI-B PARA LA DECORACIóN DE PARTíCULAS DE MG.


BAñO ELECTROLESS NI- P Y NI-B PARA LA DECORACIóN DE PARTíCULAS DE MG.

Hernandez Gonzalez Jorge Ivan, Universidad de Guadalajara. Asesor: Dr. Esteban Alberto Correa Bedoya, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

El recubrimiento electroless de níquel se destaca como una solución eficiente para mejorar el rendimiento del magnesio en el transporte de hidrógeno. Al aplicar una capa de níquel sobre la superficie del magnesio, se logra una protección efectiva contra la corrosión y una mejor cinética de absorción y desorción de hidrógeno. Este proceso tiene aplicaciones prometedoras en tecnologías de almacenamiento y suministro de hidrógeno, proporcionando una opción confiable y sostenible para el transporte seguro de hidrógeno. La optimización de las composiciones de baños electroless de Ni-P y Ni-B permitirá maximizar los beneficios del recubrimiento, abriendo nuevas oportunidades en el campo de la nanotecnología y la energía renovable.



METODOLOGÍA

Preparación del baño Ni-P Para la preparación del baño se utilizaron los siguientes reactivos: Sulfato de níquel hexahidratado (NiO₄S · 6 H₂O) Hipofosfito de sodio monohidratado (NaPO2H2·H2O) Ácido succínico (C4H6O4) Ácido propiónico (C₃H₆O₂) Ácido láctico (C3H6O3) Bifluoruro de hidrógeno de amonio (NH4HF2) Se preparó en la campana de extracción utilizando agua desionizada como disolvente. Los componentes fueron pesados según el orden de aparición, con acondicionamiento (10 y 8,43 g/L) de bifluoruro de hidrógeno de amonio (NH4HF2), ya que este componente actúa como pasivador de la superficie de magnesio, por lo tanto, lo protege del ambiente externo evitando su corrosión prematura. Al tener flúor en su composición se favorece la fluoración de películas depositadas de Ni-P y se buscaba tener una variación de este componente para así analizar el comportamiento a la hora de realizar la deposición. Preparación del baño Ni-B La preparación de este baño fue realizada en el estricto orden de aparición del listado: Hidróxido de sodio (NaOH) Cloruro de níquel hexahidratado (NiCl2 · 6 H₂O) Tiourea a 1 ppm (CH4N2S) Etilendiamina (C2H8N2) Bifluoruro de hidrógeno de amonio (NH4HF2) Borohidruro de sodio (NaBH4) Utilizando agua desionizada como disolvente. Para preparar la tiourea a 1 ppm se pesaron 50 mg y se aforó en un matraz de 50 ml. Proceso de recubrimiento electroless Para la realización de este baño electroless se definió la elaboración de 7 ensayos que constan de distintos tiempos. Esto se realizó así para analizar cómo avanza la deposición respecto al tiempo: 0.5 minutos 1 minutos 2 minutos 4 minutos 6 minutos 10 minutos 12 minutos Una vez montado la solución del baño electroless, para evitar que se dañen las partículas de magnesio por la presencia de oxígeno en el ambiente, se tiene que utilizar tetrahidrofurano (THF) para transportarlas del vial al baño y así medir los tiempos para cada ensayo. Una vez transcurrido el tiempo se tiene que filtrar, almacenar y llevar a la mufla a 60°C durante 30 minutos. Caracterización Después de haber realizado el baño y el secado de las partículas sintetizadas, se deben guardar en un desecador para su posterior caracterización en microscopía electrónica de barrido (SEM), espectroscopia de rayos X de energía dispersiva (EDS) y espectroscopía infrarrojo por transformada de Fourier (FTIR), y así analizar los resultados a distintos tiempos. 


CONCLUSIONES

El recubrimiento electroless de níquel es un proceso eficiente y versátil para mejorar las propiedades del magnesio en el transporte de hidrógeno. Se ha estado trabajando con diferentes parámetros para analizar los resultados y así determinar las concentraciones y tiempos óptimos de reacción para la obtención de partículas de magnesio decoradas con Ni-P y Ni-B. Se caracterizaron las partículas obtenidas por medio de las técnicas SEM, EDS y espectroscopía FTIR, logrando identificar los tamaños, morfología, composición y transmitancia del material. La integración de la nanotecnología en la ingeniería de materiales ha permitido avances significativos en la mejora de las propiedades y funcionalidades de los materiales. El baño electroless de níquel para el recubrimiento de magnesio es un ejemplo clave de cómo la nanotecnología se aplica para superar desafíos y mejorar las características del material base.
Hernandez Gonzalez Xochitl, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California

EMOTIONS&CARE: UNA APLICACIóN MóVIL PARA APOYAR LA DEPRESIóN DE JóVENES UNIVERSITARIOS


EMOTIONS&CARE: UNA APLICACIóN MóVIL PARA APOYAR LA DEPRESIóN DE JóVENES UNIVERSITARIOS

Hernandez Gonzalez Xochitl, Tecnológico de Estudios Superiores de San Felipe del Progreso. Ramirez Flores Brenda Janeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La Organización Mundial de la Salud (OMS) define la salud mental como un estado de bienestar en el que el individuo es consciente de sus capacidades, puede afrontar las presiones cotidianas de la vida, puede trabajar productiva y fructíferamente y puede contribuir a la su comunidad. Cuando los estudiantes ingresan a la universidad, sus condiciones de salud mental pueden verse afectadas por requisitos emocionales, sociales o académicos, lo que los lleva a buscar ayuda profesional o investigar por sí mismos sobre los temas de interés. Sin embargo, es bien sabido que gran parte de la información en Internet hoy en día puede provenir de una fuente poco confiable o necesitar un mejor soporte. De acuerdo con la literatura, los estudiantes universitarios en sus primeros años de carrera son los que manifiestan principalmente varios episodios psicoemocionales derivados de las evaluaciones de los docentes, la sobrecarga de trabajo y el tiempo mínimo que solicitan los docentes para realizar los trabajos. La depresión no es solo un síntoma que atraviesan los estudiantes universitarios y que pueden superar fácilmente; el desconocimiento y la desinformación pueden llevar a los estudiantes universitarios a no sentirse acompañados y desarrollar conductas suicidas. El desarrollo de nuevas tecnologías se puede utilizar para desarrollar formas innovadoras de apoyar la salud mental de los estudiantes universitarios. Más de 10,000 aplicaciones móviles (apps) para la salud mental están disponibles para su descarga.Por ejemplo, la OMS recomienda "promover el autocuidado a través de tecnologías de salud móviles y electrónicas". Sin embargo, muchas de estas aplicaciones móviles no están diseñadas de acuerdo a las necesidades del usuario y sin el apoyo de especialistas en salud mental. Emotions&Care es una aplicación móvil para apoyar a la depresión en estudiantes universitario, la cual se diseñó utilizando la metodología Design Thinking para abordar las necesidades específicas de los estudiantes universitarios y los especialistas en salud mental. Al proporcionar herramientas efectivas y accesibles para la detección e intervención temprana de la depresión en estudiantes universitarios, se espera que Emotions&Care pueda ayudar a reducir el riesgo de comportamientos suicidas y mejorar el bienestar emocional y el rendimiento académico de los estudiantes universitarios.  



METODOLOGÍA

La metodología utilizada es  Design Thinking, una metodología centrada en el usuario que se  caracteriza por ofrecer una lente a través de la cual se pueden observar los retos, detectar necesidades y, finalmente, solucionarlas. La metodología está compuesta por cinco fases: empatizar, definir, idear, prototipar y evaluar.  Durante la primera fase de la metodología, Empatizar, el objetivo principal fue adquirir un conocimiento profundo sobre la depresión en estudiantes universitarios, incluidos el diagnóstico, los niveles y la intervención. Durante la fase de Definir, la información y los datos recopilados de las entrevistas de la fase anterior se analizaron a través de técnicas cualitativas, incluidas la codificación abierta y la codificación axial. Se utilizó el método de Personas basado en los resultados de la entrevista y el cuestionario para crear personajes ficticios para representar diferentes tipos de usuarios que podrían usar nuestro juego. Estos resultados también ayudaron a definir el alcance, las características y las limitaciones del proyecto. En la fase de Idear se generaron algunas posibles ideas para una aplicación móvil utilizando los resultados de la fase Definir. La sesión de diseño incluyó una descripción general del proyecto, una explicación de los objetivos de la sesión y las consideraciones de diseño, incluido el diagrama de afinidad resultante de la fase Definir, los resultados del cuestionario en línea y las dos personas, para que los participantes pudieran tener una mejor comprensión de quiénes estaban diseñando la aplicación móvil.  


CONCLUSIONES

Durante la estancia de verano se logró diseñar la aplicación Emotions&Care,  la cual es una aplicación móvil para apoyar la depresión de estudiantes universitarios. Así mismo, se adquirió conocimiento y aplicación de la metodología Design Thinking, la cual tiene un enfoque de diseño centrado en el usuario. Las etapas Empatizar y Definir descubrieron las necesidades de los estudiantes universitarios y de los especialistas en salud mental, que se utilizaron para proponer consideraciones de diseño. Se utilizaron estas consideraciones de diseño para llevar a cabo una sesión de diseño con nueve estudiantes universitarios durante la etapa de Idear, donde surgieron tres propuestas de diseño. Se combinaron  las características principales de las tres propuestas de diseño para crear un prototipo de la aplicación Emotions&Care. Finalmente, se llevó a cabo una sesión de validación de diseño con dieciocho estudiantes universitarios y dos psicólogos para investigar la aceptación de la aplicación en términos de utilidad y facilidad de uso. Posteriormente, se implementó la funcionalidad parcial de una parte de la aplicación. La implementación se realizó para dispositivos Android en el lenguaje de programación Java.  Como trabajo a futuro, se espera concluir la implementación del prototipo de alta fidelidad, implementando todas las funciones de la aplicación y proporcionando un enlace entre los estudiantes universitarios y los especialistas de la salud mental. Finalmente, se espera evaluar el prototipo de alta fidelidad con con estudiantes universitarios y especialistas  para poder investigar la experiencia del usuario, facilidad de uso y eficacia para apoyar la depresión en esta población  
Hernandez Hernandez Eduardo Ramon, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

DISEÑO E IMPLEMENTACIÓN DE UN RESTAURADOR DE TENSIÓN MEDIANTE SIMULINK PERTENECIENTE A LA RAMA DE LOS CUSTOM POWER


DISEÑO E IMPLEMENTACIÓN DE UN RESTAURADOR DE TENSIÓN MEDIANTE SIMULINK PERTENECIENTE A LA RAMA DE LOS CUSTOM POWER

Hernandez Hernandez Eduardo Ramon, Instituto Tecnológico Superior de Irapuato. Mendez Rosales Alan, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En la actulaidad el sistema electrico de potencia presenta disturbios, perturbaciones en la red , causando una problematica en la calidad del servicio electrico, pudiendo llegar a comprometer la confiabilidad del sistema y desencadenando problemas que involucran afectaciones económicas severas por concepto de fallo de equipos y paros inesperados de procesos de producción.



METODOLOGÍA

Metodología Integración de módulos de IGBT’s, junto con el diseño un inversor de potencia. Diseño, desarrollo e implementación de sistemas de control clásicos, para el control de disturbios eléctricos y regulación de voltaje. Realizar pruebas y obtener los resultados.


CONCLUSIONES

Resultados Como resultado se obtuvo un restaurador trifásico perteneciente a los CDP (DVR), el cual se sometió a diferentes tipos de disturbios eléctricos más común que se prestan en el sistema que cumple con los objetivos de proteger las cargas sensibles y críticas, cuya respuesta de operación del restaurador fue eficiente y rápida al detectar y corregir las anomalías o fallas que se presentan día a día en un sistema eléctrico. Conclusiones El Restaurador Dinámico de Tensión (DVR) es una solución que ha demostrado ser eficiente y efectiva al abordar los problemas de calidad de energía así como su capacidad para detectar rápidamente las variaciones en el voltaje y compensarlas mediante la inyección de voltaje lo cual ha permitido mejorar significativamente la calidad del servicio eléctrico en los diferentes entornos industriales.
Hernández Hernández Luis Angel, Instituto Tecnológico de Puebla
Asesor: Dra. Patricia Batres Mendoza, Universidad Autónoma Benito Juárez de Oaxaca

DESARROLLO DE UN SISTEMA DE CONTROL PARA ROBOT BIOINSPIRADO MEDIANTE SEñALES CEREBRALES EEG Y REDES NEURONALES SPIKING (SNN): UNA INTUITIVA INTERACCIóN GUIADA POR LA IMAGINACIóN MOTORA EN PERSONAS CON DISCAPACIDAD.


DESARROLLO DE UN SISTEMA DE CONTROL PARA ROBOT BIOINSPIRADO MEDIANTE SEñALES CEREBRALES EEG Y REDES NEURONALES SPIKING (SNN): UNA INTUITIVA INTERACCIóN GUIADA POR LA IMAGINACIóN MOTORA EN PERSONAS CON DISCAPACIDAD.

Hernández Hernández Luis Angel, Instituto Tecnológico de Puebla. Salazar Arreola Deisy Esther, Universidad Simón Bolivar. Asesor: Dra. Patricia Batres Mendoza, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

El control de robots bioinspirados mediante el análisis de bioseñales Electroencefalográficas (EEG) en la actualidad constituye un campo de estudio en constante crecimiento, que involucra la participación de diversas disciplinas de investigación, interconecta las áreas de la neurociencia, la robótica y el procesamiento de señales. A medida que avanza la tecnología, cada vez aumenta la importancia de utilizar el funcionamiento que ejerce la actividad cerebral para permitir mayor interacción fluida y precisa entre los usuarios y los robots. Sin embargo, el desarrollo de sistemas de control fundamentados en las señales electroencefalográficas (EEG) cada día se enfrenta a retos significativos que limitan su viabilidad y utilidad en escenarios prácticos. A nivel global, se estima que la cifra de personas que viven con algún tipo de discapacidad sobrepasa los mil millones, lo que representa aproximadamente un 15% de la población mundial [1]. La factibilidad de controlar robots mediante señales cerebrales se vislumbra como un enfoque potencial para otorgar una mayor autonomía y mejorar sustancialmente la calidad de vida de las personas afectadas [1]. A pesar de las necesidades existentes y el potencial impacto positivo de los sistemas de control basados en EEG para el control robótico, es de suma importancia abordar a fondo las limitaciones técnicas y desafíos que dificultan una implementación eficiente. La variabilidad y complejidad de las señales cerebrales y la necesidad de interpretar y clasificarlas adecuadamente para traducirlas en comandos de movimiento son cuestiones clave que deben abordarse de manera integral



METODOLOGÍA

La presente metodología tiene como objetivo abordar el desarrollo, implementación y evaluación de un sistema de control robótico basado en EEG. El proyecto se estructura de manera que abarca el diseño experimental, desarrollo de algoritmos, implementación de pruebas y sus limitaciones de forma bien estructurada y considerando los desafíos particulares del entorno: Diseño experimental: el proceso experimental se divide en varias etapas. a) Descripción del robot bioinspirado: Este trabajo está basado en el artículo "A FPGA-Based Neuromorphic Locomotion System for Multi-Legged Robots," que desarrolla un sistema neuromórfico en tarjeta de desarrollo FPGA Spartan 6 para generar patrones de locomoción para tres robots con patas (bípedo, cuadrúpedo y hexápodo). A continuación, se describen las características principales de los robots cuadrúpedo y hexápodo a los que se les implemento el algoritmo bioinspirado: 1. Forma y estructura: la estructura de los robots está diseñada por la empresa LINX MOTION, ambos robots están hecho de aluminio de alta calidad y están equipado con un sistema de servos de alto rendimiento que le permite caminar, correr, saltar y girar de forma rápida y precisa. En el caso del hexápodo cuenta con 18 grados de libertad y el cuadrúpedo con 12. 2. Mecanismos de Movimiento: los robots utilizan un sistema neuromórfico basado en una red neuronal artificial de tercera generación (Spiking Neural Network - SNN) que actúa como un Generador de Patrones Centrales (CPG). Los CPGs son un conjunto de neuronas que se encuentran en el sistema nervioso y son responsables de controlar y coordinar movimientos rítmicos y cíclicos. De esta manera, con la SNN los robots pueden realizar al menos tres tipos diferentes de patrones de locomoción: caminar, trotar y correr. 3. Sistemas de Control: El control se realiza mediante una placa Raspberry Pi 3B, que se conecta a una placa controladora de servos SSC32. La Raspberry Pi envía los patrones de locomoción para activar los servos en sincronía. La configuración de los parámetros del CPG se realiza mediante una metodología basada en Gramáticas Evolutivas (GE), que permite definir las conexiones y pesos presinápticos de las neuronas. b) Desarrollo de algoritmos de procesamiento de señales: Esta fase se encargó de realizar la comunicación entre la computadora y la Raspberry Pi, para realizar la adquisición de señales EEG a través del dispositivo Emotiv Epoc, y el protocolo OSC (Open Sound Control) para comunicar y transmitir los datos de imaginación de movimientos en tiempo real. Así, esta fase consistió en la preparación del Entorno, la verificación de conexión de Red, la configuración del Servidor OSC en la Computadora, la configuración del Cliente en la Raspberry Pi, la implementación del Control de Sistema, las pruebas y ajustes, así como la documentación y mantenimiento. c) Implementación y pruebas: finalmente se realizó la integración de todo el sistema para llevar a cabo la implementación del control de un robot hexápodo utilizando una red neuronal.


CONCLUSIONES

El desarrollo de un sistema de control robótico basado en EEG para robots bioinspirados es una tarea compleja y multidisciplinaria que tiene el potencial de tener un impacto significativo en la vida de las personas con discapacidades motoras y en la sociedad en general. La metodología presentada aquí proporcionó un marco para abordar este desafío, involucrando etapas de diseño experimental, desarrollo de algoritmos, implementación, pruebas y consideraciones éticas que facilitaron el desarrollo de un sistema de control para un robot bioinspirado basado en señales cerebrales EEG y redes neuronales pulsantes (SNN) que con mayor implementación práctica podría dirigirse a que personas con discapacidad motora puedan controlar con alto índice de fluidez cualquier dispositivo utilizando la imaginación motora. Con un enfoque cuidadoso en cada una de estas etapas y una consideración crítica de las limitaciones y desafíos potenciales, este proyecto representó una oportunidad emocionante para avanzar en el campo de la robótica bioinspirada. La colaboración entre diferentes campos como la neurociencia, la robótica, la informática y la ingeniería es esencial para lograr el éxito en este emprendimiento.
Hernández Hernández Verónica Vanessa, Universidad Autónoma de Occidente
Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro

LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO


LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO

Corte Maldonado Andrea, Instituto Tecnológico de Puebla. Cortés López Mariana Estefanía, Instituto Tecnológico de Tuxtla Gutiérrez. de la Cruz Rodriguez Paloma Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Hernández Hernández Verónica Vanessa, Universidad Autónoma de Occidente. Perez Mendoza Paloma Yunuhen, Instituto Tecnológico Superior de Uruapan. Pulido Diaz Maritza, Instituto Tecnológico Superior de Uruapan. Rodríguez Lujan Yamileth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En México existen más de 5 millones de personas que se dedican al trabajo agrícola, según el censo de INEGI 2020, sin embargo, según el Gobierno de México, somos el séptimo país exportador de productos agrícolas al resto del mundo lo que nos genera la siguiente pregunta ¿Qué alimentos quedan para nuestras comunidades? Como lo sabemos cada estado de la republica cuenta con sus terrenos en donde cultivan algunos frutos que son originarios de las regiones y que con ayuda de la experiencia y los cuidados es bien sabido que se han podido generar productos de excelente calidad pero realmente el futuro de esos productos en su mayoría es terminar en manos y mesas de familias extranjeras y aquí en México la calidad siempre es colocada en tiendas o supermercados con un costo elevado y que no siempre está al alcance de todas las familias. Es por esta razón que se encuentra con el problema de que las comunidades productoras terminan consumiendo el producto que sobra o el producto que posee algún defecto lo cual no siempre garantiza una alimentación sana y de calidad por esta razón se debe encontrar una manera de garantizar un producto de calidad a las primeras comunidades de atención prioritaria, para que así todos consumamos un producto de excelente calidad, mismo como el que se exporta o el que se distribuye en los supermercados más reconocidos del país y por ello hacemos de referencia el primer momento de la cadena de suministros en la industria alimentaria.



METODOLOGÍA

Considerando que ésta es una investigación en su mayoría documental está centrada en la cadena de suministro de productos perecederos en la industria alimentaria mexicana, con un enfoque en la inocuidad y seguridad alimentaria. Se analizan y proponen mejoras a las normativas generales y específicas, particularmente la Norma Oficial Mexicana NOM-251-SSA1-2009 e ISO 22000, que aborda la higiene y calidad de los alimentos, bebidas y suplementos alimenticios. Dada la creciente población y la evolución global, es fundamental garantizar la seguridad y salud de los alimentos para el consumo humano. En México, la Secretaría de Salud a través de la Comisión Federal para la Protección contra Riesgos Sanitarios (COFEPRIS) y la Dirección General de Epidemiología (DGE) son las instituciones encargadas de monitorear y reportar la incidencia de enfermedades transmitidas por alimentos por lo que se pide la intervención puntual de los diferentes órdenes de gobierno en el ámbito de su incumbencia para generar la normativa necesaria que garantice alimentos de calidad.  El mercado agrícola en México es amplio y tiene un gran potencial para competir a nivel nacional e internacional, sin embargo, se detectan limitaciones en la propia industria local en todos sus ámbitos ya que no existe garantía para un consumo local inmediato y el mejor producto se considera calidad de exportación, se cuenta con poca información sobre empresas con certificaciones de normas y sistemas de gestión de calidad y de manera general quienes se dedican a este ramo ya que no es suficiente la información que proporciona el INEGI. La propuesta se orienta a incentivar y apoyar a las empresas que aún no cuentan con regulaciones, animándolas a acercarse a las autoridades correspondientes para mejorar la calidad de sus productos y garantizar su inocuidad. La prevalencia de enfermedades transmitidas por alimentos, como la salmonela y la E. coli, representa un desafío para la salud pública, y se necesita un seguimiento continuo a través de sistemas de vigilancia sanitaria. Se enfatiza la importancia de evaluar las de higiene en todas las etapas del proceso de producción, desde la selección de materias primas, almacenamiento, hasta la distribución, considerando la reciente pandemia vivida por COVID SARS-CoV 19. Una de las pretensiones es hacer evidente que el uso de la cadena en frio está alejado de una realidad económica para la mayoría de los productores y se debe tomar estrategia para la adecuación de transporte de menor tamaño en zonas serranas como la planta procesadora de alimentos de San Joaquín, así como la consideración de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje.


CONCLUSIONES

La cadena de suministro de productos perecederos en la industria alimentaria mexicana es fundamental para asegurar la inocuidad de los alimentos garantizando productos de calidad, la investigación ofrece una visión integral de la situación actual y propone acciones para mejorar la calidad y seguridad alimentaria, garantizando un consumo de calidad en México. Se propone una lista de verificación general para evaluar el cumplimiento de los estándares de calidad en la industria alimentaria. Establecer programas de capacitación certificada para garantizar el cumplimiento de estándares de calidad y normativo de manera local con la intervención de las instituciones como Universidades Públicas y privadas, así como del TecNM. Se plantea el uso de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje donde dejamos propuestas amigables al medio ambiente en base a la NOM-002-SSA1-1993. Se realizó un ejemplo de análisis de ruta con plataformas de la CST del INEGI y software libre para facilitar el análisis de costos y planteamiento de rutas para productores de menos poder económico. Esta investigación multidisciplinaria permite tener nuevos enfoques sobre la problemática de atención prioritaria atendiendo los objetivos de la agenda 2030 hambre cero, fin de la pobreza, salud y bienestar desde la perspectiva de la cadena de suministro de la industria alimentaría de los productos perecederos que lo limitamos a frutas y verduras en general en nuestro país. Refrendamos el compromiso con las causas sociales por lo que esta investigación hace una invitación a continuar con la participación activa de las diferentes instituciones públicas y privadas de Educación Superior para propuesta de las normativas necesarias que permitan garantizar “La soberanía alimentaria participando activamente en los temas legislativos en esta área".
Hernández Inzunza Carlos Eduardo, Universidad Autónoma de Sinaloa
Asesor: Dra. Ana Luisa Ballinas Hernández, Benemérita Universidad Autónoma de Puebla

DETECCIóN DE PEATONES EN AMBIENTES REALES MEDIANTE ALGORITMOS DE APRENDIZAJE AUTOMáTICO PARA CUANTIFICAR TRAYECTORIAS DE CAMINADO


DETECCIóN DE PEATONES EN AMBIENTES REALES MEDIANTE ALGORITMOS DE APRENDIZAJE AUTOMáTICO PARA CUANTIFICAR TRAYECTORIAS DE CAMINADO

Hernández Inzunza Carlos Eduardo, Universidad Autónoma de Sinaloa. Asesor: Dra. Ana Luisa Ballinas Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

A medida que los años pasan el poder tecnológico va aumentando, y así como el poder tecnológico aumenta, los habitantes en las ciudades también aumentan. Lo que ocasiona conglomeraciones avenidas peatonales, banquetas y corredores y que esos espacios no sean tan útiles como cuando se implementaron. Es por ello que con ayuda de la visión computacional podemos recolectar datos de interés en los peatones para así diseñar mejor dichos espacios.



METODOLOGÍA

Se dividió la investigación en un total de 6 fases las cuales son: Recolección de datos Realizar pruebas con YOLO para detección de peatones Implementación de algoritmo seguidor de peatones Graficar trayectorias Identificación de variables de estado: [Velocidad promedio y posición] Documentación de resultados obtenidos   Recolección de datos La recolección de datos es la primera fase de la metodología, como su nombre lo indica, consta de descargar los videos de muestra de peatones o datasets de manera virtual, es decir, buscar videos en distintas partes de internet como YouTube, repositorios o paginas similares, así como también se tomaron videos en la vida real en una plaza comercial.   Realizar pruebas con YOLO para detección de peatones Ahora como ya se cuenta con los datasets necesarios, lo siguiente es descargar el modelo YOLOv8 del repositorio de Ultralytics en GitHub para poder tener acceso a la red neuronal convolucional encargada de detectar peatones. Primero se descargó la versión YOLOV8.m, la cual al correrla hizo bien la detección pero era muy demandante y se optó por la versión YOLOv8.n. En la cual se dibujan las bounding boxes alrededor de los peatones y arriba el nombre de su clase: persona.   Implementación del algoritmo seguidor de peatones Una vez obtenida la correcta detección de peatones, se necesita tener una forma de seguir a todos los peatones detectados con un identificador único para poder trazar las trayectorias. Se probó primero el algoritmo de DeepSort el cual luego de varios intentos no funcionó y finalmente se optó por implementar el algoritmo Sort el cual hace el seguimiento de manera correcta.   Graficar trayectorias Como ahora se tiene el correcto seguimiento de los peatones, se crea una nueva figura para poder graficar las trayectorias, entonces lo que se realiza es que iteramos en el atributo de identificador y una nueva variable la cual establecemos como trayectoria, y con dos variables auxiliares para la posición en X y la posición en Y, guardamos los valores a medida que pasa el fotograma y finalmente utilizamos el método plot de la librería matplotlib.   Identificación de variables de estado: [Velocidad y posición] Una vez se dibujan las trayectorias de los peatones detectados, se procede a crear dos arreglos, uno para listar las velocidades y otro para la distancia. Después lo que se realiza es una iteración para los puntos y coordenadas en el valor de trayectoria fotograma a fotograma utilizando el método enumerate el cual después lo agregaremos con cuatro valores que son: ID del peatón, el punto que se encuentra y la posición X y Y. Luego se cálcula la magnitud de la distancia, después se crea la variable para el tiempo donde utilizamos el método len para finalmente cálcular la velocidad promedio.   Documentación de resultados obtenidos En la fase final ahora lo que se realiza es la recolección de todos los resultados que se obtuvieron a lo largo de todas las fases del proyecto, aquí se incluyen las pruebas exitosas y no exitosas de YOLO en distintos datasets. Los resultados del seguimiento de peatones con el algoritmo Sort, el graficar las trayectorias y los valores de la velocidad promedio y la distancia punto por punto archivados en un documento .CSV.


CONCLUSIONES

Puedo concluir que después de haber culminado el verano aprendí mucho sobre visión computacional y las distintas áreas en las que puede haber desarrollo. Pude determinar cómo YOLO funciona mejor analizando densidades bajas y medianas, así como también como ha mejorado en sus versiones más recientes. También es importante el ángulo del cual es tomado el video, aunque no sea de una densidad alta si no se captura el video de una posición donde YOLO puede analizar los rasgos del objeto no lo realizará de manera correcta. La implementación de Sort para el seguimiento de los peatones fue muy precisa, de manera que logró mantener de principio a fin el identificador único asignado al peatón a lo largo de todos los fotogramas. La graficación de las trayectorias fue exitosa gracias a la ayuda de Sort, con YOLO solamente no se podría haber obtenido los resultados que se obtuvieron, se logró dibujar la curva de los peatones detectados a lo largo del dataset. Finalmente, la obtención de las variables de estado fue la segunda tarea más difícil de la estancia, primero se obtuvo la distancia total recorrida junto a la velocidad promedio, pero la distancia total recorrida no era relevante para este análisis, entonces después de ajustar el código se pudo obtener exitosamente la posición punto por punto del peatón detectado en su coordenada X y Y.
Hernández Ledezma Elí Alejandro, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

DISEñO Y ANáLISIS MULTIFíSICO DE UN MICROAEROGENERADOR.


DISEñO Y ANáLISIS MULTIFíSICO DE UN MICROAEROGENERADOR.

Hernández Ledezma Elí Alejandro, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El diseño de un micro aerogenerador eficiente y sostenible presenta desafíos técnicos y ambientales que deben abordarse para garantizar su efectividad y viabilidad a largo plazo. En primer lugar, la eficiencia del generador es un factor crítico para maximizar la cantidad de energía eléctrica generada a partir del viento disponible. Esto implica optimizar la aerodinámica de las palas del generador para capturar la mayor cantidad posible de energía cinética del viento en diferentes condiciones climáticas y velocidades. Por otro lado, la tecnología de generación eléctrica utilizada en el generador también juega un papel fundamental en su eficiencia y rendimiento. Existen diversas opciones, como generadores de inducción, generadores síncronos y generadores de imanes permanentes, cada una con sus ventajas y desventajas en términos de eficiencia, costos y mantenimiento. Además, el diseño del generador eólico debe considerar estrategias de regulación de la velocidad que permitan una operación segura y eficiente, evitando situaciones de sobrecarga o subutilización del equipo. Esta regulación es esencial para adaptarse a las variaciones en la velocidad del viento y lograr una producción de energía estable y óptima.



METODOLOGÍA

Se realizaron reuniones con los interesados, como doctores, ingenieros, y expertos en energía renovable, para identificar y comprender completamente los objetivos del proyecto y las necesidades específicas del generador eólico. Donde se definieron las especificaciones técnicas del generador, incluyendo la capacidad de generación de energía deseada, el rango de velocidades de viento para su operación óptima y los requisitos de longitud de las palas. También se llevó a cabo una investigación exhaustiva revisando literatura científica, informes técnicos y estudios previos relacionados con la energía eólica y el diseño de generadores eólicos en diferentes contextos y ubicaciones geográficas. Se analizaron casos de éxito y fracaso de proyectos similares en otros lugares del mundo para aprender de las mejores prácticas y evitar posibles desafíos y errores. Adicionalmente se recopilaron datos históricos de velocidad y dirección del viento provenientes de estaciones meteorológicas cercanas y otros recursos disponibles. No obstante, se evaluaron diferentes tecnologías y marcas de aerogeneradores disponibles en el mercado, considerando factores como la eficiencia, la confiabilidad, el costo y la disponibilidad de repuestos. Se seleccionaron las turbinas, palas, generadores eléctricos y sistemas de control más adecuados para cumplir con los requerimientos técnicos y económicos del proyecto. Se realizaron pruebas y simulaciones para determinar la combinación óptima de componentes para obtener el máximo rendimiento y durabilidad. En base a lo obtenido se desarrollaron esquemas, dibujos y modelos en 3D para visualizar el diseño general del generador eólico y su disposición en el sitio de instalación. Cabe aclarar que se realizaron simulaciones de dinámica de fluidos computacional (CFD) para analizar el comportamiento del flujo de aire alrededor de las palas del generador, optimizando su diseño aerodinámico. En donde se llevaron a cabo análisis de elementos finitos (FEA) para evaluar las tensiones y deformaciones en la estructura del generador bajo diferentes condiciones de carga, asegurando su resistencia y seguridad. Por último, con base en los resultados de las simulaciones y análisis, se procedió a desarrollar el diseño detallado del generador eólico, preparando planos técnicos, esquemas eléctricos y listas de materiales precisas.Se consideraron aspectos como el proceso de fabricación, el ensamblaje y la instalación del generador, asegurando su viabilidad práctica.


CONCLUSIONES

A pesar del esfuerzo y dedicación, lamentablemente, el tiempo se convirtió en un adversario en el proyecto de diseño de generadores eólicos. A medida que avanzábamos en la metodología, nos encontramos con diversos obstáculos que nos impidieron alcanzar todos nuestros objetivos de manera oportuna. Sin embargo, esta experiencia adversa nos enseñó valiosas lecciones y nos brindó una perspectiva renovada sobre el camino que debemos seguir para llevar a la práctica estos generadores.
Hernández León Angie Alejandra, Universidad de Investigación y Desarrollo
Asesor: Dr. Francisco Javier Montecillo Puente, Instituto Tecnológico Superior de Salvatierra

VIDEOJUEGO EDUCATIVO


VIDEOJUEGO EDUCATIVO

Hernández León Angie Alejandra, Universidad de Investigación y Desarrollo. Asesor: Dr. Francisco Javier Montecillo Puente, Instituto Tecnológico Superior de Salvatierra



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la sociedad se ha sumergido en el mundo de la tecnología al punto de poder obtener lo necesario con un simple click. La tecnología ha hecho que muchas tareas y trabajos sean más sencillos, como el manejo de datos en las empresas y la manipulación de maquinarias, entre otros campos. En el ámbito educativo, la tecnología también es usada como apoyo en diversas áreas, siendo utilizada por administrativos gestionando la información de la institución, por docentes como herramienta digital para enriquecer sus enseñanzas, por los padres quienes pueden hacer seguimiento al desempeño académico de sus hijos a través de plataformas educativas en líneas, y para los estudiantes, se han creado recursos educativos, lúdicos e interactivos para un mejor aprendizaje. En este contexto, se propone la creación de un videojuego educativo diseñado para niños de 2 a 5 años, que les permita identificar las letras y los números de una forma divertida, y siguiendo esta línea, aprender a leer palabras sencillas, siendo este el punto de partida para su vida académica. Se llevará a cabo mediante la investigación y la documentación de diversas guías, relacionadas al tema, que permitan comprender cuáles serían las mejores prácticas y estrategias para el desarrollo del videojuego, permitiendo a los niños disfrutar de una experiencia interactiva y estimulante.



METODOLOGÍA

En este proyecto, se está implementando la metodología Scrum para el desarrollo.  Los sprints se han organizado en ciclos de una semana y media para llevar un flujo de desarrollo constante. También se llevan a cabo reuniones periódicas para dar seguimiento al progreso. Al final de cada sprint, se llevan las respectivas revisiones para evaluar el trabajo y realizar ajustes si es necesario. Al ser un tiempo corto para el desarrollo se optó por elegir esta metodología ágil de modo que sea capaz de adaptarse a las necesidades y garantizar la eficiencia en todo el proceso. Además, como instrumento de control se ha estado utilizando GitHub para el trabajo colaborativo, útil para actualizar las versiones del código a implementar en Android Studio y que, mediante un commit en donde el equipo puede mantener una comunicación en paralelo para la implementación del código, trabajo que se está realizando por cuatro personas, del programa delfín, el investigador a cargo Francisco, la estudiante Angie, y en conjunto con un diseñador y otro estudiante que están colaborando en el desarrollo y creación del videojuego. A continuación se presentan las herramientas y procesos que se están llevando a cabo: Se define el Sprint. Allí se podrá registrar lo que se esté realizando, el tiempo que toma en realizarlo, el material investigado, los assets creados, y aquellos elementos importantes para el desarrollo del prototipo y de la aplicación en general. Se realiza un sprint de diseño, en donde se registran todas las actividades, los elementos y observaciones que se necesiten para la realización del juego. Cada una de las personas del equipo incluyen allí aquellos puntos a considerar para el proyecto, que se tendrán en cuenta y así poder definir también la temática de la aplicación, que permitirá dar paso a los diseños gráficos para cada assets y también aquellos audios o sonidos a utilizar. Se utilizan herramientas como GitHub, el programa Android Studio con componentes importantes como el android.graphics.canvas, opengl es, el lenguaje java para programación orientada a objetos y el framework fjmp.game facilitado por el investigador, siendo estos aspectos importantes para el desarrollo. Se llevan a cabo reuniones, en donde se realizan las respectivas revisiones y correcciones de todo lo implementado en los primeros diseños de la aplicación y los assets creados para poder implementarlos en el prototipo, posteriormente en la aplicación. Al ser un ciclo que suele repetirse cada cierto tiempo, siempre se está en un constante trabajo y producción, es por eso que se realizan reuniones periódicas para estar al tanto de qué cambios o nuevas implementaciones se han estado obteniendo.


CONCLUSIONES

La investigación realizada permitió comprender los cuidados y consideraciones a tener en cuenta en el diseño de una aplicación educativa destinada al aprendizaje académico infantil. Además, ofrecer actividades y juegos divertidos y lúdicos es fundamental para los niños y así, involucrar a padres y educadores, siendo ellos partícipes en la elección y autorización del uso de estas herramientas educativas.  Se desarrolló un prototipo de la aplicación, y en secuencia, se realizaron cambios significativos  que permitieron cumplir con los objetivos establecidos. El proceso inició con la creación de un bosquejo que sirvió como base para su desarrollo. Para luego, seleccionar su respectivo diseño, temática y elementos visuales.  Como resultado, se han realizado 6 sprint cada uno con 6 tareas aproximadamente, más de 70 assets creados, y 14 commits hasta el momento. Debido a limitaciones de tiempo, la aplicación no se ha podido realizar por completo, lo que ha resultado en la imposibilidad de llevar a cabo pruebas con un grupo de niños para validar si el videojuego cumple con su objetivo, que es el de complementar en la enseñanza y el aprendizaje de los niños.
Hernández López Josue Donovan, Instituto Politécnico Nacional
Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro

DISEÑO Y DESARROLLO DE UN DRON HEXACOPTERO-X PROFESIONAL PROGRAMABLE ADAPTABLE A DIFERENTES APLICACIONES AGRICULTURA, SUPERVISIÓN, MONITOREO, IMAGEN Y VIDEO, BÚSQUEDA, RESCATE, CARTOGRAFÍA


DISEÑO Y DESARROLLO DE UN DRON HEXACOPTERO-X PROFESIONAL PROGRAMABLE ADAPTABLE A DIFERENTES APLICACIONES AGRICULTURA, SUPERVISIÓN, MONITOREO, IMAGEN Y VIDEO, BÚSQUEDA, RESCATE, CARTOGRAFÍA

Hernández López Josue Donovan, Instituto Politécnico Nacional. Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El mundo actual demanda necesidades a cubrir en nuestra forma de vida. Los sistemas drones son en la actualidad una oportunidad de desarrollo tecnológico con aplicaciones en diversas áreas del conocimiento. La investigación militar en los últimos años dio como resultado una serie de dispositivos que, independientes o dependientes del manejo humano a distancia, pueden realizar una serie de tareas. Originalmente los UAV son empleaban profesionalmente, orientado principalmente hacia las tareas relacionadas con la defensa y la seguridad, y en la actualidad como una consecuencia natural de la evolución de la tecnología y el descenso de los costos de fabricación se comenzó a encontrar aplicaciones orientadas a la actividad comercial y civil. Para ello se plantea el desarrollo, construcción y programación de un dron profesional (UAV) hexacoptero con configuración tipo X, de menor costo que los comerciales y adaptable a distintas actividades del sector civil. Tener la capacidad de implantar o modificar los programas de control internos del sistema para un movimiento autónomo sin necesidad de actuación externa. También que pueda y se tenga la capacidad de interconectarse con otros drones similares para realizar enjambres de drones y movimientos en grupo coordinados. Actualmente los UAV cuentan con un gran atractivo por su versatilidad de aplicaciones, control, estabilidad de vuelo y que en cierta forma asequible. Un dron se ha vuelto una herramienta de trabajo, que ayuda a varias tareas como la seguridad, supervisión de control de plagas, incendios, agricultura, supervisión, lugares de difícil acceso, fotografía, video, transporte de materiales ligeros, medios de comunicación, entre otros, es por ello el interés creciente por su uso y características que posee.



METODOLOGÍA

El proyecto involucra el diseño, desarrollo y construcción de un hexacoptero. Se utilizará principalmente fibra de carbono debido a su resistencia y bajo peso en comparación con otros materiales; algunas partes serán de aluminio. El diseño estructural se llevó a cabo observando diseños de otros drones del mercado y prototipos existentes. Posteriormente se hizo un estudio de componentes electrónicos necesarios para la implementación de un dron. Al construir un UAV se analiza el Diseño y elección del hardware. El sistema de piloto automático de hardware abierto Pixhack px4 2.4.8 como controlador de vuelo de 32 bits, transmitir al multicóptero las instrucciones deseadas, con un coprocesador STM32 a 168 Mhz y 256 k en RAM con sensor de giroscopio digital de 3 ejes, acelerómetro de 3 ejes, magnetómetro y acelerómetro de 6 ejes y un barómetro. Siendo este mismo sistema el que se instalara en el UAV por su poderoso procesador y facilidad al programar el código abierto. El sistema Ardupilt cuenta con sistema de piloto automático de código abierto para utilizar 6 DOF Acelerómetro/Gyro MPU-6000 de Invensense, pudiendo instalar en el sistema una placa controladora de vuelo ArduPilot MegaAPM2.6 otorgando total autonomía al vehículo, capaz de realizar misiones GPS programadas con waypoints si cuenta con una unidad GPS y brújula, siendo compatible con sistema ARDUINO, contando con módulos inalámbricos de 915 Mhz, giroscopio de 3 ejes, acelerómetro, magnetómetro, barómetro de alto rendimiento y chip de 4 megabytes a bordo del tipo Dataflash para registro automático de datos, además de un sensor de presión barométrica actualizado MS5611-01BA03. No se selecciono el sistema Ardupilot porque Pixhack cuenta con un procesador y coprocesador más potente. En cuanto al sistema DJI, ofrece un ancho de banda de comunicación máximo de 40MHz pudiendo equipar una tarjeta microSD de máximo 256 GB UHS-I con un grado de velocidad contando con una latencia de 28 ms. Este sistema operativo se encuentra orientado a proporcionar mayor calidad de imagen y satisfacer necesidades de entretenimiento. A pesar de tener un buen procesador, el código que posee es más complejo que los anteriores lo cual lo desfavorece notablemente. Para programar las instrucciones, se requiere conectar el ordenador al controlador de vuelo a través de telemetría de 915 MHz. Además de ajustar los valores adecuados para el PID interno del controlador en función del peso, forma y motores instalados. Se utilizarán motores sin escobillas de 340 kv, dispositivos optoelectrónicos de potencia de 40 Amperes de 2-6s ESC para cada motor, amortiguador para el tablero de control, módulo GPS neo M8N con soporte en aluminio, módulo de distribución de potencia ESC, mini OSD, divisor I2C como módulo de expansión, enchufe XT60 para batería de 10 Amperes 3S de 11.1 voltios, marco de fibra de carbono con envergadura de 85 cm, módulo PPM, hélices de 12 pulgadas y paso de 60.


CONCLUSIONES

El presente proyecto en fase inicial, se analiza la necesidad por cubrir o que actividad se realizara. Luego sigue el diseño de la estructura: el material del que este hecho (fibra de carbono). Finalmente se establecen aspectos mecatrónicos y fabricación, así como la carga, herramienta o que portara para hacer su tarea. Sin embargo, es necesario saber que tarea o tareas realizara para poder desarrollar las características primordiales que tendrá, para que sea optimo y funcional. Para ello el dron hexacoptero se desea que sea muy versátil en diferentes ámbitos y que su impacto en los diferentes sectores incremente, costo beneficio El estudio se centra en los componentes estructurales y los módulos que forman la aeronave que permiten cumplir con los requerimientos del proyecto, así como la programación ya que esta es de código abierto y podemos hacer planificación control de vuelo ajustes de parámetros para poder lograr un vuelo planificado para diferentes áreas, y configuración de las trayectorias del prototipo aéreo.
Hernandez Lucio Ibrahim Abraham, Instituto Politécnico Nacional
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

IMPLEMENTACIóN DE LA RESOLUCIóN DE LA ECUACIóN DE BURGERS UTILIZANDO PROGRAMACIóN CUDA EN PYTHON


IMPLEMENTACIóN DE LA RESOLUCIóN DE LA ECUACIóN DE BURGERS UTILIZANDO PROGRAMACIóN CUDA EN PYTHON

Hernandez Lucio Ibrahim Abraham, Instituto Politécnico Nacional. Matías Cruz Diego Omar, Instituto Politécnico Nacional. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema: Implementación de la resolución de la ecuación de Burgers utilizando programación CUDA en Python. La ecuación de Burgers es una ecuación en derivadas parciales no lineal que surge en diversos campos de la física y la ingeniería, como la dinámica de fluidos, el transporte de partículas y la propagación de ondas. Su forma unidimensional es: du/dt + u du/dx = v d2u/dx2 Donde u es la función de velocidad del fluido en el dominio unidimensional x y tiempo ν es el coeficiente de viscosidad cinemática.   El objetivo principal de este proyecto es desarrollar una solución eficiente para resolver la ecuación de Burgers utilizando la arquitectura de cómputo paralelo de GPU proporcionada por CUDA en Python. Esta aproximación paralela permitirá acelerar significativamente los cálculos y abordar problemas con dominios espaciales y condiciones iniciales complejas.   Este proyecto se centrará en la resolución numérica de la ecuación de Burgers en su forma unidimensional utilizando la arquitectura CUDA en Python. El alcance incluirá la implementación del algoritmo de diferencias finitas para discretizar la ecuación y la utilización de las bibliotecas y herramientas apropiadas para la programación CUDA. Además, se realizarán pruebas y análisis de rendimiento para evaluar la eficacia de la solución paralela.   El proyecto no abordará la resolución de problemas multidimensionales o aspectos más avanzados de la dinámica de fluidos. Además, cualquier investigación adicional sobre técnicas avanzadas de optimización quedaría fuera del alcance actual del proyecto  



METODOLOGÍA

Metodología   1. Acceso y comprensión del entorno de servidores del CITEDI Se realizó el acceso por puenteo a los servidores del CITEDI para aprovechar su poder computacional. Se buscó entender su funcionamiento y configuración para garantizar un uso efectivo de los recursos disponibles.   2. Estudio de la ecuación de calor y su relación con la ecuación de Burgers**: Se recibió una explicación general sobre la ecuación de calor, la cual es una ecuación en derivadas parciales más simple que la ecuación de Burgers pero comparte similitudes en su naturaleza. Se comprendieron los conceptos clave de la ecuación de calor como un primer paso para abordar la ecuación de Burgers más compleja.   3.Implementación de la ecuación de calor en Python y Jupyter    Se procedió a implementar la resolución numérica de la ecuación de calor utilizando el lenguaje de programación Python, con un enfoque en el uso del entorno Jupyter Notebook. A pesar de la falta de experiencia previa con Python, se llevaron a cabo los primeros acercamientos para comprender cómo programar y resolver ecuaciones en este entorno.   4. Graficación de la solución en Python y exploración de Paraview      Se aprendió a graficar la solución de la ecuación de calor usando Python y Jupyter para visualizar los resultados obtenidos. Sin embargo, se identificó la herramienta Paraview como una opción más conveniente y sencilla para generar visualizaciones gráficas, lo que motivó a considerar el cambio de enfoque hacia Python para la resolución y Paraview para la visualización.   5. Adquisición de conocimientos sobre Paraview    Se destinó tiempo para aprender el funcionamiento y uso de Paraview, una herramienta especializada en visualización científica y gráficos 3D. Se estudiaron sus capacidades y se buscaron ejemplos y tutoriales que facilitaran el proceso de programación y visualización con Paraview.   6. Ajuste del enfoque de trabajo: Python para resolución, Paraview para visualización    Dado que Python se estaba utilizando para la resolución numérica de la ecuación de Burgers, se tomó la decisión de mantener este enfoque para el proceso de cálculo y utilizar Paraview como herramienta principal para la visualización y análisis de los resultados obtenidos. Se ajustó el plan de trabajo para combinar ambas herramientas de manera efectiva.   7. Desarrollo de la resolución de la ecuación de Burgers en Python     Para abordar la resolución numérica, es necesario discretizar la ecuación de Burgers utilizando diferencias finitas. Esto implica aproximar las derivadas parciales de la ecuación con diferencias finitas, lo que transforma la ecuación en un conjunto de ecuaciones algebraicas que podemos resolver numéricamente con Python   8. Implementación de paraview      Una vez que hemos desarrollado la implementación de la ecuación de Burgers en Python y obtenido las soluciones numéricas, podemos conectarla a ParaView para visualizar y analizar los resultados de una manera más interactiva y gráfica. para esto los vamos a guardar los datos obtenidos en Python en un formato que Paraview pueda leer en este caso usaremos VTK   9. Visualización de los datos en Paraview       Abrimos Paraview y cargamos el archivo que contiene los datos de nuestras simulaciones y configuramos las especificaciones para poder visualizar nuestra simulación  


CONCLUSIONES

CONCLUSIONES   Durante la estancia de nuestro verano logramos adquirir conocimientos que requerimos en un futuro como por ejemplo conectarnos a un servidor lambda o tener conocimiento acerca de lo que es el cómputo paralelo, pero más específicamente aprendimos acerca del lenguaje de programación Python su sintaxis y varios ejemplos de este sin embargo solo aprendimos una pequeña parte de lo que se puede hacer con las herramientas ya mencionadas de hecho no se logró obtener correctamente la visualización en Paraview ya que este es algo complejo. pero con los trabajos de muestra que nos enseñó el profesor en nuestra estancia nos damos una idea de como tendría     que ser en la visualización en Paraview  
Hernandez Luna Laura Giselle, Instituto Politécnico Nacional
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

RECONSTRUCCIóN 3D DE ARTEFACTOS PARA INTEGRACIóN DE MUSEOS VIRTUALES


RECONSTRUCCIóN 3D DE ARTEFACTOS PARA INTEGRACIóN DE MUSEOS VIRTUALES

Hernandez Luna Laura Giselle, Instituto Politécnico Nacional. Lara Soto Isaac, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La preservación arqueológica y su difusión se ha convertido en un tema de interés generalizado debido a la importancia histórica, los valores sociales, la relevancia económica, y la identidad cultural que conlleva. En México se han aplicado diversas estrategias para fomentar la conservación y protección de bienes culturales. En esta tarea, se involucran entidades gubernamentales y asociaciones privadas como la Coordinación Nacional de Preservación de Patrimonio Cultural del Instituto Nacional de Antropología e Historia (INAH) y el organismo del Fomento Cultural Citibanamex, respectivamente. El INAH, desarrolla continuamente actividades de divulgación cultural como exposiciones de piezas arqueológicas y foros. Los museos han contribuido a los objetivos de la preservación y difusión del patrimonio cultural. De acuerdo con el Sistema de Información Cultural, México cuenta con 1,599 en todo el país. Estas nuevas tecnologías han favorecido las tareas de difusión cultural llegando a públicos más numerosos. Sin embargo, aún con los avances tecnológicos, los recorridos virtuales que se ofrecen actualmente no permiten la interacción directa del visitante con el ambiente o no ofrecen la precisión y exactitud de las piezas arqueológicas digitalizadas. En este proyecto, se emplea un método de reconstrucción óptica de objetos tridimensionales para reconstruir colecciones de artefactos culturales para su posterior integración a museos virtuales. Los resultados confirman la factibilidad de esta tecnología para ofrecer al usuario una mejor experiencia en la apreciación del patrimonio arqueológico.



METODOLOGÍA

La reconstrucción tridimensional de los artefactos se hizo empleando un método óptico de digitalización por proyección de luz estructurada. A grandes rasgos, la reconstrucción 3D se realiza iluminando el artefacto usando el proyector al tiempo que la cámara captura los patrones de franjas resultantes. Posteriormente, la computadora reconstruye digitalmente el objeto a partir de la deformación de las franjas. El arreglo experimental del sistema óptico de reconstrucción 3D consistió en un proyector con una resolución de 800x1280 y una cámara con resolución de 1920x1080. El sistema debe tener estabilidad para asegurar una buena captura de las fotos que serán procesadas. El proceso se inició calibrando ambos dispositivos con el método de calibración de Zhang, donde se hace la estimación de los parámetros a través de la extracción de puntos. Se tomaron cinco fotos de distintas perspectivas de ambos patrones para hacer un procesamiento de segmentación del color de cada foto con el sistema RGB para hacer la identificación de los puntos de interés en cada patrón. Dando como resultado una matriz con los parámetros intrínsecos (tamaño píxel) y otra matriz con los parámetros extrínsecos (posición y orientación). Con el sistema calibrado se prosiguió con la reconstrucción 3D. En esta etapa se hizo la adquisición de las imágenes del objeto iluminado haciendo proyección de franjas.  Al ser elementos culturales es importante mantener sus características más representativas, como los colores, y texturas. Para conseguir la máxima precisión de reconstrucción del objeto, se hizo la toma de un mayor número de imágenes. Se emplearon cuatro rejillas y 16 corrimientos de fase en cada eje X,Y. De esta forma, se realizó una captura de 64 patrones de franjas verticales y horizontales, respectivamente, generando un total de 128 imágenes para realizar el proceso de digitalización 3D por cada artefacto analizado. Posteriormente se hizo la demodulación de fase, para obtener la correspondencia entre los puntos píxel en la cámara y puntos píxel del proyector. Con la matriz de la fase desenvuelta y los parámetros de la posición de los dispositivos se hizo la triangulación por intersección línea-línea. Este método de triangulación considera una cámara libre de distorsión y un proyector con distorsión de lente para determinar la posición de los puntos en un espacio tridimensional. El resultado de este proceso es una nube de puntos que representan la superficie capturada del objeto físico. Después de obtener las nubes de puntos que forman al objeto 3D, se realizó un procesamiento de limpieza para eliminar aquellos puntos que son ruido o están muy dispersos. La herramienta computacional empleada fue MeshLab, la cual sirve para la edición y reparación de figuras tridimensionales con estructura de malla. Posteriormente, se hizo la alineación de las nubes de puntos para obtener una reconstrucción completa del objeto a partir de sus reconstrucciones parciales. Este proceso se realizó en el mismo ambiente de MeshLab con el método Point based, donde se deben seleccionar al menos 4 puntos de coincidencia entre las dos nubes que se pretenden fusionar. Una vez alineadas las nubes de puntos se procedió a su unión y filtrado, continuando con la generación de la superficie haciendo uso del algoritmo Screened Poisson que contiene el software de MesLab. Con la superficie lista se aplicó una herramienta de recuperación de textura, exportando la geometría como objeto al ambiente de Blender para la corrección de vértices prominentes y dotando al elemento de una apariencia más uniforme. Finalmente, la base del objeto se completó con una función de relleno, obteniendo así el modelo sólido del artefacto de interés.


CONCLUSIONES

Durante la estancia de verano se obtuvieron conocimientos teóricos y prácticos respecto a los procesos de digitalización de objetos por medio de luz estructurada, específicamente mediante la proyección de franjas. El trabajo se logró concluir satisfactoriamente obteniendo como resultado superficies completas de las reconstrucciones tridimensionales de los artefactos de interés. Como trabajo a futuro, se mencionan como áreas de mejora los métodos de unión y reconstrucción de las superficies desde las nubes de puntos para que el resultado sea más preciso. 
Hernández Martínez Ximena Monserrat, Instituto Tecnológico del Valle de Morelia
Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa

METODOLOGíA PARA LA OBTENCIóN DE BIOETANOL A PARTIR DE CARTóN RESIDUAL.


METODOLOGíA PARA LA OBTENCIóN DE BIOETANOL A PARTIR DE CARTóN RESIDUAL.

Hernández Martínez Ximena Monserrat, Instituto Tecnológico del Valle de Morelia. Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Se define un residuo sólido urbano (RSU) a todos los generados en las casa habitación, que resultan de la eliminación de los materiales que utilizan en sus actividades domésticas, de los productos que consumen y de sus envases, embalajes o empaques[1]. Se estima que cada año se producen entre 7 mil y 10 mil millones de toneladas de residuos en todo el mundo, 28 países presentan alto riesgo de congestión de residuos [2]. En México se estima que se generan diariamente 102,895 toneladas de RSU reciclando únicamente el 9.63 % de los residuos generados [3]. Predomina el manejo básico de los RSU que solo consiste en la recolección y disposición final de los residuos en los rellenos sanitarios , la realidad es que los municipios presentan circunstancias que dificultan que se lleve un buen manejo integral de los RSU, ya sea por recursos financieros o por la falta de capacidades técnicas para llevar a cabo esta gestión integral de los residuos [4]. En Sinaloa. Sólo hay 4 municipios que cuentan con rellenos sanitarios que cumplen con la  normativa mexicana y se estima que hay 150 tiraderos clandestinos. Según los datos del INEGI (2011) el 83 % de los sinaloenses entregan sus residuos al servicio público de recolección, un 5 % los tiran en un basurero público o colocan en un depósito, el 10 % los quema y el 1.5 % los entierra o tira.  El mal manejo de los residuos  de papel y cartón genera diversos problemas a la salud como al medio ambiente. Por ello el objetivo de este trabajo es obtener etanol a partir del residuo del cartón del papel higiénico empleando métodos físicos y químicos para su degradación y fermentación.



METODOLOGÍA

Se empleo el residuo del cartón de los tubos del papel higiénico  y tubos de servitoallas de una marca comercial, teniendo un total de 32 tubos  de papel higienico y12 tubos de servitoallas, para un total de 428.4 g. Se cortó el residuo en cuadrados de 1x1 cm2, obteniendo finalmente 402.9  g de cartón. Se tomaron 300 g para determinar la humectación del papel y se seco a 70° C por 15 min. Las muestras se divieron en 3 partes para llevar a cabo 2 metodologías diferentes [5, 6] y se realizaron por triplicado. La hidolisis fue ácida (H2SO4) por 120 min, se neutralizo con NaOH de 19-24 h. Se realizó fermentación alcohólica de 3-5 días. Se realizó destilación fraccionada en 90 min. 


CONCLUSIONES

La hidrolisis con H2SO4 5% (98% conc., d 1.84 g/mL) en 120 min y calentamiento controlado (90°C) mostro un cambio de color pero no una pasta de celulosa, al agregar NaOH 5 M no se obtuvo neutralización. Se llevó a cabo tanto para la muestra secada como para la muestra sin hidratación. Se hizó fermentación, la muestra hidratada por 5 días y la no hidratada por 4 días, finalmente, ambas arrojaron etanol sobre los 76° C pero en cantidades extremadamente pequeñas (menor a 1 mL). El segundo procedimiento solo se aplico a 4 g de cartón, la hidrolisis consistio en aplicar  H2SO4 (98% conc., d 1.84 g/mL. 15 mL/375 mL de H2O fría/ 300 mL H2O caliente). Una vez calentado a ebullición (90° C) y filtrado se neutralizó con NaOH 5M alcanzando pH de 5 después de 17 h, se evaporo el agua y se observo una pequeña pasta de celulosa, se fermento por 3 días, se destilo y no se observo etanol.  Las recomendaciones se centran en probar otros microorganismos para fermentación o usar la misma levadura pero aumentar el tiempo de fermentación, probar otra concentración de alcali para la neutralización manteniendo el sistema ácido base empleado.  
Hernández Mendoza Emmanuel, Instituto Politécnico Nacional
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

PREDICCIóN DE ACCIONES E íNDICES EN LA BOLSA MEXICANA DE VALORES CON UN COMPORTAMIENTO CAóTICO MEDIANTE COMPUTACIóN CUáNTICA Y REDES NEURONALES LSTM


PREDICCIóN DE ACCIONES E íNDICES EN LA BOLSA MEXICANA DE VALORES CON UN COMPORTAMIENTO CAóTICO MEDIANTE COMPUTACIóN CUáNTICA Y REDES NEURONALES LSTM

Hernández Mendoza Emmanuel, Instituto Politécnico Nacional. Morales Ramos Bernardo, Universidad Autónoma de Baja California. Pérez Reyes Omar Alejandro, Universidad Politécnica de Victoria. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El mercado de valores de la Bolsa Mexicana de Valores denota volatilidad y complejiadad, lo que presenta desafíos significativos para la predicción de acciones e índices. Se propone el uso de redes neuronales LSTM y tecnología cuántica para abordar este problema. Sin embargo, se trata de un conjunto de datos caótico, lo que agrega complejidad y aumenta la importancia de encontrar enfoques óptimos.  En este contexto, el presente proyecto se alinea directamente con el ODS número 9, al catalizar la innovación tecnológica en el sector financiero y alentar el fortalecimiento de las infraestructuras y servicios financieros. El objetivo es obtener mejores predicciones de acciones e índices en la Bolsa Mexicana de Valores mediante el uso de tecnología cuántica y redes neuronales LSTM.



METODOLOGÍA

En el contexto de la metodología, se considera el plan de trabajo del programa interinstitucional. Se describe un proceso paralelo para formalizar el aprendizaje de computación cuántica y redes neuronales. Por una parte la exploración y estudio de la tecnología cuántica, sus principios fundamentales y sus aplicaciones en el procesamiento de datos. Por otro lado, el análisis y comprensión de las redes neuronales desde su forma práctica como matemática, su funcionamiento y su uso. La combinación de estos dos campos ha permitido el desarrollo de una metodología. A grosso modo la construcción de la red LSTM se vió reflejada en los siguientes pasos: Recopilación de datos históricos de acciones e índices de la Bolsa Mexicana de Valores. Implementación de una red neuronal LSTM para la predicción de precios con distintas arquitercturas y cambios en sus hiper parámetros. Modificación en la red neuronal LSTM que le permite realizar predicciones basadas en sus propias predicciones anteriores. Una vez construida la red neuronal se analizó en búsqueda de optimizar su rendimiento acercándose a los valores esperados. Obteniendo el siguiente algoritmo de pos-procesamiento: Calcular los puntos medios de ambos conjuntos de datos (predicción y reales) mediante los máximos y mínimos. Entendiendo los conjuntos de datos como señales, podemos calcular el valor a multiplicar por los datos alpha (α) con las amplitudes de los datos, denominamos la amplitud de los datos reales como a1 y la amplitud de los datos de predicción como a2, por lo tanto: a2 * α = a1; α = a1/a2 Al multiplicar por un número alpha, los datos sufrirán un desfase sobre el punto medio de los datos reales, por lo que se calculará un número beta (β) el cual sumaremos a los datos reales para compensar dicho desfase de los datos. La distancia que hay entre el punto medio multiplicado y el punto medio donde debe estar es de punto_medio * α - punto_medio, beta (β) será igual al resultado de esta operacion. Por último, observamos que muchas de las predicciones eran inversamente proporcionales a los datos reales, siguiendo la tendencia de los mismos, pero en sentido opuesto. Por lo que para solventar esto, debemos hacer un cálculo de proporcionalidad. Determinaremos  tomando dos puntos cualquiera de ambos conjuntos de datos y calcularemos la pendiente que hay entre ambos puntos, si el sentido de dicha pendiente coincide, significa que las predicciones son proporcionales a los datos reales, y si no coinciden, significa que son inversamente proporcionales, en este caso, el conjunto de datos de predicción se multiplica por -1 para que todos los datos de inviertan, teniendo en cuenta que los datos reales y de predicción están por encima del eje de las X, al multiplicarlos por -1 estos datos terminarán por debajo del eje de las X, y por ende, el punto medio de los datos también estará por debajo del eje de las X. Teniendo esto en cuenta, la distancia que hay entre el punto medio deseado y el multiplicado por -1 será del punto_medio * 2. Al utilizar la red neuronal y predecir datos en base a sus predicciones anteriores se obtienen resultados con errores por encima del 80%. Al emplear el algoritmo propuesto como una técnica de pos-procesamiento, los resultados muestran una notable aproximación, manteniendo errores por debajo del 20% donde los mejores resultados llegan a errores del 3%. Esto resalta cómo la implementación de dicho algoritmo contribuye de manera significativa a la mejora en la predicción y demuestra la efectividad del algoritmo propuesto.


CONCLUSIONES

Sobre el objetivo, se han realizado importantes avances en la predicción de acciones e índices en la Bolsa Mexicana de Valores mediante el uso de tecnología cuántica y redes neuronales LSTM. Encontrando que las predicciones realizadas por la red neuronal pueden ser mejoradas significativamente mediante un algoritmo de ajuste pos-predicción: Calcular los puntos medios de los conjuntos de datos (predicción y reales) para estandarizarlos. Calcular el valor de alpha (α) para igualar las amplitudes de los datos de predicción y reales. Calcular el valor de beta (β) para corregir el desfase causado por la multiplicación por alpha. Realizar un ajuste para asegurar que las predicciones sean proporcionales a los datos reales. Este enfoque no había sido considerado previamente y muestra resultados prometedores para mejorar las predicciones y hacerlas más cercanas a los datos reales. Para seguir desarrollando y mejorando esta metodología, es importante analizar el desempeño en términos de recursos y tiempo utilizados para determinar si una arquitectura más compleja es significativamente óptima o si el algoritmo de ajuste complementa mejor una arquitectura más simple. Además, es relevante revisar el estado del arte sobre propuestas similares y estudiar cómo se han abordado problemas similares de predicción en otros campos para obtener nuevas ideas y enfoques. También, como parte del trabajo futuro, es relevante aplicar la computación cuántica a la red neuronal LSTM. La tecnología cuántica podría ofrecer ventajas significativas en el procesamiento y análisis de grandes volúmenes de datos, lo que podría potenciar el modelo de predicción.
Hernández Millán Daniel, Universidad Mexiquense del Bicentenario
Asesor: Mtra. Sandra Lilia Torres Trejo, Universidad Tecnológica Fidel Velázquez

ANáLIS Y EVALUACIóN DE NECESIDADES DE LAS TECNOLOGíAS EMERGENTES EN EL ECOMMERCE  PARA PYMES


ANáLIS Y EVALUACIóN DE NECESIDADES DE LAS TECNOLOGíAS EMERGENTES EN EL ECOMMERCE  PARA PYMES

Hernández Millán Daniel, Universidad Mexiquense del Bicentenario. Palacios Montes Maria Fernanda, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Sandra Lilia Torres Trejo, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

A medida que se actualizan las tecnologías las cuales se aplican en los comercios, surge la preocupación sobre cómo aprovechar de forma eficiente y efectiva estas tecnologías para mejorar la experiencia del cliente, aumentar la administración, la reducción de tiempos, el fácil acceso de información y así mismo maximizar los resultados comerciales. Sin embargo, se enfrentan diversas amenazas en su implementación y administración de forma general. Preguntas que pueden ayudar a resolver el problema ¿Qué medidas de seguridad utilizas para proteger los datos de tus clientes y transacciones?  ¿Qué tecnologías estarías de acuerdo con usar en tu negocio?



METODOLOGÍA

Se utilizo la metodología de investigación tecnológica con el  propósito de incorporar la innovación y promover el conocimiento y  las necesidades  para la implementación de tecnologías emergente en las Pymes, garantizando su comercio para satisfacer las necesidades del usuario final. La metodología de la investigación tecnológica desarrollada en la investigación: 1. Identificación de la problemática. 2. Formulación del problema de investigación. 3. Identificación del objeto de la investigación. 4. Identificación del campo específico de la investigación. 5. Formulación del objetivo de la investigación. 6. Formulación de la hipótesis de la investigación. 7. El estado del arte. 8. Elaboración del modelo teórico-conceptual.


CONCLUSIONES

La metodología de investigación tecnológica es importante para las Pymes porque les permite incorporar la innovación y promover el conocimiento y las necesidades para la implementación de tecnologías emergentes, como en el caso de Big Data, el Internet de las cosas, la Inteligencia Artificial y el machine Learning, puede mejorar significativamente un negocio y ofrecer una experiencia mejorada para los clientes. Sin olvidar que es fundamental la seguridad de los datos y transacciones para construir la confianza y proteger la privacidad de los clientes. Esto garantiza que las Pymes puedan satisfacer las necesidades del usuario final y mantenerse competitivas en el mercado. También ayuda a las Pymes a identificar oportunidades y amenazas en su posición tecnológica, adquirir y desarrollar recursos, asimilar tecnologías y aprender de la experiencia y ayuda a las Pymes a establecer diferentes modelos para una gestión eficiente de la tecnología
Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia

TENDENCIAS TECNOLÓGICAS: UNA REVISIÓN SISTEMÁTICA


TENDENCIAS TECNOLÓGICAS: UNA REVISIÓN SISTEMÁTICA

Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla. Horcasitas Pérez Ian Gerardo, Universidad de Guadalajara. Sánchez López Abril Ximena, Instituto Politécnico Nacional. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Las instituciones de educación superior, en conjunto con las organizaciones pertenecientes a diferentes sectores, deben establecer estrategias y objetivos empresariales en función de las necesidades internas y las del mercado. La transformación digital es el motor principal para establecer objetivos en entornos educativos y organizativos, ya que las herramientas de software son el medio para optimizar procesos y tareas.  La rápida evolución de la tecnología ha dado lugar a nuevas tendencias tecnológicas, como la inteligencia artificial, la computación en la nube, el internet de las cosas, la analítica de datos, la realidad virtual, el blockchain, entre otras. Estas tendencias ofrecen a las organizaciones oportunidades sin precedentes para mejorar sus operaciones, servicios y productos. No obstante, también presentan desafíos en términos de inversión, capacitación y seguridad de datos. Las consecuencias positivas se evidencian en escenarios en los que transformación digital, por ejemplo, la reducción del tiempo de realización de tareas por medio de la automatización. Otra consecuencia es mejorar la experiencia de los clientes mediante la implementación de herramientas de software como bots en plataformas como Whatsapp, las cuales proporcionan soluciones inmediatas en comparación con métodos tradicionales. Es primordial identificar las tendencias de tecnología y definir cuáles deben adoptarse en una hoja de ruta que garantice la implementación de las tecnologías en ambientes educativos y organizativos. De este modo, este estudio pretende proporcionar las tendencias tecnológicas que deberían adoptarse en los próximos tres años. Esta investigación también se alinea a las necesidades del ODS 9 (Industria, innovación e infraestructura), con el objetivo de construir una infraestructura resiliente, promover la industrialización sostenible y fomentar la innovación, por parte de esta investigación busca impulsar el crecimiento económico inclusivo y sostenible, y fomentar la adopción de tecnologías limpias y eficientes.



METODOLOGÍA

La metodología utilizada en el estudio IT Trends: A literature review es una revisión sistemática ajustada a la declaración PRISMA. Se empleó para identificar seleccionar, evaluar y sintetizar los estudios relevantes. Se establecieron criterios de elegibilidad basados en idioma, fecha de publicación, revisión por pares y reputación de las consultorías. Se realizaron búsquedas en bases de datos indexadas prestigiosas. Se utilizó una estrategia de búsqueda con términos clave relacionados con las tendencias tecnológicas para las organizaciones. Se seleccionaron 40 estudios y se extrajeron los conceptos relevantes, categorizándolos por temas. Se evaluó el riesgo de sesgo mediante los métodos de saturación y triangulación. Se presentan los resultados obtenidos en términos de coincidencias por tema.


CONCLUSIONES

Se extrajeron y estandarizaron 56 diferentes tendencias tecnológicas de 40 estudios académicos, las cuales, por cuestiones de logística, fueron agrupadas en 7 tipos de tecnología. A continuación, se enlistan los tipos de tecnología en orden, utilizando como criterio la cantidad de menciones que sus miembros obtuvieron en conjunto: Data (50), IA (45), Interconnection of devices (35), Automation (34), Digital representation (28), Green innovations (23), Hadware/Devices (23), Digital applications (20), Cybersecurity (19), Digital Society (11) y Communication (9). Dichos resultados podrían ser utilizados como referencia por organizaciones cuyo objetivo es la innovación a través de la tecnología, implementando herramientas como como el análisis de grandes cantidades de información para la toma de decisiones y la automatización de procesos físicos y digitales por medio de inteligencia artificial (por ejemplo, los chatbots).
Hernández Morales Tilahí, Universidad Veracruzana
Asesor: Dr. Miguel Angel Mazorra Manzano, Centro de Investigación en Alimentación y Desarrollo (CONACYT)

ALIMENTOS FUNCIONALES


ALIMENTOS FUNCIONALES

Hernández Morales Tilahí, Universidad Veracruzana. Asesor: Dr. Miguel Angel Mazorra Manzano, Centro de Investigación en Alimentación y Desarrollo (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el grupo de trabajo de Biotecnología de productos Lácteos cuentan con diferentes lineas de investigación enfocadas en el desarrollo de alimentos funcionales, caracterización de productos lácteos artesanales y cultivo de bacterias ácido lácticas para la obtención de diferentes metabolitos con diversas propiedades a la salud. Esto con el objetivo de contribuir a los problemas de salud publica que aquejan a nuestro país.



METODOLOGÍA

Durante la estancia académica se aprendieron diferentes metodologías enfocadas a la caracterización nutricional de alimentos lácteos y derivados, aplicando técnicas para la cuantificación de proteína, grasa, ceniza, carbohidratos totales y fibra. Además se trabajo en la caracterización de potencial probiótico de bacterias ácido lácticas epífitas aisladas de productos artesanales. Se implementaron técnicas para medir actividad antioxidante y compuestos fenólicos presentes en los alimentos de estudio. Finalmente, se utilizó el microscopio con fluorescencia para observar daño el efecto de protección de los compuestos presentes en los alimentos en eritrocitos expuestos a compuestos oxidantes.


CONCLUSIONES

Con las metodologías empleadas se busca poder caracterizar alimentos autóctonos,  mismos que se encuentran en proceso de estudio para evidenciar sus potenciales efectos en la salud. Además, se pudo observar que estos compuestos pueden generar una protección a eritrocitos expuestos a oxidantes. Estos resultados pueden contribuir a evidenciar los efectos benéficos que se pueden asociar al consumo de alimentos autoctónos y que puedan ser considerados como alimentos funcionales. Cabe mencionar que gracias al Verano de la Investigación Científico he reforzado mi formación académica al permitir conocer como se desarrolla el campo de investigación, que papel jugamos como futuros profesionistas para contribuir en la mejora de la salud pública, si fuera el interés en años próximos. Esto permite recomendar a que se siga promoviendo los veranos de investigación, ya que nos ayuda a reforzar conocimientos, así como poder aplicar aquellos que hemos aprendido en las aulas de clases.
Hernández Moreno Mario Andrés, Universidad Autónoma de Manizales
Asesor: Dra. Lorena Garcia Uriostegui, Universidad de Guadalajara

REAPROVECHAMIENTO DEL RESIDUO BAGAZO DE AGAVE EN BIO-PRODUCTOS FUNCIONALES EN APLICACIONES BIOMéDICAS


REAPROVECHAMIENTO DEL RESIDUO BAGAZO DE AGAVE EN BIO-PRODUCTOS FUNCIONALES EN APLICACIONES BIOMéDICAS

Hernández Moreno Mario Andrés, Universidad Autónoma de Manizales. Martínez García Daniela, Universidad de Guadalajara. Asesor: Dra. Lorena Garcia Uriostegui, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La contaminación agroindustrial es un creciente problema en la industria del tequila en México. Anualmente se desechan alrededor de 1500 millones de toneladas de bagazo de agave y vinazas (CRT, México 2023). Estos desechos, compuestos por celulosa, hemicelulosa y lignina, poseen un valor significativo para diversas aplicaciones industriales. Se ha demostrado el potencial de reutilización de estos componentes en biomateriales nano y micrométricos con aplicaciones biomédicas, para tratar enfermedades humanas. La ciencia busca aprovechar su disponibilidad y bajo costo para producir bioenergía, bioquímicos, productos biodegradables, biofertilizantes y tratar aguas residuales. Es esencial abordar esta problemática y buscar soluciones sostenibles que beneficien a la sociedad y el medio ambiente. Durante la estancia, se investigó y trabajó en el diseño de biomateriales estructurados con potencial uso en aplicaciones biomédicas para tratar enfermedades humanas, utilizando estos componentes naturales.



METODOLOGÍA

En la Universidad de Guadalajara se participó en el proceso de extracción y tratamiento de la hemicelulosa de acuerdo a la metodología de Arellano L. (2018). La primera etapa consiste en la deslignificación del bagazo para la obtención de holocelulosa la cual se compone de hemicelulosas y celulosa. Para ello, se llevó a cabo la ejecución del método Wise (1946). Los compuestos utilizados fueron el bagazo libre de extraíbles, clorito de sodio (NaClO2), ácido acético (CH3COOH), agua destilada e hidróxido de sodio (NaOH). Se obtiene una precipitación dónde la fracción sólida es la holocelulosa y la fracción líquida es lignina y otros desechos. Finalmente, se filtra, se enjuaga y se deja secar a temperatura ambiente la holocelulosa. La segunda etapa se enfoca en separar la celulosa de la hemicelulosa. Para ello se realizó una extracción alcalina usando KOH al 15% p/v. Esto permite crear una precipitación en donde la fracción sólida es la celulosa y en la fracción líquida se encuentra la hemicelulosa. Posteriormente se filtra para separar la celulosa y se deja secar a temperatura ambiente.  Durante la tercera etapa se obtiene la hemicelulosa. Primeramente, la fracción líquida obtenida en la etapa anterior se refrigera y se prepara una solución de etanol y HCl concentrado que también debe ser enfriado. Se prepara una tina de agua y hielo donde se introduce el matraz con la fracción líquida y se somete a agitación. Poco a poco se le añade la solución de HCl hasta alcanzar un pH de 5.5; de esta manera se obtiene una mezcla de hemicelulosa, cloruro de potasio y agua que, al agregarle etanol y acetona, favorece la precipitación de la hemicelulosa y de la sal. Esta solución se separó en recipientes que pasaron a una centrífuga a velocidad de 4000 rpm durante 20 minutos para acelerar el proceso de precipitación. Se decanta cada recipiente y el resultado es la mezcla de la hemicelulosa y la sal cuya consistencia es blanda y de coloración blanca. Esta mezcla se junta y se secan con ayuda de un liofilizador que emplea agua para disolver la sal aún presente en la muestra y nitrógeno líquido para congelar la solución. Se genera un proceso de sublimación para obtener hemicelulosa limpia y lista como materia prima para su aplicación en la sintetización de biomateriales como nanopartículas e hidrogeles. En ciencia de materiales e ingeniería biomédica, se combinan polímeros naturales, como hemicelulosas, con nanopartículas de sílice mesoporosas para mejorar la biodisponibilidad de medicamentos. Las sílices actúan como matrices para liberar terapéuticos de forma controlada, mientras que los polímeros naturales ajustan sus propiedades. Esto favorece tratamientos efectivos en medicina regenerativa y liberación de fármacos. Durante la estancia, exploramos la preparación de estas nanopartículas para impulsar este desarrollo bionatural. Para la síntesis de las nanopartículas mesoporosas se empleó el método de microondas de Garcia, R (2001) y al compararse con otros métodos, se observó una mejor morfología en las nanopartículas en sus poros; también se vio reducido 12 veces el tiempo de síntesis. La síntesis se realizó por el método sol-gel para la obtención de hidrogeles. Los materiales fueron ácido clorhídrico 1.6M como catalizador, Pluronic P123 como surfactante, trimetilbenceno que nos ayuda a la morfología de las nanopartículas y los poros, fluoruro de amonio para el crecimiento de las nanopartículas y Tetraetilortosilicato (TEOS) como iniciador. Nuestra solución fue de 50 mL de HCl 1.6M y 1.3713 g de Pluronic P123. Se agitaron a 40ºC hasta observar que el surfactante se disolviera. Posteriormente, se agregaron 5.13 mL de trimetilbenceno y se agregaron lentamente 2.7 mL de TEOS con una jeringa. Se dejó la solución agitando por 1 hora a 40ºC. Finalmente, se introdujo la solución al microondas por 30 minutos en total. El primer intervalo de 15 minutos se irradió a 50ºC y 200W y el segundo a 80ºC y 100W. Esta irradiación de microondas nos ayudó a madurar y consolidar las nanopartículas y sus poros para llevarlas al horno para secar el solvente y obtener las nanopartículas sólidas.


CONCLUSIONES

La experiencia DELFÍN en el laboratorio fue enriquecedora, aplicamos teoría a la práctica, valoramos la tecnología ecológica y descubrimos el potencial transformador de la ciencia. La industria tequilera genera más desechos cada año, como el bagazo de agave. Afortunadamente, estos desechos tienen valor para mejorar la salud humana, desde tratar enfermedades como el cáncer hasta sintetizar biomateriales complejos. Esta investigación tiene amplias aplicaciones científicas y beneficia al medio ambiente y al ser humano. Busca maximizar los recursos naturales y promover el desarrollo sostenible para un bien común entre la humanidad y la naturaleza.
Hernandez Mota Ariadna Atzin, Instituto Politécnico Nacional
Asesor: Dr. Lorenzo Tepech Carrillo, Universidad Autónoma Benito Juárez de Oaxaca

SíNTESIS DE PEROVSKITAS Y SU CARACTERIZACIóN POR DRS


SíNTESIS DE PEROVSKITAS Y SU CARACTERIZACIóN POR DRS

Hernandez Mota Ariadna Atzin, Instituto Politécnico Nacional. Zepeda García Ma. Lizbeth, Universidad de Guadalajara. Asesor: Dr. Lorenzo Tepech Carrillo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Los óxidos con estructura perovskita son materiales con muchas aplicaciones debido a sus propiedades ópticas, mecánicas, eléctricas y magnéticas, por ejemplo, las perovskitas a base de cobalto y de titanio son uno de los candidatos más competitivos con actividad electrocatalítica y se  están empleando cada vez más como detectores selectivos de gases contaminantes generados en procesos industriales. Además presentan muchas propiedades interesantes para su uso en la energía, tales como superconductividad a alta temperatura, ferroelectricidad, ferromagnetismo, termoelectricidad, alta conductividad térmica, resistencia térmica a altas temperaturas y propiedades de transporte. La perovskita SrCoO3 presenta una estructura ortorrómbica después de ser calcinada a la temperatura correcta y tiene propiedades ferromagnéticas y muestra una conductividad metálica. El objetivo es sintetizar nanopartículas de BaCoO3 y SrCoO3, utilizando el método de síntesis hidrotermal, para obtener un polvo precursor homogéneo y llevarlo a calcinar para finalmente conseguir la perovskita. El material fue estudiado por espectroscopia de difracción difusa.  



METODOLOGÍA

Para preparar las muestras de cobalto(III) perovskita de bario (BaCoO3) y cobalto(III) perovskita de estroncio (SrCoO3), partiendo de los reactivos: nitrato de cobalto hexahidratado (Co(NO3)2*6H2O-98%), nitrato de estroncio (Sr (NO3)2-99%), nitrato de bario (Ba(NO3)2-99%), utilizando hidróxido de sodio (NaOH) como precipitante, hidróxido de amonio (NH₄OH) como agente quelante y agua destilada como solvente,  es necesario conocer el peso de cada reactivo a utilizar para la obtención de ambas perovskitas (tabla 1 y tabla 2) y las reacciones químicas que se llevarán a cabo durante el proceso, en este caso se requieren obtener dos gramos de cada uno de los productos. Lo primero que se requiere para llevar a cabo la síntesis es, colocar agua destilada en un vaso de precipitado y agregar el hidróxido de amonio, mientras se encuentra la solución en agitación constante y a una temperatura de 70° C, después utilizando las cantidades correctas, se agregan los precursores  Ba(NO3)2 y Co(NO3)2*6H2O o Sr(NO3)2 y Co(NO3)2*6H2O (dependiendo de la perovskita que se esté elaborando). Una vez que los compuestos se encuentren disueltos, adicionar el hidróxido de sodio (NaOH) para lograr obtener un precipitado de los hidróxidos y trasladar toda la solución a un vaso de teflón para el tratamiento hidrotermal. Una vez que la muestra deja de cambiar de color se introduce en un sistema cerrado para colocarlo en el horno tipo mufla, ajustando las temperaturas y tiempos del horno. Este tratamiento se realiza para completar la reacción de obtención de los hidróxidos, aunque es posible que se encuentren en la solución aun antes del tratamiento térmico. La muestra se lava con agua destilada por 4 veces para quitar la mayor cantidad posible de hidróxido de amonio; posteriormente, se pone a secar hasta lograr evaporar el agua y obtener un polvo sólido, después se trituran las muestras en el mortero de ágata para ser caracterizadas mediante DRS en el espectrofotómetro. Tras tener el polvo precursor, este se deposita en un crisol de alúmina para calcinarlo y obtener la perovskita buscada, dependiendo los tiempos y temperaturas del tratamiento térmico.  


CONCLUSIONES

Al reaccionar, se produce un precipitado azul de Co(OH)2, que espontáneamente se transforma a la fase rosa claro Co(OH)2 con mayor estabilidad termodinámica y precipitan de la solución acuosa los hidróxidos, de acuerdo con las ecuaciones siguientes, dependiendo de la síntesis que se esté realizando.   Ba(NO3)2 (ac) + 2NaOH(ac)    →    Ba(OH)2 (s)  + 2NaNO3 (ac)   (Ecuación 1) Co (NO3)2 (ac) + 2NaOH(ac)    →    Co(OH)2 (s)   + 2NaNO3 (ac)  (Ecuación 2)   Sr(NO3)2 (ac) + 2NaOH(ac)    →    Sr(OH)2  (s)  + 2NaNO3 (ac)   (Ecuación 3) Co (NO3)2 (ac) + 2NaOH(ac)    →    Co(OH)2 (s)   + 2NaNO3 (ac)  (Ecuación 4)   Al obtener el polvo precursor después de la síntesis y el sacado de la muestra, este se va a calcinar, se encuentra reportado que a medida que la temperatura incrementa los hidróxidos se transforman en óxidos, mostrado en las ecuaciones 5 y 6, 7 y 8 respectivamente.    Ba(OH)2 (s)   → BaO(s)  + H2O(g)   (Ecuación 5) Co(OH)2  (s)   → CoO(s) + H2O(g)     (Ecuación 6)   Sr(OH)2 (s)   → SrO(s)  + H2O(g)      (Ecuación 7) Co(OH)2  (s)  → CoO(s) + H2O(g)      (Ecuación 8)   Tras completar la reacción para los óxidos se llevan a cabo las ecuaciones restantes para la obtención de cada una de las perovskitas, en donde mientras se calcina el polvo los óxidos pasan a transformarse en las perovskitas deseadas, cuando la temperatura de calcinación se encuentra entre los 850 y 1050° C la fase de la perovskita ya se encuentra formada, para el procedimiento de ambas síntesis se utilizó una temperatura de 900°C, por lo que se puede suponer que se formaron de forma correcta las perovskitas.   CoO (s)  + BaO(s)  → BaCoO3(s)   (Ecuación 9)   CoO (s)  + SrO(s)  → SrCoO3(s)   (Ecuación 10)   Se estudió las microestructuras y el mecanismo de formación para la realización de las perovskitas SrCoO3 y BaCoO3, mediante el cual fueron sintetizados por una ruta hidrotermal, fueron analizados por la técnica DRS ya que esta es más conveniente para caracterizar los nanomateriales en polvo, se determinó que ambas perovskitas muestran reflectancia en ciertos picos puntuales, estos materiales pueden producirse por medio de la calcinación de una mezcla de polvos de Ba(OH)-CoO3 y  Sr(OH)-CoO3.  Se encontró que las perovskitas a base de cobalto (Co) reflejan muy poco, en cambio, las perovskitas a base de titanio (Ti) presentan una curva más amplia de reflectancia.   
Hernández Mozqueda Yael, Instituto Tecnológico de Morelia
Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia

REALIZACIóN DE PROTOTIPO DE EXOESQUELETO CON SERVOMOTORES APLICADO A DIPLEJíA ESPáSTICA.


REALIZACIóN DE PROTOTIPO DE EXOESQUELETO CON SERVOMOTORES APLICADO A DIPLEJíA ESPáSTICA.

Hernández Mozqueda Yael, Instituto Tecnológico de Morelia. Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

  El diagnóstico de diplejia habitualmente va acompañado de la característica espástica, porque estos niños presentan espasticidad que puede afectar a más o menos músculos de las piernas (entre ellos los gemelos y algunos del muslo, como los aductores). Este hecho provoca que muchos niños con diplejia caminen con las piernas juntas, giradas hacia adentro y con los pies de puntillas, lo que se conoce como marcha en tijera. Las familias también pueden trabajar junto a los proveedores de cuidado de la salud y, durante los años escolares, junto al personal de la escuela para desarrollar programas de atención y tratamiento individuales. Los tipos comunes de tratamiento para la parálisis cerebral incluyen: Dispositivos ortopédicos. Se pueden colocar soportes ortopédicos, tablillas y escayolas en los miembros afectados para mejorar el movimiento y el equilibrio. Otros dispositivos que pueden ayudar con el movimiento y la postura incluyen sillas de rueda, caminadores y scooteres motorizadas. Tecnología y dispositivos de asistencia. Estos incluyen máquinas de comunicación computarizadas, zapatos que se amarran con velcro, o muletas, que pueden facilitar la vida cotidiana.



METODOLOGÍA

En la primera etapa aprender sobre diseño mecánico apoyándose en softwares como Solid Works y programación básica de sistemas embebidos con Arduino. Al inicio de la estancia de investigación se realizaron algunas capacitaciones para la aplicación del aprendizaje en las posteriores actividades a realizar.  Capacitaciones sobre software de diseño 3D como SolidWorks, en software de programación básica en C como lo es Arduino con su respectiva simulación en el simulador de circuitos electrónicos Proteus, de igual manera se vio en la necesidad de reforzar conocimiento en el área de máquinas eléctricas enfocado especialmente en motores, específicamente en servomotores. Dentro del cronograma de actividades se encuentra el apoyo a la realización del acoplamiento del sistema de monitoreo de parámetros fisiológicos y la implementación del sistema de monitoreo al paciente con síndrome autista en el CREE DIF Morelia. Posteriormente se apoyó para el escaneo del paciente con diplejía espástica para desarrollo diseño mecánico del prototipo a pequeña escala de la estructura de exoesqueleto, esto realizado con un software de escaneo basado en programación en Phyton apoyado de la entrada de los sensores y cámaras del Kinect, de igual manera apoyado en una aplicación móvil para escanear. Con este antecedente se tomó la decisión de hacer el diseño casi desde cero para tener mayor rigidez en la pieza, así como lo necesario para ensamblar los motores. Se empezó a tomar medidas del motor, así como de la distancia a la que se quería la pieza, esto con el calibrador Vernier, el cual fue de gran apoyo para tener una medida exacta de la pieza, en esta parte lo más complicado fue medir la circunferencia de los orificios para los tornillos. Posteriormente se empezó a tomar medidas del motor, así como de la distancia a la que se quería la pieza, esto con el calibrador Vernier, los cuales tenían las limitantes de las mediciones tomadas a la pieza anterior diseñada anteriormente. De igual manera se anotaron esas medidas para tomarlas en cuenta en las cotas a introducir en el software de diseño 3D el cual como ya ha sido habitual, es Solidworks. Se realizó la impresión de las 3 piezas diseñadas, las cuales se logró observar su óptimo desempeño ya que se puede observar como ensamblan a la perfección con las medidas propuestas, así mismo con el anchor del motor y el espacio para los tornillos.


CONCLUSIONES

A lo largo de esta estancia de investigación, se logró los objetivos planteados, así como se ve plasmado en el resumen, se puede ver que se tuvieron algunas problemáticas con la conexión, las librerías, impresión y diseño, sin embargo, se lograron erradicar gracias al trabajo en equipo y búsqueda de respuestas. Gracias a estos avances se logró tener una parte fundamental de cara a culminar el proyecto indicado del exoesqueleto a pequeña escala teniendo las bases del funcionamiento de los servomotores así como la interfaz con la que se controlará. De igual forma se pudo visualizar un diseño que puede ser acoplado al proyecto, solamente modificando partes para colocar distintos motores en la parte baja del diseño propuesto. En las actividades de este proyecto se cumplieron los objetivos de diseño e implementación de impresión 3D así mismo el tener una estancia muy interesante con actividades para el desarrollo del proyecto. Logré poner en valía los conocimientos de calibración, adaptación e impresión 3D para la realización de pruebas en la pieza diseñada. Con estas aptitudes y conocimiento son de gran utilidad para mi desarrollo de vida profesional, ya sea para un diseño por parte mía o para elaborar una tarea asignada. De igual manera se logró realizar el diseño solicitado y requerido, lo cual fue de hecho gracias a la capacitación tomada en las primeras semanas de la estancia, la cual fue indispensable para tener la pieza. Se puso en práctica la implementación de impresión 3D así mismo el tener una Logré poner en valía los conocimientos de calibración, adaptación e impresión 3D para la realización de la pieza solicitada. A lo largo de la estancia de investigación del XXVIII Verano de la Investigación Científica y Tecnológica del Pacífico del programa delfín aprendí y adquirí muchas herramientas para un futuro en mi desarrollo profesional, como diseño en 3D apoyado en el software Solid Works, así como obtener conocimientos sobre impresión 3D, tanto calibración como la implementación y cuidados, toso esto partiendo de un conocimiento nulo de estos temas, lo cual es de gran aporte para un futuro. Se lograron fortalecer conocimiento como el trabajar con programación en C, simulación de circuitos electrónicos y trabajar con motores para su posterior adaptación a la parte del diseño realizado.    
Hernandez Navarro Lourdes Vanessa, Instituto Politécnico Nacional
Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa

DESARROLLO DE UNA APLICACIóN WEB PARA EL RECONOCIMIENTO DE MéTRICAS DE LA SALUD


DESARROLLO DE UNA APLICACIóN WEB PARA EL RECONOCIMIENTO DE MéTRICAS DE LA SALUD

Beltrán Clark Paola Edilia, Instituto Tecnológico Superior de Cajeme. Hernandez Navarro Lourdes Vanessa, Instituto Politécnico Nacional. Reyes Guerrero Joel, Instituto Tecnológico Superior de Cajeme. Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El trasfondo de este proyecto se centra en la creciente prevalencia de enfermedades crónicas en la población mexicana, como la diabetes, hipertensión y obesidad, junto con la falta de un adecuado monitoreo de la salud. Los métodos tradicionales de seguimiento de parámetros vitales, como los niveles de glucosa, lecturas de presión sanguínea, mediciones de peso y registros alimenticios, requieren inserción manual de datos, lo que puede ser poco conveniente para los usuarios. Esta situación brinda una oportunidad significativa para desarrollar una solución más eficiente y precisa. El alto nivel de enfermedades crónicas en la población mexicana revela que la ineficiencia y limitaciones de los métodos tradicionales de almacenamiento y monitoreo de parámetros vitales representan un obstáculo importante para mejorar la calidad de vida en nuestro país. La entrada manual de datos requiere demasiado tiempo, es propensa a errores y puede generar imprecisiones y registros incompletos, dificultando una vigilancia adecuada de la salud. Además, las personas con limitaciones físicas enfrentan desafíos para comunicar de manera efectiva su estado de salud a los profesionales médicos. Por lo tanto, es imperativo desarrollar una solución que automatice la captura de datos, mejore la precisión y eficiencia, ofrezca información personalizada y mejore la accesibilidad para una mejor gestión de la salud. Es aquí donde surge la necesidad de crear una aplicación web, adaptable a las necesidades individuales de los pacientes, facilitando así el control y seguimiento de su estado de salud.



METODOLOGÍA

El desarrollo de nuestra aplicación web comenzó con una exploración en profundidad de las necesidades y expectativas de los usuarios. Para obtener información sobre los requisitos del público objetivo, empleamos una combinación de métodos, incluidas interacciones directas con usuarios potenciales, consultas con profesionales de la salud y una revisión exhaustiva de la investigación existente sobre aplicaciones de gestión de métricas de salud. Además de recopilar comentarios directos de los usuarios, realizamos un análisis exhaustivo de las aplicaciones de gestión de métricas de salud existentes disponibles en el mercado. Este análisis reveló las fortalezas y debilidades de las soluciones de la competencia, lo que nos permitió identificar áreas de oportunidad únicas y diferenciar nuestra aplicación. En el desarrollo de nuestra aplicación web, adoptamos un enfoque de desarrollo de software ágil, específicamente Scrum, para garantizar la flexibilidad, la colaboración y la iteración rápida a lo largo del ciclo de vida del proyecto. Las metodologías ágiles son adecuadas para proyectos con requisitos en evolución, ciclos de retroalimentación estrictos y un enfoque en la entrega de valor incremental a los usuarios. El desarrollo de nuestra aplicación web involucró una colección de tecnologías cuidadosamente seleccionadas para garantizar solidez, seguridad y escalabilidad. Seleccionamos cada componente en función de su idoneidad para los requisitos de la aplicación y la experiencia de nuestro equipo de desarrollo. Dentro de las tecnologías utilizadas podemos encontrar: React.js: esta librería se utilizó para la creación de la interfaz de la plataforma. Bootstrap: una librería que nos permitió añadir la responsividad y el atractivo visual de las diferentes páginas. Node.js: el entorno seleccionado para el manejo de datos e información entre la interfaz y el servidor. Express: este framework nos permitió establecer rutas de acceso a la información de los usuarios. MySQL: un sistema de gestión de base de datos relacionales. Google Vision API: una API diseñada por Google que se encarga del reconocimiento de imágenes. Chart.js: una biblioteca que se encarga de la representación gráfica de datos. Al combinar estas tecnologías y bibliotecas, desarrollamos con éxito una aplicación web eficaz y fácil de usar con una función de reconocimiento de imágenes de vanguardia. Esto nos permitió crear una aplicación que no solo satisfizo las necesidades de los usuarios, sino que también brindó una experiencia fluida e intuitiva en varios dispositivos y plataformas.


CONCLUSIONES

El desarrollo de nuestra aplicación web para la gestión de métricas de salud marca un hito importante en el empoderamiento de las personas para que se hagan cargo de su bienestar con ayuda de la tecnología. Al ofrecer una plataforma integral para realizar un seguimiento de las métricas de salud, establecer objetivos y obtener información valiosa, la aplicación tiene el potencial de impactar positivamente en la vida de los usuarios de múltiples maneras. La aplicación web representa más que un logro tecnológico; encarna nuestro compromiso de promover la gestión proactiva de la salud y fomentar un impacto positivo en la vida de las personas. A medida que continuamos refinando y expandiendo la aplicación, seguimos dedicados a mantener los estándares de privacidad de datos, uso ético de la tecnología y enfoque en el usuario. Con una visión de un mundo más saludable y más informado, esperamos con ansias el viaje de la aplicación y el potencial que tiene para marcar una diferencia duradera en la vida de las personas.
Hernández Oaxaca Haziel, Instituto Tecnológico de Reynosa
Asesor: Dr. Hector Hugo Aviles Arriaga, Universidad Politécnica de Victoria

DESARROLLO DE MÓDULOS PARA LA ESTIMACIÓN DE POSICIÓN Y CONTROL DE DIRECCION PARA ROBOT AUTOMINY IMPLEMENTANDO FILTROS KALMAN Y CONTROL P.I.D.


DESARROLLO DE MÓDULOS PARA LA ESTIMACIÓN DE POSICIÓN Y CONTROL DE DIRECCION PARA ROBOT AUTOMINY IMPLEMENTANDO FILTROS KALMAN Y CONTROL P.I.D.

Arenas Perdomo Juan Manuel, Universidad Simón Bolivar. Hernández Oaxaca Haziel, Instituto Tecnológico de Reynosa. Ordoñez Saavedra Maximiliano, Instituto Tecnológico de Reynosa. Asesor: Dr. Hector Hugo Aviles Arriaga, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

Al inicio de la estancia, el coche autónomo Jaguares (UPV-UNAM) carecía de un módulo para calcular o estimar su posición en un mapa. Específicamente, no tenía conocimiento de su ubicación en los ejes X e Y, ni de su orientación θ (theta). Sin este módulo, el vehículo solo podía reconocer las marcas blancas en una pista, similar a cómo un robot limpiador detecta las paredes en una habitación. El robot limpiador se mueve de un lado a otro, a veces quedando atrapado en ciertas áreas y sin saber qué partes ya ha limpiado, lo que impide una limpieza eficiente. De manera análoga, el coche autónomo no puede estimar trayectorias eficientes, y enfrenta una situación similar a una persona caminando en un cuarto oscuro. Sin la capacidad de ubicarse, el coche se enfrenta a un entorno complejo y peligroso, donde no puede navegar de manera óptima, lo que representa un desafío significativo.



METODOLOGÍA

Los objetivos específicos del proyecto se establecieron, como la implementación de la estimación de posición en los ejes X e Y, así como la orientación θ (theta) del coche autónomo. Se determinaron los requisitos técnicos y funcionales para el desarrollo de los módulos, incluyendo los sensores disponibles en el coche, la frecuencia de actualización de los datos y las restricciones de hardware y software. Se realizó una revisión bibliográfica sobre filtros Kalman, control P.I.D. y técnicas de estimación de posición para vehículos autónomos. Se adquirieron las herramientas y software necesarios, como Webots para la simulación del coche autónomo, ROS para la integración de componentes y OpenCV para el procesamiento de imágenes. Se configuró el entorno de desarrollo con Ubuntu, ROS y las herramientas adicionales necesarias para el desarrollo del coche autónomo. Se instaló Webots para la simulación del coche autónomo y la validación de los módulos desarrollados. Se llevó a cabo un estudio y análisis del coche autónomo AutoMiny, comprendiendo su estructura y arquitectura, revisando la documentación y el código fuente disponible, e identificando los sensores disponibles y su funcionamiento, así como la comunicación con los demás componentes del sistema. Se desarrolló el módulo de estimación de posición con filtro Kalman extendido, implementando el filtro Kalman para estimar la posición del coche autónomo utilizando los datos de los sensores disponibles, como las marcas blancas de la pista y otros sensores de localización, y se configuraron los parámetros del filtro Kalman para lograr una estimación precisa y robusta de la posición y orientación del vehículo. También se desarrolló el módulo de control P.I.D., implementando el control P.I.D. para el control de dirección del coche autónomo, con el objetivo de seguir la trayectoria de forma suave y precisa, y se ajustaron los parámetros del control P.I.D. para lograr una respuesta óptima y reducir el error de seguimiento de la trayectoria. Se integraron los módulos de estimación de posición y control P.I.D. en el coche autónomo AutoMiny, utilizando ROS para gestionar la comunicación entre los componentes, y se realizaron pruebas en el entorno simulado (Webots) para verificar el funcionamiento de los módulos y validar la precisión de la estimación de posición y el control de dirección. Se evaluó el rendimiento de los módulos mediante pruebas y análisis de resultados, identificando posibles problemas y errores, y realizando correcciones y ajustes necesarios para mejorar el rendimiento del coche autónomo. Se evaluó la escalabilidad de los módulos para su implementación en un coche autónomo real, teniendo en cuenta las diferencias entre el entorno simulado y el mundo real, y se realizaron pruebas y ajustes adicionales para adaptar los módulos al coche autónomo real (AutoMiny). Se documentó todo el proceso de desarrollo, desde la investigación hasta la implementación y las pruebas, y se preparó una presentación con los resultados obtenidos y los logros alcanzados durante el proyecto.


CONCLUSIONES

En conclusión, el desarrollo de módulos para la estimación de posición y control de dirección en el coche autónomo AutoMiny mostraron ser utiles, los modulos ayudaron a que el coche autonomo avanzara en linea recta sin casi desviarse y el modulo de estimación lograba representar de manera precisa la ubicación y orientacion en la que el coche se encontraba
Hernández Pérez Jorge Daniel, Instituto Tecnológico de La Piedad
Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN


DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN

García Espinoza Cecilia Janeth, Instituto Tecnológico de La Piedad. Hernández Pérez Jorge Daniel, Instituto Tecnológico de La Piedad. Martínez Zárate Andres, Instituto Tecnológico de La Piedad. Ortiz Leon Jorge, Instituto Tecnológico de La Piedad. Rodriguez Martinez Ivette Jocelyn, Instituto Tecnológico de La Piedad. Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las heladerías ofrecen a sus clientes la opción de personalizar sus helados con diversas combinaciones de ingredientes, lo que resulta en una experiencia gastronómica más satisfactoria. Sin embargo, la gestión manual de las opciones disponibles puede llevar a errores en la facturación, tiempos de espera prolongados y una experiencia del cliente poco organizada. El desafío radica en la implementación de un sistema en la Heladeria WOW que permita a los clientes seleccionar y combinar de manera intuitiva los elementos que desean agregar a sus helados, incluyendo frutas, salsas y toppings, garantizando que el proceso sea rápido, preciso y eficiente



METODOLOGÍA

La metodología empleada para este tipo de proyecto fue necesaria una combinacion de cuantitativa para el desarrollo del sistema, como el análisis de los datos relacionados con la facturación y los pedidos y junto con cualitativa para el diseño de la interfaz de usuario y en la obtención de la retroalimentación de los usuarios, realizando entrevistas o encuestas a los clientes para comprender su experiencia y opinión sobre la usabilidad del sistema, la facilidad de personalización, y su satisfacción general con la opción de seleccionar diferentes ingredientes para sus helados.


CONCLUSIONES

De la presente investigación y el desarrollo del sistema de personalización de helados con registro y facturación ha sido un proceso enriquecedor y exitoso que ha permitido satisfacer las necesidades y preferencias de nuestros clientes de manera eficiente y personalizada. A través de la combinación de una metodología ágil que nos brindó flexibilidad y adaptabilidad, así como la utilización de enfoques cuantitativos y cualitativos en la investigación, logramos alcanzar los objetivos establecidos y brindar una experiencia única a nuestros usuarios.La implementación de una interfaz de usuario amigable y accesible ha permitido que nuestros clientes puedan seleccionar con facilidad los componentes de sus helados
Hernández Pérez Valeria Cristina, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

SÍNTESIS DE MATERIALES ADSORBENTES PARA LA REDUCCIÓN DE EMISIONES DE CO2


SÍNTESIS DE MATERIALES ADSORBENTES PARA LA REDUCCIÓN DE EMISIONES DE CO2

Hernández Pérez Valeria Cristina, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el aumento potencial de la población ha sido una pauta importante para una mayor demanda energética, provocando así uno de los principales desafíos del siglo XXI. En otras palabras, el aumento del suministro de energía es directamente proporcional al crecimiento demográfico, y esto ocasiona una mayor generación de emisiones de CO2 y otros gases de efecto invernadero que provocan cambios climáticos, inundación de ciudades costeras, desertificación de zonas fértiles, deshielo de masas glaciares y proliferación de huracanes devastadores. Ante esta problemática, se han abierto nuevas líneas de investigación que buscan alternativas para mitigar el cambio climático a través de la captura y almacenamiento de CO2, considerándolo como una tecnología prometedora. Con lo anterior, se ha determinado que los adsorbentes preparados a partir de biomasas lignocelulósicas, tal como, aserrín, madera, turba, frutos secos, lignito, cáscaras de coco y semilla de aguacate sean una razonable solución a la problemática ambiental. Además, otra ventaja de utilizar adsorbentes carbonosos, es su capacidad de regeneración que permite que sean reutilizados varias veces antes de ser desechados. Estos adsorbentes también se pueden modificar mediante activación química y física y así adquirir propiedades versátiles y de gran importancia industrial lo que los hace capaces de capturar el CO2. Por tanto, en este proyecto se planteó la funcionalización de un carbonizado de hueso de aguacate, empleando sales de litio para preparar adsorbentes de CO2.



METODOLOGÍA

La metodología utilizada en la presente investigación para el proceso de síntesis a partir del hueso de aguacate, así como los experimentos de adsorción se muestran en la Figura 1. https://www.canva.com/design/DAFprFWOMhc/FG7UTPxRG-E57oXb_th7og/edit?utm_content=DAFprFWOMhc&utm_campaign=designshare&utm_medium=link2&utm_source=sharebutton  (LINK DE LA FIGURA 1) Figura 1. Diagrama de flujo de la síntesis de adsorbentes y experimentos de adsorción. 1. Acondicionamiento de la materia prima En la primera etapa del proyecto, se recolectó la semilla de aguacate, y se redujo de tamaño, después se secó a temperatura ambiente durante 36 h. A continuación, se trituró para obtener un tamaño de partícula de malla 15-20. Posteriormente, la biomasa se lavó con agua desionizada y secó a 100 ºC durante 24 h. 2. Pirólisis Se empleo un diseño experimental fraccionado con 3 variables y 3 niveles con el cual se obtuvieron 9 adsorbentes. En la etapa de pirólisis se evaluaron diferentes condiciones como tiempo (1, 2 y 3 h) y temperaturas (600, 750 y 900 ºC). La pirolisis se realizó en un horno tubular con un flujo de 400 mL/min de de nitrógeno (N2), que es una átmosfera de gas inerte. 3. Funcionalización Los adsorbentes obtenidos fueron modificados con soluciones de litio. Las variables de estudios en la funcionalización fueron concentración de la solucion de impregnación (10, 25 y 50 ppm), relación m/v (1:10, 1:20, 1:30 g/mL) y tiempo (3, 5 y 8 h). La funcionalización se realizó a temperatura ambiente (30 ºC).   4. Activación La activación se realizó en un horno tubular en un flujo de nitrógeno durante cierto tiempo (1, 2 y 3 h) y a una temperatura dada (400, 600 y 800 ºC), de acuerdo a lo planteado en el diseño experimental. 5. Experimentos de adsorción Para evaluar el desempeño de los materiales adsorbentes que se prepararon, se realizaron experimentos de adsorción de CO2 en un horno tubular con flujo de CO2 durante 6 h a temperatura ambiente (30ºC). 6. Caracterización: Los materiales adsorbentes se caracterizaron con difracción de rayos X (DRX) y espectroscopia de infrarrojo con transformada de Fourier (FTIR) para determinar su capacidad de adsorción. Para dicho fin, se determinó la capacidad de adsorción de los adsorbentes modificados con respecto a la capacidad de los adsorbentes sin modificar. Con los adsorbentes sintetizados se observó que existe una pérdida de cristalinidad y de intensidad respectivamente al someterlos a un flujo de CO2.


CONCLUSIONES

Con base a los resultados de la caracterización tanto de DRX como FTIR, se determinó que los adsorbentes modificados con litio mostraron cambios sustanciales estructurales debido a la incorporación de CO2, lo cual se relacionó con un mejor desempeño de adsorción. Finalmente, en el transcurso de la estadía científica logré obtener grandes conocimientos acerca de síntesis de materiales adsorbentes a partir de biomasas como lo es el hueso de aguacate y lo que conllevan los procesos a los que son sometidos (pirólisis, funcionalización, activación, adsorción y caracterización). Asismismo, se me permitió pulir los conocimientos adiquiridos durante mi carrera profesional a través de la capacitación en técnicas analíticas e instrumentales que se aplicaron en curvas de calibración y la realización de este proyecto.   AGRADECIMIENTOS Agradezco a mis asesores Ing. Zayda Vanessa Herrera  y Dr. Adrián Bonilla Petriciolet por la paciencia y la pasión con las que me compartieron sus grandes conocimientos esperando aplicarlos siempre en mi vida profesional.
Hernández Ramirez Daniela Yuvin, Instituto Politécnico Nacional
Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán

IMPLEMENTACIóN DEL SISTEMA DE GESTIóN DE LA CALIDAD BAJO LA NORMA ISO 9001:2018 EN LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN


IMPLEMENTACIóN DEL SISTEMA DE GESTIóN DE LA CALIDAD BAJO LA NORMA ISO 9001:2018 EN LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN

Hernández Ramirez Daniela Yuvin, Instituto Politécnico Nacional. Ruiz Ortiz Jose Angel, Universidad de Guadalajara. Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

La presente investigación, busca evidencia la importancia de los sistemas de gestión de la calidad de las instituciones educativas de nivel superior y su relevancia para la mejora de los procesos que se llevan a cabo dentro de la institución para mejorar las condiciones de los clientes internos y externos como una organización que busca la calidad educativa y formar profesionistas altamente competitivos.



METODOLOGÍA

La implementación de un sistema de gestión de la calidad permite mejorar los procesos que se llevan a cabo dentro de la institución y para poder medir la mejora de la misma se emplea la metodología de análisis de casos en lo buscamos demostrar las mejoras en la atención de los clientes tanto internos como externos y el impacto en las partes interesadas y el establecimiento de los indicadores que ayuden a llevar a cabo la mejora continua de los procesos a través de indicadores y seguimiento por parte de la dirección para la asignación y correcta aplicación de los recursos con los que cuenta la institución y analizar el impacto de la institución hacia el contexto en el que se desenvuelve.


CONCLUSIONES

La institución se encuentra en proceso de evaluación para poder lograr la certificación bajo la norma ISO 9011:2015 y así demostrar que se encuentra aplicando el proceso de mejora continua. La implementación de un sistema de gestión de calidad garantiza la mejora continua de los procesos llevados a cabo en las instituciones educativas de nivel superior, proporcionando una mejor estructura y control, enfocada en la satisfacción de las partes interesadas y a su vez la participación de estas.
Hernández Reyes Ximena, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

DISEñO DE UN MODELO DE OPTIMIZACIóN DE LA SELECCIóN DE INTERMEDIARIOS EN LAS CADENAS DE SUMINISTRO DE PYMES AGRíCOLAS EN MéXICO MEDIANTE EL PROCESO JERáRQUICO ANALíTICO


DISEñO DE UN MODELO DE OPTIMIZACIóN DE LA SELECCIóN DE INTERMEDIARIOS EN LAS CADENAS DE SUMINISTRO DE PYMES AGRíCOLAS EN MéXICO MEDIANTE EL PROCESO JERáRQUICO ANALíTICO

Hernández Reyes Ximena, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

En el dinámico y competitivo entorno de las cadenas de suministro agrícolas en México, las pequeñas y medianas empresas (PYMEs) enfrentan desafíos significativos en la selección de intermediarios adecuados para distribuir sus productos de manera eficiente y rentable. La elección estratégica de intermediarios desempeña un papel crucial en la optimización de la cadena de suministro y, por ende, en el éxito y competitividad de estas empresas en el mercado. La presente investigación tiene como objetivo fundamental el desarrollo de un modelo de optimización para la selección de intermediarios en las cadenas de suministro de PYMEs agrícolas en México, mediante la aplicación del Proceso Jerárquico Analítico (AHP). El AHP es una metodología ampliamente reconocida para tomar decisiones en situaciones complejas y jerárquicas, permitiendo priorizar y cuantificar los factores más importantes involucrados en la toma de decisiones. En esta investigación, se abordará la problemática que enfrentan las PYMEs agrícolas en la selección de intermediarios, considerando aspectos como la escasa información disponible, los altos costos asociados y la calidad del servicio ofrecido. El enfoque del modelo de optimización será la maximización de la eficiencia logística y la reducción de costos en la cadena de suministro, con el propósito de mejorar la competitividad de estas empresas en el mercado.[IDR1]  Para alcanzar este objetivo, se realizará una revisión bibliográfica exhaustiva para fundamentar teóricamente la investigación. Posteriormente, se recopilarán datos sobre las PYMEs agrícolas y sus cadenas de suministro, identificando los criterios y subcriterios relevantes para la selección de intermediarios. El Proceso Jerárquico Analítico se aplicará para modelar las relaciones jerárquicas entre estos factores y cuantificar su importancia relativa. Se espera que los resultados obtenidos a través del modelo de optimización propuesto permitan a las PYMEs agrícolas tomar decisiones más informadas y estratégicas en la selección de intermediarios, optimizando sus operaciones logísticas y fortaleciendo su posición en el mercado. Además, este trabajo podría aportar conocimientos valiosos en el campo de la toma de decisiones en cadenas de suministro agrícolas, generando beneficios tanto para el sector empresarial como para el desarrollo económico y social de México.  



METODOLOGÍA

Revisión bibliográfica: Se realizará una exhaustiva revisión de la literatura científica y académica relacionada con la selección de intermediarios en las cadenas de suministro, el Proceso Jerárquico Analítico (AHP) y las particularidades de las PYMEs agrícolas en México. Esto permitirá establecer un marco teórico sólido y comprender las metodologías y enfoques previamente utilizados en investigaciones similares. Recopilación de datos: Se llevará a cabo la recopilación de datos relevantes sobre las cadenas de suministro de PYMEs agrícolas en México, incluyendo información sobre los intermediarios actuales, costos asociados, desempeño logístico y otros factores relevantes para la selección de intermediarios. Los datos serán obtenidos a través de fuentes primarias y secundarias, como encuestas, entrevistas, bases de datos y reportes gubernamentales. Definición de criterios y subcriterios: En base a la revisión bibliográfica y los datos recopilados, se identificarán y definirán los criterios y subcriterios que influyen en la selección de intermediarios en las cadenas de suministro agrícolas de las PYMEs. Estos criterios pueden incluir costos, capacidad de almacenamiento, tiempo de entrega, calidad del servicio, ubicación geográfica, entre otros. Metodología para el diseño del modelo AHP: 1.Definición del objetivo y criterios: 1.Establecer el objetivo del modelo: Optimizar la selección de intermediarios en las cadenas de suministro de PYMEs agrícolas en México para mejorar la eficiencia y reducir costos. 2.Identificar los criterios clave que afectan la selección de intermediarios. Ejemplos: costos, capacidad logística, calidad del servicio, flexibilidad y adaptabilidad, sostenibilidad y responsabilidad social, entre otros. 2.Recopilación de datos: 1.Recolectar datos sobre los intermediarios disponibles en el mercado mexicano y sus características relevantes para los criterios definidos. 2.Obtener información sobre las PYMEs agrícolas y sus necesidades específicas en la selección de intermediarios. 3.Creación de la estructura jerárquica: 1.Diseñar una estructura jerárquica que represente los criterios y subcriterios definidos en el paso 1. 2.Organizar los criterios y subcriterios de manera jerárquica para facilitar la comparación y ponderación.


CONCLUSIONES

El presente estudio podría ofrecer una valiosa contribución al ámbito de las cadenas de suministro agrícolas en México, proporcionando un modelo optimizado que ayude a las PYMEs agrícolas a tomar decisiones más acertadas en la selección de intermediarios. El resultado deseado sería un modelo eficaz que mejore la eficiencia logística, reduzca costos operativos y fortalezca la competitividad de estas empresas en el mercado. Sin embargo, la certeza de los resultados solo puede determinarse a través de la realización de la investigación y el análisis de los datos recopilados y procesados.
Hernández Reynoso Eduardo, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS


DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS

Becerril Murillo Patricia, Universidad Autónoma de Baja California. Broca Bermudez Jorge, Universidad de Ciencias y Artes de Chiapas. Hernández Reynoso Eduardo, Universidad Michoacana de San Nicolás de Hidalgo. Ramirez Fino Maria Fernanda, Instituto Politécnico Nacional. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El acceso al agua limpia y segura es un desafío que requiere soluciones sostenibles y adaptadas a necesidades específicas. Por lo tanto, la investigación se centró en identificar y evaluar tecnologías efectivas y viables que permitan el abastecimiento y saneamiento de agua con el objetivo de mejorar las condiciones de vida y el acceso a recursos hídricos adecuados para la población vulnerable.



METODOLOGÍA

La investigación se llevó a cabo mediante un enfoque multidisciplinario que combinó la teoría con la práctica. Se realizaron diferentes actividades, por ejemplo, la visita y recorrido a diferentes modelos físicos de presas a escala en el laboratorio de hidráulica del Instituto Mexicano de Tecnología del Agua, donde se explicó su diseño y funcionamiento para mejorar la gestión de recursos hídricos. Por otro lado, se empleó el modelo matemático bidimensional IBER para simular flujos de ríos y cauces naturales, predecir avenidas e inundaciones, aspecto crucial para una adecuada planificación hídrica. Se recibió capacitación en el uso de QGIS, un Sistema de Información Geográfica de código abierto, que facilitó el análisis de datos geoespaciales y la generación de mapas temático. Asimismo, se analizó el estado del arte de tecnologías aplicadas en diferentes estados de la República Mexicana como son los sistemas de captación de agua de lluvia, humedales construidos y sanitarios secos, las cuales requieren una visión integral, mejores prácticas y mejorar su diseño e implementación. Se realizaron cálculos y análisis detallados para implementarlos de acuerdo a las necesidades específicas. Se visitó una planta de tratamiento de aguas residuales del IMTA para observar los procesos involucrados en el tratamiento del agua. Se identificaron los componentes clave, desde el ingreso del agua residual (caja repartidora) hasta la disposición de la misma (tanque de contacto con cloro), comprendiendo su relevancia en la obtención de agua residual tratada que cumpla con los estándares que marca la normatividad vigente. En cuanto a la revisión bibliográfica, se estudiaron dos libros: "Aguas residuales: tratamiento por humedales artificiales" y "Small-Scale Constructed Wetland Treatment System", los cuales ofrecen conocimientos detallados sobre los principios científicos, tecnológicos y de diseño de los humedales artificiales o construidos, así como la evaluación de la viabilidad de estos sistemas a pequeña escala.


CONCLUSIONES

Mi estancia en el Instituto Mexicano de Tecnología del Agua en Jiutepec, Morelos, me brindó una experiencia enriquecedora mediante una combinación de enfoques teóricos y prácticos, permitiéndome adquirir conocimientos y habilidades fundamentales para contribuir al desarrollo e implementación de soluciones adecuadas para el abastecimiento y saneamiento del agua en comunidades rurales, indígenas y periurbanas marginadas.
Hernandez Rodriguez Lizbeth, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Mg. Jovany Sepúlveda Aguirre, Corporación Universitaria Americana

EL DISEñO ORGANIZACIONAL: UNA MIRADA DESDE LOS ESTUDIOS DE LA ORGANIZACIóN Y LA GENERACIóN DE VALOR.


EL DISEñO ORGANIZACIONAL: UNA MIRADA DESDE LOS ESTUDIOS DE LA ORGANIZACIóN Y LA GENERACIóN DE VALOR.

Hernandez Rodriguez Lizbeth, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Mg. Jovany Sepúlveda Aguirre, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Importancia crucial de la innovación y el diseño organizacional en el éxito y sostenibilidad de las empresas en el contexto empresarial actual. La capacidad de adaptarse a un entorno cambiante, impulsado por avances tecnológicos y demandas del mercado, ha llevado a las Empresas de Base Tecnológica (EBT) a liderar la vanguardia de la innovación y el progreso económico. La gestión de la innovación se considera un pilar esencial para el crecimiento y competitividad empresarial, permitiendo la creación de valor en un mercado dinámico y competitivo. Sin embargo, para lograr una verdadera transformación, es necesario contar con un diseño organizacional sólido que facilite la implementación de ideas innovadoras. El diseño organizacional aborda la manera en que una empresa estructura sus objetivos estratégicos, desde la definición de su estructura hasta la creación de una cultura que fomente la creatividad y colaboración. Las Empresas de Base Tecnológica destacan como líderes en innovación, generando soluciones disruptivas y contribuyendo al desarrollo económico y social. En un mundo donde la adaptabilidad y el espíritu innovador son clave para el éxito, las organizaciones que abrazan la innovación y adoptan un diseño organizacional flexible y colaborativo están mejor posicionadas para sobresalir en el escenario global del siglo XXI. Este estudio revela cómo el diseño organizacional es una estrategia contingente para generar valor y competitividad en las organizaciones.  



METODOLOGÍA

Se realizó una investigación con enfoque cuantitativo de alcance descriptivo, a través de la cual se identicaron las principales variables en las cuales influye el diseño organizacional para generar valor. El proceso de pesquisa y organización de lo información se realizó en las II etpatas; la primera de recuperación de la información en las pricipales bases de datos referenciales del mundo, a saber: Google Academico, ya que es una de las bases de tados con mayor indice de articulos confiables y con la informacion necesaria para las investogaciones y la segunda en la fase hermenéutica en la que se extrajeron los principales argumentos que dan cuenta de cómo el diseño organizacional influye en las organizaciones actuales y como este genera valor.


CONCLUSIONES

El diseño organizacional es crucial para generar valor en las empresas modernas. Una estructura flexible y adecuada permite gestionar la innovación, crear ventaja competitiva y adaptarse al entorno. Aspectos clave incluyen la cultura de innovación, la colaboración, la gestión del conocimiento y la atención al mercado. Integrar el diseño organizacional en la gestión de la innovación conduce a la excelencia empresarial y la creación de valor. Abrazar la innovación como parte esencial de la cultura y tener un diseño flexible y colaborativo prepara a las organizaciones para enfrentar los desafíos del siglo XXI y lograr un crecimiento sostenible y exitoso. El producto final que se obtuvo de esta investigacion fue un artivulo que habla de las organizaciones de base tecnológica (OBT) son el fundamento de nuevos procesos productivos y de industrialización en esta nueva era denominada del conocimiento y de la cuarta revolución industrial, junto con los aportes del diseño organizacional para su buen funcionamiento. 
Hernández Rodriguez Lizeth Alejandra, Instituto Tecnológico de Tepic
Asesor: Dr. Gerardo Trejo Caballero, Instituto Tecnológico Superior de Irapuato

SISTEMA DE SEGMENTACIóN DE IMáGENES MéDICAS BASADO EN UMBRALIZACIóN MULTINIVEL


SISTEMA DE SEGMENTACIóN DE IMáGENES MéDICAS BASADO EN UMBRALIZACIóN MULTINIVEL

Hernández Rodriguez Lizeth Alejandra, Instituto Tecnológico de Tepic. Asesor: Dr. Gerardo Trejo Caballero, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La interpretación precisa de imágenes médicas es un componente crítico de la medicina moderna. Esto permite a los profesionales de la salud detectar, diagnosticar y tratar una amplia gama de enfermedades de manera efectiva. Sin embargo, las imágenes médicas, como las obtenidas a través de rayos X, tomografía computarizada (TC), resonancia magnética (RM), entre otras, pueden presentar varios desafíos. Estos desafíos incluyen entre otros, la presencia de ruido, problemas de contraste y/o iluminación y variaciones en las intensidades de los pixeles, lo que dificulta la visualización y extracción de información relevante. Una técnica comúnmente utilizada para segmentar imágenes médicas es la umbralización, que separa los píxeles de interés de aquellos que no lo son, basándose en sus niveles de intensidad. Sin embargo, la umbralización a menudo resulta inadecuada debido a las variaciones en los niveles de intensidad dentro de las estructuras anatómicas de interés y entre diferentes imágenes. Al respecto, la umbralización multinivel promete superar algunas de estas limitaciones, al permitir una mayor flexibilidad y precisión en la separación de los diferentes componentes de la imagen. En este contexto, se propone el desarrollo de un sistema de segmentación de imágenes médicas basado en MATLAB® y la umbralización multinivel capaz de mejorar significativamente la tarea de segmentación de imágenes médicas, a fin de facilitar su interpretación y análisis. Además, el sistema debe ser capaz de manejar diversos tipos de imágenes médicas, cada una con sus propias características y desafíos únicos.



METODOLOGÍA

Se conformó un conjunto de imágenes médicas de naturaleza diversa para el desarrollo y pruebas del sistema a partir de diferentes bases de datos empleadas en la literatura científica. Específicamente se emplearon radiografías de tórax, de columna y  panorámicas dentales; resonancias magnéticas cerebrales; tomografías computarizadas de hígado, pulmonares y abdominopélvica; ultrasonidos de abdomen, carótida y de mama. Enseguida, se estudiaron e implementaron diversos algoritmos de mejoramiento de imágenes orientados a realizar: i) ajustes del brillo, ii) ajustes de contraste (basados en la expansión y ecualización de histograma), y iii) para la supresión o atenuación de ruido mediante algoritmos de suavizado basados en filtros de media, mediana o gaussianos. A continuación se investigaron e implementaron 3 algoritmos de umbralización multinivel para la segmentación: i) método de umbralización global o fijo, ii) método de umbralización local (método de Otsu), y iii) método basado en la densidad de probabilidad. Posteriormente se implementó una técnica de pseudocolor para mejorar la visualización e interpretación de la imagen en escala de grises asignando un color a cada uno de los agrupamientos obtenidos en la umbralización. Este proceso de coloración es especialmente útil en las imágenes médicas ya que hace posible distinguir de mejor manera los diferentes tipos de tejidos, las estructuras o sistemas que conforman el cuerpo. Se implementaron varias paletas de color consideradas estándar así como también una paleta de colores aleatorios.  Finalmente, se utilizó el entorno integrado de MATLAB® App Designer ver. R2023a para diseñar e implementar todo el sistema dentro de una interfaz gráfica de usuario (GUI). El diseño y la disposición de la GUI se realizó de manera que resultara fácil de usar e intuitiva para el usuario a fin de que el procesamiento fuese lo más interactivo posible. Se establecieron campos para la importación y visualización de las imágenes, además de la integración de diversos botones y controles deslizantes para el ingreso de parámetros. De manera general la interfaz gráfica está organizada en 4 menús principales: i) Archivo, ii) Pre-procesamientos, iii) Umbralización Multinivel y iv) Pseudocolor. Para concluir, se realizaron pruebas exhaustivas con los diferentes tipos de imágenes, seleccionando diferentes configuraciones de parámetros para cada uno de los algoritmos implementados además de recorrer de forma metódica sus rangos de valores. Se identificaron y solucionaron los errores detectados que se produjeron bajo condiciones excepcionales de operación, además se aseguró la claridad de la estructura y se eliminaron las redundancias.


CONCLUSIONES

Si bien es cierto que todos los métodos implementados presentan un adecuado funcionamiento, los resultados de aquellos métodos que requieren el ingreso de parámetros pueden no ser los deseados, ello debido a que son muy sensibles a dichos valores. Se observa que cuando las imágenes presentan pequeñas variaciones en la intensidad, los métodos de umbralización globales no entregan los mejores resultados, por lo que se recomienda el empleo de los métodos de umbralización local. Se sugiere el empleo del método global en la segmentación de imágenes con alto contraste. La umbralización multinivel basada en la densidad de probabilidad es útil cuando la intensidad de los objetos de interés en la imagen varía ampliamente o cuando hay presencia de ruido en la imagen. Al adaptar el umbral según la distribución de intensidad, se obtienen resultados más precisos y robustos en la segmentación de objetos de interés en la imagen. En general, el sistema desarrollado permite al usuario por una parte, mejorar significativamente la calidad de imágenes médicas mediante el fácil e intuitivo uso de métodos de pre-procesamiento, y por otro lado, segmentar las imágenes apoyándose en el empleo de diversos métodos de umbralización multinivel. Todo lo anterior contribuye a facilitar la visualización y extracción de información relevante del especialista de la salud.
Hernández Roque Dulce Arelly, Universidad Autónoma de Sinaloa
Asesor: Dra. Adela Lemus Santana, Instituto Politécnico Nacional

SíNTESIS Y CARACTERIZACIóN DE MOFS PARA LA REMOCIóN DE ATRAZINA EN EL AGUA


SíNTESIS Y CARACTERIZACIóN DE MOFS PARA LA REMOCIóN DE ATRAZINA EN EL AGUA

Alonso Martinez Ana Grecia, Instituto Tecnológico de Morelia. Hernández Roque Dulce Arelly, Universidad Autónoma de Sinaloa. Asesor: Dra. Adela Lemus Santana, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La atrazina es un herbicida ampliamente utilizado en la agricultura para el control de malezas de hoja ancha y gramíneas en diversos cultivos. La atrazina es soluble en agua y puede lixiviar fácilmente hacia los cuerpos de agua subterránea y superficial. Su presencia en fuentes de agua potable representa un riesgo para la salud pública. Los MOFs (Metal-Organic Frameworks) son materiales porosos con una estructura cristalina que consisten en iones metálicos unidos por ligandos orgánicos. Estos materiales tienen una alta superficie específica y una gran capacidad para adsorber y almacenar diferentes compuestos químicos.



METODOLOGÍA

El proceso de elaboración de MOF´s utilizado para este proyecto fue el denominado síntesis solvotermal.La síntesis solvotermal se define como reacciones heterogéneas en disolventes no acuosos por encima de su punto de ebullición debido al aumento de las presiones autógenas, usando un reactor de autoclave para el crecimiento del material sólido cristalino.El disolvente dentro del reactor de autoclave contiene una mezcla de sales metálicas y ligantes orgánicos, el cual es calentado a una temperatura de reacción (60 - 220 °C), variando la velocidad de crecimiento del cristal y el disolvente usado. IVA2-B(MIL-96)  El primer paso fue moler en un mortero 0.75 g de Nitrato de Aluminio hasta obtener un polvo, después se disolvió el metal de transición (Al) en nuestro teflón con un disolvente adecuado. En este caso se utilizó 2 ml de disolvente el  DMF y 8 ml de Agua desionizada.Una vez que el metal de transición está disuelto, se añade 0.38 g del ligando orgánico (BTC) a la disolucion que contiene el metal.Después de la adición del ligando orgánico, la mezcla se agitó durante 20-25mins. Se cerró el reactor de acero inoxidable y a continuación, se calentó la estufa hasta llegar a 200ºC,una vez alcanzada esa temperatura especifica, se dejó el reactor durante 20 horas.Una vez completada la reacción, se realizó lavado con centrifuga tres veces, para separar los cristales de MOF formados del disolvente y otras impurezas. Finalmente, la muestra se seco a una temperatura de 60º C  para eliminar el exceso de disolvente.  NH2-B(MIL-53) Para la elaboracion de esta síntesis se utilizó Al(NO₃)₃ en una proporción de 0.38g , 0.33 g de aminotereftálico (NH2-BDC) y agua desionizada , 8 ml totales, así como 2ml de dimetilformamida (DMF). Como primer paso se trituró con un mortero el nitrato de aluminio hasta que adoptó una consistencia de polvo fino, posteriormente este polvo se colocó en el reactor de  teflón que va dentro de la autoclave; dentro del teflón se colocaron junto con el Al(NO3)3 5ml de agua desionizaday se procedió con la agitacion al momento en que la mezcla se observaba homogénea se colocó el BDC junto con otros 3ml de agua una vez más se esperó homogeneidad y se colocaron 2ml de DMF para agitar durante 15-20 mins.Por último se colocó la autoclave con la mezcla dentro de la estufa a 150°C durante18 horas.Una vez que las muestras se encontraban a temperatura ambientes se procedió a la centrifugación para eliminar la mayor cantidad posible de disolvente. Una vez terminadas las centrifugaciones se le coloco al tubo Parafilm y se le hicieron pequeños agujeros para que así se evaporara el líquido restante y se dejó reposando 3 días. Una vez pasados estos días se colocó en la estufa a 60°C por 3 horas. G3(MIL-88) Para esta síntesis se utilizaron de Al(NO3)3 0.38g , de BDC 0.2g y cantidad de agua total fueron 8ml , en cuanto el DMF este fue de 2ml.El procedimiento que se siguió fue que el Al(NO3)3 fue convertido en un polvo fino para después colocarlo dentro del reactor de teflón con 5ml de agua desionizada y se procedió a homogeneizar la solución,una vez logrado esto se colocó el BDC junto con otros 3ml de agua, se volvió a homogeneizar la muestra y se colocaron los 2ml de DMF para así esperar de 15-20 mins con la solución en agitación. Una vez que el tiempo transcurrió el teflón se coloca en el autoclave y va directo a la estufa la cual se encontraba a 150°C , la solución permaneció dentro durante 20 horas;cuando el autoclave estaba lo suficientemente frio para manipularlo se comenzaron los lavados de muestra usando metanol,se realizaron 4 centrifugaciones.Una vez que se concluyó con el proceso de centrifugación, se le colocó Parafilm en la parte superior y se le hicieron pequeños orificios para así evaporar el restante del metanol, se colocó el tubo de manera horizontal y permaneció de esta manera un total de 24 horas. Técnica de reflujo Se preparó el sistema de reflujo; colocando un termómetro en el soporte para monitorear la temperatura durante el proceso.Para nuestra solución reactante utilizamos 5 g de BTC, y 60 ml de MeOH, para mezclar se usó un agitador magnético, después se le añadió 2 ml de ácido sulfúrico.Se inició el reflujo, se revisó que el líquido se mantuviera en ebullición constante durante todo el reflujo y controlar la temperatura para que no excediera en un rango de 50-60°C. Se ajustó la intensidad de calentamiento necesario.Se decidió dejar el reflujo 24 horas, al finalizar se formaron cristales al fondo.Transferimos el contenido de matraz en un vaso de precipitado y agregamos una solución de bicarbonato de sodio 1m para neutralizar. Centrifugamos durante 5 minutos, y filtramos con vacio , Recogimos el ester y se lavó con agua destilada para eliminar residuos alcalinos.


CONCLUSIONES

Los materiales sintetizados que  obtuvieron buenos resultados para la remoción de ATZ fueron IVA2-B(MOF MIL-96), NH2-B(MIL-53) y G3(MOF MIL-88), al evaluarlos pudimos detectar que la atrazina tiene bandas de absorción característica en el rango UV-Visible, se observan picos específicos que corresponden a la absorción de la luz por parte de la atrazina, y se apreciaron cambios en la absorbancia en presencia de estos dos MOFs, como la adsorción de ATZ en la estructura porosa de ambos.Es importante continuar investigando y desarrollando esta tecnología para mejorar su eficacia, comprender sus mecanismos de adsorción y, finalmente, implementarla a gran escala en beneficio del medio ambiente y la sociedad.
Hernández Salinas Gerardo, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia

PRACTICA DE LA SOLDADURA SMAG Y GMAW


PRACTICA DE LA SOLDADURA SMAG Y GMAW

Ayala Pérez Rosa Elia, Instituto Tecnológico de Morelia. García Cruz Brenda, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernández Salinas Gerardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez González Aradei, Instituto Tecnológico de Morelia. Pérez Padilla Maria Mercedes, Instituto Tecnológico de Morelia. Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La soldadura es un proceso fundamental en la fabricación y construcción de estructuras de acero utilizadas en diversos sectores industriales, como la construcción, la industria automotriz, la fabricación de maquinaria pesada, entre otras. Dos de los métodos de soldadura más comunes y ampliamente utilizados son la Soldadura por Arco de Metal con Gas (GMAW) y la Soldadura por Arco de Metal Protegido (SMAW). El proceso de soldadura GMAW, también conocido como soldadura MIG (Metal Inert Gas), utiliza un arco eléctrico entre un electrodo continuo de alambre y la pieza de trabajo, mientras que un gas inerte protege la soldadura del contacto con el aire. Por otro lado, la soldadura SMAW, también conocida como soldadura con electrodo revestido o soldadura al arco, emplea un electrodo recubierto que proporciona el metal fundido y crea un gas protector. El objetivo de esta práctica fue proporcionar una evaluación comparativa exhaustiva entre la soldadura GMAW y la soldadura SMAW, basada en teoría y prácticas para determinar cuál de los dos métodos es más adecuado para aplicaciones específicas en la industria de la construcción y fabricación de estructuras de acero. Una vez practicado los dos tipos de soldadura, podremos tener claro las diferencias y similitudes entre GMAW y SMAW, se podrán tomar decisiones informadas para mejorar la calidad y eficiencia de las soldaduras en el futuro.



METODOLOGÍA

GMAW Para este tipo de soldadura se utiliza un alambre sólido (hilo-electrodo) , la composición química del alambre debe ser muy similar a la de la placa donde se va a soldar, una de las diferencias que se percataron con el SMAW es que en este se forma una pequeña escoria en el cordón, más sin embargo en el de GMAW no sucede esto, por el gas protector, el gas base que se utiliza es argón (Ar), y en este proceso se pueden agregar a parte de este gas otros diferentes, la principal función del gas de protección es servir de barrera para el aire atmosférico, y tener un acabado de cordón sin poros y sobre todo muy estético.  Este proceso consiste en una fuente de energía que tiene generalmente una salida de voltaje constante regulable entre 15 y 50 voltios, una torcha, el recipiente fuente de gas y el alimentador de alambre, la cual es usada en conjunto con un sistema alimentador de alambre con velocidad regulable, que va desde 1 a 20 metros por minuto. Ahora bien, funciona de la siguiente manera; Un generador proporciona una potencia eléctrica que crea un arco eléctrico entre el hilo-electrodo (metal de aporte) y la pieza que se va a soldar, provocando un calor de gran intensidad. Esto permite la fusión de las piezas metálicas que se van a unir y del metal de aporte. A parte, maneja tres diferentes modos de transferencia, cada uno trabaja con diferente presión y voltaje. Globular En esta transferencia el diámetro de las gotas aumenta siendo iguales o hasta mayores que el diámetro del alambre este tipo de transferencia ocurre en la zona de transición cuando los niveles de amperaje y voltaje se encuentran entre el punto de cortocircuito y spray ocasionando en la mayoría de los casos un alto nivel de inestabilidad no es utilizado en la mayoría de las aplicaciones, la fase globular se genera en una corriente entre 200 o 250 amperios   Corto Circuito Esta transferencia se genera cuando el alambre toca la placaahí se genera el cortocircuito y ahí se comienza a desprender el material, el corto circuito es el modo de transferencia que menor calor aporta presenta, se genera entre 150 y 200 amperios   Spray Esta transferencia se genera en altos niveles de amperaje, se utiliza principalmente en superficies horizontales y planas, al utilizar voltajes altos se obtienen cordones de soldadura gruesos, este proceso presenta un arco estable y libre de salpicaduras. SMAW La soldadura SMAW es un proceso en el cual la fusión del metal se produce debido al calor generado por un arco eléctrico que se crea entre el extremo de un electrodo y el metal base al que se va a unir. El material de aportación, es decir, el que se obtiene del cambio sólido a líquido del electrodo se da en forma de gotas pequeñas. Equipo El equipo necesario para realizar una soldadura SMAW consta de cinco elementos: Fuente de energía Pinza porta electrodos Electrodo revestido Conexión a masa Cables de soldeo Aplicaciones La SMAW es la soldadura por arco más utilizada debido a que es aplicable a una diversidad de materiales y a que es requerida en industrias de sectores diferentes. Acerca de los materiales, la SMAW es útil para unir aceros (al carbono, altamente inoxidables y de baja aleación), fundiciones y metales no férreos (aluminio, cobre, níquel y sus aleaciones).  La SMAW puede utilizarse con corriente alterna o continua. La elección de una u otra depende del electrodo elegido, de la fuente de corriente disponible y del material base. Sobre los sectores industriales, la soldadura por arco con electrodo revestido tiene aplicación en todos aquellos en los que se involucre la construcción de calderas, esferas de almacenamiento, gasoductos, oleoductos, puentes, recipientes a presión, refinerías y tanques.


CONCLUSIONES

GMAW. Después de haber empleado distinto parámetros operativos, mezclas de gases, técnicas  de soldeo y modos de transferencia de metal de aporte, se pudo corroborar la gran versatilidad del proceso para ser empleado en una gran gama de materiales y espesores.  Lo anterior permite generar un ahorro significativo  en tiempos de manufactura y por ende en costos de fabricación SMAW. Con el uso de distintos tipos de electrodo en distintas posiciones de soldeo, se pudo entender que la habilidad de soldar es crítica para la correcta ejecución del proceso y asegurar la sanidad de las uniones realizadas. A pesar de ser un proceso manual, de un relativo bajo rendimiento y que no es automatizable, es ampliamente usado porque, con soldadores certificados, permite realizar uniones en sitios de trabajo incomodos e  inhóspitos debido a la sencillez del equipo y consumibles empleados  
Hernandez Sanchez Gabriel, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DISEñO DE MAQUINA DOBLADORA DE VARILLA


DISEñO DE MAQUINA DOBLADORA DE VARILLA

Cortés Aparicio Yael Itsuky, Benemérita Universidad Autónoma de Puebla. Hernandez Elizalde Wendy Cecilia, Universidad Autónoma de Sinaloa. Hernandez Sanchez Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Jiménez Rodríguez Anayansi, Universidad Autónoma Benito Juárez de Oaxaca. Sanchez Fonseca Edna Julieth, Instituto Tecnológico Metropolitano. Valenzuela Medina Fabian, Universidad Autónoma de Sinaloa. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el área de la construcción se tiene la necesidad de fabricar hogares, puentes, edificios entre otros, por lo que se requiere resolver el problema de la fabricación de estribos que son varillas de alambrón de acero, que unen las varillas en los castillos, por lo que se plantea el diseño una maquina dobladora de varilla, capaz de doblar por medio de una secuencia con un sistema mecánico y un sistema de moldeo fijo, dirigido por un motor, este diseño se propuso dado que era necesario un prototipo de bajo costo, esto debido a que en el área de la construcción en México ha crecido un 5% de acuerdo a la cámara Mexicana de la industria de la construcción (CMIC), durante el año 2021.



METODOLOGÍA

Para el diseño de la maquina dobladora de varilla se utilizaron materiales biodegradables para el prototipado por impresión 3D, dichos materiales fueron el acido polilactico (PLA) y poliuretano termoplastico (TPU), además de los diseños se pueden realizar bajo cualquier software asistido por computadora como ejemplo Solidworks, autodesk, FreeCAD,  entre otros, los pasos a seguir para el dieño de la maquina dobladora de varilla fuerón los siguientes 1) Se realizó una búsqueda del estado del arte y de vigilancia tecnológica en diferentes buscadores de patentes como Google Patents, EspaceNet,  Patentscope, entre otros más. 2) Posteriormente se realizó con dicha búsqueda inicial una serie de propuestas diseñadas por medio de algún Software CAD para diseño 3D, para posteriormente realizar la impresión de dichos modelos para su fabricación por manufactura aditiva, con PLA.  3) La serie de prototipos se realizaron haciendo simulaciones de movimiento mecánico por computadora y realizando una comparativa con el movimiento en ambiente real.  4)  A la par de la realización de la fabricación por manufactura aditiva de los diferentes prototipos se realizó la escritura de la solicitud de patente que actualmente continua en proceso para solicitar el trámite ante el Instituto Mexicano de la Propiedad Industrial (IMPI).  5) Se realizaba una serie de vigilancias tecnología cada vez que se quería realizar otra propuesta de prototipo y verificar el estado del arte en los diferentes buscadores de patente.  6) Finalmente se construyó el prototipo que cumple las simulaciones mecanicas y en ambiente real,  para verificar la prueba de concepto, por manufactura aditiva que es una representación a escala para la maquina real que se construirá, en caso de conseguir recursos.


CONCLUSIONES

Las diferentes conclusiones que llego el equipo fueron que se aprendió una metodología diferente de como investigar la alta tecnología así de cómo usar el diseño por computadora, la impresión 3D en diferentes materiales para realizar prototipos de manera rápida y como profundizar en un tema para realizar su vigilancia tecnológica además de realizar el desarrollo de la escritura de patente y la solicitud de la misma ante el IMPI en un futuro, en este caso, la maquina dobladora de varilla de alambrón y materiales de inferior densidad así como de sus diferentes aleaciones, dado que fue un reto desarrollar un prototipo mecánico, que cumpliera las caracteristicas de funcionalidad tanto en simulación por computadora y en ambiente real a escala, el mayor reto fue realizar el proceso para hacer los dobleces de la varilla es por medio de un sistema sincronizado de engranajes.
Hernández Sierra Johan André, Instituto Tecnológico Superior de Guanajuato
Asesor: Mg. Alberto Enique Mercado Sarmiento, Corporación Universitaria Americana

PROPUESTA DE MóDULOS DIDáCTICOS FABRICADOS CON MATERIAL RECICLABLE PARA LA ENSEñANZA DE FíSICA A NIVEL SECUNDARIO EN COLOMBIA.


PROPUESTA DE MóDULOS DIDáCTICOS FABRICADOS CON MATERIAL RECICLABLE PARA LA ENSEñANZA DE FíSICA A NIVEL SECUNDARIO EN COLOMBIA.

Hernández Sierra Johan André, Instituto Tecnológico Superior de Guanajuato. Pajaro Cavadia Daniela Alejandra, Universidad de la Costa. Asesor: Mg. Alberto Enique Mercado Sarmiento, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, la enseñanza de la física a nivel secundario enfrenta desafíos significativos. Uno de los principales problemas es la falta de recursos didácticos adecuados que permitan a los estudiantes comprender los conceptos teóricos de manera práctica e interactiva (Elenes, 2016). Además, existe una creciente preocupación por el impacto ambiental y la generación de residuos debido al uso indiscriminado de materiales no reciclables en la elaboración de los recursos educativos (Materiales Escolares y Su Impacto Ambiental, 2022).



METODOLOGÍA

La selección realizada entre los prospectos a experimentos que estaban dentro de los datos fue desarrollada a través de la aplicación de una metodología de observación realizada por el docente investigador, así como, los colaboradores desarrolladores. Esto convirtio nuestra investigación en una de tipo cualitativa dado los resultados obtenidos.    


CONCLUSIONES

Este proyecto de investigación ha sido diseñado con el propósito de proponer una innovadora y sostenible solución para mejorar el proceso de aprendizaje de la asignatura de Física a nivel bachillerato, a través de la revisión y selección de experimentos caseros  fabricados con material reciclable por los mismos estudiantes, que aborden la temática de presión, presión del aire y presión hidrostática. Se busca que el alumno de bachillerato tenga una base sólida acerca de los temas de presión, dado que, estos conocimientos funcionaran como inicio de temas de complejo análisis en los que se limitaran los recursos didácticos, pero, que con la correcta aplicación y desarrollo permite al estudiante ejecutar una enseñanza de aprender haciendo, así como, aprendizaje en base a problemas
Hernandez Sora Luis Alberto, Servicio Nacional de Aprendizaje SENA - Regional Caldas
Asesor: Dra. María Teresa Flores Sotelo, Benemérita Universidad Autónoma de Puebla

PROPUESTA DE SUSTENTABILIDAD: DEL DESIERTO AL APROVECHAMIENTO DEL RECURSO HIDRICO EN LA GUAJIRA, COLOMBIA


PROPUESTA DE SUSTENTABILIDAD: DEL DESIERTO AL APROVECHAMIENTO DEL RECURSO HIDRICO EN LA GUAJIRA, COLOMBIA

Hernandez Sora Luis Alberto, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Asesor: Dra. María Teresa Flores Sotelo, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Introducción El recurso hídrico es uno de los pilares fundamentales para el desarrollo sostenible de cualquier región. Sin embargo, en la región de La Guajira, Colombia, la problemática relacionada con el aprovechamiento del agua va más allá de la escasez de este recurso, puesto que también influyen factores como la corrupción, las problemáticas sociales, la política, factores climáticos y ambientales. Esta investigación propone analizar algunos aspectos que intervienen en la falta de aprovechamiento del recurso hídrico con el objetivo de generar conciencia y analizar propuestas sustentables para una mejor utilización y protección de este recurso, que puedan enfocarse sustentablemente en la región de la Guajira, colombiana. Planteamiento del problema La crisis hídrica en La Guajira Colombiana es una realidad de implicaciones políticas, sociales y ambientales, que dificultan un aprovechamiento y gestión sostenible.   Justificación La situación que enfrenta la región de la guajira en Colombia tiene implicaciones significativas en el bienestar y el desarrollo sostenible de las comunidades indígenas y locales. Por lo tanto, surge la necesidad de llevar a cabo una investigación que permita comprender los factores que influyen en esta problemática y una alternativa de sustentabilidad que ayude al mejoramiento de la región y promueva la conciencia e importancia del recurso hídrico no solo para la vitalidad sino para la generación de energía.     Objetivo General Analizar la escasez del recurso hídrico en La Guajira Colombiana, considerando implicaciones socioambientales, políticas y geográficas de la región, para presentar propuestas de aprovechamiento sustentable.   Objetivos Específicos - Investigar los factores climáticos y geográficos que contribuyen a la escasez del recurso hídrico en La Guajira, Colombia. -Examinar la gestión del agua en la región, identificando su impacto, aprovechamiento y distribución del recurso. -Investigar las afectaciones o problemáticas resultado de un inadecuado uso del recurso hídrico, y cómo influye en la calidad de vida de la población de La Guajira. - Realizar propuestas sustentables para una gestión sostenible del recurso hídrico en la región, con enfoque de desarrollo sostenible.



METODOLOGÍA

Metodología -Encuestas y entrevistas: Realizar encuestas a la población local y entrevistar a líderes comunitarios, para obtener información acerca las afectaciones o problemáticas derivadas de la escasez de agua para proponer soluciones. - Revisión de literatura: Realizar una revisión de artículos científicos junto con estudios previos relacionados con la problemática hídrica en la región de la Guajira, Colombia, explorando proyectos piloto que promuevan el uso sostenible del agua para conocer diversas metodologías para plantear la propuesta más adecuada.    


CONCLUSIONES

Propuesta de sustentabilidad Energía solar para la Guajira, Colombia Implementar una propuesta sostenible en base a la energía solar aprovechando el recurso del sol por medio de la radiación intensa en la Guajira. Por medio de paneles solares se convertirán la luz solar en electricidad limpia y renovable, fomentando el desarrollo económico y social en la región. UTILIDADES: Suministro de energía para la población: Utilizar la energía solar generada para abastecer la población local de energía eléctrica para viviendas, escuelas, centros de salud, además de proporcionar acceso de energía a poblaciones indígenas. Desalación de agua: Emplear la energía solar para operar sistemas de desalación de agua, aprovechando la disponibilidad del recurso marino cercano. Esto permitirá obtener agua potable, mejorando la escasez de agua en la región de manera sostenible. Promoción de la eficiencia energética: Sensibilizar o concientizar a la comunidad respecto a la importancia de la eficiencia energética promoviendo el uso responsable de la energía eléctrica para reducir el consumo y optimizar los recursos naturales.   BENEFICIOS: -Reducción de fuentes de energía no renovables y combustibles fósiles, contribuyendo a la mitigación del cambio climático. -Mejorar la disponibilidad de agua potable mediante el proceso de desalación solar. -Reducción de costos a largo plazo al utilizar una fuente de energía gratuita y renovable.   Conclusión En conclusión, la investigación propuesta se centrará en analizar los factores que impactan escasez del agua y la falta de aprovechamiento del recurso en la región, además, se identificaron las implicaciones sociales y económicas que derivan por la falta del recurso en la población local. Se propone una alternativa sostenible para la región, enfocada en el uso de energía solar para aprovechar la radiación solar en la Guajira, colombiana; impulsando el desarrollo económico y social mediante una fuente de energía renovable, limpia y sustentable.
Hernandez Tavares Sergio, Universidad Tecnologica de León
Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León

SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)


SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)

Andrade de Pro Carlos René, Universidad Tecnologica de León. Gutiérrez Alcantar Maria Guadalupe, Universidad Tecnologica de León. Gutierrez Perez Brenda Esmeralda, Universidad Tecnologica de León. Hernandez Tavares Sergio, Universidad Tecnologica de León. Zendejas Gutierrez Simón Jonathan, Universidad Tecnologica de León. Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La Universidad Tecnológica de León (UTL) es una institución educativa pública de educación superior, fundada en 1995. La universidad cuenta con diversas áreas que dan apoyo al área académica, una de ellas es, la Dirección de Desarrollo Académico y Docente (DAyD) quién ha presentado la necesidad de automatizar la gestión de los procesos de Innovación educativa y de Formación académica debido a la creciente demanda de sus servicios, así como, la necesidad de implementar nuevos procesos que se tienen planeados. Cabe mencionar que la UTL cuenta con un Sistema de Información Táctico Operativo (SITO) que controla gran parte de los procesos académicos y de gestión, por lo que sería necesario que la creación de este sistema conviva con los datos que el SITO ya produce, pero que se conserve como un sistema independiente.



METODOLOGÍA

Tomando en cuenta el planteamiento del problema se decidió implementar la metodología de desarrollo de software denominada Ciclo de Vida Cascada con la variación del modelo V. Esta fusión de metodologías nos va obligando a realizar verificaciones y validaciones constantes del desarrollo del producto pasando por cada una de sus fases: Análisis, Diseño, Desarrollo, Pruebas, Cierre. Obteniendo como resultado un producto con la calidad esperada por el equipo y por las clientes. Adicional a la metodología, en cada fase se implementaron buenas prácticas de desarrollo de software como lo son: Técnicas de recolección de requerimientos, gestión de requerimientos, diseño UML, diseño de interfaces, generación y aplicación de estándares de desarrollo, pruebas unitarias, pruebas de integración, verificaciones y validaciones, La solución técnica para el proyecto consistió en el uso de las siguientes herramientas: SQL-server, HTML, JavaScript, JSP, XML y Vuetify. Se pretende que este sistema sea alojado en la nube de Azure, sin embargo, la pruebas en la nube ya no corresponden al alcance de este proyecto.  


CONCLUSIONES

Se cumplieron los objetivos y alcance señalado por nuestras clientes, gracias a la colaboración y compromiso tanto de las clientes como por el equipo. Dedicar tiempo no solo de desarrollo sino también de verificación y validación nos permitió un avance más certero y confiable. Se hizo una exposición final y la entrega de la Línea Base de Cierre a la Jefatura de Sistemas Informáticos quiénes serán los responsables de la instalación y mantenimiento del sistema.  
Hernández Terrón Isaac, Universidad Tecnológica de Zinacantepec
Asesor: Dr. José Adalberto Castillo Robles, Universidad Politécnica de Victoria

FABRICACIóN DE UN MATERIAL CERáMICO DE SIC MEDIANTE CONSOLIDACIóN DIRECTA CON ALMIDóN.


FABRICACIóN DE UN MATERIAL CERáMICO DE SIC MEDIANTE CONSOLIDACIóN DIRECTA CON ALMIDóN.

Hernández Terrón Isaac, Universidad Tecnológica de Zinacantepec. Asesor: Dr. José Adalberto Castillo Robles, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

La sinterización es un proceso por el que se obtienen materiales cerámicos a partir de un polvo precursor en un ambiente de altas temperaturas y presiones por lo que un método que obtenga los mismos resultados pero con ahorro de energía es muy preciado. De todos los tipos de sinterizado, la consolidación directa con almidón es de las usadas últimamente ya que permite un control más exacto sobre las propiedades porosas que se requieren en el material además de que se utiliza un agente consolidante para una unión interpartícula más estable. Este tipo de proceso para un material como el carburo de silicio es una alternativa muy útil ya que permite una sinterización a una relativa baja temperatura con respecto a otros métodos de sinterizado para el mismo material. En este trabajo se buscan recrear los resultados de Ayse Kalemtas, Gülsüm Topates, M. Türkay Aytekin Aydin y Nigar Özey, 2020 con algunas modificaciones como el tamaño de partícula, un alternativa al polisacárido aglutinante y un bórax más concentrado esperando mejores resultados.



METODOLOGÍA

La fuente de carburo de silicio utilizado fue una parecida a la del trabajo original, se mantuvo en molienda constante en un molino planetario para reducir el tamaño de partícula a un nivel nanométrico; se determinó que la concentración más idónea de reproducción era la denominación SC70S30-3* con la modificación de bórax pentahidratado. El moldeo de la probeta se realizó en un molde de silicón para su mejor extracción y el sinterizado se realizó a una temperatura de 600°C por una hora con una rampa de temperatura de 10 °C/min. La muestra se caracterizó mediante microscopia electrónica de barrido con voltajes de 2.5kV, 3kV y 4kV con acercamientos de x160, x300, x500, x600 y x1200. 


CONCLUSIONES

Con este acercamiento se pudo notar que el proceso de sinterizado no fue homogéneo en toda la probeta pudiéndose observar amalgamientos de partículas sin cristalización aparente, también se observó una alta porosidad interna pero a diferencia del trabajo original no se observaron muchas estructuras en forma de cuellos entre partículas lo que corrobora la falta de homogeneidad en la probeta; este fenómeno puede deberse en mayor medida al proceso de sinterizado al dejar una rampa de temperatura más elevada. Para la obtención de mejores resultados se recomienda una rampa de temperatura más controlada o en su defecto un tiempo más largo en el proceso de sinterizado para obtener una mejor homogeneidad.
Hernandez Valdez Yesenia Denisse, Universidad Vizcaya de las Américas
Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América

DESECHO Y DESPERDICIO DE ALIMENTOS DE LACTEOS EN TORREóN


DESECHO Y DESPERDICIO DE ALIMENTOS DE LACTEOS EN TORREóN

Hernandez Valdez Yesenia Denisse, Universidad Vizcaya de las Américas. Asesor: Dr. Juan Carlos Robles Camargo, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

Educar las preferencias de los consumidores es vital para mejorar la nutrición. Pero, ¿qué hay de las cantidades? ¿Sabemos comprar? la huella ambiental por la generación de emisiones de gases de efecto invernadero y el desperdicio de los recursos naturales utilizados durante su producción. En definitiva, la pérdida de alimentos es uno de los eslabones negros que dificultan la transformación de las cadenas de valor alimentarias en sostenibles. La cuestión de las pérdidas de alimentos es muy importante en los esfuerzos para combatir el hambre, aumentar los ingresos y mejorar la seguridad alimentaria en los países más pobres del mundo.  Las pérdidas de alimentos afectan a la seguridad alimentaria de los pobres, a la calidad y la inocuidad alimentarias, al desarrollo económico y al medioambiente. Las causas exactas de las pérdidas de alimentos varían en las diferentes partes del mundo y dependen sobre todo de las condiciones específicas y situación local de cada país. En términos generales, las pérdidas de alimentos están influenciadas por las elecciones tomadas en la producción de cultivos y sus patrones, la infraestructura y capacidad internas, las cadenas comerciales, en este estudio nos centraremos en las cadenas comerciales:para analizar que tanto es el abastecimiento de productos en las tiendas pequeñas abarroteras de la colonia y así de alguna manera poder lograr entender cual es el problema. A partir de el estudio realizado por el PNUMA Información del Índice de desperdicios de alimentos 2021, se estimó un desperdicio de alimentos de 931 millones de toneladas de los cuáles 61% provino de hogares, 26% del servicio de alimentos y 13% restante del comercio minorista, como supermercados o pequeños almacenes



METODOLOGÍA

Para la presente investigación se usara el enfoque de forma cualitativa, este método consiste en observar cuales son los factores que intervienen en los desperdicio de alimentos lácteos en las pequeñas tienditas en torreón. Para esto se llevara acaba una entrevista semiestructurada, que  se les aplicara a los dueños de las tienditas de la colonia Nueva Laguna Sur Torreón Coahuila con el fin de identificar cuales son los problemas que se están presentando para que haya desperdicio de alimentos en estos productos, lo que esto implica la recolección de datos cualitativos, con el fin de tener una mirada mas completa del objeto del estudio.  Aplicación de instrumento: entrevista A continuación se desarrollaran las preguntas que se le será aplicado a los dueños de las tiendas de abarrotes ¿Cuales son los productos lácteos que usted compra? ¿Cada cuanto abastece este tipo de productos? En promedio ¿que cantidad de productos lácteos son los que se desperdician al mes? ¿Que elementos cree que son los que influyen al momento que hay mermas en estos productos? ¿Que tipo de control utiliza al realizar el surtido en sus productos lácteos? ¿Usa algún tipo de  planificaciones en sus inventarios? ¿ Que tipo de estrategias comerciales realiza para que no haya demasiada merma? Cuales cree usted que son los factores que influyen en el producto para que haya mermas? Menciónelos Al momento de surtir con sus proveedores de productos lácteos les dejan una cantidad para vender? Según su opinión ¿cual seria la mejor forma de controlar las mermas y los desperdicios en los productos lácteos?


CONCLUSIONES

Después de realizar las entrevistas a las pequeñas tienditas de la colonia nueva laguna en Torreón, nos pudimos dar cuenta que en la mayoría de los casos se demuestra que las pérdidas y los desperdicios es en la leche específicamente ,se da a conocer un porcentaje mensualmente de que el 30% de la mercancía se echa a perder, algunos de los elementos que influyen es la falta de control de inventarios en los productos , la corta vida útil de estas mercancías y el mal trato que los clientes les dan a la mercancía ya que hacen que se dañe el empaque y así el consumidor no quiera comprarlo. Una de las estrategias que se puede utilizar para minimizar la perdida y desperdicio de estos alimentos es llevar la contabilidad de estos productos para que no se compre producto de mas y así no se valla quedando y así  los revendedores surgen perdidas económicas, hacer que los clientes tengan un poco de consideración y no maltraten estos productos. los encuestados manifiestan conocer sobre la perdida y el desperdicio en productos lácteos pero no conocen a profundidad sobre este tema, La divulgación de la información relacionada con el tema de la perdida de desperdicio de alimentos puede jugar un rol fundamental en el cambio de los patrones del comportamiento, mas esto requiere de una toma de conciencia que eventualmente va a modificarlos. Por el contrario, si las rutinas de reducción en la perdida se incorporan en el que hacer diario de toda la población y se educa desde niños, estos patrones de consumo cambian de una manera habitual según el estudio perdida y desperdicio de alimentos en el mundo realizado en Alemania es importante informar a los hogares de los consumidores y cambiar comportamientos. Al incorporarse tales comportamientos como una práctica constante y como lo que se debe hacer se puede esperar mejorar los resultados sobre la reducción de el desperdicio de lácteos. Finalmente, políticas que respalden la producción y el consumo sostenibles dentro de un marco de análisis de ciclo de vida pueden venir a reducir el desperdicio de alimentos. Por ejemplo, la promoción de consumo de productos con defectos físicos (pero con calidad equivalente a productos considerados perfectos), así como la promoción de la reutilización y/o donación de alimentos pueden no solo ayudar a reducir de manera inmediata sino también colaborar con una apreciación de la intención de reducir las mermas.
Hernández Varela Ángel de Jesús, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Jonás Velasco Álvarez, Centro de Investigación en Matemáticas (CONACYT)

OPTIMIZACIóN DEL DISEñO DE RECORRIDOS TURíSTICOS.


OPTIMIZACIóN DEL DISEñO DE RECORRIDOS TURíSTICOS.

Hernández Varela Ángel de Jesús, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Jonás Velasco Álvarez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto tiene como objetivo abordar el desafío que enfrentan los turistas al visitar ciudades con una gran oferta de opciones culturales, históricas, naturales, religiosas, gastronómicas y de aventura. La mayoría de las veces, los visitantes tienen un tiempo limitado y desean aprovechar al máximo su estancia, pero planificar una ruta eficiente y personalizada que satisfaga sus preferencias de viaje y tome en cuenta la disponibilidad de lugares a visitar puede resultar complejo. Para fundamentar este proceso se desarrolló una base de datos que considerará diversas variables tomadas para una planificación exitosa, como la distancia y el tiempo de desplazamiento entre los lugares de interés, el tiempo estimado de visita en cada sitio, las preferencias específicas del usuario y la disponibilidad de los lugares según el día y horario de la visita. Además, contendrá información detallada sobre los horarios de apertura y cierre de los lugares turísticos, así como su puntuación en Google maps. Esta base de datos será fundamental para proporcionar recomendaciones a los usuarios.



METODOLOGÍA

Definición del Problema: Se planteó un problema de optimización con el objetivo de determinar las rutas turísticas óptimas para un conjunto de usuarios interesados en visitar lugares turísticos en una ciudad específica. El objetivo era encontrar rutas que minimicen el tiempo de viaje y maximicen las preferencias turísticas de los usuarios.   La información contenida en la base de datos: Nombre del Lugar: El nombre del lugar turístico. Categoría: La categoría a la que pertenece el lugar, como "Naturales", "Culturales e históricos", "Urbanos", "Religiosos", "Gastronómicos", "Aventura y deporte", o "Turismo rural y agroturismo". Horario de Apertura y Cierre: El horario en el que el lugar turístico abre y cierra sus puertas. Tiempo Aproximado de Visita: Un estimado del tiempo que los visitantes suelen pasar en el lugar. Calificación en Google Maps: La calificación promedio del lugar basada en las reseñas de Google Maps u otra plataforma de reseñas. Dirección: La dirección física del lugar. Coordenadas Geográficas: Las coordenadas de latitud y longitud del lugar, lo que permite ubicarlo en el mapa. Se definieron los siguientes conjuntos y datos del problema: Conjunto de usuarios (U): Representó a los turistas que participaron en la planificación de las rutas turísticas. Conjunto de preferencias turísticas (P): Representó las categorías de interés de los usuarios en los lugares turísticos. Coordenadas de ubicación (x, y) para cada lugar turístico, proporcionando la latitud y longitud de cada lugar. Horarios de apertura y cierre para cada lugar turístico, indicando el tiempo disponible para visitar cada lugar. Tiempo estimado de visita para cada lugar turístico, representando la duración promedio de la visita. Ponderaciones de preferencias para cada lugar y preferencia, reflejando la importancia relativa de cada preferencia turística para cada lugar. Formulación del Problema: Se formuló el problema como un modelo de programación lineal con el fin de minimizar la función objetivo, que consideró el tiempo de viaje entre los lugares visitados por cada usuario, así como la distancia entre las coordenadas de los lugares. Función Objetivo: La función objetivo buscó minimizar la suma de los tiempos de viaje al cuadrado entre los lugares visitados por cada usuario, así como la distancia al cuadrado entre las coordenadas de los lugares. Restricciones: Se establecieron las siguientes restricciones para garantizar que el problema estuviera correctamente formulado: Cada lugar debía ser visitado una sola vez por algún usuario. Cada usuario debía estar en un solo lugar a la vez. Se respetaron los horarios de apertura y cierre para cada usuario. Las preferencias de los usuarios satisficieron los umbrales establecidos. Resolución del Problema: El problema de programación lineal fue resuelto utilizando un solver de optimización, aplicando el método simplex u otros métodos adecuados para encontrar las rutas turísticas óptimas. Resultados: Una vez resuelto el problema, se obtuvieron las rutas turísticas óptimas para cada usuario, indicando los lugares que debían visitar y el orden en que debían hacerlo. Análisis y Evaluación: Se analizaron los resultados obtenidos y se evaluó la calidad de las rutas turísticas óptimas. Se realizaron ajustes en los parámetros y restricciones del modelo para obtener soluciones más adecuadas. Implementación y Uso: El modelo de optimización de rutas turísticas se podrá implementar en aplicaciones o sistemas de recomendación turística, permitiendo a los usuarios planificar sus recorridos de manera eficiente y personalizada, mejorando así su experiencia turística y maximizando su disfrute de los lugares de interés.


CONCLUSIONES

La base de datos diseñada contiene información detallada y clasificada sobre una variedad de lugares turísticos, lo que permitirá ofrecer itinerarios personalizados a los usuarios según sus preferencias y restricciones. Datos relevantes como horarios de apertura y cierre, días de la semana que abren, tiempo de visita aproximado, calificaciones en Google Maps, direcciones y coordenadas geográficas, brinda a los usuarios un panorama completo de los lugares turísticos y facilita la planificación de sus recorridos. El enfoque de la metodología nos dice que la base de datos pueda ser actualizada con nuevos lugares turísticos o cambios en la información en el futuro, lo que genera relevancia y utilidad continua de las aplicaciones desarrolladas con esta base de datos. Esta iniciativa tiene el potencial de enriquecer la experiencia del turista, a la vez que contribuye al turismo sostenible de los diferentes lugares turísticos. La base de datos servirá como una herramienta valiosa para mejorar la planificación de itinerarios y promover un turismo más satisfactorio y enriquecedor en la ciudad.
Hernández Vázquez Mariana Abigail, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Juan Carlos Martinez Torres, Corporación Universitaria Americana

DISEñO DE ESTRATEGIAS PARA EL ECOSISTEMA DE EMPRENDIMIENTO DE LA INSTITUCIóN UNIVERSITARIA AMERICANA.


DISEñO DE ESTRATEGIAS PARA EL ECOSISTEMA DE EMPRENDIMIENTO DE LA INSTITUCIóN UNIVERSITARIA AMERICANA.

Hernández Vázquez Mariana Abigail, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Juan Carlos Martinez Torres, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual el emprendimiento como área de conocimiento se ha vuelto una necesidad para la sociedad y por ende una tendencia sumamente relevante. Sin embargo, en Colombia, la deficiencia que tienen las universidades en áreas de innovación, emprendimiento, además de la escasa formación de creación de empresas tiene una repercusión significativa en el desarrollo de estas, ya que el ciclo de vida se limita a solo 5 años. Según cifras del DANE (Departamento Administrativo nacional de estadística), más del 90% del sector productivo y el 35% del PIB, así como el 80% del empleo, dependen de estas empresas. Pero, lamentablemente, el 70% de las pequeñas y medianas empresas (pymes) fracasan en los primeros cinco años según IARA (2018), lo que resulta en un alto índice de mortalidad empresarial. Ante el interés de la Institución Universitaria Americana por fomentar el emprendimiento, surge una oportunidad para fortalecer sus unidades estratégicas y brindar apoyo en la entrega de una oferta de valor que promueva el emprendimiento sostenible, contribuyendo al desarrollo económico de la ciudad de Barranquilla y de la región. De esta manera, la universidad podrá respaldar la creación y supervivencia de nuevas empresas que contribuyan al crecimiento económico y a la generación de empleo, además de brindar a los estudiantes una fuente confiable y segura para el desarrollo de sus proyectos, ofreciendo una propuesta educativa que impulse el éxito.



METODOLOGÍA

Este trabajo de investigación es cualitativo, de tipo analítico-propositivo. Es analítico porque se busca analizar los ecosistemas de emprendimiento y es propositivo porque se busca diseñar estrategias de fortalecimiento para el Ecosistema de emprendimiento de la Institución Universitaria Americana. Este proyecto de investigación tiene las siguientes fases. Fase 1. Revisión de literatura: Se hace búsqueda de artículos científicos relacionados con ecosistemas de emprendimiento, universidades emprendedoras. Fase 2. Caracterizar el ecosistema de emprendimiento de la institución universitaria americana: Se busca conocer cómo funciona el ecosistema de emprendimiento de la universidad identificando cada una de sus unidades estratégicas y entendiendo su rol dentro del ecosistema. Fase 3. Desarrollo de una propuesta de fortalecimiento: A partir de conocer el ecosistema se busca proponer estrategias que fortalezcan el ecosistema de la institución universitaria americana. Las fuentes de información primaria serán principalmente documentos institucionales de la universidad y entrevistas con actores del ecosistema. Adicionalmente se utilizarán publicaciones científicas relacionadas con la temática del proyecto (ver fase 1) y como fuente de información secundaria se utilizarán publicaciones científicas complementarias y publicaciones institucionales de tipo local, regional o nacional. El alcance de la investigación estará determinado geográficamente por la información que se recabe de la institución universitaria americana con sede Barranquilla. El alcance temporal estará demarcado por la información recabada del 19 de junio al 4 de agosto del 2023.


CONCLUSIONES

La relevancia del emprendimiento como área de conocimiento y su impacto en el desarrollo económico del país se hacen evidentes al considerar el alto porcentaje de dependencia del sector productivo, el PIB y el empleo en las pequeñas y medianas empresas (pymes). De acuerdo a lo anterior, este proyecto de investigación se ha desarrollado entendiendo la oportunidad significativa para el fortalecimiento del ecosistema de emprendimiento de la Institución Universitaria Americana, institución que se denomina universidad emprendedora. La implementación de estrategias de fortalecimiento, puede transformar el ecosistema de emprendimiento de la IUA y brindar a los estudiantes una plataforma confiable para el desarrollo exitoso de sus proyectos empresariales o iniciativas de emprendimiento.
Hernández Yebra Manuel Fabricio, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

APLICACIóN DE MINIAEROGENERADOR


APLICACIóN DE MINIAEROGENERADOR

Hernández Yebra Manuel Fabricio, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Este proyecto surge debido a la gran demanda de energías renovables, ya que las fuentes actuales representan repercusiones ambientales, de esta forma se opta por implementar un sistema de energía eólica, con el fin de obtener electricidad. Se realizan modificaciones a un prototipo funcional de un miniaerogenerador, aumentando el área del embobinado y revisando que el giro del sistema este optimizado para un rango de velocidades optimo. Se plantea el diseño para poder implementar como un generador casero y para utilizarse como sustituto de un extractor de aire.



METODOLOGÍA

En este proyecto se llevaron a cabo las siguientes actividades para su desarrollo. Primero se realizó un estudio del diseño inicial para generar propuestas de mejora. Después se elaboró el diseño en CAD del nuevo generador para posteriormente fabricarlo mediante impresión 3D, así como la adquisición de nuevos componentes para la construcción de este. Por último, se realizaron pruebas con una cámara de alta velocidad para hacer ajustes del sistema completo.


CONCLUSIONES

Con la implementación de las mejoras, específicamente en el generador, se obtiene un valor más alto de voltaje generado con respecto a lo que generaba el prototipo inicial, de esta forma el prototipo realizado ya puede ser utilizado como un miniaerogenerador y en un futuro ser implementado en los extractores de aire, de igual forma se puede incluir un circuito rectificador de voltaje para hacer la conversión de CA a CD, así como un banco de baterías para almacenar la energía generada y que se pueda utilizar posteriormente.
Hernánez García Kissi, Universidad Nacional de Ingeniería
Asesor: Mg. Paola Ivama Hernández Ahumada, Universidad de la Costa

EL PATRIMONIO COMO ESTRUCTURANTE DE LA REGENERACIóN URBANA EN EL CENTRO DE BARRANQUILLA


EL PATRIMONIO COMO ESTRUCTURANTE DE LA REGENERACIóN URBANA EN EL CENTRO DE BARRANQUILLA

Hernánez García Kissi, Universidad Nacional de Ingeniería. Asesor: Mg. Paola Ivama Hernández Ahumada, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El Patrimonio aborda una visión a futuro, la cual tiene como objetivo principal destacar la importancia y valor que poseen todos los aspectos tangibles e intangibles que conforman la historia y la realidad actual de las ciudades. Muchos centros históricos de estas ciudades, los cuales son ricos en patrimonio local, han sufrido con el transcurso del tiempo y debido a un desarrollo urbano sin una planificación adecuada, un progresivo abandono y deterioro. Sin embargo, en las últimas décadas, se ha iniciado un proceso de intervención en la mayoría de estos lugares, reconociendo su importancia y buscando revitalizarlos. A pesar de estos esfuerzos, las intervenciones no siempre son integrales, es decir que, lo que soluciona un problema, da lugar a otro. Un ejemplo de estos procesos se encuentra en Barranquilla, esta ciudad emergió de forma fragmentada, lejos de los tradicionales cánones de las leyes de indias, como un asentamiento en las orillas del Río Magdalena en el siglo XVII. A través de los años la ciudad que se ha enfrentado a intervenciones parciales, pero no ha logrado una visión completa que dé solución a la problemática global que envuelve el centro histórico.



METODOLOGÍA

La investigación toma un enfoque mixto, este enfoque multimetódico permite recopilar y analizar tanto datos cualitativos como cuantitativos, brindando una perspectiva más amplia y completa en los resultados del proyecto y en el manejo de la información. Se divide en tres fases: Revisión de literatura existente, investigaciones precedentes, así como diagnóstico de las condiciones sociales, arquitectónicas, urbanas y ambientales actuales; seguido por el planteamiento de acciones de rehabilitación urbana para dar una solución efectiva a la demanda de necesidades espaciales y por último el diseño de un modelo para reactivar la memoria urbana y patrimonial del Centro Histórico de Barranquilla, con el fin de reconocer su importancia histórica, arquitectónica, patrimonial y socio cultural, tomando el patrimonio como estructurante de la regeneración urbana de la zona.


CONCLUSIONES

En el diagnostico de las condiciones sociales, arquitectónicas, urbanas y ambientales actuales del área de estudio se ha determinado que, todas estas condiciones se encuentran en un estado de deterioro y requieren de una intervención integral para abordar la problemática del sitio. Este diagnóstico se estructura en 3 partes:  1. Apreciaciones de la actualidad en el Centro: Como en toda metrópolis, los habitantes experimentan una cotidianeidad marcada por la homogeneidad, donde cada uno se encuentra inmerso en un rol preestablecido que reiteran a diario. No se percibe entre la población un arraigo o sentido de pertenencia hacia su entorno, lo cual se traduce en una falta de preocupación por su cuidado. 2. Reconocimiento de actividades económicas: El comercio de bienes tales como telas, libros, verduras, ropa y otros productos, que satisface parcialmente las necesidades de la población de Barranquilla, se desarrolla en un contexto periférico caracterizado por condiciones precarias y marginales. Los puestos de comida en esta zona pueden ser clasificados en dos categorías: aquellos que ofrecen alimentos ya preparados y listos para el servicio, y aquellos que efectúan la preparación de comidas en el lugar, generalmente mediante técnicas de asado o fritura. No obstante, la experiencia de degustar los alimentos en esta área resulta desalentadora tanto para los residentes locales como para los turistas. Esto puede atribuirse a diversos factores, entre ellos la contaminación odorífica, auditiva y visual, además de las condiciones ambientales, como la presión atmosférica y la temperatura. En cuanto a los servicios de transporte, tanto los buses como los taxis son utilizados por un porcentaje promedio de la población. Sin embargo, se observa una tendencia creciente entre otro segmento de la población a preferir el uso de servicios de transporte ofrecidos por plataformas digitales, fundamentado en el aspecto de la seguridad. 3. Tipologías de inmuebles y estados de conservación: Se identifican diversas tipologías: la habitacional, la institucional y la religiosa. En lo que respecta a los estilos arquitectónicos, se pueden observar una amplia variedad, aunque sobresalen principalmente el neoclásico y el Art Déco. Muchos de estos inmuebles, presentan un estado de conservación deficiente tanto en su interior como en su exterior. Además, se presenta el caso en que algunos inmuebles exhiben un carácter institucional, pero en realidad no tienen esa función. Es imperativo destacar que se han instalado superficies podotáctiles en lugares donde no son necesarias, lo que representa un riesgo para personas invidentes, ya que estas superficies táctiles deberían ubicarse estratégicamente para brindar información y seguridad a las personas con discapacidad visual. Los Objetivos de Desarrollo Sostenible (ODS) en el contexto de los procesos de regeneración urbana, desempeñan un papel fundamental para guiar y orientar las intervenciones urbanas hacia un desarrollo más equitativo, sostenible y resiliente. Los ODS proporcionan un marco integral para abordar los desafíos urbanos y promover la regeneración urbana de manera sostenible, inclusiva y equitativa. Su implementación efectiva en proyectos de regeneración urbana, como el caso del centro histórico de Barranquilla, tiene un impacto significativo en la construcción de ciudades más prósperas, resilientes y sostenibles para las generaciones presentes y futuras.
Herrada Sánchez Adolfo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla

DISEñO E IMPLEMENTACIóN DE UN DISPOSITIVO ELECTRóNICO PARA MEDIR LA TEMPERATURA, EL CO2, LA ILUMINACIóN Y HUMEDAD AL INTERIOR DE UN MICRO CLIMA.


DISEñO E IMPLEMENTACIóN DE UN DISPOSITIVO ELECTRóNICO PARA MEDIR LA TEMPERATURA, EL CO2, LA ILUMINACIóN Y HUMEDAD AL INTERIOR DE UN MICRO CLIMA.

Herrada Sánchez Adolfo, Benemérita Universidad Autónoma de Puebla. Valenzuela Martínez Adrián José, Instituto Tecnológico de Tepic. Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a la Secretaría de Agricultura, Ganadería, Desarrollo Rural, Pesca y Alimentación (SAGARPA), al cierre de 2020 se obtuvo un volumen de tres millones 271 mil toneladas, en una superficie de más de 45 mil hectáreas y un consumo per cápita de 13.4 kilogramos. ​Sin embargo, actualmente las zonas rurales de la República Mexicana están sufriendo los cambios que produce el calentamiento global. según la Organización Meteorológica Mundial (OMM) 2020 estuvo 1,2°C por encima de las temperaturas de la era preindustrial (1880) y predice que el aumento de las temperaturas supere temporalmente los 1,5°C a partir de 2024. En la producción de tomate se deben conservar parámetros vitales para la hortaliza, los mas importantes a tomar en cuenta son: Luminosidad: valores promedios de 3,000 - 4,000 lúmenes. Temperatura: Los rangos  oscilan entre los 28 - 30 º C durante el día y 15 - 18ºC durante la noche. Humedad relativa: La humedad relativa óptima oscila entre 65 - 70%. CO2 relativo: El óptimo para un cultivo de tomate en invernadero es de 355 ppm con las ventanas abiertas y 600 -700 ppm con las ventanas cerradas del invernadero. Debido a el cambio no controlado de los parámetros ambientales los cultivos sufren de estrés térmico, lo cual ocasiona la deshidratación del cultivo y frena su desarrollo. Debido a este padecimiento, el tomate sufre de alteraciones bioquímicas y fisiológicas como: Debido a las altas temperaturas, el cultivo no puede capturar suficiente dióxido de carbono (CO2) para el proceso de fotosíntesis y sufren daño las proteínas lo que reduce la función de las enzimas. Por otra parte, pueden padecenestres oxidativo e hidrico.



METODOLOGÍA

Las variables ambientales clave para la hortaliza son luz, temperatura, humedad y concentración de CO2. Se llevó a cabo una investigación para determinar la plataforma más adecuada para caracterizar y leer los diferentes sensores. Se optó por la plataforma Arduino Uno debido a su entorno de programación amigable y la abundancia de recursos disponibles. Se procedió a definir los sensores específicos a utilizar. Para medir la concentración de CO2, se eligió el sensor K30, siendo adecuado para el control de invernaderos gracias a su precisión y costo. Para medir la humedad y la temperatura, se optó por el sensor DHT11, que combina ambas mediciones en un solo dispositivo, simplificando y economizando el diseño. Su precisión es suficiente para este proyecto, con un margen de error de aproximadamente ±5% en humedad y ±2 grados Celsius en temperatura. Para medir la luminosidad, se utilizó un módulo LDR debido a su facilidad para ser caracterizado y convertir sus cambios en voltajes medibles, permitiendo lecturas analógicas. En el proyecto se incorporaron un módulo microSD para guardar una base de datos y un módulo RTC DS1302 para garantizar la precisión de la fecha. Tras definir los sensores, se procedió a la programación de los mismos. El sensor de CO2, fue utilizado con puertos analógicos para mayor flexibilidad en el uso de pines digitales en Arduino Uno. Se programaron los 3 sensores DHT11 y los 2 sensores LDR, con ayuda de las librerías disponibles en el entorno Arduino IDE. Una vez prototipados  todos los sensores, se procedió a la programación e integración de los módulos RTC DS1302 y lector microSD. Concluida esta fase, el dispositivo se volvió funcional, lo que llevó a la siguiente etapa: la investigación y aplicación de la alimentación. Se determinó que el dispositivo funcionaría con energía solar para mayor versatilidad en aplicaciones sin acceso a energía eléctrica. Se utilizaron 2 paneles de 5V y 160 mAh en serie para maximizar la captación solar. Se incluyó un regulador de voltaje LM7805 para alimentar un BMS con rango de trabajo de 5 a 8V. Se seleccionó el modelo TP4056/HW107 para cargar una batería Li-Ion de manera segura y permitir la conmutación entre energía solar y batería. Sin embargo, se requirió la implementación de un elevador de voltaje para alimentar el Arduino a 8V estables. Con esta fase completada, el dispositivo operaba exclusivamente con la energía de los paneles solares. Se diseñaron carcasas para los conjuntos de sensores y el módulo principal utilizando tecnologías CAD, y la fabricación en impresión 3D por FDM.


CONCLUSIONES

Gracias a la realización del dispositivo de monitoreo de los parámetros del ambiente para la producción de tomate, pudimos reforzar nuestras habilidades en electrónica, microcontroladores, transductores, sensores, diseño 3D y programación. Además, abordar las bases matemáticas como los multiplicadores de Lagrange para los sistemas de control no lineales como en este caso. Por el momento la investigación no se puede concluir con resultados, ya que, aún se encuentra en fases tempranas de diseño. Sin embargo, la implementación de este dispositivo en un invernadero ayudara ampliamente a llevar una base de datos de las variables como: CO2, humedad relativa, luminosidad y temperatura. Gracias a esto se podrá diseñar un sistema de control retroalimentado para mantener ideales las variables antes mencionadas. En conclusión, la estancia de investigación fue una grata experiencia para los miembros del equipo que nos dejo conocimientos y habilidades invaluables para nuestra formación como ingenieros.
Herrera Aguayo Juan Manuel, Instituto Tecnológico de La Piedad
Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia

GOBIERNO DEL DATO EN LA EDUCACIóN SUPERIOR


GOBIERNO DEL DATO EN LA EDUCACIóN SUPERIOR

Herrera Aguayo Juan Manuel, Instituto Tecnológico de La Piedad. Asesor: Mg. Nelly Clavijo Clavijo Bustos, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Analizar y optimizar el uso de datos en las instituciones académicas para mejorar la toma de decisiones, fomentar la eficiencia y la calidad educativa, promover la investigación basada en evidencia y potenciar la experiencia de los estudiantes y docentes.



METODOLOGÍA

La metodología documental en la investigación se basa en la recopilación y análisis exhaustivo de documentos relevantes, como políticas institucionales, informes académicos, planes estratégicos y normativas educativas. Mediante esta metodología, se busca identificar las fuentes de datos disponibles, evaluar su calidad y fiabilidad, así como analizar los procedimientos y prácticas relacionadas con la gestión de datos en las instituciones académicas. La revisión y síntesis de la información documental obtenida permiten obtener una comprensión profunda del contexto y los desafíos en el gobierno del dato en la educación superior, proporcionando una base sólida para el diseño de estrategias y políticas efectivas. De este modo la investigación del gobierno del dato en la educación superior ha arrojado importantes resultados. Se ha identificado que la mayoría de las instituciones académicas cuentan con una amplia variedad de fuentes de datos, pero enfrentan desafíos en términos de calidad, interoperabilidad y seguridad de la información. Se ha evidenciado la necesidad de implementar políticas y prácticas que promuevan una gestión eficiente de los datos, así como el fortalecimiento de capacidades en análisis de datos y toma de decisiones basadas en evidencia. Además, se ha destacado la importancia de la colaboración interinstitucional y la participación de los actores clave para lograr una implementación exitosa del gobierno del dato en la educación superior. Estos resultados proporcionan un marco para el desarrollo de estrategias que impulsen la mejora continua y la innovación en las instituciones académicas.


CONCLUSIONES

Se resalta la importancia de una gestión efectiva de los datos para mejorar la calidad educativa y la toma de decisiones basada en evidencia. Se recomienda la implementación de políticas y prácticas que promuevan la calidad, interoperabilidad y seguridad de los datos. Además, se enfatiza la necesidad de fortalecer las capacidades en análisis de datos y fomentar la colaboración interinstitucional. Estas conclusiones permiten orientar acciones para optimizar el uso de datos en las instituciones académicas, impulsando la innovación, la eficiencia y la mejora continua en la educación superior.   Referencias: -Proofpoint. (s.f.). Data Classification. Recuperado de https://www.proofpoint.com/es/threat-reference/dataclassification -Tableau Software. (s.f.). Business Intelligence. Recuperado de https://www.tableau.com/es-mx/learn/articles/businessintelligence -DataVersity. (s.f.). What is Data Governance? Recuperado de https://www.dataversity.net/what-is-data-governance/ -Alation. (2021). GOBERNANZA ACTIVA DE DATOS La gobernanza de datos no tiene que ser tan difícil. -CNA, & CESU. (n.d.). Guia_CNA_Aspectos por evaluar Programas_14102022_V5. -Cupoli, P., Earley, S., & Henderson, D. (2014). DAMA-DMBOK2 Framework Production Editor. -Décima, L. M., & Palacios, L. E. (2017). Gobierno de Datos sobre el Padrón de Contribuyentes de la Provincia de Buenos Aires -Garcés Ordóñez, M., & González Zabala, M. P. (2021). Caracterización de marcos de referencia que apoyan la implementación del gobierno de datos propuesto por MinTIC para entidades públicas. Investigación e Innovación En Ingenierías, 9(2), 42-58. https://doi.org/10.17081/invinno.9.2.4467 -Muñoz Periñan Ingrid Lucía, & Ulloa Villegas Gonzalo. (2011). Gobierno de TI estado del arte. www.icesi.edu.co/sistemas_telematica -Portilla Romero Juan Darío. (2017). Vista de Gobierno de datos, un potenciador de los sistemas de gestión de calidad. SIGNOS. https://revistas.usantotomas.edu.co/index.php/signos/article/view/4074/3902 -Rondon, M., Rectora, R., Luz, A., & Restrepo, M. (n.d.). DIRECTIVOS NACIONALES
Herrera Cruz Oded Osiris, Instituto Tecnológico de Reynosa
Asesor: Dr. Octavio Augusto García Alarcón, Instituto Tecnológico Superior de Xalapa

MODELADO Y CONSTRUCCIóN DE SISTEMA MECATRóNICO PARA PRUEBAS DE ALGORITMOS DE CONTROL


MODELADO Y CONSTRUCCIóN DE SISTEMA MECATRóNICO PARA PRUEBAS DE ALGORITMOS DE CONTROL

Herrera Cruz Oded Osiris, Instituto Tecnológico de Reynosa. Pereyra Hernandez Daniela, Instituto Tecnológico de Reynosa. Asesor: Dr. Octavio Augusto García Alarcón, Instituto Tecnológico Superior de Xalapa



PLANTEAMIENTO DEL PROBLEMA

La robótica es una disciplina científica que aborda la investigación y desarrollo de una clase particular de sistemas mecánicos dentro de la cual podemos distinguir de manera pronunciada 4 ramas de ingeniería como lo son la Inteligencia Artificial, Mecatrónica, Cibernética y los Organismos Cibernéticos. También podemos realizar varias clasificaciones de robots: Robots móviles (vehículos autónomos, vehículos no autónomos etc.) Humanoides (tienen gran variedad, pero por lo general son de diseño complejo.) Industriales (Brazos mecánicos, robots manipuladores.) Entre ellos los denominados robots manipuladores que son diseñados para realizar una amplia variedad de actividades industriales, científicas, domésticas y comerciales también podrían clasificarse por algunas de sus características, como por ejemplo por la cantidad de grados de libertad (GDL) o herramienta final con la que cuenten, características con las que podrían nombrarse como completamente actuados, sub-actuados e incluso hasta sobre-actuados dependiendo de la cantidad de actuadores necesarios para poder movilizar el brazo y completar la tarea deseada. Para el modelado del robot manipulador también es necesario tener claros otro par de conceptos como lo son la dinámica y cinemática para robots; La dinámica del robot relaciona el movimiento del robot y las fuerzas implicadas en el mismo. El modelo dinámico establece relaciones matemáticas entre las coordenadas articulares (o las coordenadas del extremo del robot), sus derivadas (velocidad y aceleración), las fuerzas y pares aplicados en las articulaciones (o en el extremo) y los parámetros del robot (masas de los eslabones, inercias, etc.). La cinemática de robots se encarga de estudiar el movimiento de este con respecto a un eje de referencia y la descripción analítica del movimiento espacial del robot con una función de tiempo. Para los algoritmos de control tenemos dos filosofías o esquemas principales, en Control Clásico se trabaja con Transformadas de Laplace y Funciones de Transferencia y el Control Moderno donde se utilizan Funciones de Energía y el Espacio de Estados en donde se realizan representaciones matriciales de las ecuaciones diferenciales.



METODOLOGÍA

Para la presente investigación y desarrollo del proyecto se realiza un trabajo inicial de comparación entre el Control Clásico y Control Moderno, esto con la finalidad de facilitar el estudio y comprensión. Mediante las ecuaciones de Euler-Lagrange, y el Lagrangiano utilizamos la ecuación de movimiento de Euler-Lagrange, en la que podemos observar que se consideran varios tipos de fricciones que influyen en el sistema. Utilizando las ecuaciones de Energía, se hace el análisis de la energía cinética y la energía potencial. Para empezar a comprender estas ecuaciones, se realizaron ejercicios con mecanismo simples como los péndulos y modelos dinámicos para centrifugas, se realizarán tanto a mano como también practicando códigos en softwares. También se analizaron sistemas que pueden ser divididos para analizarse con Laplace y Funciones de Transferencia por separado e ir entrelazando entradas y salidas como el de un motor de corriente directa controlado por campo. A la par del estudio del modelado matemático, se comenzó a diseñar las piezas para el brazo robot, se optó por un diseño sencillo y ligero tomando en cuenta que la fabricación de las piezas será por medio de la impresión 3D, cabe destacar que este tipo de manufactura tiene ciertas consideraciones las cuales vienen dadas por el equipo de impresión 3D, independientemente de un correcto diseño y dibujo de las piezas, se tiene que tomar en cuenta un margen de error dado por la boquilla de la impresora, de la misma manera fue necesario aprender a utilizar, alinear y conocer la máquina de impresión con apoyo de otros softwares independientes al del dibujo los cuales nos permiten editar características propias de la impresión como la densidad, temperaturas, soportes y velocidades y con estas obtener piezas con diferentes características y calidades. La impresión en 3D demuestra ser de gran utilidad para la creación de prototipos, la práctica y aplicación de conocimientos de diseño, sobre todo para alumnos e investigadores por su accesibilidad en comparación a otros métodos de fabricación, la facilidad y limpieza con la que se pueden obtener piezas presentables de alta calidad.


CONCLUSIONES

La integración de todos los conocimientos adquiridos durante la estancia culmina en el armado de robot y el traslado de las ecuaciones a diagramas de bloques en distintos softwares que nos permiten realizar una simulación y predicciones de los movimientos del robot, sin embargo al cargar un código para el movimiento del robot, es posible obtener lecturas en donde conoceremos los valores reales del robot que son afectados por las fricciones (cargas) reales, todo estos como antelación a el control de precisión del brazo robótico. Se observa la utilización de diferentes programas para realizar simulaciones y códigos que con interfaces pueden ser cargados a los motores para realizar un control, este método resulta muy accesible, por lo que va de la mano con el objetivo de la investigación la cual es poder exportar este tipo de mecanismos para que estudiantes de ingeniería que necesiten practicar este tipo de mecanismos, programas y sistemas puedan tener una opción económica con una guía sobre la cual puedan empezar y posteriormente poder aplicar sus propias ideas.
Herrera Diaz Ailed Lourdes, Instituto Tecnológico de Tepic
Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer

MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS


MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS

Díaz Ibarra Jatsiry Citlally, Instituto Tecnológico de Tepic. Gutiérrez Cervantes Silvia Marlene, Instituto Tecnológico Superior de Irapuato. Herrera Diaz Ailed Lourdes, Instituto Tecnológico de Tepic. Juárez Ochoa Carmen Andrea, Instituto Tecnológico Superior de Irapuato. Mancilla Flores Lizeth Berenice, Universidad de Guadalajara. Ramírez Ulloa Abraxis Baruch, Instituto Tecnológico de Tepic. Savalza Castillo Karla Veronica, Universidad Autónoma de Nayarit. Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer



PLANTEAMIENTO DEL PROBLEMA

En la actualidad Colombia está enfrentando diversos retos a nivel del comercio internacional debido a las diferentes fuerzas que trae la globalización y que han llegado para transformar como se producen, los diferentes productos servicios que necesitan los consumidores, de igual manera, representa una oportunidad para que las empresas nacionales desarrollen estrategias con el propósito de lograr mayor productividad y competitividad en un mercado compuesto por clientes mucho más exigentes en cuanto a sus preferencias y necesidades. La globalización es parte esencial cuando se habla de competencia y actualización de metodologías, debido a que las empresas nacionales tienen la posibilidad de renovar sus procesos con el fin de automatizarlos como lo hacen algunas  empresas extranjeras, aunque se debe destacar que la entrada de nuevas tecnologías no se debe relacionar con la salida de capital humano.  La reingeniería de procesos está relacionada con la reducción de costos y aumento de utilidades, pero no con el recorte de personal como la gente lo supone. Las empresas en Colombia tienen tiene solo una opción en su planeamiento estratégico: es involucrase decididamente en procesos de transformación tecnológica con el fin de lograr estándares mundiales de alto nivel con el fin de lograr su sostenibilidad en el tiempo.



METODOLOGÍA

Tener casos de éxito en la adaptación a las megatendencias en el sector empresarial es fundamental, por lo que cuando se realizó una visita pedagógica  en la empresa Cohan: (Cooperativa de Hospitales de Antioquia), donde se pudo observar cómo se desarrolló un proyecto de automatización en sus procesos de venta, el personal directivo logró la implementación de almacenes verticales automatizados  para la optimización de procesos de picking y dicha implementación fue exitosa tanto así que sus ventas y tiempos de entrega mejoraron drásticamente. Antes la entrega de un pedido podía durar hasta 8 días para llegar al cliente final, ahora se entrega en 24 horas y lo más importante de todo, no salió ningún auxiliar de sus operaciones lo que la hacen un ejemplo a seguir de muchas empresas Colombianas de su sector ya que, tomaron las megatendencias a su favor y decidieron adaptarse a por medio de la tecnología. Como se ha dado a conocer, los recursos son siempre escasos y por ello es necesario invertir en aquellos proyectos que le den a la empresa la mayor rentabilidad posible tal como lo hizo la empresa Cohan, la tecnología en sí misma no es la solución, pero haciendo una planeación adecuada, la tecnología agrega valor, ayuda a que nuestras operaciones sean más eficientes, eviten errores y reduce los costos operativos y tiempos logísticos, estos elementos hacen que un proyecto sea rentable. En este caso, debemos estar plenamente convencidos de la relación entre la inversión y el sistema de almacenamiento que necesitamos. También, visitamos una de la empresa más representativas de la industria del Café en Colombia, Colcafé; esta es la primera empresa colombiana de café en exportar café en  diferentes presentaciones. Esta empresa en su proceso implementa un software con el cual se escanea el código de barras que está colocado en el pallet con la carga de mercancía, al momento de escanearlo arroja una ficha técnica, donde se especifica el historial del producto, es decir, detallando datos importantes como si será exportado o será distribuido a nivel nacional, y en caso de ser exportación nos indica el país de destino.


CONCLUSIONES

Con base en la información proporcionada, es importante destacar que las megatendencias globales tienen un impacto significativo en la eficiencia logística de las empresas colombianas. Las megatendencias son fuerzas transformadoras a gran escala que afectan a nivel mundial y que generan cambios importantes en la sociedad, la economía y la tecnología. Cada una de las empresas que se visitaron y evaluaron, implementan de forma distinta las megatendencias, sin embargo, todas lo realizan con la misma finalidad que es eficientizar y optimizar sus procesos. Algunas de las megatendencias globales relevantes para la eficiencia logística en Colombia incluyen la globalización, los cambios demográficos, la variabilidad y cambio climático, la escasez de recursos, la hiperconectividad, el traslado de los ejes del poder, y la urbanización. Estas tendencias han dado lugar a desafíos y oportunidades para las empresas que operan en el país, especialmente en el ámbito logístico. En conclusión, las megatendencias globales están transformando la forma en que las empresas colombianas abordan la eficiencia logística. Aquellas que logren adaptarse y aprovechar las oportunidades que estas tendencias ofrecen, a través de la implementación de tecnologías avanzadas, prácticas sostenibles y estrategias innovadoras, estarán en una mejor posición para mantenerse competitivas y satisfacer las demandas cambiantes de un mercado globalizado y en constante evolución. La colaboración entre el sector público y privado también es esencial para superar los desafíos logísticos y mejorar la infraestructura, lo que contribuirá en última instancia al crecimiento económico y desarrollo sostenible del país.
Herrera García María Fernanda, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Post-doc María Angélica Forgionny Flórez, Universidad de Medellín

VALORIZACIÓN DE CÁSCARA DE CAFÉ COMO ADSORBENTE PARA LA REMOCIÓN DE CONTAMINANTES EMERGENTES EN AGUAS RESIDUALES


VALORIZACIÓN DE CÁSCARA DE CAFÉ COMO ADSORBENTE PARA LA REMOCIÓN DE CONTAMINANTES EMERGENTES EN AGUAS RESIDUALES

Herrera García María Fernanda, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Post-doc María Angélica Forgionny Flórez, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, nuestra sociedad se encuentra inmersa en un modelo de producción lineal de bienes que lamentablemente conlleva a una significativa contaminación ambiental. Ante esta preocupante problemática, nuestro proyecto tiene como misión abordar dos importantes desafíos: los residuos farmacéuticos presentes en el agua, específicamente la ciprofloxacina y el acetaminofén, así como los residuos agroindustriales derivados de la cáscara de café. Los registros indican que se han detectado concentraciones de ciprofloxacina que oscilan entre 0.98 y 2.29 µg/L (Botero-Coy et al., 2018), además de una cantidad alarmante de 2 a 8 millones de toneladas de residuos de café. En este contexto, hemos descubierto que la cáscara de café posee notables propiedades adsorbentes. Por ende, nuestro objetivo se centra en evaluar la capacidad de estos materiales adsorbentes, obtenidos a partir de la cáscara de café, para eliminar contaminantes emergentes como los fármacos presentes en el agua.



METODOLOGÍA

Los experimentos preliminares de adsorción han arrojado resultados alentadores. Encontramos que el material más eficiente para la remoción de ciprofloxacina fue la cáscara de café sin modificar. Específicamente, el porcentaje más alto de remoción de CIP se logró en soluciones con un pH de 6 y 8, alcanzando valores del 62.36% y 61.00%, respectivamente. Estos resultados se ajustan a los modelos de adsorción de pseudo-primer orden y pseudo-segundo orden, lo que demuestra la presencia de fisisorción y quimisorción en el sistema. Adicionalmente, el valor de energía de activación (Ea = 18.83 kJ/mol) obtenido durante las pruebas termodinámicas indica que el mecanismo predominante es la adsorción física. Asimismo, el cambio de entalpía negativo (ΔH° = -14.55 kJ/mol) confirma que la adsorción es de naturaleza exotérmica y favorable a temperaturas más bajas. Los análisis FTIR (Espectroscopia Infrarroja por Transformada de Fourier) antes y después de la adsorción han demostrado que los grupos funcionales oxigenados juegan un rol crucial en el proceso de adsorción de ciprofloxacina. Además, hemos verificado que el porcentaje de remoción se mantiene estable en tres ciclos sucesivos de utilización del material adsorbente. Es importante destacar que la cáscara de café se presenta como un residuo viable para la adsorción de ciprofloxacina debido a la abundancia de grupos funcionales presentes en su estructura, los cuales actúan como sitios de unión para el fármaco. 


CONCLUSIONES

Nuestros resultados indican que la adsorción fue principalmente un proceso de tipo físico, y que el tratamiento de pirólisis afectó la eficiencia del material al disminuir la cantidad de grupos funcionales superficiales. No obstante, logramos alcanzar porcentajes de adsorción cercanos al 63%. Al evaluar el material adsorbente en matrices reales, se observó una reducción significativa del 44.5% de CIP en agua residual y del 12.18% en orina sintética, lo que sugiere la presencia de otros contaminantes que compiten por los sitios activos de adsorción. A pesar de esto, el material aún puede ser reutilizado sin que su estructura se vea afectada, manteniendo una alta eficiencia de adsorción en múltiples ciclos (3). Cabe destacar que se registró un porcentaje de reducción del 11.96% en el tercer ciclo de adsorción en comparación con el primero. En conclusión, nuestros hallazgos indican que la cáscara de café representa una prometedora solución para la eliminación de ciprofloxacina en el agua y que, a pesar de ciertas limitaciones, su potencial como material adsorbente se mantiene intacto en ciclos de uso sucesivos. Con este proyecto, aspiramos a contribuir significativamente en la mitigación de la contaminación ambiental causada por residuos farmacéuticos y agroindustriales, promoviendo así un futuro más sostenible y equilibrado para nuestra sociedad.
Herrera Tovar Mariela, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO


DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO

Arias Aguilar Emmanuel, Instituto Tecnológico de Querétaro. Ceja Govea María Fernanda, Instituto Tecnológico de Estudios Superiores de Zamora. Gutiérrez Nava Martin Uriel, Instituto Tecnológico de Chilpancingo. Herrera Tovar Mariela, Instituto Tecnológico de Estudios Superiores de Zamora. Melgoza Tamayo Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Ríos Fuentes Karla Araceli, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los profesores en general tienen la necesidad de medir el aprendizaje de sus estudiantes. Para esto se piensa que una aplicación personalizable y gratuita pueda ayudar. Por supuesto existen muchas herramientas hoy en día, quizá la mas famosa sea Kahoot, sin embargo, en esa aplicación los estudiantes pueden responder sin necesidad de pensar en la respuesta, basta con oprimir cualquier botón. Otra forma de jugar mientras se mide el aprendizaje de los estudiantes es que ellos deban teclear la respuesta. En la aplicación se plantea realizar preguntas específicas por el profesor en el momento, y que así mismo las respondan los estudiantes, con esto se ayudará al aprendizaje constante de los estudiantes y se tendrán ventajas de mayor rendimiento.



METODOLOGÍA

La metodología utilizada consistió en una serie de pasos para creación de la aplicación web desde la planificación de las tecnologías utilizadas. 1. Recopilación de requerimientos con el cliente Se tuvo una reunión con el cliente para conocer el tipo de proyecto en el cual se estaría trabajando durante la estancia, a su vez se plantearon los requerimientos importantes para un buen desarrollo de la aplicación. En este caso, el cliente fue una profesora. 2. Planteamiento y estudios de las tecnologías Se realizó un análisis de diferentes tecnologías, con la finalidad de seleccionar y estudiar las que sean más acordes al tipo de proyecto y requerimientos que fueron planteados por el cliente. 3.Asignación de equipos de trabajo Se realizó el análisis de las actividades a realizar en el desarrollo de la aplicación y se asignaron equipos de trabajo y actividades para cada uno. 4. Creación de tablero de trabajo Se creó un tablero con las actividades asignadas con anterioridad para poder tener definidas las actividades, metas y avances durante el desarrollo. 5. Realización del prototipo de baja fidelidad Con los integrantes de los equipos de trabajo compuestos por dos integrantes en cada uno, se diseñaron las interfaces de cada una las pantallas de la aplicación web 6. Creación del modelo entidad- relación Se diseñó y se discutió el modelo entidad-relación con el propósito de definir los datos requeridos de acuerdo a la necesidad de la aplicación 7. Creación e implementación de la base de datos Se realiza creación de la base de datos con ayuda del diagrama entidad-relación 8. Conexión de base de datos Se realiza la conexión de la base de datos back-end y front-end 9. Implementación de Front-end Con ayuda mediante los prototipos de baja fidelidad la creación de front-end de las pantallas de la aplicación web. 10. Implementación de Back-end Se agregó la funcionalidad de las pantallas y el quiz con el uso de la base de datos. Resultados finales Se realizan las implementaciones correspondientes para la creación de de la aplicación web para su total funcionalidad.  


CONCLUSIONES

Este trabajo de investigación se implementó una aplicación web para impulsar el aprendizaje en estudiantes durante sesiones en línea, se concluyó con una aplicación web remasterizada con un diseño más dinámico y con funciones adicionales a las proporcionadas en el inicio del proyecto. La siguiente parte del proyecto consistirá en hacer análisis del uso de esta aplicación considerando distintos tipos de usuarios y grupos.
Hinojosa Limas Sasha Michelle, Instituto Tecnológico de Matamoros
Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango

MODELO DE SISTEMA DE RIEGO POR GOTEO PARA INVERNADEROS PRODUCTORES DE HONGOS SETAS DE HUAUCHINANGO PUEBLA.


MODELO DE SISTEMA DE RIEGO POR GOTEO PARA INVERNADEROS PRODUCTORES DE HONGOS SETAS DE HUAUCHINANGO PUEBLA.

Hinojosa Limas Sasha Michelle, Instituto Tecnológico de Matamoros. Martínez Galván Homero, Instituto Tecnológico de Matamoros. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El cultivo del hongo seta ha tenido un desarrollo rápido, este tipo de hongo merece atención especial debido a la diversidad de residuos orgánicos con los que es capaz de crecer., tomando en cuenta la creciente necesidad de cultivo de hongos se genera la presente investigación que tiene como objetivo principal diseñar un sistema de riego como una alternativa de inversión rentable en el municipio de Huauchinango Puebla. El desarrollo de esta investigación busca automatizar el sistema de riego por goteo mediante un programador controlando el caudal del agua y el tiempo para humedecer el suelo del invernadero. Este sistema de riego por goteo consiste en una secuencia de tubos colocados internamente dentro del invernadero con goteros que se sujetan dentro de orificios y que distribuyen equitativamente el agua (Sistema gota a gota), se busca que el agua se riegue en la superficie total del invernadero por un tiempo determinado apoyando el proceso de un controlador de tiempo trayendo consigo que la humedad se mantenga durante las 24 horas del día aportando el medio adecuado para el cultivo de hongos setas.



METODOLOGÍA

Se implementó un sistema de riego por goteo, este sistema se diseñó con los requerimientos hídricos adecuados bajo un control automático en el cierre y apertura de las válvulas de campo. El uso principal está orientado para mantener la humedad requerida y evitar que el suelo se inunde. Para la construcción se procedió a tomar las medidas del invernadero las dimensiones con las que cuenta son: 6 m de largo x 5 m de ancho teniendo estas medidas se calculó el desnivel registrando dimensiones de 3 m de alto x 8 m de largo; con las medidas el desnivel se realizaron diversos cálculos. Basándonos en el teorema de Pitágoras se determinó la longitud de la hipotenusa de nuestro triángulo rectángulo que representa el desnivel del costado del invernadero, posterior al cálculo del desnivel continuamos con la selección del material para la fabricación del sistema, una vez seleccionado el material determinamos la velocidad del agua en la tubería teniendo en cuenta que trabajara bajo presión se procede a seleccionar el coeficiente de interacción en la tabla de Hazen-Williams, obteniendo un valor de 145. Una vez que se realizaron los cálculos teóricos, procedemos a determinar el cálculo del caudal, este cálculo requiere en primera instancia determinar la temperatura promedio y la humedad relativa de la zona, por lo cual realizamos la consulta del estadístico ambiental, indicando que la temperatura promedio asciende a 26.5° C y la humedad relativa a 81.5 °C, posteriormente se realiza el cálculo del caudal, obteniendo una resultante de 22.51 m3/s. Continuando con los cálculos de consumo de agua determinamos que el cálculo de consumo de agua es del 17.87%, procedemos a calcular el número de goteros necesarios para instalar la línea de riego, teniendo en cuenta que se requieren 5 líneas de riego se solicita la instalación de 42 goteros en posición triangular, ahorabien, para calcular la correcta distribución de goteros por cada línea de riego, dividimos el total de goteros entre el total de líneas asignando 8 goteros para las líneas 1, 3, 5 y 9 goteros para las líneas 2,4. Es conveniente hacer mención que las líneas que contengan 9 goteros se posicionan a una distancia entre cada gotero de 0.66 m, mientras que las líneas con 8 goteros están posicionadas a una distancia de 0.75 m. Considerando los cálculos anteriores procedemos a establecer y diseñar en software especializado los elementos y materiales que conforman el Sistema de riego por goteo, estos son: Depósito de agua, Programador de riego, Filtro para sistema de riego, Manguera, Gotero regulable, Llave para manguera, Codo para manguera, T para manguera. Como es notorio es indispensable la fabricación de la base para la colocación del sistema de riego externa, teniendo en cuenta esta necesidad se determina la adquisición de los siguientes materiales de construcción: Cemento, varilla, block, alambre quemado, anillos, grava y arena, para finalizar se realiza el costeo para la adquisición de los elementos y materiales necesarios para la implementación del Sistema de riego y este costeo representan una inversión total de $ 17, 437.00.


CONCLUSIONES

Durante el desarrollo de este proyecto denominado como Modelo de sistema de riego por goteo para invernaderos productores de hongos setas de Huauchinango Puebla, se llevaron a cabo las siguientes actividades:  Recopilación de información del cultivo de Hongos seta, Determinar las características y particularidades de riego del cultivo, Análisis estadístico de condiciones ambientales de la zona, Cálculo de desnivel, Cálculo de velocidad del agua, Cálculo del caudal, Cálculo de consumo de agua, Cálculo de número de goteros, Distribución de goteros, Selección de materiales, Costeo de materiales, Presentación de propuesta; estas actividades contribuyeron notablemente en primera instancia a la generación del primer modelo de riego por goteo para invernaderos de hogos setas en la zona, así también para la generación del diseño en software especializado y la propuesta de costeo para aplicaciones futuras, este proyecto contribuye directamente al ODS 12: "Garantizar modalidades de consumo y producción sostenibles", en razón de que fomentara el riego de los cultivos de hongos setas en tiempo y forma., para incrementar la productividad del cultivo y generar mayor interés para ser instalado en traspatios, viveros e invernaderos de la Sierra Norte del Estado de Puebla. En conclusión, durante el desarrollo del proyecto adquirimos conocimientos de distintos softwares de diseño, los cuales fueron el soporte técnico para la realización del proyecto de igual manera ampliamos nuestros conocimientos en el desarrollo de cálculos de diferentes índoles, mejorando notablemente nuestra perspectiva en el ámbito de la investigación e impulsando nuestra visión universitaria para culminar nuestra carrera.
Hipolito Gatica Kevin Osvaldo, Instituto Tecnológico de Chilpancingo
Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo

EXPLORANDO LA VIOLENCIA DE GÉNERO EN LOS ÁMBITOS ESCOLAR, LABORAL Y COMUNITARIO: UN ENFOQUE INTEGRADO MEDIANTE MINERÍA DE DATOS Y KDD


EXPLORANDO LA VIOLENCIA DE GÉNERO EN LOS ÁMBITOS ESCOLAR, LABORAL Y COMUNITARIO: UN ENFOQUE INTEGRADO MEDIANTE MINERÍA DE DATOS Y KDD

de la Cruz Vazquez Diana Laura, Instituto Tecnológico de Chilpancingo. Garibay Salgado Cesar Isaias, Instituto Tecnológico de Chilpancingo. Gonzalez Barragan Carlos Alexander, Instituto Tecnológico de Chilpancingo. Hipolito Gatica Kevin Osvaldo, Instituto Tecnológico de Chilpancingo. Asesor: Mg. Alexandra Soraya Beltrán Castro, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La violencia de género es un fenómeno global que afecta a mujeres y niñas en diversos contextos, comprometiendo su seguridad, bienestar y desarrollo integral. Si bien se han realizado esfuerzos significativos para abordar este problema, aún persisten desafíos importantes en la compresión de sus manifestaciones en diferentes ámbitos, como el escolar, laboral y comunitario. México presenta antecedentes significativos en violencia de género que lamentablemente continúan presentes en la vida cotidiana de la mayoría de las mujeres, lo que constituye una seria problemática social. Esta violencia se manifiesta en diversas formas, tales como violencia doméstica, acoso callejero, discriminación laboral, explotación sexual, feminicidios y trata de personas. En la actualidad, se cuenta con técnicas y tecnologías avanzadas que pueden aplicarse en el ámbito de la minería de datos. La pregunta surge sobre si es posible utilizar estas herramientas para encontrar patrones que identifiquen las principales características que resultan en violencia de género.



METODOLOGÍA

El tipo de investigación es descriptivo, debido a que busca determinar las variables comunes en la población con violencia de género e intrafamiliar, tomando como referencia los datos recolectados en la encuesta Nacional sobre la Dinámica de las Relaciones en los Hogares 2021 (INEGI), y aplicando técnicas de minería de datos, para generar modelos predictivos y descriptivos, aplicando la metodología KDD (Descubrimiento de conocimiento en bases de datos), utilizando como herramienta tecnológica WEKA, la cual genera los modelos y sus métricas de evaluación, para determinar cuál es el mejor modelo, y tomarlo como referencia para la toma de decisiones.


CONCLUSIONES

El uso de técnicas de minería de datos en el estudio de la violencia en México es inestimable para comprender patrones y factores de riesgo, facilitando la toma de decisiones informadas. El análisis de datos del INEGI sobre violencia de género en diferentes ámbitos muestra características específicas, destacando la importancia de abordarla de manera contextualizada y adaptar estrategias de prevención. Durante la investigación se presentaron los siguientes desafíos, durante la aplicación de los algoritmos J48 y Naive Bayes a un conjunto de datos optimizado utilizando WEKA. Se llevaron a cabo varios pasos de pre procesamiento para abordar errores e inconsistencias en los datos: • Identificación correcta de Clases: Asegurar la asignación correcta de clases y sus variables relacionadas para permitir una predicción precisa. • Renombrar Variables: Mejorar los nombres de las variables para una mejor comprensión y claridad. • Optimizar Variables: Agrupar variables comunes para mejorar la identificación y el análisis. • Resolver Incoherencias: Abordar discrepancias entre las respuestas a diferentes preguntas para refinar el conjunto de datos. • Crear Conjuntos de Datos Únicos: Generar conjuntos de datos individuales para cada clase para identificar variables no reconocidas por el conjunto de datos principal y posteriormente eliminar las variables no relacionadas. Los análisis descriptivos y predictivos permiten identificar variables relevantes y generar modelos para predecir y prevenir la violencia. La combinación de enfoques cuantitativos y cualitativos ofrece nuevas herramientas para abordar la problemática y tomar decisiones más efectivas. En general, esto contribuye a una mejor comprensión de la violencia y a promover medidas más adecuadas para enfrentarla. Mediante el análisis descriptivo y predictivo, se logró identificar variables relevantes y generar modelos que permiten predecir y prevenir la violencia. Sin embargo, es crucial considerar las implicaciones éticas y legales en la utilización de datos personales y garantizar la protección de la privacidad.
Horcasitas Pérez Ian Gerardo, Universidad de Guadalajara
Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia

TENDENCIAS TECNOLÓGICAS: UNA REVISIÓN SISTEMÁTICA


TENDENCIAS TECNOLÓGICAS: UNA REVISIÓN SISTEMÁTICA

Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla. Horcasitas Pérez Ian Gerardo, Universidad de Guadalajara. Sánchez López Abril Ximena, Instituto Politécnico Nacional. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Las instituciones de educación superior, en conjunto con las organizaciones pertenecientes a diferentes sectores, deben establecer estrategias y objetivos empresariales en función de las necesidades internas y las del mercado. La transformación digital es el motor principal para establecer objetivos en entornos educativos y organizativos, ya que las herramientas de software son el medio para optimizar procesos y tareas.  La rápida evolución de la tecnología ha dado lugar a nuevas tendencias tecnológicas, como la inteligencia artificial, la computación en la nube, el internet de las cosas, la analítica de datos, la realidad virtual, el blockchain, entre otras. Estas tendencias ofrecen a las organizaciones oportunidades sin precedentes para mejorar sus operaciones, servicios y productos. No obstante, también presentan desafíos en términos de inversión, capacitación y seguridad de datos. Las consecuencias positivas se evidencian en escenarios en los que transformación digital, por ejemplo, la reducción del tiempo de realización de tareas por medio de la automatización. Otra consecuencia es mejorar la experiencia de los clientes mediante la implementación de herramientas de software como bots en plataformas como Whatsapp, las cuales proporcionan soluciones inmediatas en comparación con métodos tradicionales. Es primordial identificar las tendencias de tecnología y definir cuáles deben adoptarse en una hoja de ruta que garantice la implementación de las tecnologías en ambientes educativos y organizativos. De este modo, este estudio pretende proporcionar las tendencias tecnológicas que deberían adoptarse en los próximos tres años. Esta investigación también se alinea a las necesidades del ODS 9 (Industria, innovación e infraestructura), con el objetivo de construir una infraestructura resiliente, promover la industrialización sostenible y fomentar la innovación, por parte de esta investigación busca impulsar el crecimiento económico inclusivo y sostenible, y fomentar la adopción de tecnologías limpias y eficientes.



METODOLOGÍA

La metodología utilizada en el estudio IT Trends: A literature review es una revisión sistemática ajustada a la declaración PRISMA. Se empleó para identificar seleccionar, evaluar y sintetizar los estudios relevantes. Se establecieron criterios de elegibilidad basados en idioma, fecha de publicación, revisión por pares y reputación de las consultorías. Se realizaron búsquedas en bases de datos indexadas prestigiosas. Se utilizó una estrategia de búsqueda con términos clave relacionados con las tendencias tecnológicas para las organizaciones. Se seleccionaron 40 estudios y se extrajeron los conceptos relevantes, categorizándolos por temas. Se evaluó el riesgo de sesgo mediante los métodos de saturación y triangulación. Se presentan los resultados obtenidos en términos de coincidencias por tema.


CONCLUSIONES

Se extrajeron y estandarizaron 56 diferentes tendencias tecnológicas de 40 estudios académicos, las cuales, por cuestiones de logística, fueron agrupadas en 7 tipos de tecnología. A continuación, se enlistan los tipos de tecnología en orden, utilizando como criterio la cantidad de menciones que sus miembros obtuvieron en conjunto: Data (50), IA (45), Interconnection of devices (35), Automation (34), Digital representation (28), Green innovations (23), Hadware/Devices (23), Digital applications (20), Cybersecurity (19), Digital Society (11) y Communication (9). Dichos resultados podrían ser utilizados como referencia por organizaciones cuyo objetivo es la innovación a través de la tecnología, implementando herramientas como como el análisis de grandes cantidades de información para la toma de decisiones y la automatización de procesos físicos y digitales por medio de inteligencia artificial (por ejemplo, los chatbots).
Huerta Becerra Alan Oswaldo, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

GENERACIóN Y ANáLISIS DE SEñALES EEG DURANTE PRUEBA DE SIMULACIóN VEHICULAR


GENERACIóN Y ANáLISIS DE SEñALES EEG DURANTE PRUEBA DE SIMULACIóN VEHICULAR

Huerta Becerra Alan Oswaldo, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Durante mi estancia en el Laboratorio de Instrumentación y Procesamiento de Señales como parte del programa "Sistemas auxiliares en rehabilitación" en la UPIITA del Instituto Politécnico Nacional, nos enfrentamos al desafío de generar y analizar la información asociada a la detección niveles de estrés en individuos durante una prueba de simulación de manejo vehicular. Para lograr esto, utilizamos un dispositivo de electroencefalografía (EEG) con 7 canales para obtener señales cerebrales durante la prueba. Se abordo le problema de procesar y analizar estos datos de manera adecuada. El objetivo principal fue crear una base de datos anonimizada y una herramienta que permita identificar momentos de estrés durante la prueba para mejorar la comprensión de los efectos del estrés en situaciones de conducción.



METODOLOGÍA

La primera etapa de nuestro trabajo consistió en la caracterización del dispositivo EEG mediante la automatización de un generador de señales y un osciloscopio utilizando Python y el protocolo VISA. También llevamos a cabo pruebas de seguridad para asegurarnos de que el dispositivo no representara un riesgo para los usuarios. Se utilizó un programa de Labview para recolectar la información en la PC que se utilizó al sistema de registro utilizando una tarjeta de adquisición MyDaq Modelo NI USB-6211(National Instruments,USA). Luego, reclutamos voluntarios para participar en la prueba de simulación de manejo vehicular mientras les extrajimos las señales EEG utilizando el sistema de registro de EEG con 7 electrodos de copa de oro colocados en las posiciones Cz, C3, T3, C4, T4, O1 y O2 del estándar 10-20. Una vez que se obtuvieron los datos EEG, se creó una base de datos anonimizada para almacenarlos de forma segura y desarrollamos un programa en Python para anonimizar y organizar los archivos crudos de manera automatizada. Esto permitirá futuras consultas y verificaciones de datos. Posteriormente, se creó una interfaz gráfica en Matlab para cargar el archivo de señales EEG bajo análisis y aplicar un filtrado pasa-bajas para seleccionar la banda (Hz) de interés. Implementamos técnicas de análisis en frecuencia, como la Transformada Rápida de Fourier (FFT) y la densidad espectral de potencia (PSD), para obtener información relevante sobre la actividad cerebral en cada canal durante la prueba de manejo. Además, se calculó la relación entre las señales beta/Alpha a lo largo del tiempo para detectar posibles momentos de estrés en el individuo durante la simulación.


CONCLUSIONES

Al finalizar nuestro trabajo, logramos desarrollar una solución efectiva para calcular la razón beta/alfa asociada a los niveles de estrés en individuos durante una prueba de simulación de manejo vehicular utilizando el dispositivo de EEG y la interfaz gráfica en Matlab. La caracterización y pruebas de seguridad previas aseguraron que el dispositivo EEG fuera seguro para su uso en seres humanos. Se requiere mejorar la razón Señal/Ruido de las señales originales, para evidenciar los cambios entre las diferentes etapas del protocolo. La creación de la base de datos anonimizada garantiza la privacidad de los voluntarios y permite que otros investigadores puedan utilizar estos datos de manera ética y responsable. La interfaz gráfica en Matlab facilita el análisis de las señales EEG y proporciona información valiosa sobre la actividad cerebral durante la prueba de manejo. Esto puede ayudar a comprender mejor cómo el estrés afecta a las personas en situaciones de conducción y contribuir al desarrollo de futuros sistemas auxiliares en rehabilitación. Sin embargo, también identificamos áreas de oportunidad para futuras investigaciones, como la expansión de la base de datos y la exploración de técnicas de análisis más avanzadas. En general, consideramos que el trabajo realizado aporto a los trabajos del LIPS, en la detección del estrés utilizando tecnologías de instrumentación y procesamiento de señales en el campo de la rehabilitación. Se agradece a la Dra. Blanca Tovar Corona, quien me apoyó con su experiencia de trabajo en tratamiento de señales biológicas, a la Dra. Laura Ivoone Garay Jimenez, quien me ayudó a establecer una dinámica y ritmo de trabajo adecuado, además de brindarme apoyo en cualquier duda que se presentara y a Marisela Santiago Calderón, quien estuvo encargada de guiar mi trabajo a lo largo de la estancia.
Huitrón Hernández Joselin, Instituto Tecnológico de Pachuca
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

¿CóMO MEJORAR LA GESTIóN DEL CONOCIMIENTO MEDIANTE LA UTILIZACIóN DE HERRAMIENTAS DE LA INDUSTRIA 5.0?


¿CóMO MEJORAR LA GESTIóN DEL CONOCIMIENTO MEDIANTE LA UTILIZACIóN DE HERRAMIENTAS DE LA INDUSTRIA 5.0?

Huitrón Hernández Joselin, Instituto Tecnológico de Pachuca. Mercado Cano Erika, Instituto Tecnológico de Pachuca. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Según Estrada hace ya una década que existe un movimiento global para crear configuraciones de producción inteligente y automatizada, y hacen que las cosas se comuniquen de una forma digital, este movimiento comúnmente es conocido como la cuarta revolución industrial llamada industria 4.0. Actualmente ha surgido una nueva revolución tecnológica llamada industria 5.0, pretende potenciar un cambio del sector industrial en espacios inteligentes. Con la aparición de la nueva revolución industrial los entornos virtuales toman un gran auge debido a que en ellos se pueden representar de manera digital un proceso como si fuera algo real, este concepto va acompañado de tecnologías como los gemelos digitales, internet de las cosas e inteligencia artificial, el sector industrial se ha visto en la necesidad de adentrarse en las herramientas digitales para la solución de problemas más eficiente, rápida y concisa, el desarrollo de la tecnología es de suma importancia para la industria moderna, es por ello que buscan profesionistas que cumplan con una educación de calidad, debido a esto orillan a las instituciones a implementar estrategias y acciones en la enseñanza para cumplir las competencias de las empresas.  El objetivo de la investigación fue determinar cómo la aplicación de herramientas de la industria 5.0 mejora la enseñanza-aprendizaje de estudiantes de ingeniería, así mismo se examinó de qué modo les sería de utilidad para garantizar una educación inclusiva, equitativa y de calidad, y finalmente ser profesionistas mayormente preparados.



METODOLOGÍA

Según Estrada hace ya una década que existe un movimiento global para crear configuraciones de producción inteligente y automatizada, y hacen que las cosas se comuniquen de una forma digital, este movimiento comúnmente es conocido como la cuarta revolución industrial llamada industria 4.0. Actualmente ha surgido una nueva revolución tecnológica llamada industria 5.0, pretende potenciar un cambio del sector industrial en espacios inteligentes. Con la aparición de la nueva revolución industrial los entornos virtuales toman un gran auge debido a que en ellos se pueden representar de manera digital un proceso como si fuera algo real, este concepto va acompañado de tecnologías como los gemelos digitales, internet de las cosas e inteligencia artificial, el sector industrial se ha visto en la necesidad de adentrarse en las herramientas digitales para la solución de problemas más eficiente, rápida y concisa, el desarrollo de la tecnología es de suma importancia para la industria moderna, es por ello que buscan profesionistas que cumplan con una educación de calidad, debido a esto orillan a las instituciones a implementar estrategias y acciones en la enseñanza para cumplir las competencias de las empresas.  El objetivo de la investigación fue determinar cómo la aplicación de herramientas de la industria 5.0 mejora la enseñanza-aprendizaje de estudiantes de ingeniería, así mismo se examinó de qué modo les sería de utilidad para garantizar una educación inclusiva, equitativa y de calidad, y finalmente ser profesionistas mayormente preparados.


CONCLUSIONES

Durante la realización de esta investigación se logró concluir que el uso de gemelos digitales, internet de las cosas e inteligencia artificial en la educación permite mostrar a los estudiantes de nivel superior familiarizarse con la estructura de diversos sistemas y analizar cómo trabajan. Tras realizar la encuesta, analizamos que algunos de ellos no conocen del todo estas herramientas. Se tiene una aplicación distinta en numerosos campos, como la medicina, la educación, la industria, el transporte y muchos más. Su capacidad para automatizar tareas, analizar grandes conjuntos de datos y tomar decisiones precisas ofrece oportunidades emocionantes para mejorar la eficiencia y calidad de muchos procesos.  En los laboratorios universitarios, se pueden emplear estos recursos para estudiar el comportamiento de los sistemas en numerosas condiciones simuladas. Esto nos permite comprender las limitaciones y vulnerabilidades de los procesos, dado que estas herramientas pueden ser fácilmente manipuladas por los estudiantes, el aprendizaje tiende a ser más profundo y exacto que el logrado sólo con modelos teóricos.
Hurtado Soto Héctor Adelaido, Universidad Autónoma de Sinaloa
Asesor: Dr. Carlos Vicente Tostado Cosío, Universidad de Sonora

MANEJO DE BLOQUES DE TIERRA COMPACTADA (BTC) CON INCLUSORES DIVERSOS (PERLITA MINERAL), DOVELAS DE CELULOSA Y LABORATORIO EXPERIMENTAL.


MANEJO DE BLOQUES DE TIERRA COMPACTADA (BTC) CON INCLUSORES DIVERSOS (PERLITA MINERAL), DOVELAS DE CELULOSA Y LABORATORIO EXPERIMENTAL.

Hurtado Soto Héctor Adelaido, Universidad Autónoma de Sinaloa. Asesor: Dr. Carlos Vicente Tostado Cosío, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

MANEJO DE ADOBES BTC CON INCLUSORES DIVERSOS Y DOVELAS DE CELULOSA La construcción tradicional con tierra ha sido desplazada por ladrillos y bloques de cemento debido a la industrialización. Sin embargo, ha resurgido el interés en innovar con materiales como cemento y perlita mineral para crear bloques compactados y dovelas de celulosa. Estos elementos se utilizan en la construcción de viviendas y estructuras ligeras, aportando beneficios ecológicos, térmicos y económicos, además de ser considerados resistentes a sismos. El proyecto de ladrillos ecológicos y dovelas ligeras busca contribuir al reciclaje de materiales, reducir la contaminación y mejorar la eficiencia térmica de las edificaciones. Este enfoque beneficia a comunidades de bajos recursos y tiene un impacto en diversos sectores, como la construcción, arquitectura, ingeniería, industria y economía. Se está implementando en Hermosillo, México, y tiene el potencial de extenderse a otras ciudades y países. Es crucial actuar ahora para aprovechar los recursos naturales, especialmente la tierra, abundante en nuestro planeta. La innovación en la construcción con materiales tradicionales puede marcar una diferencia significativa en la sustentabilidad y eficiencia de las edificaciones, y es fundamental aprovechar esta oportunidad.



METODOLOGÍA

Inicio de probetas en laboratorio adobes BTC con inclusor PROBETAS DE BTC CON PERLITA MINERAL (30 cm x 15 cm x 11 cm) Se realizó una metodología de fabricación de probetas de bloques de tierra-cemento (BTC) con perlita mineral. El proceso comenzó con la humectación uniforme de la perlita y la mezcla de la mitad del cemento con agua-perlita, seguido de la combinación separada de la tierra con la otra mitad del cemento en seco. Se agregó agua gradualmente a la mezcla de tierra-cemento, se mezcló hasta obtener una consistencia uniforme y luego se añadió la mezcla perlita-cemento para mezclar, hasta lograr que, al apuñarla no se degregue. La fabricación de los bloques BTC-perlita involucró la preparación del molde de la máquina para bloques, aplicando aceite en su interior. Se vertió la mezcla tierra-perlita-cemento-agua en el molde y se compactó al máximo. Luego, se extrajo el bloque cuidadosamente, girándolo y separándolo del molde con precaución. PROCESO DE FABRICACIÓN DE DOVELAS DE CELULOSA CON CEMENTANTES DIVERSOS Se utilizaron pliegos de bolsa de plástico como base moldeable. Se adhirió aceite quemado a los moldes de MDF y se prepararon las mezclas con cementante por separado. Se esparció la mezcla en el molde, se comprimió con una placa de madera y se retiró el molde con cuidado. Las dovelas se colocaron en una cubeta para moldear su curvatura y se dejaron secar. Este método se aplicó a diferentes cementantes como cemento blanco, cemento gris, cemenquin, crest y cal-cemento, además de variaciones en el peso de las probetas. Las dovelas se levantaron al día siguiente para completar el secado y fraguado, y se tomaron medidas.


CONCLUSIONES

La perlita mineral esta compuesta de roca volcánica y contiene gran cantidad de agua molecular una vez calentada a altas temperaturas esta se evapora y se expande como si fueran palomitas de maíz. La perlita expandida presenta un color blanco brillante y presenta aproximadamente una densidad 10 veces menor que la perlita sin expandir. La perlita mineral se utiliza en la jardinería para retener el agua y permitir el flujo de oxigeno y minerales como los fertilizantes. Nunca antes se han elaborado bloques de tierra compactada con perlita mineral como inclusor ni de ninguna otra índole a pesar de que presenta características de ser una especie de arena, ya que la perlita contiene en su mayor parte dióxido de silicio el componente principal de la arena, teniendo grandes características como su densidad, expansividad, y ligereza para crear bloques más ligeros y de alta resistencia a cargas. La celulosa material obtenido del papel reciclado es utilizada en la construcción en acabados para aislar del calor ya que esta ayuda en la transpiración, el material puede soportar altas cargas teniendo solamente deformaciones elásticas o plásticas por esto el fabricado de dovelas de celulosa con cementantes y algún sellador vinílico que sirva como aditivo es una gran idea para complementar la construcción de losas utilizándolas como simbras perdidas prefabricadas en el sistema constructivo con vigueta actuando este tipo de losas como bovedilla sustituyendo el granzón con perlita mineral. Se realizaron pruebas de compresión en cinco muestras de bloques BTC con perlita mineral, obteniendo resultados más favorables en una combinación que incluía un 40% de perlita mineral y 60% de tierra  de una masa de 6 L en total y 700 gramos de cemento gris. Esta combinación alcanzó la ruptura con una carga de 9,680 kg y un esfuerzo de 21.73 kg/cm2, con una masa en la pieza de 6.47 kg. Además, se llevó a cabo la construcción de muros de bloques BTC con cubierta de techo para realizar mediciones de temperatura por la mañana y al mediodía. Se obtuvieron resultados favorables en la mitigación del calor exterior, con una diferencia de 12.9 °C en los puntos de temperatura más altos el 5 de julio de 2023. La temperatura interior del muro fue de 37.9 °C y en el exterior fue de 50.8 °C. En el caso de las muestras de dovelas de celulosa, se llevaron a cabo pruebas de flexo-compresión, obteniendo cargas de 37.6 kg en la probeta de celulosa-cemento gris (300 gr) y 27.09 kg en la de crest (300 gr). La dovela de cemento gris resultó más ligera, con una diferencia de 46 gramos y una masa de 0.439 kg. Los esfuerzos registrados para ambas piezas fueron de 1.253 kg/cm2 para la dovela de cemento gris y de 0.903 kg/cm2 para la de crest. Estas dos muestras presentaron los valores más altos entre las cinco en total.
Ibarra Barrientos Cassandra Galilea, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato

RECONSTRUCCIóN 2D DE ENTORNOS POLIGONALES SIMPLEMENTE CONECTADOS USANDO UN SENSOR LIDAR OMNIDIRECCIONAL


RECONSTRUCCIóN 2D DE ENTORNOS POLIGONALES SIMPLEMENTE CONECTADOS USANDO UN SENSOR LIDAR OMNIDIRECCIONAL

Ibarra Barrientos Cassandra Galilea, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se implementó un esquema de captura y procesamiento de datos utilizando un sensor LiDAR omnidireccional y así obtener una reconstrucción en 2D de un entorno de interiores. El sensor LiDAR mide datos de distancia y orientación hacia los obstáculos en los 360° pero de manera limitada en su rango de distancia y resolución angular. El esquema permite realizar diversas capturas en diferentes partes del entorno para obtener una reconstrucción 2D completa, ya que las limitaciones del rango de medición no permiten recolectar la información completa en una sola toma, para ello es necesario medir el desplazamiento entre cada toma con respecto al punto donde se realizó la primer captura de datos.



METODOLOGÍA

• Se definió y seleccionó el sensor LiDAR omnidireccional adecuado para nuestro proyecto, considerando factores como la resolución, precisión y capacidad de captura de datos. • Se estableció el entorno experimental, teniendo en cuenta las características del entorno, la iluminación ambiental y la distancia de captura óptima. Adquisición de datos: • Se implementó el sistema de adquisición de datos, que comprende la instalación de Linux y el sistema operativo de robots (ROS) para instrumentar y configurar el sensor LiDAR omnidireccional. • Se realizó un programa en C/C++ para obtener la captura y registro de los datos provenientes del LiDAR mediante el uso de Excel. Procesamiento de datos: • En esta etapa se realizó la limpieza y filtrado de los datos capturados dentro del programa en C/C++ para evitar mediciones espurias. • A través del software Octave se importaron los datos registrados en Excel con las capturas del entorno. • Mediante las opciones de graficado de Octave se realiza la visualización de las capturas obtenidas y la unión de ellas para obtener la reconstrucción del entorno en 2D. Evaluación y validación: • Comparamos los resultados obtenidos con datos de referencia medidos manualmente para evaluar la precisión de la reconstrucción 2D. • Realizamos pruebas y escenarios de validación para evaluar la robustez y la aplicabilidad del sistema que desarrollamos en diferentes condiciones (cambiamos el entorno o lo modificamos). Análisis e interpretación: • Analizamos los resultados obtenidos en términos de precisión, calidad y aplicabilidad del sistema. • Interpretamos los hallazgos y discutimos las limitaciones y posibles mejoras del sistema.


CONCLUSIONES

El presente proyecto implementa un esquema de reconstrucción 2D mediante el uso de datos de distancia y orientación obtenidos mediante un sensor telémetro laser (LiDAR). Actualmente el sistema es capaz de obtener una reconstrucción 2D del entorno en interiores mediante la unión de varias tomas o capturas realizadas con el láser y mediante los datos de posición de desplazamiento medidas desde un marco de referencia fijo en el lugar donde se realizó la primer captura de datos. Posteriormente este esquema puede ser complementado con otros sensores que midan directamente el desplazamiento, tales como un GPS de alta precisión o un sistema de Odometría.  
Ibarra Flores Salma Yareth, Universidad Politécnica de Sinaloa
Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa

ANáLISIS Y DISEñO DE UN AGENTE INTELIGENTE PARA APLICAR ESTRATEGIAS DIDáCTICAS A TRAVéS DE LOS CANALES PARA EL APRENDIZAJE


ANáLISIS Y DISEñO DE UN AGENTE INTELIGENTE PARA APLICAR ESTRATEGIAS DIDáCTICAS A TRAVéS DE LOS CANALES PARA EL APRENDIZAJE

Ibarra Flores Salma Yareth, Universidad Politécnica de Sinaloa. Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La educación es una de las piezas angulares de nuestra sociedad. El uso de la Inteligencia Artificial ha permitido desarrollar propuestas en diversos ámbitos: como herramientas de apoyo en las aulas, aprender sobre sus tecnologías y técnicas y prepararse para permitir que todos los ciudadanos comprendan la repercusión potencial de la inteligencia artificial en la vida humana.  Teniendo como referencia estos ámbitos, el enfoque de este proyecto se centra en ser una herramienta de apoyo  en el  proceso de enseñanza en el nivel superior, en donde los docentes y tutores se enfrentan al desafío en las aulas  de impartir, orientar y personalizar a un grupo diverso de estudiantes con diferentes canales de aprendizaje y diversos métodos de estudio. Algunos estudiantes pueden aprender mejor a través de material visual, mientras que otros aprenden de manera auditiva o kinestésica. Un plan de estudios es estándar y uniforme para todos los estudiantes por lo que no siempre se obtienen los resultados deseados al momento de las evaluaciones.  Debido a esto, es importante desarrollar una aplicación computacional basada en agentes inteligentes que identifiquen y analicen los canales para el aprendizaje de los estudiantes y a través  de la  información, diseñe y proporcione respuestas sobre estrategias didácticas, métodos y/o herramientas personalizadas que cumplan con la adaptabilidad  a cada estudiante de acuerdo a sus canales de aprendizaje.  



METODOLOGÍA

Para la fase de análisis del proceso de desarrollo de la aplicación computacional basada en agentes inteligentes, se utilizan las metodologías  basadas en reglas y de agentes reactivos, donde el conocimiento acumulado está configurado por los canales de aprendizaje y las acciones sobre las estrategias de enseñanza. El uso de entrevistas,  encuestas y formularios recopilados de tutores, docentes y estudiantes (percepciones) permiten definir los requerimientos y reglas de negocio para generar el entorno y propiedades de trabajo del agente. Para el diseño se emplean técnicas para representar el conocimiento (red semántica), el uso de técnicas de Ingeniería de Software (diagramas del Lenguaje Unificado de Modelado: caso de uso, actividades y transición de estados, con el propósito de modelar el comportamiento del agente) y para la estructura del algoritmo, se  utiliza el modelo de red neuronal. Utilizar algoritmos y técnicas de análisis de datos para identificar el estilo de aprendizaje dominante de cada alumno en base a la información recopilada. La arquitectura del agente se esquematiza por medio de un diagrama de componentes. Para la implementación se analizan diversas herramientas y lenguajes de programación que cumplan con el propósito de la aplicación.  


CONCLUSIONES

La personalización de la enseñanza mediante la tecnología ha demostrado ser una herramienta valiosa para fomentar un entorno educativo más inclusivo y equitativo, donde todos los estudiantes tienen igualdad de oportunidades para aprender y tener éxito.  El desarrollo de una aplicación computacional basada en agentes inteligentes no solo permite la facilidad de  colaboración como herramienta entre tutores y/o docentes, sino también es un medio eficaz y eficiente para monitorear el progreso de aprendizaje en el estudiante y de esta manera recibir por parte del agente recomendaciones claras y prácticas. El alcance inicial puede limitarse a un número específico de asignaturas o nivel educativo, con la posibilidad de expandirse a medida que se recopile más información y de esta manera evaluar la efectividad de las estrategias implementadas. La aplicación  no reemplaza la experiencia y el juicio de los tutores y docentes, sino que los apoya y complementa al proporcionar recomendaciones basadas en datos.  
Ibarra Hernandez Angel Antonio, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa

VOICE OVER INTERNET PROTOCOL


VOICE OVER INTERNET PROTOCOL

Ibarra Hernandez Angel Antonio, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberto Morales Colado, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La comunicación ha sido parte fundamental en la evolución humana permitiéndonos compartir conocimiento a través de los años, el concepto de Comunicación no es para nada nuevo, sin embargo, con la llegada de esta era tecnológica este término ha tomado mayor fuerza y relevancia en la vida del ser humano, ya que gracias a las tecnologías existentes como lo es VoIP (Voice Over Internet Protocol), y su combinación con el internet actual la interacción de un punto A con un Punto B se ha vuelto relativamente sencilla y aun mejor que esto se ha vuelto accesible para todos lo cual hace unos años era inimaginable.



METODOLOGÍA

La metodología empleada en esta investigación teorica consta de 7 pasos los cuales son: Planteamiento del problema: En este paso se definio el rumbo y tema central de la investigacoión. Selección de fuentes: En este segundo paso se hizo una seleccion de fuentes de información confiables como investigaciones previas de otras universidades. Análisis crítico: Aquí se hizo un analisis critico sobre la información recabada. Síntesis y desarrollo de la teoría: Aquí se integró la información analizada para construir una teoría sólida sobre el tema. Argumentación y sustentación: Se elaboraron argumentos para respaldar la teoría desarrollada, utilizando ejemplos. Conclusiones: Se resumió las principales conclusiones de la investigación teórica y sugerir posibles líneas futuras de estudio. Referencias bibliográficas: se incluyeron las bibliografías una lista completa de las fuentes secundarias utilizadas en la investigación.


CONCLUSIONES

En conclusión la investigación ha demostrado que VoIP es una opción viable y eficiente para las comunicaciones empresariales, ofreciendo mejoras significativas en la calidad de servicio, la eficiencia operativa y los ahorros de costos. Sin embargo, cada empresa debe abordar cuidadosamente los desafíos específicos que puedan surgir durante la implementación para asegurar el éxito y obtener el máximo beneficio de esta tecnología en el entorno empresarial actual. Con una planificación adecuada y una atención diligente a los aspectos de seguridad y privacidad, VoIP puede transformar positivamente la manera en que las empresas se comunican y operan, impulsando su competitividad y crecimiento en un mercado en constante evolución.
Ibarra Jara Alexia Paola, Universidad Autónoma de Nayarit
Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara

IMPLEMENTACIóN DE LAS TIC PARA EVITAR LA DESERCIóN UNIVERSITARIA EN EL PROGRAMA ACADéMICO DE INGENIERíA QUíMICA


IMPLEMENTACIóN DE LAS TIC PARA EVITAR LA DESERCIóN UNIVERSITARIA EN EL PROGRAMA ACADéMICO DE INGENIERíA QUíMICA

Ibarra Jara Alexia Paola, Universidad Autónoma de Nayarit. Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La deserción escolar es una realidad a la que se enfrentan muchas instituciones de educación desde el nivel básico hasta el nivel superior, donde los jóvenes en edad escolar por diferentes causas deciden abandonar la escuela, esto puede llegar a ocurrir independientemente del grado de estudio en el que se encuentre el estudiante.  Un estudio realizado por el Instituto Nacional de Estadística y Geografía señala que la tasa de deserción escolar en nivel superior en México, más específicamente en el estado de Nayarit en el año 2021 fue del 7.5%, esta es una cifra preocupante para las instituciones de educación superior, las cuales son las encargadas de formar a los jóvenes profesionalmente para que puedan desempeñarse en el mundo laboral. Una de las causas de mayor peso en el abandono escolar es la reprobación de materias y más si nos referimos a una carrera del área de ingenierías, donde es aún más frecuente esta situación debido a las complicaciones que tienen los estudiantes al momento de comprender, asimilar, interpretar y explicar las matemáticas en situaciones específicas. Esta investigación pretende abordar el cómo, mediante la implementación de las Tecnologías de la Información y la Comunicación (TIC) se puede mejorar la situación crítica referente a la deserción que se vive en el programa académico de Ingeniería Química que imparte la Universidad Autónoma de Nayarit.



METODOLOGÍA

Esta investigación tiene un carácter cualitativo en donde según Sampieri et al, 2014 en este enfoque metodológico se recolectan datos no estandarizados y se concentra en saber cuáles son las opiniones de los participantes de acuerdo a sus vivencias y otros aspectos subjetivos. Se realizó una búsqueda en artículos de revistas por medio de bases académicas como Scielo, Redalyc, Dialnet y Google Académico, además se usaron las plataformas del Instituto Nacional de Estadística y Geografía así como de la Secretaría de Educación Pública.  Igualmente se realizó una solicitud de datos del departamento de trayectoria académica de la Unidad Académica de Ciencias Básicas e Ingenierías acerca del número total de alumnos que ingresaron a la carrera de ingeniería química por ciclo escolar, entre los años 2019 a 2022; así como también los índices de reprobación de las unidades de aprendizajes de cada periodo ordinario (semestre) desde el periodo de enero-junio de 2019 hasta el periodo de enero-junio de 2023. Así mismo se realizaron encuestas por medio de formularios elaborados en Google Forms a los estudiantes del programa académico de ingeniería química de la Universidad Autónoma de Nayarit donde los temas que toca la encuesta abordan las interrogantes acerca de la deserción, las causas más comunes por las cuales los alumnos deciden abandonar la carrera, así como si han reprobado unidades de aprendizaje y los factores por los cuales lo hicieron. También se aborda el tema del uso de las tecnologías de la información y comunicación en el estudio durante el tiempo de pandemia por covid-19 y si aún hoy en día siguen utilizando alguna de estas para apoyarse en su aprendizaje. Se trabajó con la información de los artículos para comprender el problema que es la deserción escolar, los motivos por los cuales los jóvenes en edad escolar deciden dejar la carrera. La información obtenida fue comparada con los resultados de las encuestas elaboradas y se puede notar que existe una fuerte relación entre las dificultades que presentan los alumnos al momento de cursar una materia con las causas del abandono escolar, siendo esta razón una de las más comunes para la deserción. Se hizo especial énfasis en que, implementando las TIC en la educación se puede mejorar los métodos de enseñanza para que los alumnos aprendan de una manera más efectiva y también de una manera autónoma, debido a las cualidades que poseen y las ventajas que brindan al momento de enseñar.  Esto debido a que las TIC se han convertido en una valiosa herramienta utilizada por la gran mayoría de los docentes de las distintas universidades del mundo, ya sea como una herramienta que les ayude a dar la clase, como lo pueden ser los cañones para proyección o la pantalla de televisión, así como también en forma de una aplicación que les facilite a sus alumnos reforzar o aprender nuevos conocimientos.


CONCLUSIONES

A lo largo de esta estancia de verano de investigación, en conjunto con mi asesora pude adentrarme un poco en el tema de las tecnologías digitales para la innovación en la educación en México, que juega un factor importante en la formación de los futuros ingenieros de nuestro país, mencionando que a través del uso de las TIC en la educación mejoran los procesos de enseñanza en los institutos de educación superior. Esta implementación seguirá transformando en un futuro la manera en que los jóvenes universitarios adquieren los conocimientos necesarios para su formación como profesionales.  Es importante mencionar que después de realizada esta investigación se logra observar que la implementación de las TIC abona de manera significativa a evitar el abandono escolar ya que genera un cambio en la manera en la que aprenden los alumnos, brindándoles mucho material para que estudien y puedan tener un aprendizaje más significativo disminuyendo así los casos de reprobación de materias y por consecuente que los estudiantes continúen con su carrera.
Inda Figueroa Paulina Janeth, Universidad Autónoma de Sinaloa
Asesor: M.C. Angel González Navarrete, Universidad Autónoma de Occidente

ROBóTICA EDUCATIVA


ROBóTICA EDUCATIVA

Inda Figueroa Paulina Janeth, Universidad Autónoma de Sinaloa. Asesor: M.C. Angel González Navarrete, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El uso de las herramientas tecnológicas en la actualidad en la educación se ha vuelto fundamental para el desarrollo cognitivo de los estudiantes, la importancia del uso de las TIC hace que el apego a la tecnología llame la atención de los estudiantes, es por eso, que destacar la robótica en un nivel básico, como lo seria en secundaria, hace que el estudiante forme un vínculo, más allá de la tecnología, si no, de su creatividad. Es por eso que en nuestro proyecto de robótica educativa se destaca conoce, usa y desarrolla donde el alumno ira escalando su conocimiento en conceptos básicos relacionados a la robótica.



METODOLOGÍA

En este proyecto se desarrolla un plan de trabajo de un taller de robótica aplicada en el nivel secundaria básica. A cada uno de los compañeros del proyecto se le asigna el tema principal en el cual desarrollaran contenido para este club, el cual se divide de la siguiente forma: Primer grado: Conoce Segundo grado: Usa Tercer grado: Desarrolla Estas ramas principales tienen subdivisiones que se desarrollarán a partir de cada una, es decir, dentro de cada tema principal, ya viene asignado los subtemas a desarrollar, indicados por el investigador a cargo, de la cual se representa de la siguiente forma: Conoce: Conocimientos básicos de electricidad Conocimientos fundamentales de la electrónica Circuitos básicos de electrónica Instrumentos y herramientas Construcción de circuitos Usa: Teoría y practica de los robots de I-Robo Teoría y practica de los robots de Robo robo Desarrolla: Introducción a Arduino Construcción de circuitos básicos con Arduino Prototipos desarrollados con Arduino Para el desarrollo de este plan de trabajo se utilizarán plataformas, softwares, páginas web, libros, documentos, artículos de investigación para el desarrollo de proyecto. La primera fase es la investigación y recopilación de datos para la creación de contenido del cual entra la segunda fase donde se utilizarán softwares y programas como powerpoint, canva, kahoot, tinkercad, entre otros mas para el desarrollo de clases en donde se busca que sea dinámica y balanceada con la teoría y práctica. Como última fase, al término de los contenidos este se subirá un sitio web donde se encontrará cada uno de los contenidos. 


CONCLUSIONES

En conclusión, el uso de los conocimientos de la robótica en alumnos de secundaria da un gran paso a lo que se busca en la agenda 2030, que es que haya educación de calidad, donde se trata de promover el interés de que el alumno sea el patrón activo dentro de este proyecto y ponga en desarrollo su capacidad y creatividad acorde a lo que se desarrolla en cada una de las ramas de conoce, usa y desarrolla.
Iribe Chaidez Deira Lizeth, Universidad Autónoma de Sinaloa
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

USO DE PASTAS DE RESIDUOS MOLIDOS DE POLIESTIRENO EXPANDIDO CONGLOMERADOS CON YESO Y REFORZADAS CON FIBRAS DE AGAVE TEQUILERO, PARA LA FABRICACIÓN DE PLACAS ALIGERADAS PARA LA INDUSTRIA DE LA CONSTRUCCIÓN”


USO DE PASTAS DE RESIDUOS MOLIDOS DE POLIESTIRENO EXPANDIDO CONGLOMERADOS CON YESO Y REFORZADAS CON FIBRAS DE AGAVE TEQUILERO, PARA LA FABRICACIÓN DE PLACAS ALIGERADAS PARA LA INDUSTRIA DE LA CONSTRUCCIÓN”

Iribe Chaidez Deira Lizeth, Universidad Autónoma de Sinaloa. León Félix Jesus Eduardo, Universidad Autónoma de Sinaloa. Ramirez Rodriguez Ramon Antonio, Universidad de Guadalajara. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

De los resultados obtenidos en ensayos de resistencia mecánica de la tercera etapa de investigación, se observa una tendencia a la dispersión azarosa de las fibras de agave en los cuerpos de las mezclas, esa forma de distribución es indeseable debido a que la resistencia mecánica de la placa se condiciona por la mayor o menor presencia de fibras en diversas zonas de las muestras.



METODOLOGÍA

Primordialmente se trabajó con el método de investigación científica que se resume en los siguientes pasos; observación, reconocimiento del problema, hipótesis, predicciones, experimentación, análisis de los resultados y comunicación de los hallazgos.


CONCLUSIONES

La finalidad de este verano científico fue elaborar placas nuevas, probando nuevas tengas de elaboración mediante, el ajusto de las las fórmulas previamente ya investigadas en otros veranos de investigación, así como el ajuste del monde utilizado para la elaboración de dichas placas, se logró elaborar un total de 10 placas las cuales fueron: Cuatro placas con la formula 123  Cuatro placas con PVA en malla de fibra de penca de agave  Dos placas sin PVA en malla de fibra de penca de agave . Por otra parte también se realizaron placas testigos las cuales tendrían como finalidad de poder realizar comparativas útiles para poder realizar conclusiones, dichas conclusiones ayudarán a poder tomar en cuenta aspectos tanto económicos, como de tiempos de elaboración, las placas elaboradas testigos fueron :  Dos de solo yeso Dos de yeso + fibra  Dos de yeso + EPS Lo anterior redactado, da un informa claro de respecto a la elaboración de placas. Por otra parte, como un resultado añadido, realizamos tambien 2 de los múltiples ensayos que por norma deben realizarse.  Los ensayos realizados en este verano fueron: El ensayo de reacción al fuego  Densidad laminar.  Sin embargo, acerca de los ensayos y sus respectivas comparativas no podemos decir mucho al respecto, ya que quedaron pendiente el resto de ensayos para una continuación próxima.
Isidro Barragan Luis Angel, Instituto Tecnológico de Iguala
Asesor: Ing. Servando Baltazar López, Tecnológico de Estudios Superiores de Valle de Bravo

DISEñO EXPERIMENTAL DEL EFECTO DE LAS VARIABLES DE TEMPLE EN EL ENDURECIMIENTO SUPERFICIAL DE PIEZAS DE ACERO


DISEñO EXPERIMENTAL DEL EFECTO DE LAS VARIABLES DE TEMPLE EN EL ENDURECIMIENTO SUPERFICIAL DE PIEZAS DE ACERO

Isidro Barragan Luis Angel, Instituto Tecnológico de Iguala. Romano Cano Dulce María, Benemérita Universidad Autónoma de Puebla. Asesor: Ing. Servando Baltazar López, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Entre las propiedades que se buscan para la elaboración de productos de acero se encuentra la dureza y por ende una alta resistencia al desgaste, esto debido a las especificaciones requeridas con base en la función destinada de dichos productos. La dureza es la oposición que ofrecen los materiales a alteraciones como la penetración, la abrasión, el rayado, la cortadura, las deformaciones permanentes; entre otras. También puede definirse como la cantidad de energía que absorbe un material ante un esfuerzo antes de romperse o deformarse. (Barker, 2013). Por esta razón el presente estudio busca determinar las variables o variable que generen mayor impacto en el aumento de la dureza de la pieza de acero durante el proceso de templado. A+=(ABC+AbC+ABc+Abc+aBc+abC+abc+aBc)/8 A-=(ABC+AbC+ABc+Abc+aBc+abC+abc+aBc)/8 Efecto de A=A+-A- De manera análoga se realizan los cálculos para los factores A, B y C, así: Efecto de A= A+-A- Efecto de B=B+-B- Efecto de C=C+-C- Ho: Efecto de A=Efecto de B=Efecto de C



METODOLOGÍA

Determinación de variables de entrada y salida y conocimiento de equipo Inicialmente se determinaron las variables de entrada (INPUT) y salida (OUTPUT) del proceso de templado del acero puesto que son de toral importancia para estructurar el Diseño Experimental de dicho proceso, dado que se busca obtener un mejor control de este y por ende asegurar una ejecución de manera eficiente del proceso. Debido a la manipulación del tipo de equipo y maquinaria utilizada en este proyecto es importante el buen uso de estas herramientas para evitar lesiones que puedan dañar la integridad del operador, así como la reducción del desgaste del equipo. Por ende, se recibió atención y asesoramiento antes y durante el uso del mismo. Una vez se establecieron las variables de entrada y de salida del proceso a investigar se determinan los valores de ajuste para el diseño experimental utilizando un diseño factorial seleccionado es el 2k. Los factores a evaluar fueron los siguientes:  la temperatura con un nivel alto y bajo de 1000°C y 800 °C respectivamente, el tiempo de calentado con un nivel alto de 4 h y un nivel bajo de 2 h y finalmente el medio de temple utilizando como nivel alto una solución de agua con Cloruro de Sodio (NaCl) al 10 % y como nivel bajo el aceite. Como resultado del diseño experimental se estableció un numero de corridas igual a 8 con un numero de replicas igual a 3. Preparación de piezas para diseño experimental. Una vez establecido el diseño experimental del proceso de templado se prepararon las piezas ocupadas para cada corrida teniendo como materia prima una barra de acero de 97 cm de largo, 8 cm de ancho y 1.5 cm de grosor, en donde el proceso de obtención de dichas piezas fue el siguiente: Lijado de la barra para remover su acabado de pintura con un esmeril de disco abrasivo para corte fino y acabado. Corte de la barra en 24 piezas de 3 x 4 cm con una dispersión de 3 mm, destinadas para cada corrida. Pulido con un mini taladro de cada una de las piezas con la finalidad de reducir riesgos de roturas y grietas y/o lesiones. Etiquetado de piezas con la siguiente información: peso de la pieza y numero de pieza.   Medición de la dureza inicial de las piezas con un durómetro utilizando la escala de Rocwell B y Rockwell C. Desarrollo de corridas de acuerdo con el diseño experimental por lote Utilizando el equipo de protección necesario se dejó calentar la Mufla eléctrica aproximadamente una hora alcanzando la temperatura establecida para el primer lote de piezas, después se introducen las piezas dentro de la Mufla, se preparó el medio de temple:  agua con cloruro de sodio al 10 % y aceite, después de 2 horas se saca las primeras 2 piezas de la  Mufla y se introduce en el recipiente con aceite o salmera durante aproximadamente 10 segundos, se colocan en una caja con arena para su enfriamiento. Después se dejan pasar otras 2 horas, se sacan las piezas restantes y se templan. Una vez que se enfría la pieza se colocó una etiqueta con los siguientes datos: Día en que se realizó el templado de la pieza, el número de pieza, el tiempo y la temperatura de calentado y el medio de temple. Medición y análisis estadístico Posterior al proceso de templado utilizando una fresadora se desbastó una de las caras de cada pieza para eliminar residuos de carbono que dificulten la medición de la dureza de la pieza. Y finalmente, con ayuda de un durómetro se mide y registra la dureza de cada pieza para el posterior análisis del diseño experimental. Para determinar cuáles o cual factor afecta en mayor medida el aumento de la dureza en las piezas durante su proceso de templado se realizó un análisis estadístico de acuerdo a la hipótesis abordada en el apartado del planteamiento del problema.


CONCLUSIONES

Los resultados de esta investigación muestran que la hipótesis no se cumplió ya que una de las variables muestra un mayor impacto en la dureza de las piezas sometidas en el proceso de templado. Dicho factor da como resultado que la solución de agua con cloruro de sodio (NaCl) al 10 % es mejor que el aceite como medio de temple y que además el templado de la pieza usando este medio de temple con una temperatura a 1000 °C durante 2 horas muestra una mejora en la obtención de dureza. Se recomienda hacer un análisis más profundo para evaluar el efecto de la temperatura y el tiempo en este proceso a fin de conocer si estos son significativos para endurecer la pieza, de igual forma en estudios posteriores se puede agregar como variable la profundidad de dureza superficial SHD. Finalmente, de acuerdo con este estudio se concluye que el procedimiento más optimo para el proceso de templado de acero bajo estas condiciones es calentando el metal a una temperatura de 1000 °C durante dos horas y enfriándolo en un medio de temple de salmuera (agua con sal).
Islas Islas Orozco Javier, Instituto Tecnológico de Pachuca
Asesor: Mg. Carlos Alirio Díaz González, Universidad Autónoma de Bucaramanga

ANáLISIS DE DATOS DE POTENCIAL ENERGéTICO DE BIOMASA RESIDUAL PARA ELECTRIFICACIóN EN ZONAS NO INTERCONECTADAS DE COLOMBIA


ANáLISIS DE DATOS DE POTENCIAL ENERGéTICO DE BIOMASA RESIDUAL PARA ELECTRIFICACIóN EN ZONAS NO INTERCONECTADAS DE COLOMBIA

Islas Islas Orozco Javier, Instituto Tecnológico de Pachuca. Asesor: Mg. Carlos Alirio Díaz González, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

En Colombia, se enfrenta un grave problema relacionado con el suministro de energía en las zonas no interconectadas (off-grid), donde se utilizan plantas diésel con altas emisiones contaminantes de efecto invernadero, baja eficiencia y funcionamiento limitado debido a la baja disponibilidad y alto costo del combustible. Sin embargo, muchas de estas localidades cuentan con potenciales de energías renovables no convencionales, como la energía solar y la biomasa residual agrícola proveniente de los cultivos de subsistencia. Estos recursos renovables podrían utilizarse para mejorar el suministro eléctrico en estas áreas. Para determinar de manera efectiva y eficiente en qué localidades se puede implementar esta solución, es necesario analizar primero los datos del servicio de electrificación para identificar aquellas con un peor servicio. Además, se deben establecer metodologías precisas para relacionar los indicadores de servicio con los potenciales energéticos renovables. De esta manera, se podrá determinar qué localidades no interconectadas serían más viables para una electrificación sostenible y eficiente a través de fuentes renovables.



METODOLOGÍA

2.1. OBTENCIÓN DE REPORTES COMERCIALES Y TÉCNICOS OPERATIVOS DE LAS ZONAS NO INTERCONECTADAS EN COLOMBIA. La información del Sistema Único de Información de Servicios Públicos Domiciliarios (SUI superservicios) refleja los valores presentados y autorizados por los prestadores de servicio público domiciliario de energía eléctrica conforme a la normatividad vigente. Para la obtención los reportes, se empleó la metodología descrita a continuación: Ingresar al Sistema Único de Información de Servicios Públicos Domiciliarios (SUI superservicios), disponible en: http://sui.superservicios.gov.co/. Ir al apartado Indicadores y Reportes de Información de Servicios Públicos Domiciliarios. Seleccionar Energía / Reportes comerciales / Ver reportes. Ingresar a: Consolidado de información comercial ZNI / Nuevo reporte. En Año, seleccionar 2023. En Periodo, seleccionar Trimestre-1. En Empresa, seleccionar Todas.   En el apartado superior derecho de la tabla, dar click en …. Seleccionar Exportar datos / Datos con diseño actual / Exportar. Repetir los pasos 1 a 3. Ingresar a Consolidado de información técnica operativa ZNI / Nuevo reporte. Repetir los pasos 5 a 9. 2.2. OBTENCIÓN DEL REPORTE DE EVALUACIONES AGROPECUARIAS - EVA ANUARIO ESTADÍSTICO DEL SECTOR AGROPECUARIO. El reporte de las Evaluaciones Agropecuarias Municipales (EVA) enmarca la recolección, el análisis y la validación de la información de la oferta productiva agropecuaria municipal en el país mediante consensos regionales y demás operaciones necesarias. Para la obtención del reporte anteriormente mencionado, se empleó la metodología descrita a continuación: Ingresar a Agronet: Red de información y comunicación del sector agropecuario colombiano, disponible en: https://agronet.gov.co/Paginas/inicio.aspx. Ir al apartado Estadísticas agropecuarias. Seleccionar Agrícola. Ingresar al apartado Evaluaciones Agropecuarias - EVA y Anuario Estadístico del Sector Agropecuario. Descargar Base Agrícola EVA de 2019 a 2022. 2.3. PREPARACIÓN DE DATOS. Limpiar y preparar los datos para el análisis. Esto implica eliminar datos faltantes, corregir errores, normalizar formatos y asegurarse que los datos sean coherentes y confiables para su análisis.   2.4. DESCRIPCIÓN DEL MÉTODO. El proceso inicia con la recolección de la información descrita en los apartados 2.1 y 2.2. Con los datos obtenidos en el apartado 2.1 se realiza una recopilación de estos, agrupando ambos informes, cabe mencionar que para los datos faltantes se eliminaron aquellos que no se presentaban en algún reporte (técnico o comercial) de acuerdo con el código de localidad, considerando las particularidades y desafíos que presentan las zonas no interconectadas de Colombia, como la falta de acceso a los servicios básicos, infraestructura limitada, barreras geográficas, entre otros. Mientras que para los datos obtenidos en el apartado 2.2, se consideraron los municipios obtenidos del tratamiento de datos descrito anteriormente, tomando en consideración las principales fuentes de biomasa residual (arroz, banano, cacao, caña, maíz y plátano) realizando un análisis espacial para identificar las tendencias y patrones temporales en la biomasa residual disponible en los municipios de acuerdo con el número de usuarios de estos, implicando el uso de técnicas como el análisis de vecindad y la interpolación espacial de datos.


CONCLUSIONES

De acuerdo con el avance realizado se ha logrado identificar las fuentes de energía utilizadas, avances en electrificación, indicadores económicos así como disponibilidad y cantidad de biomasa residual en las zonas no interconectadas de Colombia, lo cual puede ser un recurso significativo para generar energía limpia y sostenible en estas áreas, esto podría contribuir a la reducción de emisiones de gases de efecto invernadero y mejorar la sostenibilidad ambiental al aprovechar materiales que de otro modo podrían desecharse.  
Islas Vigueras Cassandra, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Dr. Carlos Jose Regalao Noriega, Universidad Simón Bolivar

PROCESOS INTEGRALES APLICADOS A LA GESTIÓN DE INNOVACIÓN TECNOLÓGICA DE LAS ORGANIZACIONES


PROCESOS INTEGRALES APLICADOS A LA GESTIÓN DE INNOVACIÓN TECNOLÓGICA DE LAS ORGANIZACIONES

Islas Vigueras Cassandra, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Dr. Carlos Jose Regalao Noriega, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

El proyecto está enmarcado en la línea de investigación de la Industria, innovación y automatización de procesos en las PYMEs. Se abordarán temas de interés organizacional, como lo es la eficiencia e impacto de automatizar procesos mediante la tecnología RPA. Se considera, que dicha investigación tiene gran impacto en las áreas de conocimiento de la carrera MAA en el área Industria con el enfoque de innovación y mejoramiento de la misma. El hecho de que las Pequeñas y Medianas Empresas (PYME) constituyen alrededor del 99,7 por ciento de la empresas a nivel mundial es una muestra de importancia por contribuir al desarrollo económico e industrial de la mayoría de los países. Por lo tanto, es necesario asentar un mecanismo de política que ayude a su crecimiento. Para seguir con el nivel de competitividad, crecer más rápido y funcionar con eficacia y eficiencia, las PYME necesitan utilizar el conocimiento y la tecnología eficientemente  El objetivo de este proyecto es aumentar los niveles de eficiencia organizacional de las Pymes en base a la innovación tecnológica RPA aplicada, para la implementación automática de tareas, procesos y disminución de tiempos. Realizar un estudio general y plan de acción en las PYMEs y el punto de mejora con ayuda de la Tecnología RPA para lograr una eficiencia en las organizaciones. Así como realizar un proyecto de investigación que sea para eficientar dichos cambios en las distintas organizaciones con la ayuda de dicha tecnología para tener mejores resultados, así como la viabilidad de aplicación.



METODOLOGÍA

La metodología del proyecto se basa en tres etapas de desarrollo, la etapa inicial se establece en el autodiagnóstico organizacional el cual permite identificar, analizar y prever las condiciones actuales en las que se encuentran las Pymes por medio de la utilización de un instrumento de medición de condiciones verticales y horizontales en la adaptabilidad RPA en las Pymes; la segunda etapa consta del estudio de teóricos y desarrollo del instrumento de medición para la validación de los niveles que le compete al análisis subjetivo de innovación tecnológica que permitan el cumplimiento de los objetivos del presente proyecto; como por último se establecen los estándares de eficiencia organizacional necesarios para la aplicabilidad de innovación tecnológica eficiente en las Pymes, como un medio de información de las organizaciones e instrumento para la toma de decisiones. Está realizado para tener mejoras y opciones en la industria, en sus procesos, en su línea de producción, al igual que en su servicio al cliente de la misma. Se sabe que la industria es un cambiante constante, por lo que se pide estar siempre actualizado y con la disposición de cambios constantes. Se generalliza la clasificación de las PYMES segun estudios recientes que para ser incluidas en este término cuentan con un promedio de número de trabajadores de 1 a 250. Cuando se habla de Robotic Process Automation (RPA) se refiere al tipo de software que tiene como finalidad automatizar un proceso, optimizar el tiempo de ejecución, reducir los errores, que se engloba en un costo - beneficio que sea rentable para la organización. Y para considerar una automatización en sus procesos está compuesta de: Un robot, Una interfaz gráfica, Un hardware virtual o físico  En este mundo de avances tecnológicos existen diferentes soluciones, y por lo tanto opciones, para desarrollar robots y software. La elección de la solución vendrá dada por la naturaleza de cada PYME analizada, los sistemas y procedimientos nativos en los hay interacción definen el ecosistema dónde se ejecuta. Es indispensable atender las evaluaciones que los organismos de referencia realizan sobre el mercado. Como objeto de referencia tenemos a : Automation Anywhere, Uipath, Blue Prism. 


CONCLUSIONES

Teniendo los datos de evaluación y desarollo mediante la herramienta de Sistemas de integración vertical y horizontal el marco de la industria, que es nuestra base para realizar una Evaluación y desarrollo de la PYME elegida en este caso fue la empresa operadora logística del departamento del Atlántico Colombia denominada Tellevamos S.A.S. Se hará un estudio detallado de cada área que se nombra, para tener un conocimiento de sus fortalezas y debilidades en función del análisis de eficiencia organizacional, ya que se evaluará ambas partes lo que ayudará a tener comparación y qué diferencias se llegan a tener en cada evaluación. Se empieza con las áreas en integración vertical, que se tiene al humano, la organización, el equipo, los procesos, el producto que consisten en el plan de negocios que lleva la organización. En las áreas de integración horizontal se analizan el abastecimiento, la planeación y administración y el servicio al cliente que forma parte desde sus elementos de equipamiento, su interconexión entre máquinas y su producción que obtenga la empresa. En tercera evaluación se tiene a las herramientas 4.0 que son las tecnologías con las que cuenta la empresa y la implementación que conlleva tenerla aplicada. Con ayuda de las marcas líderes actualmente del RPA que se expusieron serán nuestra base para analizar cuál es la más viable para empezar a plantearle a la PYME. Todo esto haciendo hincapié en las deficiencias y en los puntos de apoyo que se notaron a lo largo de la evaluación. Después de la sugerencia de la nueva tecnología más viable según el entorno de trabajo con necesidades de automatización para reducir tiempo y mayor productividad, lo cual se prevé afectar de buena manera también en el reducir costos de producción para la PYME elegida, se realizará un nuevo estudio para ver la mejoría que tuvo el implantar y ser parte de este nuevo movimiento de automatización. Siendo el objetivo principal, la evaluación para tener una mejoría en la PYME elegida, y ser un aporte a estas organizaciones que tienen importancia mundialmente  y buscan la adaptación en el mundo de la automatización que se vea reflejado en su mercado y distribución. 
Iturbide Mendoza Guadalupe, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa

RECONOCIMIENTO AUTOMáTICO DE EMOCIONES EN PERSONAS CON AUTISMO


RECONOCIMIENTO AUTOMáTICO DE EMOCIONES EN PERSONAS CON AUTISMO

Iturbide Mendoza Guadalupe, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Suarez Dorelys Esthefany, Universidad Libre. Valencia Valdez Maricela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El autismo es un desorden del neurodesarrollo que afecta las habilidades sociales y comunicativas. Gracias a la contribución de la tecnología en el área de la salud, hoy en día se cuenta con herramientas apropiadas para el diagnóstico, intervención y tratamiento de esta condición. El reconocimiento de emociones se ha convertido en un campo de estudio creciente y relevante, especialmente para tratar trastornos del espectro autista (TEA). Hoy por hoy, los datos capturados a través de sensores y demás dispositivos pueden ser procesados y analizados a través de software especializados, y a partir de la implementación de técnicas de machine learning se puede determinar cuál es el algoritmo más apropiado para reconocer una emoción, cuáles son los sensores más adecuados o cuál es la manera más conveniente para capturar los datos requeridos en personas con condición de autismo. Finalidad: reconocer emociones de manera automática y poder minimizar la brecha comunicativa que afecta a individuos con autismo y la comunidad que los rodea. El objetivo general del proyecto consiste en desarrollar un sistema que permita reconocer automáticamente las emociones en personas con autismo mediante el uso de técnicas de inteligencia artificial.



METODOLOGÍA

Se ha trabajado bajo la estructura top breakdown structure, la cual desarrolla cada etapa de manera jerárquica desde lo más global a lo más específico. A continuación, se detallarán las tareas, fases y objetivos planteados: Tarea 1. Analizar el estado del arte en el reconocimiento automático de emociones de personas con autismo. Esta tarea se encargará de revisar e identificar cuáles son los sensores y métodos utilizados en el reconocimiento de emociones en personas con autismo. Actividades:                 • Realizar una revisión bibliográfica sobre los sensores utilizados en el reconocimiento de emociones en personas con autismo.                 • Identificar cuáles son los métodos empleados en el reconocimiento de emociones en personas con autismo.                 • Identificar cuáles son las emociones de las personas con autismo que son objeto de estudio para estos fines.                 • Identificar cuáles son los desafíos más sobresalientes del reconocimiento de emociones en personas con autismo. Tarea 2. Obtención de bases de datos. Esta tarea se encargará de revisar los datasets existentes en el reconocimiento de emociones en personas con autismo. Revisar los datasets existentes usados para entrenar algoritmos de machine learning en el reconocimiento de emociones en personas con autismo, identificando sus características, limitaciones y precisión. Actividades:                 • Buscar datasets existentes enfocados al reconocimiento de emociones de personas con autismo.                 • Analizar los datasets seleccionados.                 • Definir un estudio metodológico para la captura de datos en personas con y sin autismo.                 • Solicitar permisos éticos para la creación de datasets. Resultados esperados: Un artículo comparativo de datasets para el reconocimiento de emociones en personas con autismo.


CONCLUSIONES

Realizamos una revisión sistemática de los datasets para inteligencia artificial enfocados al reconocimiento de emociones y reconocimiento de emociones en personas autistas a través de distintos medios como imágenes y audio. Para ello, realizamos una búsqueda en bases de datos como Kaggle y Google Datasets Search.  En total recopilamos un total de 22 datasets relevantes para el proyecto. Esta revisión permitirá establecer una base sólida para el desarrollo del proyecto de investigación.   También extrajimos artículos de las bases de datos de Scopus, Web Of Science, IEEE, entre otras, en los cuales se han estudiado o utilizan los datasets recopilados previamente. En total recopilamos 162 artículos relevantes para el proyecto.  Por último, revisamos los artículos recopilados, los analizamos y extrajimos los algoritmos de inteligencia artificial que se utilizaron en cada uno de los proyectos estudiados.  El acceso a datasets y artículos relevantes será fundamental para el desarrollo y validación de los algoritmos de inteligencia artificial del proyecto.  Como resultado entregamos una matriz de revisión de datasets en la cual se encuentran los datasets estudiados, los artículos en los que han aplicado estos datasets y toda la información relevante de estos. 
Izquierdo Acevedo Jose Alberto, Instituto Tecnológico de Colima
Asesor: Ing. María Cristina Salas Moreno, Instituto Tecnológico de Colima

PROPUESTA DE UNA ESTRATEGIA DE DIFUSIóN DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICAS DE LA INDUSTRIA 4.0


PROPUESTA DE UNA ESTRATEGIA DE DIFUSIóN DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICAS DE LA INDUSTRIA 4.0

Izquierdo Acevedo Jose Alberto, Instituto Tecnológico de Colima. Asesor: Ing. María Cristina Salas Moreno, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, las instituciones públicas de nivel superior enfrentan desafíos significativos en cuanto a la difusión de su oferta educativa y servicios a través de medios digitales. La industria y educación 4.0 han traído consigo una revolución digital que ha transformado el paradigma educativo. Los estudiantes digitales buscan experiencias de aprendizaje más interactivas y personalizadas, lo que exige una adaptación efectiva por parte de las instituciones educativas.   Sin embargo, a pesar de las oportunidades que ofrece la industria 4.0 en el ámbito educativo, muchas instituciones públicas de nivel superior aún no han logrado aprovechar completamente sus ventajas en la estrategia de difusión de contenido digital. Existen varios obstáculos que dificultan esta implementación.   El primer problema es la falta de adaptación a las preferencias y demandas de los estudiantes digitales. Aunque la tecnología está disponible, muchas instituciones no han implementado adecuadamente herramientas como la inteligencia artificial, realidad aumentada o comunidades de práctica, que podrían mejorar la experiencia de los estudiantes y captar su atención de manera más efectiva.   El segundo problema está relacionado con la competencia en el mercado educativo. La digitalización ha ampliado la oferta de educación en línea y otras alternativas, lo que compite directamente con las instituciones públicas de nivel superior. Sin una estrategia de difusión adecuada y el uso de tecnologías avanzadas, estas instituciones corren el riesgo de perder su posición competitiva y, por lo tanto, su sostenibilidad financiera.   El tercer problema se centra en la optimización de recursos. Las instituciones públicas de nivel superior, en muchas ocasiones, tienen limitaciones presupuestarias, por lo que es crucial utilizar eficientemente los recursos destinados a la comunicación y difusión de la oferta educativa. El no emplear herramientas tecnológicas de la industria 4.0 de manera eficiente puede llevar a un gasto innecesario y tener menos impacto en el público objetivo.   Ante estos desafíos, es esencial plantear una investigación que aborde la siguiente pregunta: ¿Cómo pueden las instituciones públicas de nivel superior aprovechar las herramientas tecnológicas de la industria 4.0? en su estrategia de difusión de contenido digital para mejorar la comunicación con los estudiantes digitales, destacar en el mercado educativo y optimizar los recursos destinados a la promoción de su oferta educativa?  



METODOLOGÍA

La investigación propuesta tiene un enfoque cualitativo con un alcance correlacional. Su objetivo principal es identificar los canales de comunicación utilizados por los estudiantes para informarse sobre la oferta educativa y recopilar información relevante para la toma de decisiones en la creación de contenidos digitales y selección de herramientas eficaces de la industria 4.0. La metodología se basa en la aplicación de una encuesta digital al estudiantado del Instituto Tecnológico de Colima durante el periodo Enero - Junio 2023. Los datos recopilados se someterán a un análisis e interpretación detallados para obtener resultados significativos. Se consideraron como variables independientes los canales de comunicación y las características sociodemográficas del público objetivo. Conocer los canales más utilizados y las características de los estudiantes permitirá diseñar una estrategia de difusión efectiva y personalizada. Las variables dependientes incluyen las herramientas tecnológicas de la industria 4.0 y las estrategias de difusión de contenido digital. La implementación de tecnologías como el cloud computing y los chatbots, así como las estrategias de difusión adecuadas, enriquecerá las experiencias de aprendizaje y aumentará el alcance de la oferta educativa  


CONCLUSIONES

La experiencia que he vivido en el programa de investigación delfín durante el verano ha sido sumamente enriquecedora y ha permitido abordar de manera profunda el planteamiento del problema relacionado con la difusión de la oferta educativa y servicios de las instituciones públicas de nivel superior en el contexto actual de la industria y educación 4.0. A lo largo de las semanas de trabajo, se han identificado y enfrentado diversos desafíos que afectan la comunicación efectiva con los estudiantes, así como la competitividad en el mercado educativo y la optimización de recursos. En base a estos resultados y experiencias, se puede concluir que las instituciones públicas de nivel superior enfrentan desafíos significativos en la difusión de su oferta educativa y servicios a través de medios digitales. La adaptación a las preferencias y demandas de los estudiantes digitales es un reto primordial, y para ello, es esencial aprovechar las herramientas tecnológicas de la industria 4.0. La utilización de tecnologías avanzadas como la inteligencia artificial, análitica de datos y la computación en la nube, pueden mejorar significativamente la experiencia de los estudiantes y captar su atención de manera efectiva. Además, estas herramientas permiten destacar en el mercado educativo altamente competitivo, ofreciendo una propuesta educativa más atractiva y relevante. Asimismo, la vinculación teórica del proyecto con la teoría de la acción comunicativa de Jürgen Habermas brinda un marco sólido para comprender los procesos de comunicación implicados y enfocar la estrategia de difusión de contenido digital de manera efectiva. En resumen, la experiencia del programa de investigación ha permitido abordar con profundidad la problemática planteada y proponer soluciones concretas para mejorar la comunicación con los estudiantes, destacar en el mercado educativo y optimizar los recursos destinados a la promoción de la oferta educativa. Estos hallazgos sientan un precedente valioso para la mejora continua y el desarrollo de estrategias innovadoras en el ámbito educativo de la industria y educación 4.0.
Izquierdo Cervantes Karla Yunuen, Instituto Tecnológico de Tlalnepantla
Asesor: Lic. Kevin García Márquez, Instituto Tecnológico Superior de Huauchinango

PRáCTICAS CON REALIDAD VIRTUAL RV PARA MóDULO CM-5001


PRáCTICAS CON REALIDAD VIRTUAL RV PARA MóDULO CM-5001

Izquierdo Cervantes Karla Yunuen, Instituto Tecnológico de Tlalnepantla. Asesor: Lic. Kevin García Márquez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Se propone la creación de un laboratorio de realidad virtual para el módulo de máquinas eléctricas de Teleternik, con el objetivo de mejorar la experiencia de aprendizaje, brindar acceso a recursos virtuales, promover la seguridad, fomentar el aprendizaje en equipo y permitir el acceso remoto a los estudiantes. La principal necesidad de un Laboratorio de RV para el módulo de máquinas eléctricas Teleternik exista, es brindar a los estudiantes una experiencia de aprendizaje más inmersiva e interactiva. La realidad virtual puede permitir a los estudiantes visualizar e interactuar con máquinas eléctricas de una manera que no es posible con los métodos tradicionales de aprendizaje. Esto puede ayudar a los estudiantes a comprender mejor los conceptos relacionados con las máquinas eléctricas y a desarrollar las habilidades necesarias para diseñarlas y solucionar problemas. Además de brindar una experiencia de aprendizaje más inmersiva e interactiva, la realidad virtual también puede ayudar a mejorar la seguridad de los estudiantes. Al permitir que interactúen con máquinas eléctricas en un entorno virtual, la realidad virtual puede ayudar a reducir el riesgo de lesiones y protección a los equipos.



METODOLOGÍA

La metodología del proyecto que se propone implementar es realidad virtual como herramienta didáctica en el aprendizaje de conceptos eléctricos: Identificación de los requisitos del sistema. Se realizará una investigación sobre el módulo de máquinas eléctricas de Teleternik que se presente en la institución. El objetivo es entender completamente sus funcionalidades y operaciones. Se procederá a realizar entrevistas y discusiones con los profesores y estudiantes que lo utilizan habitualmente para determinar las funcionalidades y experimentos que se deberían poder replicar en la realidad virtual. Diseño del sistema de realidad virtual. Con base en la información recopilada, se diseñará un sistema de realidad virtual que refleje de manera fiel las características del módulo Teleternik. Se crearán los modelos 3D detallados de cada componente y se diseñará la interfaz de usuario para que sea intuitiva y amigable. También se planificará la lógica de programación necesaria para simular las operaciones y experimentos realizados con el módulo. Pruebas y validación. Se realizarán pruebas exhaustivas para asegurar que el sistema cumple con los requisitos y funciona correctamente. Profesores y estudiantes serán invitados a probar el sistema y a proporcionar retroalimentación que se utilizará para hacer los ajustes necesarios. Implementación y formación. Una vez validado, el sistema de realidad virtual se implementará en el Instituto Tecnológico Superior de Huauchinango. Se organizarán sesiones de formación para los profesores y estudiantes sobre cómo utilizarlo eficazmente y se prepararán materiales de formación y documentación para usuarios de otras universidades. Mantenimiento y actualización. Después de la implementación, se realizará un mantenimiento regular y se actualizará el sistema para añadir nuevas funcionalidades, corregir posibles errores y asegurar la compatibilidad con los nuevos dispositivos de realidad virtual. Se establecerá un sistema para recoger y gestionar las sugerencias de mejoras y correcciones de los usuarios.


CONCLUSIONES

El proyecto de crear un laboratorio de realidad virtual para el módulo de máquinas eléctricas de Teleternik representa una valiosa incorporación al campo de la educación en ingeniería eléctrica. La realidad virtual ofrece una experiencia de aprendizaje inmersiva e interactiva que facilita la comprensión de conceptos complejos y fomenta el desarrollo de habilidades prácticas. La implementación de esta iniciativa en el Instituto Tecnológico Superior de Huauchinango y su disponibilidad para otros usuarios potenciales abre la puerta a una educación más accesible, segura y enriquecedora en el área de máquinas eléctricas.
Jacob Prandini Paola Teresita, Universidad de Sonora
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Jacobo Chicuate Roberto Carlos, Universidad Autónoma de Baja California
Asesor: Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla

CáLCULO DE LAS PROPIEDADES MECáNICAS DE LA FASE (63) DEL SIC


CáLCULO DE LAS PROPIEDADES MECáNICAS DE LA FASE (63) DEL SIC

Jacobo Chicuate Roberto Carlos, Universidad Autónoma de Baja California. Asesor: Dr. Jose Humberto Camacho Garcia, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El carburo de silicio es un compuesto producido a partir de una mezcla de cuarzo y carbón, la cual se calienta a altas temperaturas en hornos eléctricos para producir una reacción y obtener el SiC. Es un material granulado de apariencia cristalina obscura y se maneja en distintas concentraciones de SiC.  Por otro lado, Quantum Espresso es un conjunto integrado de códigos informáticos de código abierto para cálculos de estructuras electrónicas y modelado de materiales a nanoescala. Se basa en la teoría funcional de la densidad, ondas planas y pseudopotenciales. Se tiene como objetivo principal el cálculo de las propiedades mecánicas, electrónicas y estructurales del compuesto SiC (grupo funcional #63) utilizando como base de cálculo el sotfware PW Quantum Espresso.  



METODOLOGÍA

El estudio se ha realizado en diferentes etapas, comenzando desde la revisión bibliográfica del compuesto a estudiar (SiC),del ilustrador Vesta y el Software PW, hasta la corrida de las entradas correspondientes en Quantum Espresso, para la obtención de los resultados pertinentes. Se desarrolla a continuación el paso a paso del desarrollo del proyecto: Revisión bibliográfica del Compuesto SiC: Información general, propiedades físicas, mecánicas, electrónicas y estructurales. Revisión bibliográfica del ilustrador Vesta: Se ha revisado un tutorial básico de las funciones de este ilustrador, para la obtención de las coordenadas del compuesto con su correspondiente grupo espacial. Revisión bibliográfica del programa Quantum Espresso: Revisión de tutoriales sobre comandos básicos del programa, exploración general de sus funciones.  Optimización de la geometría en PW, del grupo espacial #63 obtenido de Vesta: De acuerdo a las coordenadas obtenidas en Vesta se han incluido en la entrada que será corrida en Quantum.  Cálculo de constantes elásticas: Una vez que se ha optimizado el programa con la convergencia obtenida en la energía de corte y los puntos K, se procede a realizar el script para el cálculo de las constantes elásticas. Cálculo de módulos mecánicos: Mismo procedimiento al anterior, se realiza un script en Quantum para obtener el módulo de compresibilidad y de Young. Cálculo de estabilidad mecánica. Cálculo de dureza. Construcción de hojas. Consulta bibliográfica para superficies con la misma simetría. Pasivación. Optimización de la geometría. Por último, se han obtenido los resultados pertinentes con respecto a las propiedades deseadas para el material de estudio.


CONCLUSIONES

Se han extraído los resultados de interés del programa Quantum Espresso con éxito, pudiendo obtener las propiedades mecánicas, electrónicas y estructurales del grupo espacial #63 del SiC, teniendo una energía total de 600 eV, parámetros de red con valores de: a=5.67167, b=8.61217, c=2.58300 y 16 atomos, una estructura de tipo ortorrómbica. Esto con la finalidad de presentar dichos resultados de manera explícita en el Congreso Internacional.
Jaimes Cespedes Jesus Azgad, Instituto Tecnológico Superior de Huauchinango
Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO


GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO

Jaimes Cespedes Jesus Azgad, Instituto Tecnológico Superior de Huauchinango. Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

La confiabilidad y mantenimiento de los motores eléctricos utilizados en el procesamiento y transporte de productos agrícolas es un problema crítico para la postcosecha de alimentos. Un estudio realizado por el Consejo Nacional de Fabricantes de Maquinaria Agrícola encontró que el costo promedio de un tiempo de inactividad inesperado es de $20,000 dólares estadounidenses por hora. Esto significa que incluso un pequeño tiempo de inactividad puede tener un impacto significativo en los resultados de una operación agrícola. Esto significa que la probabilidad de fallas prematuras sería muy costosa y aumentaría si no se tiene un control de mantenimiento adecuado a los equipos motores. El mantenimiento reactivo que emplean actualmente las empresas postcosecha se basa en la reparación posterior a la falla. Una de las principales causas de este problema es la falta de un enfoque preventivo y predictivo del mantenimiento de motores eléctricos. Las empresas necesitan soluciones innovadoras que reduzcan los costos de mantenimiento, mejoren la eficiencia operativa y eviten fallas no planificadas..



METODOLOGÍA

El presente proyecto de investigación tiene planificado un sistema de predicción de fallas en motores eléctricos, utilizados durante la recolección y transporte de alimentos postcosecha en el Atlántico. Constará de los siguientes pasos: Planificación mediante el Modelo CIM: El objetivo de CIM es reducir costos y aumentar las ganancias en todos los aspectos del proceso de manufactura. CIM involucra tres conceptos clave: manufactura, integración y computadoras. Manufactura es el proceso de fabricar productos, desde el diseño hasta la entrega. Integración significa unir todos los departamentos involucrados en el proceso de manufactura, para que la información esté disponible para todos en tiempo real. Computadoras se utilizan para automatizar el proceso de manufactura y para integrar todos los departamentos. Selección y configuración de sensores: Para la propuesta de proyecto se plantean 2 sensores que estarán en constante monitoreo y en tiempo real, los cuales son: Sensor de vibración (acelerómetro de tres ejes): Un acelerómetro triaxial es un sensor que mide la aceleración en tres ejes: X, Y y Z. La aceleración es una medida de la fuerza que se ejerce sobre un objeto. Los acelerómetros triaxiales se utilizan a menudo para medir la vibración de los motores. La vibración es una de las primeras señales de alerta de una falla en el motor. Temperatura (sensor de temperatura PT100): Un sensor de temperatura PT100 es un sensor que mide la temperatura utilizando un resistor de platino. Los sensores de temperatura PT100 se utilizan a menudo para medir la temperatura de los motores. El aumento de la temperatura es otra señal de alerta de una falla en el motor. Estos sensores estarán debidamente calibrados y configurados para garantizar mediciones óptimas y serán capaces de medir de manera precisa y confiable los parámetros relevantes para detectar posibles fallas en el motor. Control y recolección de datos: El control principal constará de una Raspberry Pi 4 Modelo B, la cual actúa como el control central del sistema, permitiendo la comunicación y el control de los componentes, a su vez constará de un módulo GSM con Antena para proporcionar una conectividad GSM, también será incluida una antena de conectividad wifi protocolo IPV4 para transmitir comandos y recibir datos relacionados con el motor. Los datos de vibración y temperatura se recopilarán de los motores seleccionados durante un período de tiempo considerable y se estima 1 test por cada 5 minutos. Dichos motores no son específicos debido a que el proceso de trabajo es variable para cada subestación que se requiera. Estos datos serán ordenados y almacenados en una base de datos que servirá como referencia para su análisis y comparación con errores históricos. Se plantea desarrollar algoritmos de procesamiento de señales y aprendizaje automático, usando técnicas de aprendizaje automático, como clasificación y regresión, se entrenará un modelo de IA para identificar patrones asociados con posibles errores y hacer predicciones basadas en históricos almacenados en la base de datos. Los algoritmos de procesamiento de señales y aprendizaje automático se integrarán en el sistema de recopilación de datos y la base de datos del historial de errores, también se planifica que dicho historial sea arrojado en automático en hojas de cálculo para que su interpretación y revisión sea más fácil de entender. Esto permitirá el análisis en tiempo real y la detección de posibles fallas del motor a medida que ocurren. Implementación de alertas remotas y locales: El sistema estará configurado para enviar alertas remotas vía mensaje de texto (SMS) al operador cuando se detecte una posible falla en uno de los motores. Asimismo, se desarrollará una interfaz de visualización (HMI) para brindar información clara y accesible sobre el estado del motor, datos de vibración y temperatura, y alertas generadas. Etapa de pruebas y análisis de factibilidad: Se realizarán pruebas rigurosas utilizando datos reales y escenarios simulados para validar la precisión y eficacia del sistema de predicción de errores. Los pronósticos se compararán con los registros históricos para evaluar su capacidad de proporcionar una alerta temprana de posibles problemas. Se evaluará la efectividad del sistema de predicción de fallas para optimizar el equipo postcosecha y reducir el tiempo de inactividad. Se realizará un análisis de costo-beneficio para determinar el impacto económico y la viabilidad de la implementación a gran escala.


CONCLUSIONES

El presente proyecto tiene el potencial para ser llevado a cabo a la etapa de construcción y realización de pruebas reales para corroborar la predicción de fallas en los motores eléctricos, mejorar la confiabilidad y la eficiencia de los motores utilizados en la recolección y el transporte de alimentos postcosecha en el Atlántico. Este sistema puede ayudar a reducir el tiempo de inactividad, mejorar la calidad de los alimentos y aumentar los ingresos.
Jaimes Hernández Erik Rubén, Instituto Tecnológico de Toluca
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

AJUSTE DE UN MODELO DE áRBOL DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LAS PRUEBAS SABER T&T


AJUSTE DE UN MODELO DE áRBOL DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LAS PRUEBAS SABER T&T

Carriazo Julio Geraldin Paola, Universidad Tecnológica De Bolívar. Correa Rios Angely Juliana, Universidad Autónoma Latinoamericana. Jaimes Hernández Erik Rubén, Instituto Tecnológico de Toluca. Suárez Sánchez Alex Antonio, Instituto Tecnológico de Toluca. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El proyecto tiene como objetivo ajustar un modelo de árbol de decisión para predecir el rendimiento de los estudiantes en las pruebas Saber T&T en Colombia. Estas pruebas son fundamentales para medir el nivel de conocimientos y habilidades de los alumnos, y el resultado puede tener un impacto significativo en su trayectoria educativa y futuras oportunidades. La predicción precisa del rendimiento estudiantil permitirá identificar áreas de mejora, optimizar recursos educativos y apoyar la toma de decisiones en políticas educativas.



METODOLOGÍA

La metodología CRISP-DM (Cross-Industry Standard Process for Data Mining) es un enfoque estructurado y ampliamente utilizado para la realización de proyectos de minería de datos. Fue desarrollada con el objetivo de guiar a los profesionales a través de las diferentes etapas del proceso de minería de datos de manera sistemática y eficiente. A continuación, se explica brevemente cada una de las fases de CRISP-DM, con apoyo de la definición de Espinosa-Zuñiga (2020) FASE I – Comprensión del problema o del negocio • Identificación del problema: Consiste en entender y delimitar la problemática, así como identificar los requisitos, supuestos, restricciones y beneficios del proyecto. • Determinación de objetivos: Puntualiza las metas a lograr al proponer una solución basada en un modelo de minería de datos. • Evaluación de la situación actual: Especifica el estado actual antes de implementar la solución de minería de datos propuesta, a fin de tener un punto de comparación que permita medir el grado de éxito del proyecto. FASE II – Comprensión de los datos En esta fase, se realiza una exploración exhaustiva de los datos disponibles para el proyecto. Se busca familiarizarse con las fuentes de datos, evaluar su calidad y determinar qué variables pueden ser relevantes para los objetivos del proyecto. De manera más específica: • Recolección de datos: Consiste en obtener los datos a utilizar en el proyecto identificando las fuentes, las técnicas empleadas en su recolección, los problemas encontrados en su obtención y la forma como se resolvieron los mismos. • Descripción de datos: Identifica el tipo, formato, volumetría y significado de cada dato. • Exploración de datos: Radica en aplicar pruebas estadísticas básicas que permitan conocer las propiedades de los datos a fin de entenderlos lo mejor posible. FASE III – Preparación de los datos En esta etapa, se lleva a cabo la limpieza, transformación y selección de los datos relevantes para construir el conjunto de datos adecuado para el análisis. Se trata de un proceso fundamental para garantizar que los datos sean aptos para su uso en la fase de modelado. De forma puntual, así: • Limpieza de datos: Aplicación de diferentes técnicas, por ejemplo, normalización de datos, discretización de campos numéricos, tratamiento de valores ausentes, tratamiento de duplicados e imputación de datos. • Creación de indicadores: Genera indicadores que potencien la capacidad predictiva de los datos a partir de los datos existentes y ayuden a detectar comportamientos interesantes para modelar. • Transformación de datos: Cambia el formato o estructura de ciertos datos sin modificar su significado, a fin de aplicarles alguna técnica particular en la etapa de modelado. FASE IV – Modelado En esta fase, se aplican diferentes técnicas de minería de datos, como árboles de decisión, regresión, clasificación, entre otras, para crear modelos predictivos o descriptivos que resuelvan el problema planteado. Se evalúan y ajustan los modelos para obtener el mejor rendimiento posible, de la siguiente manera: • Selección de técnica de modelado: Elige la técnica apropiada de acuerdo con el problema a resolver, los datos disponibles, las herramientas de minería de datos disponibles, así como el dominio de la técnica elegida. • Selección de datos de prueba: En algunos tipos de modelos se requiere dividir la muestra en datos de entrenamiento y de validación. • Obtención del modelo: Genera el mejor modelo mediante un proceso iterativo de modificación de parámetros de este. FASE V – Evaluación del modelo En esta etapa, se evalúan los modelos creados en la fase anterior para determinar su precisión y efectividad. Se utilizan métricas de evaluación para medir el rendimiento de los modelos y asegurarse de que cumplen con los objetivos del proyecto, se comparan los resultados con resultados previos, o bien, analizando los resultados con apoyo de expertos en el dominio del problema. De acuerdo con los resultados de esta etapa se determina seguir con la última fase de la metodología, regresar a alguna de las etapas anteriores o incluso partir de cero con un nuevo proyecto. FASE VI – Implementación del modelo Esta etapa explota, mediante acciones concretas, el conocimiento adquirido mediante el modelo, los resultados y conclusiones obtenidos a partir de los modelos se presentan a los interesados y se integran en el flujo de trabajo operativo, para que puedan utilizarse en la toma de decisiones y obtener beneficios prácticos. CRISP-DM proporciona una guía clara y estructurada para llevar a cabo proyectos de minería de datos, permitiendo a los profesionales abordar complejos problemas de análisis de datos de manera efectiva y eficiente.


CONCLUSIONES

El proceso de modelado implicó ajustar el algoritmo de árbol de decisión y explorar otras técnicas de aprendizaje automático, evaluando su rendimiento y precisión en diferentes conjuntos de datos. Como resultado, se seleccionó el mejor modelo que demostró ser eficiente y preciso en la predicción del rendimiento estudiantil en las pruebas Saber T&T. En conclusión, este proyecto ha demostrado la utilidad y relevancia de los modelos de árbol de decisión en la predicción del rendimiento académico. Al contar con un modelo preciso y confiable, se pueden identificar tempranamente a aquellos estudiantes que necesiten apoyo adicional, lo que permitirá implementar estrategias educativas personalizadas y efectivas para mejorar el rendimiento estudiantil en Colombia. Los resultados obtenidos tienen el potencial de mejorar la calidad de la educación y contribuir al desarrollo académico y socioeconómico del país, brindando igualdad de oportunidades para todos los estudiantes y fomentando una educación inclusiva y equitativa.
Jara Hernández Christian Alberto, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Hayde Peregrina Barreto, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ANALYSIS OF STATISTICAL TEXTURE DESCRIPTORS IN PLANTAR REGION THERMOGRAMS OF DIABETIC SUBJECTS


ANALYSIS OF STATISTICAL TEXTURE DESCRIPTORS IN PLANTAR REGION THERMOGRAMS OF DIABETIC SUBJECTS

Jara Hernández Christian Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Hayde Peregrina Barreto, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Diabetic foot ulcers (DFU) are among the most common complications of patients who have DM, early diagnosis is thus critical, yet DFU symptoms cannot be accurately identified in the initial stages. The advancement in infrared camera technology has revolutionized the field of measuring temperature whereby it is now being widely used for medical purposes. In computer vision, feature extraction has been widely used in grayscale images, however, since feature extraction in thermograms is uncommon, this research stay paper focuses on examine first order and second order statistical texture descriptors from plantar region temperature arrays of thermograms in diabetic and non-diabetic patients to explore a portion of the vast range of descriptors that exist and can provide important information, such as foot health through texture variations.



METODOLOGÍA

​ Population study To conduct this study a database was needed, divided into two mainly groups; a DM group formed by subjects diagnosed with DM type 2, and a control group formed by non-diabetic subjects. This database contains the temperature files for each pixel from the plantar region, extracted from previously segmented thermograms. First-order statistical descriptors extraction To extract the statistical features the use of MATLAB is needed. These statistics return a value, for each patient 2 values for each feature are extracted, the meaning of this values takes sense until the whole group is analyzed and visually represented with a plot. For mean, standard deviation, variance, kurtosis, and skewness MATLAB has built-in functions to compute them. Second-order statistical descriptors extraction  These descriptors relate neighboring pixels, a normalization is required to use some bult-in function; graycomatrix(I) . In first place, Gray Level Co-Ocurrence Matrix must be computed and stored in a variable so the function graycoprops can be used and the different features can be extracted. Despite GLCM reduces texture data contained in an image, this matrix provides raw texture data and cannot be used to describe texture.


CONCLUSIONES

The analysis of first-order statistical descriptors reveals valuable insights into the dataset. The mean temperatures within the array exhibit notable variations between both groups. For the control group, the temperatures demonstrate a prevailing cold trend, as in the DM group a higher temperature is shown The standard deviation reveals intriguing observations, where a higher dispersion value is observed in the control group. At first glance, this might seem counterintuitive. However, it is crucial to bear in mind that the temperature distribution should exhibit consistency and a butterfly-like pattern. Upon closer examination of individual pairs of data points, each representing a study subject, it becomes apparent that the dispersion between both feet of an individual should be similar. In contrast, for the diabetic group, a generally lower level of dispersion is observed, but upon analyzing each subject separately, it becomes evident that there is more significant dispersion within each foot. The entropy descriptor reveals that control group is higher than in the diabetic group. However, it is noteworthy that the control group maintains a consistent trend, hovering around 5.2, in contrast to the diabetic group, which displays greater randomness in its entropy values. This trend in the control group could be attributed to the characteristic butterfly pattern associated with a healthy foot. Moving on to the analysis of second-order statistical texture descriptors.  The homogeneity of both groups is depicted. For the diabetic group, homogeneity appears to be higher, while in the control group, the values exhibit more variability and tend to be lower, ranging from 0.576 to 0.675. It is important to note that temperature homogeneity in the foot is not necessarily a sign of good health. On the other hand, the characteristic butterfly pattern is associated with healthy feet. Even though, with homogeneous temperature, it is not a sign of goof health. This indicates that temperature homogeneity alone may not be a reliable indicator of foot health, and other factors such as the presence of the butterfly pattern should be considered in the assessment. The correlation graph reveals that the control group has higher values compared to the DM group. This observation can be interpreted as the smoothness of transitions in the image concerning neighboring pixels. The characteristic butterfly pattern in a healthy foot is radial, emanating from the arch of the foot. As a result, a healthy foot will exhibit radial homogeneity, leading to higher correlation values in the texture analysis. In contrast, for the diabetic group, the presence of abrupt transitions and irregularities in the foot's temperature distribution can result in lower correlation values. These lower correlation values are indicative of less uniform and more complex texture patterns, which are consistent with the foot conditions associated with diabetes. Conclusion Through this study, the potential of certain first and second-order statistical descriptors was demonstrated. Specifically, variance, mean, and entropy proved to be of great assistance for analysis and interpretation in the case of first-order descriptors. On the other hand, all second-order statistical texture descriptors applied to the co-occurrence matrix yielded significant results and facilitated a priori image description before comparison with the thermogram. This research, along with the extraction of statistical texture descriptors, it is possible to determine plantar health in patients.
Jaramillo Benitez Sahian Jaqueline, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. José Villa Ramirez, Universidad Tecnológica De Bolívar

CONTROL AUTOMáTICO BASADO EN LA INTELIGENCIA ARTIFICIAL


CONTROL AUTOMáTICO BASADO EN LA INTELIGENCIA ARTIFICIAL

Caballero García María Fernanda, Tecnológico de Estudios Superiores de Valle de Bravo. Jaramillo Benitez Sahian Jaqueline, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. José Villa Ramirez, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

 En el entorno empresarial competitivo actual, el análisis de datos se ha convertido en un componente esencial para tomar decisiones informadas. Las empresas recolectan grandes volúmenes de datos de diversas fuentes que necesitan ser analizados y comprendidos para extraer información valiosa. Sin embargo, analizar y presentar estos datos de manera coherente y útil es un desafío significativo. Una empresa que vende electrodomésticos cuenta con múltiples fuentes de datos, lo cual se requiere visualizar mejor dicha información con ayuda del software, ya que la empresa carece de una visión consolidada de estos datos, lo que dificulta el análisis y la generación de informes precisos. Las dificultades clave incluyen: ● La consolidación de datos de múltiples fuentes y formatos. ● La necesidad de análisis en tiempo real para tomar decisiones basadas en datos. ● La falta de informes personalizables y paneles interactivos para diferentes departamentos. Por lo tanto, el problema se centra en cómo la empresa puede utilizar Power BI para consolidar estos datos dispares en un solo lugar y producir análisis útiles y paneles de control personalizados para informar la toma de decisiones.



METODOLOGÍA

Se trabajó con un software llamado Power BI, una herramienta de análisis de datos de Microsoft, para superar estos desafíos. Se utiliza para convertir las materias primas de datos en información significativa mediante el uso de paneles interactivos y visualizaciones. En la cual se cargaron 14 bases de datos, se ejecutó proceso ETL, modelados de datos, cálculos y medidas donde se estructuraron columnas calculadas y medidas correctamente estructuradas, donde se llevó a cabo la composición visual del reporte con la creación de 2 páginas como reporte, así como una composición visual en donde de una empresa y de las cuales se pudo obtener: Monto total de ventas, cantidad de unidades vendidas, devoluciones, ganancia total, así como el comportamiento mensual de las ventas, en un periódo de 3 años (2007, 2008, 2009) y el comportamiento de ventas en tiendas físicas y tiendas en línea. Esto con el fin de establecer un posterior análisis de datos y mejorar la toma de decisiones en la organización.


CONCLUSIONES

El uso de Power BI en este proyecto permitió modelar, manipular y analizar con eficiencia los datos empresariales. Con la ayuda de técnicas de extracción, transformación y carga (ETL), se logró condensar y estructurar 14 bases de datos, proporcionando una representación gráfica y fácil de interpretar del rendimiento comercial de la empresa a lo largo de un período de tres años. Este tipo de información es fundamental para la toma de decisiones estratégicas en la empresa, pues permite identificar tendencias, oportunidades y áreas de mejora. Este enfoque permitirá consolidar y analizar sus datos utilizando Power BI, proporcionando así una base sólida para la toma de decisiones basada en datos. 
Javier Montalvo David, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Alejandra Molina Osorio, Universidad Autónoma de Manizales

ANáLISIS DE ORGANIZACIóN INDUSTRIAL EN INDUSTRIA AUTOMOTRIZ EN MéXICO


ANáLISIS DE ORGANIZACIóN INDUSTRIAL EN INDUSTRIA AUTOMOTRIZ EN MéXICO

Javier Montalvo David, Benemérita Universidad Autónoma de Puebla. Velazquez Estrada Jorge Alberto, Instituto Tecnológico de Tepic. Asesor: Dra. Alejandra Molina Osorio, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Este presente proyecto teniendo como enfoque la industria automotriz en México tiene como objetivo analizar el poder de mercado y el desempeño en política de competencia en éste sector. Es de suma importancia conocer y analizar el comportamiento de los sectores industriales en México, qué factores influyen en la producción año con año y de qué manera se podría elevar el interés como recomendación a la producción en masa para la venta en territorio nacional, así como la exportación.  Dado que las empresas no solo se comportan de acuerdo a las leyes de oferta y demanda, sino que obedecen también a factores más allá de esta dicotomía como regulaciones, fusiones o adquisiciones y procesos de integración, es necesario explorar el nivel en el que el mercado automotriz mexicano se encuentra estructurado y no solo en la medida en la que los factores mencionados afectan sus productos. Debido a que México en particular posee una gran diversidad de empresas automotrices que producen tanto para el consumo nacional así como internacional, es muy cierto que existe en el mercado mexicano un conjunto de empresas que dominan la producción y venta de automóviles, por ello es necesario indagar en las variables que determinan las compañías que se encuentran en control del mercado mexicano y su nivel de competitividad.



METODOLOGÍA

Esta investigación es exploratoria, descriptiva y cuantitativa. La investigación en organización industrial en latino-américa es escasa y se busca explorar y analizar los sectores con mayores indicadores de concentración de mercado en oligopolios. Se plantea trabajar con datos tipo industriales y de panel desbalanceado acerca de la producción automotriz utilizando distintas fuentes para la creación de una base de datos econométricos.


CONCLUSIONES

Desde el 2005 hasta el presente año, General Motors, Nissan y Volkswagen se han posicionado como las empresas dominantes, puesto que abarcan dos terceras partes del sector automotriz, logrando consigo un gran poder de mercado.   Con el paso de los años, el poder que llegaron a tener dichas empresas fue reducido con la llegada de nuevas compañías automotrices, creando un mercado más competitivo y menos concentrado.   Los patrones de comportamiento a nivel producción han cambiado, la llegada de nuevas empresas y la diversificación de los modelos automotrices han propiciado un mercado automovilístico más desconcentrado.
Jiménez Barrera Jesús, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California

EMOTION4DOWN: UN VIDEOJUEGO SERIO PARA APOYAR LA CONCIENCIA EMOCIONAL DE NIñOS CON SíNDROME DE DOWN


EMOTION4DOWN: UN VIDEOJUEGO SERIO PARA APOYAR LA CONCIENCIA EMOCIONAL DE NIñOS CON SíNDROME DE DOWN

Jiménez Barrera Jesús, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El síndrome de Down es un trastorno genético el cual es considerado como una de las principales causas de la discapacidad intelectual, la cual se caracteriza porque un individuo presenta un mayor nivel de dificultad para generar un aprendizaje conforme a los niveles esperados, en consecuencia, genera una mayor dificultad para generar un comportamiento adaptativo. La conciencia emocional, al ser la capacidad de percibir las emociones, es decir, contar con el autoconocimiento de lo que una persona siente, permite conocer y controlar las emociones. Esto permite a los individuos responder adecuadamente al entorno y tomar decisiones, que conduzcan a una vida satisfactoria. Sin embargo, para la población con síndrome de Down, este aprendizaje posee un mayor nivel de complejidad y en consecuencia se generan problemas relacionados con comprender cómo el empleo de las emociones puede afectar a un individuo, generando dificultades con el autocontrol y regulación emocional.   Debido a la importancia de la conciencia emocional, es necesario promover en la población con síndrome de Down, un aprendizaje tal cual permita a los individuos expresarse de una forma adecuada, y que a su vez garantice la adquisición de conocimientos básicos sobre el cómo ejercer sus emociones. Uno de los mayores inconvenientes en este aspecto es la implementación limitada de técnicas que sean capaces de captar la atención del individuo, sumado a la falta de interactividad de los materiales implementados para el desarrollo de ejercicios relacionados con este aprendizaje. Por tal motivo, el uso de la tecnología interactiva puede garantizar captar la atención de los individuos. Entre el uso de estas tecnologías se ha propuesto el desarrollo del videojuego Emotion4Down, el cual integra actividades para captar la atención de la población en la cual se busca el fortalecimiento de este aprendizaje.



METODOLOGÍA

Para abordar el desarrollo de la conciencia emocional en personas con síndrome de Down, se llevaron a cabo dos actividades principales. La primera consistió en la migración y actualización de la aplicación Emotion4Down, mientras que la segunda se centró en el desarrollo de un algoritmo de Inteligencia Artificial (IA) para identificar emociones y agregar esta función a la aplicación. En relación con la migración y actualización de la aplicación, se utilizó la metodología Design Thinking, que consta de cinco etapas: Empatizar: Se analizó y entendió las necesidades de la población con síndrome de Down a través de un estudio contextual en cuatro centros de apoyo. Definir: Se analizaron las técnicas existentes y se extrajo información relevante de entrevistas y recolección de datos para idear soluciones. Idear: Se formularon distintas soluciones basadas en juegos para captar la atención y desarrollar habilidades emocionales. Prototipar: Se llevaron a cabo actividades para migrar y actualizar la aplicación Emotion4Down, incluyendo el desarrollo de un módulo de imitación de emociones basado en captura de fotos. Evaluar: La evaluación con usuarios reales con síndrome de Down queda como trabajo futuro para determinar la eficacia del videojuego en el desarrollo del aprendizaje emocional en un entorno real. En relación con el desarrollo del algoritmo de IA para identificar emociones, se propone una metodología propia basada en aprendizaje automático (machine learning), que consta de cinco etapas: Obtención de la información: Construcción de un corpus de datos y preprocesamiento para obtener la información precisa para el entrenamiento. Procesamiento de los datos: Extracción y limpieza de datos para prepararlos adecuadamente para el entrenamiento. Entrenamiento del modelo: Utilización de algoritmos de aprendizaje automático (LBPH, EigenFaces y FisherFaces) para identificar características faciales y emociones expresadas por una persona. Pruebas del modelo: Evaluación del algoritmo y ajustes si es necesario. Mejoras del modelo: Iteración para mejorar el algoritmo y su integración en la aplicación Emotion4Down.


CONCLUSIONES

Durante la estancia de verano se llevó a cabo el desarrollo de la migración e implementación de un módulo de imitación en el videojuego Emotion4Down. Al ser un juego el cual se encuentra enfocado al apoyo de la conciencia emocional en personas con síndrome de Down, la aplicación requiere encontrarse actualizada, permitiendo implementar mejoras que garanticen ampliar su vida útil. Los resultados que se obtuvieron fueron la solución de los bugs causados por el formato www, el cual era obsoleto para establecer la comunicación entre las interfaces y la base de datos, así como también que las actividades principales fueran optimizadas mediante la implementación de métodos por medio de los cuales conforme se cargue un nuevo escenario añada este cambio destruyendo el anterior evitando dejar funciones en un segundo plano. Aunado a esto, con la finalidad de obtener una aplicación dinámica y aprovechando las nuevas tecnologías, el módulo de imitación fue planteado con la incorporación de un algoritmo de IA para el reconocimiento de emociones. Por lo tanto, uno de los avances obtenidos fue el desarrollo de algoritmos por medio de los cuales se permite el desarrollo de las actividades de entrenamiento y validación de emociones, obteniendo como resultado el identificar las expresiones faciales para describir qué emoción se expresa. Al desarrollar estas actividades, los resultados obtenidos fueron que el nivel de precisión del algoritmo LBPH fue de un 70% a 80%, esto se debió al entrenamiento de la IA mediante 4000 imágenes, las cuales fueron capturadas de 5 usuarios y estás contemplaban las emociones de felicidad, tristeza, enojo y sorpresa, lo que permitió poseer distintos escenarios, los cuales facilitarán el mejorar la precisión del algoritmo. Con base en lo anterior, se finaliza la estancia de investigación con avances para la integración de nuevas características, las cuales facilitan las oportunidades de mejora de la aplicación.
Jimenez Bautista Yessica, Instituto Tecnológico de Pachuca
Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco

TRANSFORMACIÓN DEL SISTEMA INTEGRADO DE TRANSPORTE MASIVO DE PACHUCA, HIDALGO A ENERGÍAS RENOVABLES


TRANSFORMACIÓN DEL SISTEMA INTEGRADO DE TRANSPORTE MASIVO DE PACHUCA, HIDALGO A ENERGÍAS RENOVABLES

Jimenez Bautista Yessica, Instituto Tecnológico de Pachuca. Téllez Gómez José Luis, Instituto Tecnológico de Pachuca. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

En las últimas décadas, se ha propiciado un acelerado crecimiento de contaminación ambiental por la fabricación, consumo y desecho de energías no renovables, por la gran cantidad de beneficios y facilidades que ha dado al desarrollo de la humanidad. (Hidalgo Aguilera, L. 2010). Una de las problemáticas que enfrenta este proyecto es la falta de implementación de tecnologías limpias en el estado, que tienen como objetivo principal reducir las emisiones antes de ser producidas por origen o por la implementación de menor cantidad de recursos ambientales. El presente trabajo tiene por objeto El impulsar a proyectos de desarrollo sustentable, sostenible y funcional, emerge de la necesidad de concientizar y fomentar el interés hacia la preservación del medio ambiente, así como en las instalaciones de la Red Integrada de Transporte del Corredor 1 de la Zona Metropolitana  de Pachuca (RICT1ZMP), del Sistema Integrado de Transporte Masivo de Hidalgo (SITMAH); Mismo que en promedio opera 16 horas al día, los 365 días del año; en consecuencia el costo de energía eléctrica altamente elevado, difícil para la gestión del recurso y mantenimiento en la infraestructura.



METODOLOGÍA

Constituye acciones a mediano plazo, de carácter temporal, en aproximadamente 5 meses que van desde la elaboración de un expediente técnico, hasta la comprobación de gastos con cierre de presupuesto asignado, con un impacto altamente perceptible, considerando que el recurso destinado se pueda ejercer durante el ejercicio fiscal 2023. *Elaboración de expediente técnico. *Cotizaciones de suministros con proveedores. *Proceso de validación del expediente técnico. *Convenio de colaboración con la Secretaria de Infraestructura Pública y Desarrollo Urbano Sostenible (SIPDUS). *Licitación del proyecto. *Implementación y supervisión de la instalación de paneles solares. *Comprobación de gastos (Cliente de presupuesto asignado). ANALISIS FODA FORTALEZAS 1. La fuente de alimentación almacena gran cantidad de energía durante largos periodos de tiempo. 2. Favorecen un mayor ahorro económico y energético. 3. Absorben cualquier tipo de luz luminosa, aunque el día está muy nublado. 4. No requieren de ningún tipo de mantenimiento especial. 5. La energía que emplean es renovable, por lo que cuidan el medio ambiente y contribuyen al rendimiento energético. AMENAZAS 1. Incertidumbre con respecto a su eficiencia. 2. Adaptadores eléctricos. 3. Cambio climático. 4. Al encontrarse en lugares públicos está expuesta a desastres naturales, robos o vandalismo. OPORTUNIDADES 1. Mayor demanda de energías renovables. 2. Mayor interés y conocimiento sobre la energía solar y sus aplicaciones.  3. Nuevas tecnologías y materiales más resistentes.  4. Generar interés con la población usuaria de energías renovables. DEBILIDADES 1. El panel solar que utiliza debe de ser muy grande porque su capacidad de aprovechar la energía solar es muy reducida.  2. La inversión inicial es costosa. 3. La energía está limitada a la capacidad del panel solar. 4. La eficiencia en los tiempos de carga puede variar dependiendo de las condiciones climatológicas.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos teóricos y prácticos a cerca del uso de energías renovables y se llegó a la conclusión que la propuesta para la implementación es viable, sin embargo, al ser un extenso trabajo y tener poco apoyo económico gubernamental, aún se encuentra en la fase de aprobación y no se pueden mostrar los resultados finales a cerca del ahorro que podría llegar a tener en el (RICT1ZMP). Se espera que los paneles solares fotovoltaicos continúen aumentando su eficiencia y vida útil al tiempo que reducen su costo para poder implementarlo a lo largo del país.
Jiménez Blanco Samith Stiven, Servicio Nacional de Aprendizaje SENA - Regional Atlántico
Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa

EFICIENCIA ENERGéTICA Y ENERGíAS RENOVABLES EN EDIFICACIONES


EFICIENCIA ENERGéTICA Y ENERGíAS RENOVABLES EN EDIFICACIONES

Jiménez Blanco Samith Stiven, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En Colombia, el sistema interconectado nacional reporta un nivel agregado de embalses del 87%, dato importante si tenemos en cuenta que la mayor parte de energía es generada por hidroeléctricas, con un 76%. Se estima que en los próximos 2 años la demanda se encuentre en niveles diarios entre 191 a 232 GWh-día, lo que representaría un aumento de 3,1% frente a 2021. A mediano plazo, la tasa de crecimiento promedio año se estima sea entre el 2,22% y el 3,35%. En promedio, cada mes la demanda crece 0,05%. Si este crecimiento continúa es muy probable que ocurra un déficit de energía en los próximos años. Para este problema se proponen múltiples alternativas de desarrollo, como la construcción de centrales hidroeléctricas, plantas solares, entre otras. Así como también mejorar las que existen y obtener energía de fuentes renovables. Pero estás a su vez poseen inconvenientes económicos para realización de las obras, que la gran mayoría del tiempo se ven retrasadas por el gobierno, así como estudios de impacto ambiental, y acuerdos con las poblaciones. Una alternativa más racional e innovadora de solucionar el problema y no llegar a tener una insuficiencia energética en las próximas décadas, es proponer las estrategias necesarias para reducir el consumo de la energía en las edificaciones ya que estas representan poco más de un cuarto del consumo total de la energía. Según datos del Ministerio de Minas y Energía de Colombia, las edificaciones en el país representan alrededor del 30% del consumo total de energía. Esta cifra incluye tanto el consumo de energía eléctrica como el consumo de combustibles fósiles para satisfacer las necesidades energéticas de los edificios. Las necesidades energéticas en este sector abarcan desde iluminación y climatización hasta sistemas de agua caliente y electrodomésticos. Existen diversas problemáticas asociadas al consumo de energía en las edificaciones colombianas. En primer lugar, muchas construcciones carecen de un diseño adecuado que permita aprovechar la luz natural y minimizar la necesidad de iluminación artificial. Además, la falta de aislamiento térmico y la baja eficiencia de los sistemas de climatización resultan en un mayor consumo energético para calentar o enfriar los espacios. Por otro lado, ser eficientes en el uso de la energía en las edificaciones ofrece numerosas ventajas. Al adoptar medidas de eficiencia energética, se puede reducir de manera considerable el consumo y, por lo tanto, disminuir tanto los costos de energía como las emisiones de gases de efecto invernadero. Además, la implementación de sistemas y equipos eficientes puede mejorar la calidad y el confort de vida de los ocupantes de los edificios. La medida fundamental para hacer frente a este problema es implementar estrategias de eficiencia energética. Por esta razón, debemos realizar una investigación permanente sobre las nuevas tecnologías que están por ingresar al mercado y que nos podrían ayudar a mejorar nuestra eficiencia y competitividad.



METODOLOGÍA

La investigación es aplicativa a la construcción de edificaciones que desean implementar estrategias, a fin de incrementar la eficiencia energética y hacer uso de energías renovables, satisfaciendo la demanda de la edificación con menor consumo de energía. La gestión de la demanda es la planificación e implementación de medidas destinadas a influir en el modo de consumir menos energía con el fin de modificar el perfil de consumo. Con ellas se contribuye a una gestión más eficiente y sostenible del sistema eléctrico. Estas medidas ayudan en la mejora de la eficiencia de los equipos y procesos a implantar concientizando sobre el ahorro energético. La implantación de las tecnologías en la edificación, servirá de especial evaluación para el proyecto en general. En la evaluación de costos respecto a la adquisición de los equipos tecnológicos, se deberá poner especial atención y análisis a las opciones que brindan las diferentes industrias de las que se puede obtener estos equipos modernos.


CONCLUSIONES

Durante el verano de investigación se logró adquirir conocimientos teóricos y prácticos sobre la eficiencia energética y energías renovables. La finalidad de esta investigación es estudiar la descripción de las cualidades y características del objeto de estudio, siendo en éste caso las estrategias tecnológicas para incrementar la eficiencia energética en una edificación. En nuestros trabajo será importante medir los diferentes parámetros y saber con cuánto es la magnitud de ahorro de energía que se podría llegar a generar si es que se implementan estas nuevas tecnologías de ahorro en edificaciones; los diferentes parámetros así como por ejemplo la demanda que requiere el edificio en KW/hora, en horas picos de trabajo serán necesarias conocerlas y medirlas para poder implementar políticas de ahorro, además medir la eficiencia de los aparatos eléctricos dentro de la edificación para conocer cuáles son los equipos que están funcionando deficientemente a fin de reemplazarlos por otros que consuman menos energía y disminuir la demanda de energía total. La búsqueda de opciones múltiples en el aumento de la eficiencia energética en edificaciones logrará que cambien el método de obtención y el uso eficiente de la energía eléctrica sin afectar las operaciones. También a su vez reducir el CO2 que se produce, ayudando de esta manera al medio ambiente.
Jimenez Castillo Angela Viviana, Institución Universitaria Antonio José Camacho
Asesor: Mtro. Mario Alberto Villegas Romero, Universidad de Guadalajara

DISEÑO DE ADECUACIONES ERGONÓMICAS PARA LA MEJORA DE PROCESOS INDUSTRIALES


DISEÑO DE ADECUACIONES ERGONÓMICAS PARA LA MEJORA DE PROCESOS INDUSTRIALES

Jimenez Castillo Angela Viviana, Institución Universitaria Antonio José Camacho. Asesor: Mtro. Mario Alberto Villegas Romero, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Esta investigación se realizó con el objetivo de comprender y analizar los diferentes riesgos biomecánicos en el sector de la construcción, durante visitas a unos albañiles que realizan bóvedas, se recogió información audiovisual (fotos y vídeos) que muestra cómo realizan el trabajo. En este caso, para realizar el análisis de las actividades se crearon tablas bimanuales que nos ayudan a estandarizar los tiempos de cada actividad los trabajadores se enfrentan a diversas actividades físicamente exigentes y repetitivas, lo que resulta un problema ergonómico significativo de hecho la ergonomía es fundamental para asegurar que el entorno laboral sea seguro y saludable para los trabajadores. Sin embargo, en muchos sitios de construcción, las condiciones ergonómicas pueden ser inadecuadas, lo que aumenta el riesgo de lesiones musculoesqueléticas y trastornos relacionados con el trabajo que realizan. Las tareas que implican levantar objetos pesados, movimientos repetitivos, posturas incómodas y la falta de equipos ergonómicos adecuados pueden llevar a fatiga, dolor crónico y disminución del rendimiento laboral, por otra parte, resolver los problemas ergonómicos en la industria de la construcción beneficia tanto a los trabajadores como a las empresas, mejorando la salud y el bienestar de los empleados, aumentando la productividad, reduciendo costos y cumpliendo con las regulaciones es una inversión clave para lograr un ambiente laboral seguro, eficiente y exitoso en la construcción.



METODOLOGÍA

 La metodología empleada fue una metodología cualitativa, debido a que esta se basa en la recopila datos a través de técnicas, como entrevistas durante la realización de su trabajo, por medio de la observación se empleó técnicas para presenciar directamente las tareas y actividades de los trabajadores., fotografías en las que se logró analizar las diferentes posturas y movimientos que los trabajadores realizaban durante su actividad. Esto puede incluir el levantamiento de objetos pesados, movimientos repetitivos o posturas incómodas y videos en los que se analizó como trabajadores estaban expuestos a diferentes riesgos ergonómicos, en el que se buscó identificar y analizar los riesgos que puedan afectar la salud  y bienestar de los trabajadores y así mejorar significativamente el ambiente laboral y prevenir lesiones relacionadas con la ergonomía en la industria de la construcción. Al integrar la ergonomía en el diseño y planificación de los proyectos, se promueve una construcción más segura, eficiente y sostenible.


CONCLUSIONES

Teniendo en cuenta la identificación de riesgo que se logró determinar durante este proceso es de vital importancia, analizar los riesgos ergonómicos en la construcción para la salud y seguridad de los trabajadores en el sector de la construcción. Estos riesgos se derivan principalmente de las condiciones laborales y de la naturaleza físicamente exigente del trabajo, es importante seguir mitigando las condiciones de trabajo que pueden causar daño a la salud de los trabajadores. Estos riesgos están relacionados con trastornos musculoesqueléticos, lesiones en articulaciones, músculos y nervios, fatiga, y otras dolencias, además al analizar y mitigar estos riesgos, se disminuye la probabilidad de accidentes en el lugar de trabajo, lo que a su vez mejora la seguridad general del sitio de construcción. Uno de los propósitos más importantes es velar por la seguridad y salud de los trabajadores, de hecho, se planteó mejoras en la que los trabajadores no se enforzaban como la primera vez si no que realizaban movimientos ya técnicos y finalmente al abordar estos riesgos, se protege la salud y el bienestar de los trabajadores, mejorando su calidad de vida y reduciendo la incidencia de lesiones y enfermedades relacionadas con el trabajo.
Jimenez Chavarin Sebastian, Universidad de Sonora
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

OBTENCION Y CARACTERIZACION DE HIDROGELES ACRILICOS REFORZADOS CON PARTICULAS LIGNOCELULOSICAS A PARTIR DEL BAGAZO DE AGABE TEQUILERO, PARA LA REMOCION DE METALES PESADOS


OBTENCION Y CARACTERIZACION DE HIDROGELES ACRILICOS REFORZADOS CON PARTICULAS LIGNOCELULOSICAS A PARTIR DEL BAGAZO DE AGABE TEQUILERO, PARA LA REMOCION DE METALES PESADOS

Jimenez Chavarin Sebastian, Universidad de Sonora. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas de la mineria es la contamiancion de aguas residuales, asi como deshecgar quimicos en rios y lagos de forma ilegal, este constante problema se ha visto presente en las minerias de Mexico. El constante contacto con las aguas,  afectado a pueblos que dependen de dichas fuetes, causando enfermedades y muertes, la intencion de la investigacion es observar la capacidad y creacion de hidrogeles para la absorcion de agua con metales mesados como cromo y cobre .



METODOLOGÍA

Primeramente sometemos nuestra materia prime, en este caso el bagazo del agave a una reaccion kraft, esto nos permite obtener una pulpa mas versatil, estre proceso alcalino se da con el uso de sosa causatica (NaOH). Se lavo y depuro en la depuradora, obteniendo las fribras mas pequeñas, proceguimos a explimir la pulpa y verificar su porcentaje de lignina para determianr el blanqueamiento de se le dara a la pulpa. Los blanqueamientos fueron en total 5: 1.Dioxido de Cloro  2.Sosa Caustica 3.Peroxido de Hidrogeno 4.Segundo por Dioxido de Cloro 5.Extraccion en frio (NaOH) La pulpa fue ltratada con los blanqueamientos descritos antes, donde se ponia la pulpa, agua y el reactivo en una bolsa sellada a baño maria, con excepcion de la extraccion en frio que no se realizo el baño. Despues de los blanqueamientos se  determino el Alafa,Beta y Gamma celulosa por medio de la preparacion de solucion y titulacion con sulfato de amonio ferroso, la intemcion de saber estos datos es poder observar la cantidad de celulosas y hemicelulosas que aun se encuentran la pulpa despues de los blanqueamientos. Como el agave cuenta con una hemicelulosa dificil de quitar, no se pudo obtener la Gamma y Beta celulosa. A su vez se ralizo un IR para la determinacion de los posibles enlaces, usando como muestra los diferentes tipos de pulpas y los proceso que se llevaron: Materia prima, pulpa sin blanquear, pulpa blanqueada, pulpa refinada y pulpa oxidada tempo. Despues de la obtencion de las diferentes pulpas se realizaron diversos hidrogeles usando estas como materia base, dando como resultado 5 tipos de hidrogeles y 10 en total por las diferentes cantidades de materia base. Los geles se hicieron con Acido acrilico, acrilamina y N,n-metilenbisacrilamida estas sustancias se recomienda el manejo cuidadoso por posible daño a la salud. Una vez obtenidos los hidrogeles, se recortaron aproximadamente de 30-40 cubos con caras de 0.5 cm por lado, estos cubos de pusiron en cajas petri y colocaron en un horno a 60 °C con el fin de deshidartarlos y empezar el estudio de inchamiento en agua. Preceguimos a tomar los cero geles (Geles sin agua) y pesarlos al inicio asi como al transcurso del tiempo, esto permitiendonos obtener el grado de inchamiento de los geles por agua. Por ultimo se realizo el estudio de absocion de metales, colocando los cero geles en soluciones con diversas contentraciones de metales, hubo dificultades al momento de tomar le muestreo tanto en las soluciones con cromo como las soluciones con cobre.


CONCLUSIONES

Por probelmas con el equipo de UV no se pudo determinar correctamente la absorcion de los metales de forma cuantitativa, sin embargo al observar los geles se pudo ver la absorcion de la solucion y sus colores representativos en los geles mismos, por lo que de forma cualitativa queda demostrado que el metal fue absorvido por los hidrogeles.
Jiménez Cruz Luz Andrea, Universidad Autónoma de Coahuila
Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes

PREPARACIóN DE ADSORBENTES DERIVADOS DE LA BORRA DE CAFé PARA LA REMOCIóN DE METALES PESADOS DEL BIODIESEL


PREPARACIóN DE ADSORBENTES DERIVADOS DE LA BORRA DE CAFé PARA LA REMOCIóN DE METALES PESADOS DEL BIODIESEL

Jiménez Cruz Luz Andrea, Universidad Autónoma de Coahuila. Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la obtención de energía representa un desafío porque se obtiene principalmente de materia prima no renovable de origen fósil, que contribuye a la emisión de gases contaminantes responsables del efecto invernadero y el cambio climático. En este contexto, aparece la necesidad de buscar nuevas formas de obtener energía que sea más amigable con el ambiente y tenga pocos efectos negativos, por ejemplo, los biocombustibles, en los cuales se destaca el biodiesel. El biodiesel se obtiene principalmente por medio de la transesterificación de alguna fuente de glicéridos con un alcohol, generalmente en presencia de algún catalizador. Sin embargo, derivado de este proceso, el producto obtenido contiene impurezas como glicerina, alcohol, jabones, ácidos grasos y metales. De dichas impurezas, los metales pesados son unas de las que más perjudican la calidad del biodiesel, ya que aceleran el proceso de degradación del biocombustible y reducen el tiempo de almacenamiento, pues son causantes de oxidación, corrosión, inestabilidad y formación de sedimentos. Por lo tanto, la eliminación de impurezas, particularmente las trazas de metales pesados, es una parte esencial en el proceso de producción de biodiesel. Tradicionalmente, el método de purificación más usado es en base húmeda donde se utilizan grandes volúmenes de agua (0.2-10 litros de agua por cada litro de biodiesel purificado). Esto provoca un incremento en los costos y tiempo de producción, además de implicaciones ambientales por el agua residual. Otro método empleado es el lavado en seco, donde se utilizan materiales adsorbentes. Estos son de operación más simple y de alta selectividad, pero algunos son costosos y requieren pasos adicionales para su limpieza. Por ello, últimamente se ha buscado el uso de biomasas como adsorbentes o precursores de adsorbentes por los beneficios que estas prestan como su bajo costo, biodegradabilidad, abundancia y sobre todo baja generación de residuos.



METODOLOGÍA

Preparación de biodiesel Para llevar a cabo la transesterificación, se tomó como fuente grasa el aceite de cártamo comercial. Este reaccionó con metanol en presencia de hidróxido de potasio como catalizador, utilizando una relación aceite-alcohol 1:15 a una temperatura de 60 °C y con agitación constante por 5 h. Como resultado se obtuvieron biodiesel y glicerina la cual se separó por decantación. Posteriormente, se realizaron lavados con agua y ácido nítrico para remover el catalizador restante. Preparación de los adsorbentes Los adsorbentes se prepararon a partir de la borra de café que se obtuvo de una cafetería local de la ciudad de Aguascalientes. A dicha borra se le realizó un pretratamiento que consistió en secado, tamizado, lavado con agua desionizada a 80°C y extracción de los ácidos grasos con hexano, y después se secó. Posteriormente, los residuos del café se mezclaron con hidróxido de potasio en una relación másica 1:4, y se pirolizaron (proceso de carbonizado con atmósfera inerte) a 700°C por 1 h. Después, el carbonizado se impregnó con ácido nítrico a 60°C con agitación constante utilizando 10 ml de solución por cada gramo de carbonizado. Finalmente, el adsorbente se lavó con agua desionizada y se secó. Experimentos de adsorción Una vez obtenidos los adsorbentes, se realizaron experimentos por duplicado de adsorción de cobre en el biodiesel con una concentración inicial de ~200 ppm. Dichos experimentos se hicieron en sistemas por lotes con una relación de 20 g/L (adsorbente/biodiesel), a 40°C durante 24 h con agitación constante. Para determinar el cobre contenido en el biodiesel después del proceso de adsorción, se realizó una digestión ácida para desmineralizar la muestra. La cuantificación de la capacidad de adsorción de cada material se realizó por medio de espectrofotometría de absorción atómica y mediante un balance de masa.


CONCLUSIONES

El adsorbente obtenido a base de la borra de café resulta prometedor para la purificación de biodiesel pues además de que tiene alta disponibilidad, bajo costo y bajos efectos adversos en el ambiente, presenta una gran capacidad de adsorción (15 mg/g) comparada con los adsorbentes comerciales (7 mg/g). Cabe mencionar que la metodología propuesta tiene impacto en las propiedades de adsorción de los adsorbentes preparados. La búsqueda de alternativas más amigables con el ambiente, desde la producción de biocombustibles hasta la creación de adsorbentes a partir de biomasas, son de suma relevancia a la hora de combatir la demanda energética.
Jiménez Gómez Rodolfo Abiram, Universidad Autónoma de Tamaulipas
Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas

SISTEMA DE INTERPRETACIóN DE LENGUA DE SEñAS MEXICANA PARA PROFESIONALES DE LA SALUD.


SISTEMA DE INTERPRETACIóN DE LENGUA DE SEñAS MEXICANA PARA PROFESIONALES DE LA SALUD.

Castilleja Quintanilla Francisco Javier, Universidad Autónoma de Tamaulipas. Jiménez Gómez Rodolfo Abiram, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Existe una barrera significativa para las personas que se comunican a través de una lengua de señas, la Lengua de Señas Mexicana (LSM) es una forma de comunicación que a menudo no es comprendida por el personal de salud, lo que impide que las personas con discapacidad auditiva reciban una atención médica adecuada en hospitales, clínicas y otros centros de salud. Esta falta de capacitación por parte del personal médico puede llevar a diagnósticos erróneos, tratamientos inadecuados y una atención médica deficiente, lo que afecta negativamente la salud del paciente. Por tanto, se plantea la siguiente pregunta de investigación: ¿Cómo puede el uso de inteligencia artificial (IA) ayudar a superar las barreras de comunicación entre personas con discapacidad auditiva que utilizan la LSM y los médicos, y cuál es la importancia de abordar este problema en términos de inclusión y atención médica de calidad?



METODOLOGÍA

Durante la elaboración de este proyecto se desarrollaron videos e imágenes de las señas para darle al modelo de IA y así pueda dar una predicción. Dichas muestras fueron elaboradas por los participantes de este proyecto, gracias a un curso que hablaba sobre el uso de la LSM en la medicina estamos capacitados para realizar las señas requeridas para hacer las pruebas necesarias del modelo. Antes de comenzar con el desarrollo se realizó una búsqueda exhaustiva sobre modelos de IA que hubieran sido diseñados para un propósito similar, en la búsqueda se pudo encontrar una tesis hecha por Daniel Stevens Vázquez Parada que lograron crear un intérprete simple que identifica algunas palabras. El problema es que solo existía una pequeña cantidad de estudios como tal que se enfocaran en este problema y su solución, por lo cual nos enfocamos en los posibles modelos que pudieran ser útiles para este problema, esto redujo la búsqueda lo cual nos permitió enfocarnos en dichos modelos. Con esto llegamos a la conclusión de que una red neuronal convolucional (CNN) era la mejor opción para este problema, ya que es un tipo de algoritmo que se utiliza mayormente para analizar y aprender atributos visuales de grandes cantidades de datos. Esto permitirá analizar a través de una cámara las señas que las personas con discapacidad auditiva realicen al momento de una consulta médica. Ya teniendo claro el modelo y la forma en que se transmitirán las señas, se realizó una búsqueda de las herramientas adecuadas para la programación del modelo y el uso de la cámara, una vez seleccionados se investigó el uso de esas herramientas para poder aplicarlas. La primera herramienta utilizada es OpenCV el cual es una biblioteca de código abierto que fue utilizada para la lectura de imágenes y videos que se darán al modelo. La segunda herramienta utilizada es MediaPipe es una biblioteca desarrollada por Google que cuenta con varios modelos que nos permitieron el seguimiento de las manos, el rostro y el cuerpo. Para el modelo de IA se utilizó la herramienta TensorFlow el cual es una de las bibliotecas más populares que pertenece a Google, así como Keras que está integrado con TensorFlow, dichas herramientas fueron utilizadas, ya que Keras proporciona la simplicidad para desarrollar el modelo y TensorFlow proporciona la flexibilidad y rendimiento que este requiere. Se realizaron dos CNN, una con Convolutional 2D Layer (Conv2D), estas son capas que se utilizan para el procesamiento de imágenes y la otra con Convolutional 3D Layer (Conv3D), estas capas agregan una variable que es tiempo o cantidad de Frames, el cual permite el procesamiento de videos. La CNN con Conv2D se está elaborando para ser utilizada en una página web, y la CNN con Conv3D se está elaborando para ser utilizada como aplicación de escritorio. Las dos CNN ocupan imágenes y videos, por lo cual se utiliza OpenCV y MediaPipe para elaborar dichas muestras. Una vez obtenidas se preparan los Frames (Dimensión, Color, Seguimiento de MediaPipe y proporcionar su etiqueta) para ser entregados al modelo y así pueda empezar con el entrenamiento. Sin embargo, hay un paso importante entre la preparación y el entrenamiento, el modelo requiere que esos Frames preparados se le entreguen en una matriz, y para esto se utilizó otra herramienta llamada NumPy el cual es una biblioteca de Python que utilizamos para almacenar en una matriz los Frames preparados y que el modelo pueda empezar con el entrenamiento. Una vez que el modelo tenga esos datos empieza con el entrenamiento, aquí tenemos ciertos términos que son utilizados en este proceso, el primer término es la función de pérdida que se utiliza para medir la diferencia entre las predicciones del modelo y las etiquetas reales. El segundo término es el optimizador que es un algoritmo que ajusta los parámetros del modelo con el objetivo de minimizar la función de pérdida. El tercer término es el Batch Size que se refiere al número de muestras que se utiliza en cada paso del entrenamiento. Y por último tenemos las Epochs que son la cantidad de veces que el modelo recorrerá todo el conjunto de datos al entrenar. Estos términos permiten que el modelo pueda ser preciso ajustando bien los parámetros. Una limitación que existe es la poca variedad de muestras debido a que solo tenemos un origen de datos, por lo cual hemos decidido abordar esta limitante con el uso de una clase que proporciona la herramienta de Keras, esta clase permite crear algunas modificaciones (Ángulo de inclinación, Desplazamiento y Zoom aleatorio) a las muestras existente para así crear muestras nuevas con cierta variedad.


CONCLUSIONES

Con nuestro trabajo fuimos capaces de obtener ciertos resultados como la detección exacta de 5 letras (A, B, C, D, E) y dos palabras como 'Gracias' y 'Muchas' en LSM, y los resultados que buscaremos obtener a futuro es lograr que nuestro modelo sea capaz de identificar todas las letras del alfabeto en LSM y lograr interpretar palabras del LSM y convertirlo a voz, siendo así un intérprete efectivo.
Jiménez Larios Luis Mario, Instituto Tecnológico de Tepic
Asesor: Dra. Patricia Batres Mendoza, Universidad Autónoma Benito Juárez de Oaxaca

USO DE EXPRESIONES FACIALES PARA EL CONTROL DE UN ROBOT HUMANOIDE


USO DE EXPRESIONES FACIALES PARA EL CONTROL DE UN ROBOT HUMANOIDE

Jiménez Larios Luis Mario, Instituto Tecnológico de Tepic. Asesor: Dra. Patricia Batres Mendoza, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

La Neurociencia computacional es una disciplina interdisciplinaria que enlaza los diversos campos de la biofísica, la neurociencia, la ciencia cognitiva, la ingeniería eléctrica, las ciencias de la computación y las matemáticas para poder llevar a cabo proyectos como este, el cual comienza con entender las expresiones faciales las cuales tienen una función social muy importante, pues son utilizadas por todos los seres humanos en el día a día para comunicarse y expresarse. Son acciones tan comunes que quizá el ser humano no está completamente consciente del gran proceso neuronal que lleva realizar un gesto tan simple como lo es el sonreír. Cada vez que se realiza una expresión facial, internamente se produce una activación neuronal en el cerebro, específicamente en el lóbulo frontal, quien es el encargado de identificar y desarrollarlas. Ahora bien, ¿Qué pasaría si se identificaran los patrones neuronales que se generan al realizar un gesto facial, y su salida se dirigiera a la manipulación de algún dispositivo?. El objetivo de este proyecto se enfoca en procesar las bioseñales generadas por diferentes expresiones faciales e identificar los patrones generados, que posteriormente serán redirigidos para poder manipular a un robot humanoide. Esto será posible con la ayuda de un dispositivo Cerebro-Computador (BCI) llamado Emotiv-Epoc, capaz de leer las señales de electroencefalograma (EEG) y de un programa desarrollado en Python que permitirá enlazar el dispositivo BCI con el robot humanoide llamado Nao. De igual forma, se utilizó el software choregraphe el cual viene de la mano con el NAO, y que permitió programar ciertas rutinas o movimientos como caminar, sentarse, saludar, etc., de tal forma que serán ejecutados dependiendo de las señales detectadas, logrando así el propósito de la investigación.



METODOLOGÍA

El proceso que se llevó a cabo para realizar todo el proyecto se dividió en 4 partes: 1) Reconocimiento del dispositivo BCI,  2) Estudio y programación en Python, 3) Programación del robot NAO y 4) Comunicación Expresiones faciales - Robot NAO. La etapa de Reconocimiento del dispositivo BCI consistió en analizar el modelo (Emotiv Epoc X), la manera en que se encendía y conectaba mediante la conexión de un dongle USB la cual enlazaba el puerto de nuestra laptop con la diadema Emotiv. Posteriormente se llevó a cabo la etapa 2, referente al estudio y programación en Python donde se realizó desde una investigación detallada y exhaustiva sobre el control de versiones de Python y su relación y funcionamiento con las versiones de las librerías del dispositivo de Emotiv. Sin duda, un trabajo bastante extenuante, ya que en un inicio, se pensó trabajar con las versiones actualizadas tanto para Python sin embargo causaban conflicto con las librerías de adquisición de datos cerebrales del dispositivo Emotiv, por lo cual se decidió por utilizar la distribución de Anaconda la cual es una suite de código abierto y que permitió trabajar con el entorno de desarrollo llamado Spyder 2.3.8 para la programación en Python 2.7 En la parte 3 relacionada a la programación del robot Nao, fue necesario realizar la instalación del software Choregraphe versión 2.1.4. En esta ocasión se tuvo que usar una versión anterior para que pudiera funcionar con el robot Nao que previamente había sufrido unos problemas de actualizaciones por lo que no lograba moverse, pero finalmente logro funcionar. De igual manera, para descargar las versiones más actuales solo debe dirigirse a la página oficial de Aldebaran Robotics en el apartado de descargas y Robot settings. Al terminar la descarga de Choreographe, se realizó la instalación y estudio del software el cual es un tipo de programación por bloques y incluye ciertas instrucciones predeterminadas. Con este software es posible conectar al robot NAO mediante cable ethernet o bien para más comodidad por red wifi, esto a través de una dirección IP proporcionada por el robot y el puerto que viene por default. Una vez establecida la conexión con el robot Nao y el software Choreographe, fue posible realizar la programación por bloques para lograr la locomoción del robot, estableciendo diferentes rutinas a realizar como: caminar, saludar, hablar, sentarse, despedirse, etc. Finalmente, se realizó la etapa de comunicación de expresiones faciales con el robot Nao. Para esto, fue necesario realizar la detección de gestos faciales realizadas por un usuario con ayuda de la diadema Emotiv Epoc y de un programa desarrollado en Python capaz de adquirir las señales cerebrales y que permitió la detección de ciertos parámetros para lograr identificar los gestos como: fruncir el ceño, sonreír, apretar la mandíbula y sorpresa. Con estos 4 parametros de expresiones faciales, se empezó las pruebas sobre el funcionamiento de la conexión python-diadema. Ahora, al detectar los parametros previamente determinados, se canalizó las salidas dependiendo del gesto facial efectuado, para dirigirlo a la habilitación de motores del Robot Nao y lograr su locomoción según la instrucción correspondiente. Esto fue posible gracias a los parametros detectados con la diadema Emotiv, con ayuda de las librerías y detección de patrones correctos.


CONCLUSIONES

Como conclusiones se puede expresar que el proyecto fue un éxito, los resultados obtenidos fueron los esperados, ya que sí se logró detectar las señales EEG producidas por una persona al realizar gestos faciales con ayuda de la diadema Emotiv Epoc, y con esto el robot pudo realizar diferentes rutinas de locomoción para demostración. En cuanto a la adquisición de gestos faciales, se encontró que resultaba un poco complicado la detección de determinadas expresiones, pero esto debido al poco entrenamiento facial de los sujetos de prueba, salvo esa pequeña excepción la investigación fue completada.
Jimenez Leon Christian Jonathan, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

COMPARATIVA DEL COMPORTAMIENTO MECANICO ENTRE DISEÑO DE MEZCLA ASFALTICAS EN CALIENTE VS DISEÑO DE MEZCLAS ASFALTICAS TIBIAS


COMPARATIVA DEL COMPORTAMIENTO MECANICO ENTRE DISEÑO DE MEZCLA ASFALTICAS EN CALIENTE VS DISEÑO DE MEZCLAS ASFALTICAS TIBIAS

Jimenez Leon Christian Jonathan, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las mezclas asfálticas conocidas también como mezclas bituminosas, son utilizadas en la construcción de carreteras, calles, entre otros tipos de pavimentos. Estas mezclas están compuestas principalmente por agregados pétreos y un ligante asfaltico. Una de las problemáticas mas comunes con este tipo de materiales es el comportamiento mecánico que puede adquirir ya tendida la carpeta de mezcla asfáltica, o si lo decimos de otra manera, la resistencia al trafico pesado, que sabemos que una mezcla asfáltica en caliente, o una mezcla asfáltica drenante pueden mejorar esas condiciones, por lo que se investigara la comparativa entre dos mezclas para ver cual de estas puede responder de mejor forma a la resistencia deseada.



METODOLOGÍA

Existen varios tipos de diseños de mezclas asfálticas, cada una con características y propiedades especificas que las hacen adecuadas para diferentes tipos de aplicaciones. Algunos de los principales tipos de mezclas asfálticas son: 1. Mezclas asfálticas en caliente (MAC): Son las mezclas mas comunes y se fabrican a altas temperaturas, generalmente entre 140° C y 160° C. Estas mezclas otorgan una excelente resistencia a la deformación y tienen una larga vida útil- 2. Mezclas asfálticas tibias (MAT): Son mezclas que se fabrican a una temperatura mas baja que las mezclas en caliente, generalmente entre 90° C y 130° C. Estas mezclas permiten una reducción en el consumo de energía durante su fabricación y son menos susceptibles a la aparición de grietas. 3. Mezclas asfálticas en frio (MAF): Son mezclas que se fabrican a temperaturas ambiente, sin necesidad de calentar los materiales. Estas mezclas son utilizadas principalmente para reparaciones puntuales y trabajos de mantenimiento. La selección del tipo de mezcla asfáltica a utilizar dependerá de diversos factores, como el trafico esperado, el clima de la zona, la disponibilidad de materiales y el presupuesto. Además, es importante considerar las normativas y especificaciones técnicas establecidas por los organismos reguladores correspondientes. En esta investigación se realiza un comparativo del comportamiento mecánico entre las mezclas asfálticas en caliente y las mezclas asfálticas tibias, además de enumerar algunas ventajas de dichas mezclas. Las mezclas asfálticas pueden clasificarse por su rango de temperaturas de producción (mezclado), desde mezclas asfálticas en frío hasta las mezclas asfálticas calientes. A diferencia de las mezclas asfálticas calientes (MAC) en donde se utilizan elevadas temperaturas en el mezclado y compactación, las mezclas asfálticas tibias (MAT) buscan reducir temperaturas aproximadamente en un 20%, lo cual permite disminuir considerablemente las emisiones de gases y polvo al medio ambiente durante el proceso de producción y colocación, sin que esto perjudique las propiedades de desempeño de la mezcla asfáltica. ¿Qué es una mezcla asfáltica tibia (MAT)? Son un conjunto de tecnologías desarrolladas en Europa cuyo objetivo es el de s bajar las temperaturas de trabajo, principalmente de compactación. Para ello existen diferentes técnicas que buscan reducir la viscosidad del ligante asfáltico y que pueden aplicarse tanto en mezclas continuas como discontinuas. Comparación entre MAT vs MAC Se determinaron los siguientes puntos a comparar: •Reducción de las emisiones de compuestos orgánicos volátiles (COV) en comparación con mezclas asfálticas calientes •Reducción las temperaturas de colocación y compactación en comparación con las temperaturas convencionales. •Presenta una mayor resistencia al fisuramiento por temperatura que las MAC. •Mayor flexibilidad en la colocación y compactación de la MAT. •Menores velocidades de enfriamiento, lo que permite distancias más largas de transporte. •Las MAT pueden colocarse en climas fríos o en las noches donde baja más la temperatura del ambiente. Ventajas que ofrecen las Mezclas Asfálticas Tibias (MAT): •Reducción en el uso de combustibles para la producción de mezclas asfálticas. •Facilidad en la compactación de pavimentos asfálticos. •Incremento en el uso de pavimentos reciclados (RAP) dentro de las mezclas. •Mejor ambiente de trabajo para los operarios en sitio. •Eliminación del envejecimiento prematuro del ligante asfáltico. •Permite una apertura más rápida al tránsito.


CONCLUSIONES

Terminadas las investigaciones, llegamos a la conclusión de que las mezclas asfálticas tibias alcanzan valores tan óptimos como si se estuviera trabajando con una MAC, y todo esto con algunas ventajas en cuanto al comportamiento, trabajabilidad, lo económico, y ambientales, poniendo a estas, como una alternativa muy útil a la hora de reparación o rehabilitación una vía.
Jiménez Rodríguez Anayansi, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DISEñO DE MAQUINA DOBLADORA DE VARILLA


DISEñO DE MAQUINA DOBLADORA DE VARILLA

Cortés Aparicio Yael Itsuky, Benemérita Universidad Autónoma de Puebla. Hernandez Elizalde Wendy Cecilia, Universidad Autónoma de Sinaloa. Hernandez Sanchez Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Jiménez Rodríguez Anayansi, Universidad Autónoma Benito Juárez de Oaxaca. Sanchez Fonseca Edna Julieth, Instituto Tecnológico Metropolitano. Valenzuela Medina Fabian, Universidad Autónoma de Sinaloa. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el área de la construcción se tiene la necesidad de fabricar hogares, puentes, edificios entre otros, por lo que se requiere resolver el problema de la fabricación de estribos que son varillas de alambrón de acero, que unen las varillas en los castillos, por lo que se plantea el diseño una maquina dobladora de varilla, capaz de doblar por medio de una secuencia con un sistema mecánico y un sistema de moldeo fijo, dirigido por un motor, este diseño se propuso dado que era necesario un prototipo de bajo costo, esto debido a que en el área de la construcción en México ha crecido un 5% de acuerdo a la cámara Mexicana de la industria de la construcción (CMIC), durante el año 2021.



METODOLOGÍA

Para el diseño de la maquina dobladora de varilla se utilizaron materiales biodegradables para el prototipado por impresión 3D, dichos materiales fueron el acido polilactico (PLA) y poliuretano termoplastico (TPU), además de los diseños se pueden realizar bajo cualquier software asistido por computadora como ejemplo Solidworks, autodesk, FreeCAD,  entre otros, los pasos a seguir para el dieño de la maquina dobladora de varilla fuerón los siguientes 1) Se realizó una búsqueda del estado del arte y de vigilancia tecnológica en diferentes buscadores de patentes como Google Patents, EspaceNet,  Patentscope, entre otros más. 2) Posteriormente se realizó con dicha búsqueda inicial una serie de propuestas diseñadas por medio de algún Software CAD para diseño 3D, para posteriormente realizar la impresión de dichos modelos para su fabricación por manufactura aditiva, con PLA.  3) La serie de prototipos se realizaron haciendo simulaciones de movimiento mecánico por computadora y realizando una comparativa con el movimiento en ambiente real.  4)  A la par de la realización de la fabricación por manufactura aditiva de los diferentes prototipos se realizó la escritura de la solicitud de patente que actualmente continua en proceso para solicitar el trámite ante el Instituto Mexicano de la Propiedad Industrial (IMPI).  5) Se realizaba una serie de vigilancias tecnología cada vez que se quería realizar otra propuesta de prototipo y verificar el estado del arte en los diferentes buscadores de patente.  6) Finalmente se construyó el prototipo que cumple las simulaciones mecanicas y en ambiente real,  para verificar la prueba de concepto, por manufactura aditiva que es una representación a escala para la maquina real que se construirá, en caso de conseguir recursos.


CONCLUSIONES

Las diferentes conclusiones que llego el equipo fueron que se aprendió una metodología diferente de como investigar la alta tecnología así de cómo usar el diseño por computadora, la impresión 3D en diferentes materiales para realizar prototipos de manera rápida y como profundizar en un tema para realizar su vigilancia tecnológica además de realizar el desarrollo de la escritura de patente y la solicitud de la misma ante el IMPI en un futuro, en este caso, la maquina dobladora de varilla de alambrón y materiales de inferior densidad así como de sus diferentes aleaciones, dado que fue un reto desarrollar un prototipo mecánico, que cumpliera las caracteristicas de funcionalidad tanto en simulación por computadora y en ambiente real a escala, el mayor reto fue realizar el proceso para hacer los dobleces de la varilla es por medio de un sistema sincronizado de engranajes.
Jimenez Sotomayor Marco Antonio, Instituto Tecnológico de Hermosillo
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

TRANSISTORES DE PELíCULA DELGADA BASADOS EN IGZO


TRANSISTORES DE PELíCULA DELGADA BASADOS EN IGZO

Jimenez Sotomayor Marco Antonio, Instituto Tecnológico de Hermosillo. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los transistores de película delgada consisten en finas capas de materiales que crean un transistor de efecto de campo, entre las principales aplicaciones de este tipo de transistores se encuentran sensores, displays, electrónica flexible, etc. Los tft que utilizan IGZO como material semiconductor poseen limitaciones, entre ellas se encuentra el uso de circuitos como apoyo, esto es por las limitantes en su uso en circuitos digitales, es por esto que durante este verano de investigación se analizaron diferentes técnicas de lógica para el diseño y fabricación de compuertas lógicas haciendo uso de este tipo de transistores, para esto se compararán los resultados de las mediciones para explicar el porqué del comportamiento de los transistores y compuertas fabricadas.



METODOLOGÍA

Se llevó a cabo una investigación teórica, esto es con el fin de recopilar datos sobre los diseños desarrollados en otros trabajos, con esto logramos obtener valores típicos para las compuertas a diseñar, posteriormente se simuló el comportamiento de estos circuitos en tecnología de transistores de silicio, probando diferentes parámetros tomando nota de los resultados observados. Posteriormente se recibieron clases introductorias por parte del investigador donde se enseñó con el cual haremos el LAYOUT de los circuitos con los que trabajaremos, este programa es LEDIT, y los estudiantes diseñamos cada uno de nuestros circuitos en base a plantillas y recomendaciones del doctor investigador. En la tercera semana se procedió al laboratorio de fabricación, donde pudimos presenciar sesiones guiadas por el maestro donde se nos mostró el funcionamiento de los distintos equipos del centro de nano, en estos días se explicó el funcionamiento del cuarto limpio y se hicieron los procedimientos estandarizados por el centro de nano ciencias y micro y nanotecnologías, mientras que a su vez se nos explicaba el cómo se determinó los parámetros y por qué cada uno de los pasos llevados a cabo. En la cuarta semana se llevó a cabo sesiones de mediciones en las estaciones de caracterización eléctrica, fue en esta semana donde el doctor Norberto y uno de sus colaboradores demostraron los procedimientos llevados a cabo por ellos para la toma de medidas para la caracterización de los circuitos fabricados, durante esta etapa extrajimos los datos haciendo uso de un osciloscopio, además de que pusimos a prueba los diferentes circuitos desarrollados bajo diferentes casos para así poder observar las variaciones en su funcionamiento. Durante la quinta y sexta semana se procedió con una lección por parte del Investigador sobre el software que usaremos para procesar los datos, este fue Origin, posteriormente se clasificaron los datos obtenidos anteriormente y se limpiaron las señales con los conocimientos enseñados anteriormente, durante esta etapa además proseguimos con la toma de fotografías con microscopio de los distintos circuitos fabricados, esto es con el fin de poder realizar informes de cada circuito junto con evidencia fotográficas y con gráficas de su funcionamiento. Durante todas las semanas en las que se participó en el verano se complementó las actividades realizadas con otras actividades de igual importancia y enriquecimiento, esto iba desde pláticas y conferencias de otros investigadores, recorridos por las instalaciones del centro, visitas a stands de foros, clases teóricas sobre transistores, etc. Siendo estas clases un gran complemento a nuestro verano de investigación. 


CONCLUSIONES

Durante esta estancia de verano, logramos adquirir conocimientos teóricos y prácticos en el área de transistores de película delgada, teniendo además la oportunidad de estudiar y aprender sobre todas las etapas relacionadas a la fabricación de circuitos electrónicos, durante esta estancia además tuvimos la oportunidad de estudiar y analizar distintos tipos de lógica y de poner a prueba diferentes tamaños de transistores, pudiendo así observar las diferentes ventajas y desventajas de nuestros circuitos y sirviendo además como retroalimentación para futuros diseños. Algunos de los conocimientos obtenidos fue el rendimiento respecto a caídas de voltajes obtenidos al trabajar con diferentes lógicas, así como el incremento en los tiempos de operación al trabajar con circuitos que requieren de más de una fuente y los desplazamientos verticales que observamos en las gráficas al aumentar o disminuir la diferencia entre los voltajes. Esta experiencia fue un gran primer acercamiento a un entorno de investigación que nos permitió conocer de primera mano la rutina que lleva un investigador y nos permitió conocer uno de los temas con los que podríamos llegar a trabajar.
Jirón Pérez Marilia Fernanda, Universidad Nacional de Ingeniería
Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco

PROPUESTA DE ELABORACIóN DE MANUAL DE BUENAS PRáCTICAS DE MANUFACTURA (BPM) POR LA NORMATIVA NTON-03-059-05 Y LA NTON 03 069-06/RTCA 67.01.33:06)


PROPUESTA DE ELABORACIóN DE MANUAL DE BUENAS PRáCTICAS DE MANUFACTURA (BPM) POR LA NORMATIVA NTON-03-059-05 Y LA NTON 03 069-06/RTCA 67.01.33:06)

Jirón Pérez Marilia Fernanda, Universidad Nacional de Ingeniería. Puerto Torres Karen Hanssy, Universidad Nacional de Ingeniería. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Buenas prácticas de manufactura (BPM) constituye una garantía de calidad e inocuidad que redunda en beneficio del empresario y del consumidor en vista de que ellas comprenden aspectos de higiene y saneamiento aplicables en toda la cadena productiva, incluido el transporte y la comercialización de los productos. (Salgado C.). BPM constituye un instrumento básico en la obtención de productos seguros para el consumo humano así mismo son esenciales para garantizar la calidad de los productos durante las etapas del proceso productivo.   El Comal S.A. Demanda que sus productos sean inocuos e inofensivos de acuerdo a las Buenas Prácticas de Manufactura (BPM) y la normativa NTON 03-059-05. Actualmente se encontraron problemas de incumplimiento de las normas y procedimientos por parte del personal, deterioro en la infraestructura y la inexistencia de un manual de BPM que instruya y garantice la mejora continua.   El propósito de la recopilación de esta información es para mejorar las deficiencias encontradas en la microempresa con el propósito de ofrecer productos libres de contaminantes, capacitación al personal, calidad en sus productos, restauración de las instalaciones y optimización del proceso productivo.



METODOLOGÍA

En el presente estudio se llevó a cabo la propuesta de elaboración de un Manual de Buenas Prácticas de Manufactura para la microempresa El comal, con el objetivo de conocer y aplicar los requerimientos que exigen las leyes nacionales en materia de la implementación de Buenas Prácticas de Manufactura (BPM), con el propósito de reducir al mínimo los riesgos de contaminación biológica, química o física, que pueden ocurrir durante el procesamiento de alimentos Para efectuar la investigación este estudio se realizaron visitas de campo, en la que se utilizó como base la herramienta de la ficha de inspección contemplada en el Reglamento Técnico Centroamericano (NTON 03 069-06/ RTCA 67.01.33:06). Para realizar el estudio, se hizo un total de cuatro visitas a las instalaciones de la microempresa: Una primera visita donde las partes se conocieron para establecer relaciones (estudiante investigador y dueño del establecimiento), además de conocer la situación, historia e instalaciones y obtener información sobre los antecedentes de la misma. También se observó al personal para conocer detalladamente el funcionamiento en las distintas áreas, describiendo de ésta forma los acápites del manual, utilizando la guía de elaboración de Buenas Prácticas de Manufactura. Según (Carrillo Jirón & Acevedo) explica que las generalidades hacen referencias al número y orden de cada uno de los elementos que conforman la estructura de los manuales de Buenas Prácticas de Manufactura, ya que cada uno de los componentes tienen una función específica y una correlación entre sí. a) Nombre de la empresa. b) Índice. c) Introducción. d) Objetivos del manual. e) Definiciones. f) Política de inocuidad de la empresa. g) Alcance de las BPM en la empresa. En la segunda visita, se realizó la primera inspección donde se llenó el formato contenido en la (NTON 03 069-06/ (RTCA 67.01.33:06). Tomándose en cuenta los acápites de la ficha de inspección como edificios, equipo y utensilios, personal, control en el proceso, almacenamiento y distribución. Se utilizó valores numéricos otorgándose la puntuación de acuerdo a la guía para el llenado de la ficha. Una vez realizada la segunda inspección, se repitió dos visitas posteriores utilizando la misma herramienta, con el fin de dar seguimiento a las condiciones en que se encontraba el establecimiento, ya que se les aportó recomendaciones en la primera inspección para fortalecer las debilidades que presentaba. Terminada las inspecciones correspondientes, se analizaron los datos mediante lo establecido en la (NTON 03 069-06/RTCA 67.01.33:06), se tomó la última inspección como datos válidos para la elaboración del Manual de Buenas Prácticas de Manufactura


CONCLUSIONES

Durante la estancia de verano se logró desarrollar el tema y poner en práctica el conocimiento teórico aprendido. Inicialmente se realizó un diagnóstico visual tomando en cuenta las variables de infraestructura, ubicación, equipos e instalaciones contenidas en el reglamento de inspección sanitaria RTCA 67.01.33:06 y NTON 03 069 - 06, para la autorización de fabricación de alimentos y bebidas procesadas, el cual la suma total para aprobación debe ser igual o mayor a 81 puntos. Sin embargo, al ser un trabajo extenso no fue posible realizar los demás objetivos de la investigación , por lo tanto, no se pueden mostrar los datos obtenidos.
Joya Becerra Cristo Omar, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA DISRUPTIVA EN LA CADENA DE SUMINISTRO


LOGíSTICA DISRUPTIVA EN LA CADENA DE SUMINISTRO

García Reyes José Miguel, Universidad Politécnica de Sinaloa. Joya Becerra Cristo Omar, Universidad Politécnica de Sinaloa. Rodríguez Navarro Diego Homobono, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el sector empresarial se encuentra en constante adaptación en el contexto tecnológico, social y económico, con lo anterior los flujos estratégicos de la cadena de suministro dependen de su conectividad para su eficaz desempeño, los cuales son el capital, información y material, un evento no esperado que impacte negativamente a uno, dos o tres flujos se considera como una ruptura en la cadena, aun cuando su frecuencia no se encuentra identificada por su complejidad, esto comúnmente puede ocurrir cuando se presentan un cambio en lo tecnológico, organización, biológico, climático o político, lo anterior se conoce en base a los documentos históricos que informan sus diferentes causas presentadas en los tiempos actuales, el impacto principal es social y económico. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la capacidad de las actividades del sector logístico y transporte, pues si bien las necesidades de conectividad son esenciales a la vez  se necesita ser adaptable, con una atención principal en las empresas del sector industrial, logístico y transporte, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio de campo que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento industrial y su conciencia en la sustentabilidad y resiliencia del sector logístico y transporte. El alcance de la investigación cualitativa de tipo campo es identificar las acciones logísticas y de transporte que la industria logística realiza con el propósito de mantener la conectividad de los flujos estratégicos en la cadena de suministro; conocido como, logística disruptiva en la cadena de suministro



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cualitativa, de tipo documental la cual consiste en la recolección de información directamente de los profesionales del sector logístico y transporte que muestran la realidad de los hechos, sin manipular o controlar variable alguna, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos.  Se inicia con la búsqueda digital de documentos auditados y confiables sobre el tema de cadena de suministro disruptivo, para posteriormente realizar una agenda de entrevistas con empresas del giro industrial en ámbitos logístico y transporte, se registran cuatro entrevistas, a continuación con la información seleccionada se realiza un ensayo descriptivo de los escenarios que presentan causas de la ruptura de la cadena y su estrategia de solución (disrupción), así también indicando el factor con base a una categorización (tecnológico, organización, biológico, climático o político), relacionado con los resultados de las entrevistas que se analizó, esta estrategia recabó información sobre el tema para generar un nuevo conocimiento mediante argumentos propios sobre las causas documentadas de los distintos casos de ruptura de la cadena de suministro y cómo las organizaciones abordan para encontrar soluciones de diseño asertivas ante problemas complejos de ingeniería para su disrupción.


CONCLUSIONES

Sinaloa, en específico Mazatlán, ha mostrado un crecimiento exponencial en la oferta y demanda en cuanto a productos y servicios se refiere, esto debido a la urbanización que se presenta en el puerto, sumándole la cualidad de ser un punto estratégico para un amplio catálogo de empresas, lo que lleva a aumentar el riesgo de fallos en los procesos logísticos, las empresas entrevistadas muestran una buena capacidad de resolución de rupturas en la cadena de suministro ocasionadas por temas biológicos, tecnológicos, climáticos y/o políticos. Los resultados de esta investigación mostraron que gran parte de las empresas no cuentan con capacidad tecnológica para realizar o mejorar su sistema logístico, por lo que se espera que en un futuro se plantee la posibilidad de mejorar de manera significativa los procesos logísticos bajo la implementación de dichas herramientas tecnológicas, además, las empresas de hoy en día mantienen la mentalidad de la gran importancia del recurso humano para realizar sus procesos y, sobre todo, para resolver las rupturas que se presentan dentro de la cadena de suministro. Con objetividad se percibe que la logística disruptiva es un sinónimo de la teoría de restricciones (TOC), donde es esencial identificar el limitante más importante que no permite alcanzar un logro determinado en la planeación estratégica de la cadena de suministro; es decir, los procesos logísticos deben analizarse de forma lógica y sistemática, se puede mencionar que una limitante importante es la incertidumbre del costo de la materia prima, capital humano, combustible y transporte (embalaje) presentadas en la cadena de suministro.
Juarez Falcon Alberto Daniel, Instituto Politécnico Nacional
Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)

SISTEMA ROBóTICO CARTESIANO PARA EL CULTIVO DE SEMILLAS


SISTEMA ROBóTICO CARTESIANO PARA EL CULTIVO DE SEMILLAS

Juarez Falcon Alberto Daniel, Instituto Politécnico Nacional. Torres Chagolla Lilia, Universidad Michoacana de San Nicolás de Hidalgo. Tovar Romero Kevin Iván, Instituto Politécnico Nacional. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Debido a la riqueza de recursos naturales y la biodiversidad en México, este país destaca como productor de una amplia variedad de cultivos. En este contexto, el presente proyecto se enfoca en el diseño y simulación de un sistema robótico cartesiano para el cultivo de semillas con fines prácticos para el Centro de Investigaciones Biológicas del Noroeste. La implementación del sistema robótico propuesto busca mejorar la eficiencia del proceso de cultivo de albahaca mediante la automatización de tareas específicas, lo que permitirá un uso más preciso y efectivo de los recursos agrícolas. El objetivo general es el diseño de un sistema robótico automatizado que, con su implementación, simplifique la tarea del agricultor al sembrar semillas en charolas comerciales de 50 cavidades, reduciendo los riesgos asociados con el trabajo manual y optimizando la producción al utilizar de manera eficiente las semillas que son sembradas, mejorando la productividad en los cultivos al reducir el tiempo invertido en la tarea. La implementación de un robot cartesiano diseñado para automatizar la siembra logra optimizar el proceso el cultivo y se liberan recursos humanos, brindándoles la oportunidad de emplear sus esfuerzos en diferentes actividades que los hagan aumentar su ingreso económico. Promueve la innovación al introducir un enfoque automatizado en un proceso tradicionalmente realizado manualmente, representando un cambio tecnológico que puede mejorar la eficiencia y precisión en la producción de los cultivos. Al sembrar las semillas de manera responsable y mantener las plantas germinadas en condiciones apropiadas, se fomenta el crecimiento saludable de la vegetación. El prototipo del sistema robótico se diseña específicamente para las semillas de albahaca. El proceso para la plantación de semillas en charolas comerciales de plástico para cultivo consiste de las acciones mencionadas. Debido a esto, surge la necesidad del diseño de un sistema robótico automatizado que simplifique y agilice las tareas del agricultor al sembrar las semillas en las charolas comerciales. 



METODOLOGÍA

Para el diseño integral del sistema robótico debe abarcar tres puntos fundamentales: la simulación, la interconexión electrónica de los componentes y la programación del sistema encargado de ejecutar las actividades requeridas. Cada uno de estos aspectos es esencial para lograr un sistema funcional y eficiente que automatice la tarea de una manera precisa y confiable, logrando nuestros objetivos de realizar el cultivo de la albahaca. El proceso para la siembra manual de semillas de albahaca consiste de una serie de pasos laboriosos que requieren mucho tiempo para llevar a cabo, tales como la selección manual de semillas y la colocación en los orificios de cada cavidad de la charola conllevan a una alta dedicación de los agricultores y la posibilidad de cometer errores que ponen en riesgo la tasa de germinación, impactando directamente con la productividad del cultivo. Con este sistema garantizamos la distribución uniforme y precisa de las semillas en el proceso de siembra, reduciendo la intervención manual, lo que también minimiza los riesgos asociados con el trabajo en condiciones de calor extremo, trayendo consigo beneficios mayores, como lo son una mayor productividad y rentabilidad en el cultivo de semillas. El sistema robótico propuesto es de tipo cartesiano, que cuenta con 3 ejes de control primario, los cuales son todos lineales. Cuenta con tres articulaciones deslizantes que permiten el movimiento de una herramienta hacia dentro, hacia afuera, hacia arriba y hacia abajo. Este tipo de robots suelen ser utilizados para la manipulación de materiales, es posible debido a la alta precisión que tienen para moverse. Debido a las ventajas que este tipo de robot nos presenta, será utilizado en conjunto con una herramienta diseñada específicamente para realizar el proceso de la siembra de las semillas en una acción simplificada. Para el presente proyecto, se procedió a crear el diseño funcional del sistema robótico cartesiano,  la representación simulada de la propuesta generada, en la que se pueden observar los tres ejes de transmisión del robot, husillos y motores a pasos para cada uno de los mismos. La conexión electrónica asegura la comunicación efectiva entre los distintos elementos del sistema, para permitirnos un control coordinado y preciso del robot


CONCLUSIONES

El diseño y simulación de este sistema robótico es de gran ayuda para automatizar los cultivos de semillas, en este caso, de la albahaca. En la localidad seleccionada, es de gran ayuda por las condiciones climatológicas y debido al costo elevado de cada semilla. Con este sistema, se optimiza el cultivo y la producción de esta planta, y también puede ser adaptado a otros tipos de plantas que pueden ayudar a mejorar las formas en las que la agricultura se desarrolla, mejorando tiempos, reduciendo costos y disminuyendo la probabilidad de cometer errores al realizar esta actividad. El diseño del robot cartesiano conjuga una cantidad de ramas de la ingeniería como lo es la mecánica, programación, electrónica, entre otros, por lo que este proyecto integra diversos conocimientos. La utilización de diversos softwares para la simulación del sistema nos permite saber cómo será su construcción en el momento que se decida llevarlo a cano físicamente, aprovechando que los materiales con los que se trabaja en la etapa de simulación del sistema físico e interconexión electrónica son los que se eligieron para este proyecto por cumplir las necesidades observadas durante la etapa de diseño. Los actuadores, los drivers y la tarjeta utilizada son materiales comerciales comunes, lo que hace que su construcción se facilite debido a que pueden conseguirse de una forma relativamente sencilla. En resumen, el diseño y simulación de este sistema robótico representa una solución valiosa para la automatización de los cultivos, mejorando la eficiencia, reduciendo costos y promoviendo una agricultura más sustentable y segura para todos los involucrados.
Juárez García Rafael Andrés, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit

REALIDAD AUMENTADA PARA LA ENSEñANZA DE BASE DE DATOS


REALIDAD AUMENTADA PARA LA ENSEñANZA DE BASE DE DATOS

Juárez García Rafael Andrés, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Es importante identificar las tecnologías innovadoras implementadas en el nivel superior, como la realidad aumentada (RA), los códigos QR, aplicaciones móviles, manuales de interactivos y contenidos audiovisuales, esto para reforzar el aprendizaje e incrementar la motivación por aprender. Se plantea desarrollar una aplicación móvil que implemente RA mediante técnicas de escaneo QR para generar un instrumento de apoyo en la retención de conocimientos, usando un manual de clase de Base de datos que es una asignatura impartida en la carrera de Tecnologías de la Información y la comunicación. Buscando que el diseño y el uso de una aplicación de RA motive el aprendizaje de los temas principales de la materia en cuestión.



METODOLOGÍA

Se empleará una metodología de investigación cualitativa para el desarrollo e implementación de la aplicación móvil de realidad aumentada (RA) que utiliza códigos QR como se mencionó anteriormente. Además, se utilizará la metodología de desarrollo ágil SCRUM y se aprovecharán diversas herramientas tecnológicas, como Unity, Vuforia y Blender. Las fases son las siguientes: Definición del problema: Identificar la necesidad de mejorar el proceso de enseñanza-aprendizaje de la asignatura de bases de datos y cómo la realidad aumentada con códigos QR puede ser una solución efectiva para abordar este problema. Revisión bibliográfica: Realizar una revisión exhaustiva de la literatura existente sobre el uso de realidad aumentada y códigos QR en la educación, así como sus beneficios y aplicaciones específicas en el sector educativo. Diseño de la aplicación: Llevar a cabo la fase de diseño de la aplicación móvil, teniendo en cuenta los requisitos funcionales y no funcionales identificados. Utilizando la herramienta Unity para el desarrollo de la aplicación y Blender para la creación de los elementos gráficos necesarios. Desarrollo y pruebas: Seguir la metodología ágil SCRUM para la implementación de la aplicación móvil, aquí se establecen iteraciones cortas y se asignarán tareas específicas por cada iteración o sprint. Se utilizan las herramientas Unity y Vuforia para la implementación de la realidad aumentada y la integración de los códigos QR.


CONCLUSIONES

Se logró desarrollar con éxito una aplicación móvil innovadora que implementa realidad aumentada mediante el uso de códigos QR, con el objetivo de enriquecer el proceso de enseñanza-aprendizaje de los alumnos que cursan la asignatura de Base de datos. Esta aplicación fue nombrada Base de datos RA. Durante el desarrollo de la aplicación, se ha logrado integrar modelos 3D interactivos que permiten a los estudiantes visualizar y explorar conceptos abstractos de bases de datos de una manera más comprensible. Los alumnos pueden escanear los códigos QR y acceder a modelos 3D que representan los conceptos de bases de datos en entornos visuales y tridimensionales.
Juárez Hernández Ezequiel, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Gibran Garrido González, Instituto Tecnológico Superior de Huauchinango

DISEñO DE UN SISTEMA DE SECADO SOLAR óPTIMO PARA EL SECADO DE CHILE EN LA REGIóN DE HUAUCHINANGO


DISEñO DE UN SISTEMA DE SECADO SOLAR óPTIMO PARA EL SECADO DE CHILE EN LA REGIóN DE HUAUCHINANGO

Juárez Hernández Ezequiel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Gibran Garrido González, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Un sistema de secado solar, es un dispositivo que usa la radiación solar para deshidratar sustancias, especialmente alimentos. El principio de la técnica de secado solar consiste en captar la energía solar calentando el volumen de aire en colectores solares y conducir el aire caliente del colector a la cámara de secado.  En la región de Huauchinango Puebla, uno de los productos más comercializados es el chile ancho, que a su vez es el chile poblano y este se cultiva tradicionalmente en Puebla, México y después de ser cosechado y madurado, se seca. Una vez seco se convierte en chile ancho. Es por eso que un chile ancho es rojo, no verde como un poblano. Huauchinango se enfrenta a desafíos en el proceso de secado tradicional debido a la falta de tecnología de aprovechamiento de energía limpia y al uso de combustibles fósiles en su compensación, lo que no solo aumenta los costos de producción, sino que también contribuye a la contaminación ambiental. Para abordar esta problemática, se propone un prototipo de un sistema de secado óptimo para el deshidratado de este producto, considerando las condiciones geográficas de la región y por ende la cantidad de radiación emitida sobre el municipio, buscando que sea eficiente y sostenible, garantizando la calidad del chile seco y reduciendo el impacto ambiental en comparación a otras tecnologías del mismo tipo.



METODOLOGÍA

La metodología utilizada en esta investigación se dividió en varias etapas para abordar de manera integral el diseño de un sistema de secado solar óptimo para el chile en la región de Huauchinango. Inicialmente se comenzó con revisión bibliográfica y estudio de fundamentos donde se consultaron diversas fuentes de información, como artículos científicos, libros y revistas especializadas, para adquirir los conocimientos fundamentales sobre la energía solar y los principios de funcionamiento de los deshidratadores y seguidores solares y se analizó la literatura relacionada con los diferentes tipos de deshidratadores solares disponibles en el mercado, centrándose en sus estructuras y métodos de convección de calor. Se consultaron datos históricos y mediciones en tiempo real para evaluar la disponibilidad y niveles de radiación solar en la región de Huauchinango a lo largo del año. Con base en esta información, se determinó la viabilidad y eficiencia de los controladores empleados como los sensores de luz LDR y los de temperatura y humedad como son los DHT11 y DS18B20, así como los ventiladores y extractores, asegurando que la energía solar disponible fuera adecuada para el funcionamiento óptimo del sistema propuesto. Conociendo lo anterior se generaron posibles prototipos por medio de bocetos del sistema de secado solar, sin aun considerar los materiales para el diseño. Posterior a esto se continuo con el diseño estructural del prototipo, en el cual se empleó el software SolidWorks para realizar el modelado y simulación de tensiones y desplazamiento del sistema de secado propuesto. Se diseñó una estructura inicial para el sistema de secado solar, teniendo en cuenta los parámetros de carga y las condiciones climáticas de la región.  Inicialmente se obtuvo una masa total de 568 kilogramos aproximadamente del sistema completo. Se seleccionaron diferentes materiales simulados para las diferentes partes del sistema, considerando sus propiedades mecánicas y térmicas, como el aluminio para la estructura del secador, acero al carbón para las flechas, acero A36 para la plataforma giratoria, acero AISI 304 para la base fija, y plásticos como el PBT para los componentes que respectan a los sensores, y acrílico para la caja de componentes. Mediante la simulación, se evaluó la resistencia y la estabilidad del diseño bajo un escenario de aplicación de fuerza de 98.064 N, equivalente a los 10 kg de masa, que se espera sea la capacidad máxima de producto que se ponga en la cámara de secado. A partir de los resultados de simulación, se realizaron modificaciones en el diseño para disminuir el peso y mejorar la eficiencia del sistema. Finalmente, con los cambios realizados se consiguió reducir la masa de la estructura hasta un 69%, con lo que la masa final de la estructura, equivale a 175 kg contemplando todos los elementos que componen al sistema. Se llevaron a cabo iteraciones en el diseño para reducir el uso de material y lograr un diseño estructural óptimo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la radiación solar en la región de Huauchinango, generalidades de dispositivos solares y su impacto en el desarrollo de tecnologías amigables con el medio ambiente, también se realizaron cálculos para la determinación de parámetros de los controladores que componen al sistema, con datos propios a la geografía de la región, sin embargo lo mas importante fueron los conocimientos prácticos del modelado y simulado en SolidWorks, ya que a lo largo de la estancia se trabajó continuamente en la optimización del prototipo.  Los resultados de la investigación muestran que el sistema de secado solar propuesto es viable y eficiente en la región de Huauchinango, ya que cuenta con niveles adecuados de radiación solar durante todo el año. La simulación del prototipo en SolidWorks demostró que la estructura es resistente y cumple con los requerimientos de funcionamiento. Además, los cambios realizados en el diseño redujeron el peso del sistema, mejorando su eficiencia y aprovechamiento de la energía solar.
Juárez Ochoa Carmen Andrea, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer

MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS


MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS

Díaz Ibarra Jatsiry Citlally, Instituto Tecnológico de Tepic. Gutiérrez Cervantes Silvia Marlene, Instituto Tecnológico Superior de Irapuato. Herrera Diaz Ailed Lourdes, Instituto Tecnológico de Tepic. Juárez Ochoa Carmen Andrea, Instituto Tecnológico Superior de Irapuato. Mancilla Flores Lizeth Berenice, Universidad de Guadalajara. Ramírez Ulloa Abraxis Baruch, Instituto Tecnológico de Tepic. Savalza Castillo Karla Veronica, Universidad Autónoma de Nayarit. Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer



PLANTEAMIENTO DEL PROBLEMA

En la actualidad Colombia está enfrentando diversos retos a nivel del comercio internacional debido a las diferentes fuerzas que trae la globalización y que han llegado para transformar como se producen, los diferentes productos servicios que necesitan los consumidores, de igual manera, representa una oportunidad para que las empresas nacionales desarrollen estrategias con el propósito de lograr mayor productividad y competitividad en un mercado compuesto por clientes mucho más exigentes en cuanto a sus preferencias y necesidades. La globalización es parte esencial cuando se habla de competencia y actualización de metodologías, debido a que las empresas nacionales tienen la posibilidad de renovar sus procesos con el fin de automatizarlos como lo hacen algunas  empresas extranjeras, aunque se debe destacar que la entrada de nuevas tecnologías no se debe relacionar con la salida de capital humano.  La reingeniería de procesos está relacionada con la reducción de costos y aumento de utilidades, pero no con el recorte de personal como la gente lo supone. Las empresas en Colombia tienen tiene solo una opción en su planeamiento estratégico: es involucrase decididamente en procesos de transformación tecnológica con el fin de lograr estándares mundiales de alto nivel con el fin de lograr su sostenibilidad en el tiempo.



METODOLOGÍA

Tener casos de éxito en la adaptación a las megatendencias en el sector empresarial es fundamental, por lo que cuando se realizó una visita pedagógica  en la empresa Cohan: (Cooperativa de Hospitales de Antioquia), donde se pudo observar cómo se desarrolló un proyecto de automatización en sus procesos de venta, el personal directivo logró la implementación de almacenes verticales automatizados  para la optimización de procesos de picking y dicha implementación fue exitosa tanto así que sus ventas y tiempos de entrega mejoraron drásticamente. Antes la entrega de un pedido podía durar hasta 8 días para llegar al cliente final, ahora se entrega en 24 horas y lo más importante de todo, no salió ningún auxiliar de sus operaciones lo que la hacen un ejemplo a seguir de muchas empresas Colombianas de su sector ya que, tomaron las megatendencias a su favor y decidieron adaptarse a por medio de la tecnología. Como se ha dado a conocer, los recursos son siempre escasos y por ello es necesario invertir en aquellos proyectos que le den a la empresa la mayor rentabilidad posible tal como lo hizo la empresa Cohan, la tecnología en sí misma no es la solución, pero haciendo una planeación adecuada, la tecnología agrega valor, ayuda a que nuestras operaciones sean más eficientes, eviten errores y reduce los costos operativos y tiempos logísticos, estos elementos hacen que un proyecto sea rentable. En este caso, debemos estar plenamente convencidos de la relación entre la inversión y el sistema de almacenamiento que necesitamos. También, visitamos una de la empresa más representativas de la industria del Café en Colombia, Colcafé; esta es la primera empresa colombiana de café en exportar café en  diferentes presentaciones. Esta empresa en su proceso implementa un software con el cual se escanea el código de barras que está colocado en el pallet con la carga de mercancía, al momento de escanearlo arroja una ficha técnica, donde se especifica el historial del producto, es decir, detallando datos importantes como si será exportado o será distribuido a nivel nacional, y en caso de ser exportación nos indica el país de destino.


CONCLUSIONES

Con base en la información proporcionada, es importante destacar que las megatendencias globales tienen un impacto significativo en la eficiencia logística de las empresas colombianas. Las megatendencias son fuerzas transformadoras a gran escala que afectan a nivel mundial y que generan cambios importantes en la sociedad, la economía y la tecnología. Cada una de las empresas que se visitaron y evaluaron, implementan de forma distinta las megatendencias, sin embargo, todas lo realizan con la misma finalidad que es eficientizar y optimizar sus procesos. Algunas de las megatendencias globales relevantes para la eficiencia logística en Colombia incluyen la globalización, los cambios demográficos, la variabilidad y cambio climático, la escasez de recursos, la hiperconectividad, el traslado de los ejes del poder, y la urbanización. Estas tendencias han dado lugar a desafíos y oportunidades para las empresas que operan en el país, especialmente en el ámbito logístico. En conclusión, las megatendencias globales están transformando la forma en que las empresas colombianas abordan la eficiencia logística. Aquellas que logren adaptarse y aprovechar las oportunidades que estas tendencias ofrecen, a través de la implementación de tecnologías avanzadas, prácticas sostenibles y estrategias innovadoras, estarán en una mejor posición para mantenerse competitivas y satisfacer las demandas cambiantes de un mercado globalizado y en constante evolución. La colaboración entre el sector público y privado también es esencial para superar los desafíos logísticos y mejorar la infraestructura, lo que contribuirá en última instancia al crecimiento económico y desarrollo sostenible del país.
Juárez Sevilla Gustavo, Instituto Politécnico Nacional
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

DESCRIPCIóN Y CARACTERIZACIóN PARA EL PROCESAMIENTO DE IMáGENES RUIDOSAS


DESCRIPCIóN Y CARACTERIZACIóN PARA EL PROCESAMIENTO DE IMáGENES RUIDOSAS

Juárez Sevilla Gustavo, Instituto Politécnico Nacional. Murillo Barrientos Alexis Adrian, Instituto Politécnico Nacional. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Al realizar una medición intrínsecamente se adquiere cierto ruido indeseado, lo cual, también sucede al capturar una imagen, ya sea por afectaciones de la luz, limitaciones del sensor de recolección y fallas en la transmisión de los datos. La caracterización e identificación del ruido dentro de imágenes, permite restaurar a las imágenes degradas por el ruido, lo cual, beneficia a campos como la astronomía, microscopía, imágenes médicas, fotografía, televisión, entre otras. 



METODOLOGÍA

Para poder filtrar a una imagen contaminada, es necesario comprender el ruido en las imágenes, por lo que, se crearon 2 códigos en lenguaje Python para simular la agregación de ruido impulsivo (sal y pimienta) y ruido gaussiano, los cuales, fueron aplicados a 6 imágenes de prueba (Aerial, Airplane, Baboon, Peppers, Lena y Bridge) para su posterior comparación. Existen diferentes filtros que realizan el filtrado de una imagen con ruido, sin embargo, se optó por utilizar a los filtros más destacados en la restauración de imágenes, entre ellos, los filtros numéricos (promedio, mediana, gaussiano) y un filtro pasabajas (transformada de Fourier), por lo que fue necesaria realizar su codificación para su posterior aplicación en las imágenes de prueba contaminadas. Por otra parte, también existen los filtros desarrollados en máquinas de aprendizaje, entre ellas la red neuronal convolucional denominada Noise to Void, desarrollada por Alexander Krull&Tim-Oliver Buchholz&Florian Jug en 2019, la cual, se utilizo para eliminar el ruido gaussiano en imágenes, debido a que para esto ha sido entrenada. Además de las imágenes contaminadas de prueba, se utilizaron imágenes contaminadas con un ruido estandarizado, por lo que, utilizando los filtros mencionados, se aplicaron los índices de Similitud Estructural (SSIM) y de Proporción de Señal/Ruido (PSNR), para comparar a las imágenes restauradas con las imágenes contaminadas y las imágenes originales, obteniendo resultados referentes a la efectividad de restauración de cada uno de los filtros.


CONCLUSIONES

Durante la estancia de verano se aprendió acerca del lenguaje de programación Python, el cual, fue utilizado para desarrollar diferentes códigos que fueron de utilidad durante toda la estancia. Además, la efectividad de los programas desarrollados tanto para la agregación de ruido en imágenes, como para el filtrado de estas, permitió la comprensión en la caracterización e identificación del ruido. Por otra parte, los resultados arrojados por los índices de Similitud Estructural (SSIM) y de Proporción de Señal/Ruido (PSNR), mostraron que, para varianzas pequeñas en el ruido gaussiano de una imagen, los filtros numéricos utilizados (promedio, mediana, gaussiano) tuvieron un buen desempeño, sin embargo, su efectividad se reduce a medida que la varianza del ruido gaussiano incrementa. Sin embargo, cuando el ruido en una imagen es del tipo impulsivo, el filtro numérico de mediana presento los mejores resultados en la restauración de las imágenes. El filtro que utiliza a la transformada de Fourier resulto ser más efectivo que los filtros numéricos para filtrar el ruido gaussiano estandarizado con varianzas altas, sin embargo, su efectividad fue menor al aplicarse a imágenes cuyo ruido no estuviese estandarizado. Finalmente, la red neuronal convolucional Noise to Void presento buenos resultados con algunas imágenes contaminadas con ruido gaussiano, sin embargo, también ocurría el caso en el que se creaba un empeoramiento en la imagen, además, al aplicarla a imágenes contaminadas con ruido impulsivo, la red neuronal obtuvo pésimos resultados, al punto de generar una imagen irreconocible.
Juárez Verdugo Juan Luis, Universidad Autónoma de Sinaloa
Asesor: Dra. Paulina Arellanes Lozada, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DE INHIBIDORES DE CORROSIóN DEL ACERO APLICADOS EN LA INDUSTRIA PETROLERA.


EVALUACIóN DE INHIBIDORES DE CORROSIóN DEL ACERO APLICADOS EN LA INDUSTRIA PETROLERA.

Fernández León Ana Karen, Instituto Politécnico Nacional. Juárez Verdugo Juan Luis, Universidad Autónoma de Sinaloa. Asesor: Dra. Paulina Arellanes Lozada, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La corrosión genera grandes daños a la infraestructura de la industria del petróleo, ocasionando posibles accidentes y la necesidad de estar revisando y corrigiendo este problema. Los costos aproximados a la reparación y corrección rondan los miles de millones de dólares al año. El uso de inhibidores es una de las soluciones más sencillas de aplicar, con tan solo aplicar el aditivo al fluido hará que la corrosión disminuya, al estar buscando compuestos de derivados orgánicos hace que sea de más fácil obtención y a contribuir a no contaminar el medio ambiente mediante extracción de minerales u otros métodos. El objetivo de disminuir la velocidad de corrosión es lo que se está tratando de lograr para ahorrar muchos recursos y así poder destinarlos a otras áreas o al desarrollo de nuevas tecnologías por lo que en este verano se estudia la capacidad de inhibición del compuesto extraído de la ruda a distintas concentraciones.



METODOLOGÍA

Se preparó salmuera sintética para simular las propiedades naturales de la industria petrolera. Esta salmuera se preparó con una concentración en peso aproximada al 89.89% de agua destilada, 9.62% de cloruro de sodio (NaCl), 0.305% de cloruro de calcio (CaCl2), y 0.186% de cloruro de magnesio hexahidratado (MgCl2 · 6H2O). Se utilizaron probetas previamente lijadas con lijas de agua de tamaño de grano 600 y 1200 hasta tener un área uniforme libre de óxido, corrosión u otro tipo de contaminantes. Posteriormente se agregaron 100 mL de esta salmuera y se burbujeó durante 15 minutos con nitrógeno para expulsar todo el oxígeno remanente en la celda. Posteriormente se pesaron 0.4 mg de sulfito de sodio (Na2SO3), 353 mg de sulfuro de sodio nona hidratado (Na2S · 9H2O), y 170 mg de ácido acético (CH3COOH). Una vez acabados los 15 minutos, se prepara ácido sulfhídrico in situ. Primeramente, se agregó el sulfito de sodio para remover cualquier traza de oxígeno, seguido se añadió el sulfuro de sodio y el ácido acético en conjunto y se permitió disolver el sulfuro de sodio. Una vez disuelto, se le agregaron el electrodo de referencia (Ag/AgCl) y el contraelectrodo. Para las pruebas con el inhibidor, se preparó una solución a una concentración de 1000 ppm del inhibidor en isopropanol (C3H8O). Seguidamente se hicieron varias pruebas a diferentes concentraciones del inhibidor, empezando desde 150 ppm hasta 25 ppm con una diferencia de 25 ppm entre cada prueba.


CONCLUSIONES

Durante la estancia de verano se pudieron recabar distintos conocimientos teóricos y prácticos acerca de la corrosión y las distintas técnicas utilizadas para medir y hacer procedimientos pertinentes. Se pudieron obtener resultados esperables, los cuales, mediante el aumento de la concentración del inhibidor se aprecia como la velocidad de corrosión baja. Para la muestra 1, la concentración de 125 ppm fue la de mayor eficiencia con 99.09%, mientras que para la muestra 2, la concentración de 150 ppm fue la de mayor eficiencia con 98.67%. aun así, se tuvo un poco de error entre concentraciones, se deben hacer más pruebas para que la reproducibilidad sea mayor y tener más confianza en los datos.
Jurado Lopez Mateo, Servicio Nacional de Aprendizaje SENA - Regional Caldas
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO ACTUAL DE LA BIG DATA EN CULTIVOS AGROECOLÓGICOS APLICADO AL AGUACATE


ESTADO ACTUAL DE LA BIG DATA EN CULTIVOS AGROECOLÓGICOS APLICADO AL AGUACATE

Jurado Lopez Mateo, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Marin Marin Juan Felipe, Fundación Universitaria Comfamiliar Risaralda. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, gracias al avance tecnológico, se han abierto diversas oportunidades para mejorar la sostenibilidad y eficiencia en diferentes áreas, incluida la agricultura. La implementación del Big Data se destaca como un recurso valioso que brinda nuevas posibilidades para promover una agricultura más sostenible. sin embargo, lamentablemente, actualmente hay escasa información disponible que describa el panorama actual y como se podría mejorar la optimización de la información en la producción sostenible del aguacate. Por consiguiente, durante la estancia de verano, se ha incluido la recopilación de artículos que respalden la idea de que el uso de esta tecnología conlleva a mejoras significativas en la sostenibilidad y eficiencia de cultivos.



METODOLOGÍA

La metodología se basa en una investigación previa exhaustiva de tendencias actuales en estudios relevantes. Se lleva a cabo una búsqueda exhaustiva en bases de datos electrónicos confiables, utilizando términos específicos relacionados con agroecología, Big Data y cultivos de aguacate. Toda la información recolectada se clasifica según los objetivos, período de publicación y nivel de contribución de cada texto. Posteriormente, se realiza un análisis integral que identifica las ventajas y oportunidades que el Big Data ofrece en la agroecología, centrándose en los cultivos de aguacate. Finalmente, se construye un documento tipo "Estado del arte" que sintetiza las tendencias y avances en el área de estudio. Esta metodología garantiza una investigación rigurosa respaldada por la evidencia científica más actualizada y contribuye al avance en el uso del Big Data en la agricultura sostenible.


CONCLUSIONES

La investigación sobre el uso del Big Data en la agricultura agroecológica presenta un análisis exhaustivo, enfocándose en la eficiencia y producción de alimentos. Se destaca la importancia de la agricultura de precisión con tecnologías avanzadas para recopilar datos y tomar decisiones fundamentales en el proceso agrícola. A pesar de los avances en el uso de tecnologías avanzadas en la agricultura, la conectividad rural en Colombia sigue siendo un desafío que dificulta el acceso a datos informativos relacionados con la agricultura. Estudios previos revelan aplicaciones del Big Data en la agricultura, como el análisis de la huella de asfalto en cultivos de maíz y la imputación de datos en modelos hidrológicos. Se destaca un estudio sobre la idoneidad del cultivo del aguacate Hass en Colombia mediante análisis de decisión basado en información geográfica, así como la implementación de aplicaciones informáticas en la industria agrícola del aguacate en México. La investigación resalta el potencial del Big Data para revolucionar la agricultura sostenible, garantizando la seguridad alimentaria y la conservación del medio ambiente. La metodología empleada es rigurosa y confiable, basada en una revisión exhaustiva de la literatura científica actualizada. La conectividad rural sigue siendo un desafío que requiere ser abordado para una implementación más efectiva de soluciones basadas en datos en el sector agrícola. iSoftStone lidera una iniciativa innovadora en China para transformar la agricultura tradicional hacia un sistema más sostenible y eficiente mediante tecnologías avanzadas. En Argentina, la implementación del Big Data en la agricultura ofrece beneficios significativos para mejorar la gestión y toma de decisiones en la cadena de valor agrícola.
Lamas Guerrero Juan Manuel, Instituto Tecnológico de Matamoros
Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala

CAUSA Y EFECTO DE LAS FALTAS A LA NORMA OFICIAL MEXICANA NOM-017-STPS 2008 EQUIPO DE PROTECCIóN PERSONAL-SELECCIóN, USO Y MANEJO EN LOS CENTROS DE TRABAJO.


CAUSA Y EFECTO DE LAS FALTAS A LA NORMA OFICIAL MEXICANA NOM-017-STPS 2008 EQUIPO DE PROTECCIóN PERSONAL-SELECCIóN, USO Y MANEJO EN LOS CENTROS DE TRABAJO.

Lamas Guerrero Juan Manuel, Instituto Tecnológico de Matamoros. Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Cuando no se sigue la NOM-017-STPS-2008, que establece las normas y lineamientos para la selección, uso y manejo del equipo de protección personal (EPP) en los centros de trabajo, pueden surgir diversos problemas que afectan la seguridad y salud de los trabajadores. Algunos de estos problemas incluyen:   Riesgos de seguridad: La falta de EPP adecuado puede exponer a los trabajadores a diversos riesgos en el entorno laboral, como golpes, cortes, quemaduras, exposición a sustancias químicas peligrosas, entre otros.   Lesiones y accidentes: Sin el uso adecuado de EPP, los trabajadores están más expuestos a sufrir lesiones y accidentes laborales, lo que puede llevar a incapacidades temporales o permanentes y afectar la productividad de la empresa.   Enfermedades ocupacionales: La exposición prolongada a sustancias tóxicas o a condiciones inseguras puede causar enfermedades ocupacionales, como problemas respiratorios, dermatitis, alergias, entre otros.   Responsabilidad legal: Las empresas pueden enfrentar demandas legales y sanciones por parte de las autoridades si no cumplen con las regulaciones y normativas en materia de protección personal.   Baja moral y productividad: Los trabajadores que no se sienten seguros en su entorno laboral pueden tener una baja moral y rendimiento, lo que afecta la productividad general de la empresa.   Costos adicionales: Los accidentes y enfermedades ocupacionales generan costos adicionales para la empresa, como gastos médicos, licencias pagadas, reemplazo de personal y reparación de daños a equipos o infraestructura.   Daño a la reputación: Incumplir con las normas de seguridad puede dañar la reputación de la empresa frente a sus clientes, proveedores y la comunidad en general.   Por todas estas razones, es esencial cumplir con las regulaciones establecidas en la NOM-017-STPS-2008 y garantizar que los trabajadores tengan acceso y utilicen el equipo de protección personal adecuado para reducir los riesgos laborales y proteger su salud y seguridad.  



METODOLOGÍA

Primero comenzamos realizando este diagrama de causas y efecto de las razones por las cuales ocurren faltas a la norma vamos a examinarla a detalle:      +-------------------------------------------------+      |               Faltas a la NOM 017               |      +-------------------------------------------------+                                |                               V      +-----------------------------------------------+      |              Causas Potenciales              |      +-----------------------------------------------+                 |                       |                              |                V                     V                            V      +----------------+ +----------------+ +------------------+      |   Factores     | |   Factores     | | Factores        |       |   Humanos    | |   del               | | Organizativos|      |                        | |   Entorno      | |                         |      +----------------+ +----------------+ +------------------+                |                       |                         |               V                     V                       V      +--------------------++--------------------+ +----------------------+      |   Falta de          | |   Deficiente       | |   Falta de             |      |   Capacitación | |   Cumplimiento | |   Procedimientos|      |                           | |   de Normas      | |   de Trabajo         |      +--------------------+ +--------------------+ +----------------------+                 |                              |                          |                  V                            V                        V      +------------------------+ +--------------------+ +--------------------+      |   Desconocimiento| |   Equipos y        | |   Supervisión   |      |   de Riesgos           | |   Herramientas | |   Deficiente      |      |                                  | |   Inadecuados  | |                           |      +------------------------+ +--------------------+ +--------------------+   El folleto se lo mande por correo ya que aqui no puedo confirmar si lo pegue bien


CONCLUSIONES

Lamentablemente durante el verano científico de investigación la zona en donde se realizó no fue capaz de prestarnos un tiempo para concientizarlos por medio de una plática, pero con el folleto nos enfocamos en comprender la NOM-017-STPS-2008 sobre equipo de protección personal en centros de trabajo. Descubrimos que su cumplimiento protege a los trabajadores, reduce accidentes y beneficia a las empresas. La capacitación y la colaboración entre empleadores y empleados son clave. Valoramos la importancia de la seguridad laboral y nos comprometemos a promover un entorno seguro y saludable en el futuro. Ha sido una experiencia enriquecedora que nos motiva a aplicar estos conocimientos para el bienestar de todos.
Lamas Medina José David, Universidad Autónoma de Coahuila
Asesor: Dr. Sergio Enrique Flores Villaseñor, Universidad Autónoma de Coahuila

OBTENCIóN Y DISEñO DE MATERIALES GRAFéNICOS A PARTIR DE DESECHOS


OBTENCIóN Y DISEñO DE MATERIALES GRAFéNICOS A PARTIR DE DESECHOS

Lamas Medina José David, Universidad Autónoma de Coahuila. Asesor: Dr. Sergio Enrique Flores Villaseñor, Universidad Autónoma de Coahuila



PLANTEAMIENTO DEL PROBLEMA

La pandemia del COVID-19 ha afectado a millones de personas en todo el mundo. En respuesta al temor generado por esta enfermedad, la población recurrió a la automedicación como una forma de aliviar síntomas leves en el contexto de la limitada accesibilidad a los servicios médicos. Sin embargo, este aumento en la automedicación trajo consigo una problemática preocupante: la contaminación de suelos y ecosistemas por fármacos, particularmente por sustancias como la amoxicilina e ibuprofeno, que se han identificado como algunos de los principales medicamentos detectados en exceso en el ambiente. La amoxicilina y el ibuprofeno son dos de los fármacos más comúnmente utilizados en todo el mundo. La primera, un antibiótico de amplio espectro, se emplea para el tratamiento de diversas infecciones bacterianas, mientras que el segundo, un antiinflamatorio no esteroideo (AINE), se utiliza para aliviar el dolor y reducir la inflamación. Aunque estos medicamentos son de gran utilidad en el ámbito médico, el problema surge cuando son desechados inadecuadamente y llegan al medio ambiente. Existe una creciente preocupación sobre los efectos de estos fármacos en la calidad del agua. Algunos estudios han demostrado que la presencia de amoxicilina e ibuprofeno en cuerpos de agua puede causar daños en organismos acuáticos, como peces y anfibios, y alterar los ecosistemas acuáticos en su conjunto. Además, existe el riesgo potencial de que estos compuestos puedan llegar a fuentes de agua potable, lo que representaría un riesgo para la salud humana. En este contexto, se hace necesario plantear una investigación exhaustiva sobre la contaminación de suelos y ecosistemas ocasionada por fármacos, es por ello por lo que se propone una línea de investigación enfocada en la adsorción de dichos contaminantes. para reducir (y tratar de eliminar) la presencia de estos compuestos en el ambiente.



METODOLOGÍA

El proyecto partió con la síntesis de los materiales grafénicos y los óxidos metálicos. Para el caso del grafeno primeramente se obtuvo el grafito a partir de la recuperación y tratamiento de desechos de baterías alcalinas, posteriormente mediante el método de Hummers modificado se obtuvo el óxido de grafeno y, a una parte de este, se dio un tratamiento térmico para obtener el óxido de grafeno reducido. Para lograr esto, a una masa de grafito se le agregó una solución de H2SO4 bajo agitación constante, después se agregó KMnO4 y se incrementó la temperatura hasta los 35°C. Luego de dos horas se añadió peróxido de hidrógeno (H2O2) y se dejó reposar la solución durante 40 minutos. Pasado ese lapso, se agregó agua destilada y se aumentó la temperatura. Tras 15 minutos se añadió H2O2 y volvió a reposar por 40 minutos. Cuando se retiró el agua, se añadió ácido sulfúrico en baño frío, se agrega luego KMnO4 y se deja en agitación, al final sin baño frío. Consiguiente a ello, se añadió agua destilada y después H2O2, se dejó sedimentar y se decantó el líquido. Para finalizar, el material se lavó con una dilución de HCl y agua destilada hasta llevar a pH cercano de 7. Se secó en el horno a 90 °C por un día, se trató en ultrasonido y finalmente se llevó al horno bajo las mismas condiciones del inicio. Tras realizar esto, se hizo las síntesis de los óxidos metálicos, los cuales fueron: TiO2, Fe2O3 y ZnO. Una vez obtenidos todos los materiales se procedió a la elaboración nanocompuestos, distintas combinaciones de materiales grafénicos con los óxidos metálicos, en donde se utilizó la técnica de molienda mecánica utilizando un molino planetario. Se elaboraron las soluciones de cada uno de los fármacos a concentraciones de 100 ppm, siendo una solución de amoxicilina con agua destilada y la otra de ibuprofeno con etanol. Al cabo de realizarse las cinéticas de adsorción con los diferentes compuestos se conjuntaron los resultados y fueron implementados para hacer ajustes a distintos modelos matemáticos que describen a las cinéticas de remoción, y así, ser capaces de dar una explicación al fenómeno físico presente. Lo siguiente trató de realizar una simulación computacional con las distintas configuraciones realizadas para así comparar los resultados cualitativos con los cuantitativos de los respectivos ajustes.


CONCLUSIONES

A pesar de que el ajuste más confiable fue el modelo de Elovich, los valores de confiabilidad no fueron tan representativos. Consecuente a esto, se dio por sentado que lo que realmente sucedió en las cinéticas de remoción fueron distintas etapas de velocidad de adsorción, que en su mayoría fue una etapa lenta y después una etapa rápida de adsorción, sucediendo así que el ajuste al modelo de Elovich por etapas, fue muy confiable y ajustable a los datos. De acuerdo con la gráfica de datos de amoxicilina, se observa que la adsorción del fármaco fue menor en la presencia de los compuestos de TiO2 y óxido de grafeno (GO), a diferencia del integrado por la combinación de los anteriores GO-TiO2, cuya cantidad de adsorción fue considerablemente mayor, al igual que en la presencia de grafeno y el de GO-Fe2O3. Por otro lado, los datos arrojados por la adsorción de ibuprofeno indican que la remoción fue menor en la presencia de grafeno y GO. Aunque un poco mayor (pero no demasiado) estuvo la remoción en presencia de óxido de grafeno reducido (rGO) y ZnO por separado, es notable la diferencia del grado de adsorción que se notó con el nanocompuesto de rGO-ZnO, el cual obtuvo casi un 100% de adsorción en un periodo de hora y media. La combinación de compuestos de distinta índole (grafénicos y óxidos metálicos), presenta una propiedad añadida de mayor grado de adsorción en comparación a que si se tuvieran por separado. La ventaja próxima sería que en primera instancia fuesen simulados de manera computacional, esto debido a que los resultados cualitativos estaban acordes a lo previsto de forma cuantitativa en los experimentos.
Landin Rodríguez Oscar Daniel, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

PROTOTIPO IOT PARA SENSAR CO2


PROTOTIPO IOT PARA SENSAR CO2

Landin Rodríguez Oscar Daniel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El 90% de nuestra vida la pasamos en espacios cerrados y, desafortunadamente, no se lleva a cabo un control para el monitoreo de la calidad del aire. Por lo tanto, MediC02 es una herramienta que proporciona información visual y en tiempo real sobre la concentración de gases y aerosoles utilizando tecnología disruptiva. Es necesario conocer la calidad del aire, específicamente la contaminación aérea, para evitar daños permanentes debido a la exposición a gases y aerosoles ambientales, y tomar las medidas necesarias que garanticen la salud de manera equitativa en los lugares donde se utilice. Además, contribuye a las tres dimensiones de la sostenibilidad aplicadas tanto a instituciones públicas como privadas donde se emplee. El sistema tiene como objetivo ser una herramienta para monitorear en tiempo real la cantidad de aerosoles en el entorno y determinar si el aforo y/o la ventilación son adecuados según los espacios. Al aplicarlo en industrias donde la sanitización es importante, como la industria alimentaria para consumo humano o la farmacéutica, también podría ser un complemento para mantener la inocuidad de dichas industrias. Podemos considerar que en las industrias cuyos lugares de trabajo están expuestos al medio ambiente, existe una exposición prolongada y variada a gases presentes en el entorno, lo cual puede indicar el límite para detectar posibles amenazas con un mayor riesgo.



METODOLOGÍA

Primeramente, se realizó una revisión de la literatura sobre los diversos sensores para medir CO2, encontrándose que la mayoría miden gases ambientales y los que son específicos para CO2 son relativamente caros. De la misma manera, se revisó las diversas tecnologías para el Internet de las Cosas, encontrándose que Arduino es una plataforma económica para implementarla, aunque en especifico la placa conocida como NodeMCU es la mas accesible, esta polaca cuenta con un chip ESP8266 que permite la comunicación por medio de WiFi en las bandas de 2.4 y 5 GHz, lo que lo vuelve muy útil para implementarse en redes LAN y MAN. Adicionalmente, permite la programación por Arduino IDE (lo que es muy amigable) y soporta la programación de Web Sockets para comunicación UDP, así como comunicación HTTP (como cliente/servidor) y el protocolo MQTT. El protocolo MQTT (Message Queuing Telemetry Transport), es el más usado en las aplicaciones del Internet de las Cosas (IoT), porque es asíncrono, multitarea y trabaja a tazas de velocidad entre 2 a 3 veces más rápidas que el protocolo HTTP, permitiendo trabajar en tiempo real. Considerando el hardware seleccionado, se procedió a programar la Placa NodeMCU con el protocolo MQTT para publicar los datos recolectados desde un sensor de aerosoles ambientales MQ135. Se utilizó una Raspberry PI 4, como broker para recibir los mensajes de los publishers (MCU + sensor), el bróker se programó con Python, empleando la librería Paho MQTT, cada dato publicado se manda a una base de datos en la nube para que se pueda visualizar en un sistema web.


CONCLUSIONES

La importancia de controlar la contaminación del aire en espacios interiores es que se sabe con certeza si se requiere contar con una mejor ventilación para prevenir complicaciones respiratorias y reducir el riesgo relacionado con la exposición prolongada a niveles medios de CO2. Además la infraestructura del protocolo MQTT, permite conectar n cantidad de sensores un instante y al otro m, siendo m distinto de n, lo que le da una gran flexibilidad en su implementación.
Lara Carpio Rafael, Instituto Politécnico Nacional
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

PROPUESTA DE UN CENTRO DE CARGA PARA UN BARCO ELéCTRICO ALIMENTADO CON MóDULOS FOTOVOLTAICOS.


PROPUESTA DE UN CENTRO DE CARGA PARA UN BARCO ELéCTRICO ALIMENTADO CON MóDULOS FOTOVOLTAICOS.

de la Concha Camarena Diego, Instituto Politécnico Nacional. Lara Carpio Rafael, Instituto Politécnico Nacional. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

La Universidad Tecnológica de Bolívar ubicada en Cartagena, Colombia es una institución responsable con el medio ambiente y que se preocupa por el cambio climático, por esa razón una de sus acciones para contribuir con el cuidado del medio ambiente fue la creación del proyecto AquaBus. Dicho proyecto consta de un barco 100% eléctrico con un centro de recarga de baterías de litio alimentadas por módulos fotovoltaicos, el proyecto propone que las baterías del AquaBus sean intercambiables para maximizar su uso y aumentar la autonomía del mismo. Este proyecto al tener la característica de las baterías intercambiables supone un gran reto, el cual es adecuar el dimensionamiento de los módulos fotovoltaicos al área disponible que se tiene en la estación de recarga, posteriormente debemos de saber el tipo de cargador adecuado para cargar las baterías y así poder determinar el tiempo de carga de las baterías. Este último dato nos ayudará a realizar el dimensionamiento ideal del centro de recarga para que las baterías que no se encuentren en uso estén cargadas con la suficiente energía para que al regreso del AquaBus a la estación de recarga las baterías descargadas puedan ser sustituidas por unas baterías con la carga necesaria para que el AquaBus pueda desempeñar su función de manera eficiente. 



METODOLOGÍA

Con la finalidad de visualizar los retos que supone este proyecto y proponer una solución en base a lo aprendido en la estancia con el Dr. Juan Carlos Martínez Santos se realizó una superestructura la cual está basada en el recorrido cotidiano de un barco en Cartagena, Colombia que va de un punto de partida denominado A a un punto denominado B y viceversa así cumpliendo viajes redondos. En la super estructura también se muestra el desgaste de la carga de las baterías al regreso AquaBus, también se muestran los elementos necesarios para plantear el modelo matemático y se muestran todos los posibles flujos de energía y todas las posibilidades de movilidad que tiene el AquaBus. Con la superestructura a simple vista no podemos conocer los detalles del proyecto como el número de paneles, capacidad de las baterías o los tiempos de carga y descarga de las baterías por esa razón se desarrolló un modelo matemático que nos ayudará a conocer esos datos. Las ecuaciones principales de modelo son las siguientes: Dimensionamiento de Baterías: Tiempo de Carga de las Baterías = Capacidad de la Batería (Ah) / Ccorriente de salida del conversor DC / DC (A) Dimensionamiento de Paneles solares: Numero de Módulos Fotovoltaicos = (Capacidad de las Baterías (Ah)) * (Factor de Seguridad (1.3)) / (Horas de exposición solar (HSP)) * (Potencia del Modulo Fotovoltaico) Producción de Energía Fotovoltaica Producción de energía fotovoltaica = Potencia de Panel (W) * Horas de exposición solar (HSP) * Numero de Paneles Finalmente se realizó un diagrama unifilar del centro de recarga de la instalación en donde se muestran todas las conexiones y los componentes principales del sistema los cuales son: Módulos Fotovoltaicos Protecciones de sobre corriente y sobre voltaje Conversor de DC a DC (Cargador de las baterías) Baterías de lito  


CONCLUSIONES

Este proyecto colabora con el cumplimiento de dos objetivos para el desarrollo sustentable los cuales son el 7. Energía asequible y no contaminante y el 13. Acción por el clima debido a que el AquaBus utilizará únicamente energía limpia por lo que no generará emisiones de CO2 en su uso, ayudando así a la reducción de gases contaminantes. Por otro lado dentro de la estancia de investigación con el Dr. Juan Carlos Martínez Santos aprendí a identificar diversas problemáticas en distintos ámbitos y en base a eso proponer soluciones mediante el desarrollo de modelos matemáticos los cuales aprendí a resolver mediante el lenguaje de programación Rstudio, gracias a los conocimientos y habilidades adquiridas durante la estancia se logró identificar diversas problemáticas las cuales tienen relación directa con las carreras que se imparten en la Unidad Profesional Interdisciplinaria de Energía y Movilidad (UPIEM) del IPN. Uno de los retos más grandes a los que me enfrente en este proyecto fue la creación de un algoritmo que sea capaz de brindarnos los tiempos en los que se demorarán las baterías en cargarse de acuerdo con distintos escenarios teniendo como variable el área disponible para instalar paneles solares, siendo así el número paneles una variable dependiente del área disponible y con esos datos evaluar que tanta autonomía puede tener el AquaBus. Con este algoritmo se busca facilitar el dimensionamiento de sistemas energéticos aislados sustentables para así contribuir a la transición energética implementando energías renovables, no de los objetivos principales de este algoritmo es que sea utilizado para cualquier tipo de proyectos energéticos de movilidad aislados, ya sea de movilidad terrestre o acuática. Al ser un proyecto complejo se requiere más tiempo de trabajo para completar el proyecto por lo que seguimos trabajando y adquiriendo nuevas habilidades para con ayuda del algoritmo creado obtener una solución real a las problemáticas expuestas en este resumen. Complementando la conclusión de este resumen me gustaría adicionar que durante esta estancia de investigación con el objetivo de enriquecer nuestra formación académica y nuestros aprendizajes el Dr. Juan Carlos Martínez Santos en conjunto con el Dr. Edwin Puertas del Castillo nos impartieron clases de inteligencia artificial. Con lo aprendido en dichas clases seguiremos trabajando para poder implementar técnicas de inteligencia artificial en el dimensionamiento de proyectos de energías renovables.
Lara Magaña Juan Luis, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Fernando Ornelas Tellez, Universidad Michoacana de San Nicolás de Hidalgo

IDENTIFICACIóN DE FRECUENCIA Y AMPLITUD VARIANTES EN EL TIEMPO EN SEñALES DISTORSIONADAS DE CORRIENTE ALTERNA


IDENTIFICACIóN DE FRECUENCIA Y AMPLITUD VARIANTES EN EL TIEMPO EN SEñALES DISTORSIONADAS DE CORRIENTE ALTERNA

Lara Magaña Juan Luis, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Fernando Ornelas Tellez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Con la continua investigación, desarrollo y uso de las energías renovables han surgido problemas dentro de las redes eléctricas de transmisión y distribución, tal como es el desbalance de carga-generación de energía, que puede provocar inestabilidad o variabilidad indeseada de la frecuencia (en Hertz) en un sistema eléctrico que está basado enenergías renovables, debido a su alta susceptibilidad a cambios cuando se ve expuesto a fenómenos naturales variables, los cuales pueden ir, dependiendo el sistema, desde cambios en la velocidad del viento para los sistemas que utilizan energía eólica, así como nubes o lluvia en el caso de los paneles solares. Debido a dicha variabilidad, las redes eléctricas pueden exhibir fenomenos indeseados en las variables a controlar, como son cambios en la amplitud de voltaje, fase y variaciones de frecuencia, cuyas consecuencias pueden llavar incluso al sistema eléctrico a presentar apagones o a su colapso parcial o total. Por lo tanto, surge la necesidad de tener nuevos diseños para la identificacion en tiempo real de las variaciones que se dan en una red eléctrica, y de esta forma poder tomar decisiones rápidas y acertadas para corregir posibles problemas en el sistema eléctrico. La presente investigación justo desarrolla una herramienta para identificar variaciones en la frecuencia y voltaje, que puedan servir como base para el diseño e implementación de acciones correctivas.



METODOLOGÍA

Para las simulaciones numéricas del identificador, se utilizaron los Softwares de Wolfram Mathematica y de la herramienta Simulink/Matlab de Mathworks. Se desarrollaron dos programaciones similares en cada Software para realizar un Identificador de harmónicos para parámetros de frecuencia y amplitud desconocidos de una señal AC distorsionada. Se optó por este identificador debido a que ya hay una serie de artículos científicos que siguen esta línea de investigación, por lo que hay información suficiente para realizar una implementación. En primer lugar, se utilizó el software de Mathematica para realizar el programa del identificador, cuyo propósito es estimar en milésimas de segundos el comportamiento de la amplitud y de la frecuencia de una determinada señal AC. Esto se consigue gracias a que el propio programa, además del entorno de programación, ofrece la opción de graficar en tiempo real el comportamiento de una determinada señal en un lapso de tiempo determinado. De esta forma los resultados que obtuvimos para la estimación de la amplitud fueron satisfactorios, debido a que en 20 ms se es capaz de estimar una aproximación a la amplitud que tiene la señal de onda aunque ésta esté variando en el tiempo; en este programa no incluimos que la frecuencia sea variante en el tiempo. En segundo lugar, utilizamos el software de Matlab, y haciendo uso de la herramienta de Simulink creamos un código en varios bloques donde se obtuvo el mismo funcionamiento del código realizado previamente en Mathematica, con la diferencia de que en el código de Simulink se le incluyó la variación en el tiempo de la frecuencia de la señal AC, lo que fue una mejora dentro del programa. Surgió el problema de que el programa se basó en una investigación previa, la cual omitía ciertos parámetros en el modelo matemático contemplado, por lo que el programa estaba, de cierta forma, incompleto. Aún así dando muy buenos resultados y dando una estimación no precisa a variaciones en el tiempo de la frecuencia.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre modelado matemático, Series de Fourier, Ecuaciones Diferenciales, así como el uso de Softwares especializados para el manejo y simulación de modelos matemáticos; además de poner en práctica los nuevos conocimientos adquiridos en un proyecto de investigación, con la finalidad de mejorar el funcionamiento de las redes eléctricas inteligentes como se conocen hoy día, haciendo que éstas sean más robustas y menos propensas a fallos.
Lara Martinez Angel Joel, Instituto Politécnico Nacional
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

OPTIMIZACIóN DE SISTEMAS CAóTICOS APLICANDO PARTICLE SWARM OPTIMIZATION Y GREY WOLF OPTIMIZATION


OPTIMIZACIóN DE SISTEMAS CAóTICOS APLICANDO PARTICLE SWARM OPTIMIZATION Y GREY WOLF OPTIMIZATION

Lara Martinez Angel Joel, Instituto Politécnico Nacional. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los osciladores caóticos son sistemas dinámicos no lineales cuyas trayectorias muestran un comportamiento caótico y son altamente sensibles a las condiciones iniciales. A diferencia de los osciladores senoidales, los osciladores caóticos son capaces de mostrar una amplia diversidad de patrones complejos y aleatorios en sus series de tiempo. Son conocidos por presentar un comportamiento altamente impredecible a largo plazo. Uno de los osciladores caóticos clásicos es el sistema de Lorenz. La Dimensión de Kaplan - Yorke es una medida matemática utilizada para medir la complejidad de los atractores de sistemas caóticos. Se calcula a partir de los exponentes de Lyapunov, usados para medir la convergencia o divergencia de trayectorias cercanas en un sistema dinámico. Esta dimensión proporciona una medida para describir la caoticidad de los sistemas dinámicos, su grado de impredecibilidad y su sensibilidad a las condiciones iniciales. Resulta una herramienta valiosa para caracterizar la complejidad de los sistemas caóticos. En este trabajo, se busca proponer la implementación de métodos metaheurísticos - en particular, Particle Swarm Optimization (PSO) y Grey Wolf Optimizer (GWO) con el objetivo de explorar el conjunto de parámetros del sistema de Lorenz que conducen a la mayor Dimensión de Kaplan-Yorke. Estos algoritmos pueden ser empleados para encontrar las combinaciones de parámetros que generan los atractores de Lorenz con la mayor caoticidad y complejidad.



METODOLOGÍA

Primero, se llevó a cabo una revisión de la bibliografía relacionada con sistemas caóticos, métodos de optimización con metaheurísticas, exponente de Lyapunov y la Dimensión Kaplan - Yorke. Se buscaron investigaciones relevantes sobre la aplicación de métodos con metaheurísticas en la maximización de la Dimensión Kaplan - Yorke en sistemas caóticos. Se programó el modelo matemático del sistema de interés, basado en las ecuaciones que describe su comportamiento con el método Forward - Euler. Se utilizó Python y MatLab para implementar y validar el modelo, permitiendo explorar diferentes condiciones iniciales, propiedades descriptivas y conjuntos de parámetros. Se programaron los métodos de optimización Particle Swarm Optimization (PSO) y Grey Wolf Optimizer (GWO) en Python. Primero, se aplicaron los algoritmos en problemas de optimización de funciones de prueba, y posteriormente se adaptaron los algoritmos para que trabajen específicamente en la optimización de la Dimensión Kaplan-Yorke, tratando de encontrar las combinaciones de parámetros que produzcan la mayor caoticidad del sistema. La dimensión Kaplan-Yorke de los sistemas fue evaluada con ayuda del ejectuable lyap_spec, proporcionado en el paquete de software TISEAN (Time Series Analysis). Se analizaron las series de tiempo en el espectro de Fourier y los valores propios resultantes de la matriz Jacobiana del sistema de ecuaciones del sistema de Lorenz, para discriminar las combinaciones de parametros que no generan oscilaciones, con el propósito de ahorrar recursos computacionales. Los eigenvalores también fueron utilizados para estimar el tamaño de paso y el tiempo máximo durante el que se simulará un sistema caótico. Se llevaron a cabo numerosas simulaciones para explorar el espacio de búsqueda conformado por los diferentes posibles conjuntos de parámetros, buscando maximizar la Dimensión Kaplan-Yorke e identificando así los atractores con el comportamiento caótico más pronunciado, y se aseguró la existencia de soluciones cercanas para cada uno de los experimentos realizados de manera independiente. Todos los resultados obtenidos a través del PSO y GWO fueron cuidadosamente registrados y analizados para su posterior publicación.


CONCLUSIONES

En este trabajo, se llevó a cabo un estudio utilizando métodos metaheurísticos para la optimización de la Dimensión Kaplan-Yorke en el oscilador de Lorenz. Se diseñó un modelo matemático preciso y detallado para simular el comportamiento del sistema de Lorenz, lo que permitió explorar diversas combinaciones de parámetros y condiciones iniciales. Se establecieron criterios de evaluación para identificar los atractores más complejos y caóticos en función de la Dimensión Kaplan-Yorke obtenida. Así, mediante PSO y GWO, se revelaron los atractores con el comportamiento más caótico y sensibles a las condiciones iniciales. Los resultados obtenidos fueron cuidadosamente registrados y analizados, y se presentarán en un artículo científico para destacar la eficacia de los métodos metaheurísticos en sistemas caóticos. Este estudio proporciona información acerca de la complejidad de sistemas dinámicos. Los resultados se enviaran para su publicación a una revista internacional, con titulo de trabajo: Performance comparison among PSO, DE and Grey Wolf for optimizing chaotic systems. La revista tiene su sitio web aquí: https://www.mdpi.com/journal/information/special_issues/FP_Information_2022#planned
Lara Soto Isaac, Instituto Politécnico Nacional
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

RECONSTRUCCIóN 3D DE ARTEFACTOS PARA INTEGRACIóN DE MUSEOS VIRTUALES


RECONSTRUCCIóN 3D DE ARTEFACTOS PARA INTEGRACIóN DE MUSEOS VIRTUALES

Hernandez Luna Laura Giselle, Instituto Politécnico Nacional. Lara Soto Isaac, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La preservación arqueológica y su difusión se ha convertido en un tema de interés generalizado debido a la importancia histórica, los valores sociales, la relevancia económica, y la identidad cultural que conlleva. En México se han aplicado diversas estrategias para fomentar la conservación y protección de bienes culturales. En esta tarea, se involucran entidades gubernamentales y asociaciones privadas como la Coordinación Nacional de Preservación de Patrimonio Cultural del Instituto Nacional de Antropología e Historia (INAH) y el organismo del Fomento Cultural Citibanamex, respectivamente. El INAH, desarrolla continuamente actividades de divulgación cultural como exposiciones de piezas arqueológicas y foros. Los museos han contribuido a los objetivos de la preservación y difusión del patrimonio cultural. De acuerdo con el Sistema de Información Cultural, México cuenta con 1,599 en todo el país. Estas nuevas tecnologías han favorecido las tareas de difusión cultural llegando a públicos más numerosos. Sin embargo, aún con los avances tecnológicos, los recorridos virtuales que se ofrecen actualmente no permiten la interacción directa del visitante con el ambiente o no ofrecen la precisión y exactitud de las piezas arqueológicas digitalizadas. En este proyecto, se emplea un método de reconstrucción óptica de objetos tridimensionales para reconstruir colecciones de artefactos culturales para su posterior integración a museos virtuales. Los resultados confirman la factibilidad de esta tecnología para ofrecer al usuario una mejor experiencia en la apreciación del patrimonio arqueológico.



METODOLOGÍA

La reconstrucción tridimensional de los artefactos se hizo empleando un método óptico de digitalización por proyección de luz estructurada. A grandes rasgos, la reconstrucción 3D se realiza iluminando el artefacto usando el proyector al tiempo que la cámara captura los patrones de franjas resultantes. Posteriormente, la computadora reconstruye digitalmente el objeto a partir de la deformación de las franjas. El arreglo experimental del sistema óptico de reconstrucción 3D consistió en un proyector con una resolución de 800x1280 y una cámara con resolución de 1920x1080. El sistema debe tener estabilidad para asegurar una buena captura de las fotos que serán procesadas. El proceso se inició calibrando ambos dispositivos con el método de calibración de Zhang, donde se hace la estimación de los parámetros a través de la extracción de puntos. Se tomaron cinco fotos de distintas perspectivas de ambos patrones para hacer un procesamiento de segmentación del color de cada foto con el sistema RGB para hacer la identificación de los puntos de interés en cada patrón. Dando como resultado una matriz con los parámetros intrínsecos (tamaño píxel) y otra matriz con los parámetros extrínsecos (posición y orientación). Con el sistema calibrado se prosiguió con la reconstrucción 3D. En esta etapa se hizo la adquisición de las imágenes del objeto iluminado haciendo proyección de franjas.  Al ser elementos culturales es importante mantener sus características más representativas, como los colores, y texturas. Para conseguir la máxima precisión de reconstrucción del objeto, se hizo la toma de un mayor número de imágenes. Se emplearon cuatro rejillas y 16 corrimientos de fase en cada eje X,Y. De esta forma, se realizó una captura de 64 patrones de franjas verticales y horizontales, respectivamente, generando un total de 128 imágenes para realizar el proceso de digitalización 3D por cada artefacto analizado. Posteriormente se hizo la demodulación de fase, para obtener la correspondencia entre los puntos píxel en la cámara y puntos píxel del proyector. Con la matriz de la fase desenvuelta y los parámetros de la posición de los dispositivos se hizo la triangulación por intersección línea-línea. Este método de triangulación considera una cámara libre de distorsión y un proyector con distorsión de lente para determinar la posición de los puntos en un espacio tridimensional. El resultado de este proceso es una nube de puntos que representan la superficie capturada del objeto físico. Después de obtener las nubes de puntos que forman al objeto 3D, se realizó un procesamiento de limpieza para eliminar aquellos puntos que son ruido o están muy dispersos. La herramienta computacional empleada fue MeshLab, la cual sirve para la edición y reparación de figuras tridimensionales con estructura de malla. Posteriormente, se hizo la alineación de las nubes de puntos para obtener una reconstrucción completa del objeto a partir de sus reconstrucciones parciales. Este proceso se realizó en el mismo ambiente de MeshLab con el método Point based, donde se deben seleccionar al menos 4 puntos de coincidencia entre las dos nubes que se pretenden fusionar. Una vez alineadas las nubes de puntos se procedió a su unión y filtrado, continuando con la generación de la superficie haciendo uso del algoritmo Screened Poisson que contiene el software de MesLab. Con la superficie lista se aplicó una herramienta de recuperación de textura, exportando la geometría como objeto al ambiente de Blender para la corrección de vértices prominentes y dotando al elemento de una apariencia más uniforme. Finalmente, la base del objeto se completó con una función de relleno, obteniendo así el modelo sólido del artefacto de interés.


CONCLUSIONES

Durante la estancia de verano se obtuvieron conocimientos teóricos y prácticos respecto a los procesos de digitalización de objetos por medio de luz estructurada, específicamente mediante la proyección de franjas. El trabajo se logró concluir satisfactoriamente obteniendo como resultado superficies completas de las reconstrucciones tridimensionales de los artefactos de interés. Como trabajo a futuro, se mencionan como áreas de mejora los métodos de unión y reconstrucción de las superficies desde las nubes de puntos para que el resultado sea más preciso. 
Largo Suarez Dahiana, Universidad Católica de Pereira
Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato

IMPLEMENTANDO UNA RED NEURONAL ARTIFICIAL EN UN MICROCONTROLADOR DE BAJO COSTO


IMPLEMENTANDO UNA RED NEURONAL ARTIFICIAL EN UN MICROCONTROLADOR DE BAJO COSTO

Largo Suarez Dahiana, Universidad Católica de Pereira. Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El Internet de las Cosas (IoT) ha sido un paradigma tecnológico que ha mejorado y creado nuevos servicios para los usuarios. La capacidad del IoT para comunicar cosas con cosas, cosas con personas y cosas con la nube ha hecho posible adoptar esta tecnología tanto en residencias como en procesos industriales. Sin embargo, se ha visto el surgimiento de nuevos enfoques tecnológicos en el que se relaciona al Internet de las Cosas con algoritmos de Aprendizaje Máquina. Este nuevo enfoque se le ha denominado cómputo en el borde.  Recientemente el combinar algoritmos de machine learning con el paradigma tecnológico del IoT ha promovido el surgimiento de una nueva área de desarrollo llamada Tiny Machine Learning (TinyML) y cuyo objetivo es el desarrollar modelos de procesamiento de datos optimizados para que puedan implementarse en un microcontrolador o sistemas embebidos. Esto permite tomar decisiones en tiempo real de manera autónoma, sin necesidad de enviar los datos a la nube para su procesamiento. En este proyecto de investigación se presenta la implementación de un modelo de red neuronal tipo perceptrón el cual en general es desarrollado en dos etapas: a) Etapa Offline y Etapa Online. Para la etapa Offline se estima el modelo y se entrena en una computadora convencional y cuyo modelo obtenido es implementado en una tarjeta Arduino uno para el procesamiento de los datos de entrada. Los datos de entrada provienen de dos sensores ultrasónicos. Las distancias que son obtenidas por los sensores ultrasónicos son procesadas en tiempo real con el modelo neuronal y la salida del modelo es empleada para activar y desactivar un led. Las variables que se miden en la presente investigación, son los recursos computacionales que se tienen con la tarjeta Ardunio uno tales como el tiempo de procesamiento y respuesta, la memoria. Los resultados y contribución de este trabajo es el estudio de viabilidad y el poder de procesamiento que se tiene con las tarjetas de bajo costo Arduino uno, para la implementación de algoritmos inteligentes en microcontroladores.  Este problema nos permitirá explorar las capacidades de TinyML y las redes neuronales en el contexto del cómputo en el borde, así como abordar desafíos relacionados con el diseño eficiente de modelos y el manejo de recursos limitados. El resultado será un sistema capaz de reconocer, empleando la clasificación binaria de  diferentes distancias en tiempo real, brindando una experiencia interactiva y autónoma para los usuarios a través del uso de sensores y actuadores.



METODOLOGÍA

La metodología de este estudio se basa en la implementación y evaluación de dos enfoques de inteligencia artificial: Redes Neuronales Artificiales (RNA) y Computación Evolutiva. La combinación de estos enfoques resulta ventajosa, especialmente en el entrenamiento de la red neuronal. Se emplea el algoritmo Particle Swarm Optimization (PSO), que modela el comportamiento de un conjunto de individuos. Durante el entrenamiento, cada partícula explora el espacio de búsqueda para encontrar la combinación óptima de pesos y sesgos que minimicen la función de error de la red. La implementación se realiza en Python y se diseñó un circuito para ejecutar las RNA en el microcontrolador Arduino Uno. La aplicación práctica es la clasificación binaria de distancias utilizando dos sensores ultrasónicos HC-SR04 y dos LED. El Arduino Uno captura los datos de los sensores, que miden la distancia entre objetos cercanos y lejanos. Las mediciones se transforman en valores binarios donde "1" representa proximidad detectada y "0" indica lejanía. La red neuronal realiza la clasificación usando una compuerta OR y activa un LED correspondiente si detecta al menos un objeto cercano. Si ambos sensores indican distancias lejanas, se enciende el otro LED. La etapa Offline del proceso involucra el entrenamiento de la red neuronal en una computadora convencional mediante PSO. Cada partícula representa un conjunto de valores que corresponden a los pesos y sesgos de la red. Durante el proceso iterativo, las partículas actualizan sus posiciones y velocidades en función de su desempeño y de las mejores posiciones locales y globales encontradas hasta ese momento. La función de costo utilizada es la función de mínimos cuadrados. En la etapa Online, la red neuronal entrenada se implementa en el Arduino Uno para el procesamiento de datos de entrada en tiempo real. El circuito desarrollado demuestra la viabilidad y eficacia de implementar soluciones inteligentes en microcontroladores de bajo costo para aplicaciones de Tiny Machine Learning. El enfoque del cómputo en el borde permite tomar decisiones autónomas sin necesidad de enviar datos a la nube para su procesamiento, brindando una experiencia interactiva para los usuarios. Con esta metodología, se logra una solución efectiva para la detección de objetos cercanos y lejanos, mostrando la capacidad de procesamiento y toma de decisiones de la red neuronal entrenada junto con los sensores ultrasónicos.


CONCLUSIONES

La implementación de TinyML en microcontroladores de bajo costo a través del programa Verano de Delfín ha demostrado ser una técnica prometedora en el campo del cómputo en el borde. Esta técnica ofrece oportunidades para el desarrollo de sistemas eficientes, autónomos y seguros en el contexto del IoT y otras aplicaciones basadas en microcontroladores. La combinación del IoT con el TinyML presenta un futuro emocionante y abre la puerta a la creación de soluciones inteligentes y autónomas en dispositivos con recursos limitados. Sin embargo, la implementación de redes neuronales en microcontroladores presenta desafíos. Se deben considerar las limitaciones de memoria y capacidad de cálculo de estos dispositivos, lo cual requiere una cuidadosa optimización de los modelos. Técnicas como la cuantización de pesos y la reducción de la arquitectura son necesarias para adaptar los modelos a los recursos limitados disponibles.
Larios Bravo Cristian Armando, Universidad de Colima
Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo

DESARROLLO DE APLICACIóN WEB PARA PROCESO ADMINISTRATIVOS


DESARROLLO DE APLICACIóN WEB PARA PROCESO ADMINISTRATIVOS

Canché Gómez Andy Allen, Consejo Quintanarroense de Ciencia y Tecnología. Larios Bravo Cristian Armando, Universidad de Colima. Olmos Romero Nydia Naomi, Universidad de Colima. Silva Vazquez Ruben Abraham, Universidad de Colima. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El manejo de la información en grandes volúmenes tiene como cargo el saber administrar estas cantidades de una manera eficiente, sencilla y eficaz. Las tecnologías de la información tienen como propósito ayudar al usuario a mantener un orden y manipular esta información de manera sencilla y concisa para él. Nuestro trabajo comienza en desarrollar herramientas para manipular esta información y facilitar el uso de las funcionalidades del sistema al usuario.  



METODOLOGÍA

Para la elaboración de este proyecto se recurrió al uso de diversas tecnologías y herramientas: el framework de PHP Laravel, JavaScript junto con sus frameworks JQuery.js y Node.js, tanto como el Bootstrap. Primeramente, se realizó una inspección del sistema para analizar la funcionalidad del sistema junto con la valoración de las mejoras y requerimientos a implementar, así como para seguir un estándar para vistas y los nombres de los componentes, controladores, modelos, migraciones, entre otros. Resultó indispensable el diseño de una representación visual de la estructura de la base de datos a implementar en el sistema, para posteriormente trasladar dicho diseño de manera lógica en forma de código. Una vez establecida la base de datos (relaciones, tipos de datos a utilizar, etc.) se comenzó a sobre llevar el desarrollo de las interfaces de usuario (frontend) y la lógica detrás de estas (backend). Adicionalmente se establecieron los tipos de usuarios que harán uso del sistema, así como los permisos y restricciones. En el transcurso de la estancia de investigación se pusieron en práctica todos aquellos conocimientos previos del framework Laravel con los que contamos, adicionalmente utilizamos nuevas tecnologías y herramientas que nos fueron de gran ayuda para la realización del proyecto; por ejemplo, la utilización de BitBucket, Git y Github para el control de versiones eficiente nuestro trabajo.


CONCLUSIONES

El aprender diferentes estándares y protocolos de programación fue una parte integral de nuestro aprendizaje durante el desarrollo del sistema, así como tomar en consideración las aportaciones del investigador al aplicar los conocimientos adquiridos. Por otro lado, el sobrellevar los distintos requerimientos solicitados para el sistema fue uno de los mayores retos a los que nos enfrentamos, ya que es un sistema bastante extenso sin embargo las especificaciones siempre fueron claramente indicadas.
Lazaro Garcia Sebastian David, Universidad Tecnológica De Bolívar
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

ANÁLISIS MECÁNICO DE UNA EMBARCACIÓN DE MATERIAL COMPUESTO REFORZADO CON FIBRAS


ANÁLISIS MECÁNICO DE UNA EMBARCACIÓN DE MATERIAL COMPUESTO REFORZADO CON FIBRAS

Lazaro Garcia Sebastian David, Universidad Tecnológica De Bolívar. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Actualmente la industria naval ha sufrido una revolución por la incorporación de nuevas tecnologías y materiales en la fabricación de embarcaciones, consigo mismo el mayor impacto ha sido en los barcos destinados para el recreo y/o placer con el uso de materiales compuestos reforzados con fibras. Una de las ventajas de estos materiales es que permite desarrollar una embarcación que ofrece un alto rendimiento, una excelente relación resistencia-peso y una estética moderna y atractiva para el mercado de embarcaciones de lujo. El diseño del barco se basa en la integración de un casco, elementos estructurales y superestructura. La longitud total de la embarcación (Length) es de aproximadamente 9,2 metros y su anchura (Beam) es de 2,5 metros. El astillero está comprometido con la seguridad y la durabilidad del barco, por lo que es crucial realizar un análisis estructural detallado antes de la construcción. Se deben considerar diferentes aspectos, como la resistencia a la fatiga, las cargas operativas esperadas, la capacidad de carga máxima, la estabilidad en condiciones adversas y la resistencia a impactos y colisiones. Esta clase de análisis se puede realizar con el uso de herramientas de simulación y análisis de elementos finitos (MEF) para evaluar la distribución de tensiones y deformaciones en la estructura de la embarcación. Además, deben asegurarse de que los materiales compuestos utilizados cumplan con las normas y especificaciones internacionales aplicables para embarcaciones de recreo. Entre las principales preocupaciones se encuentran el diseño de refuerzos estructurales y sistemas de sujeción adecuados para soportar las cargas dinámicas y estáticas, así como garantizar la adecuada rigidez del casco y la superestructura para evitar deformaciones excesivas durante la navegación.  El análisis estructural también debe abordar los efectos de la exposición a ambientes marinos, como la resistencia a la corrosión y la degradación por la exposición a la salinidad y la humedad. El éxito del proyecto depende en gran medida de la precisión y confiabilidad del análisis estructural realizado por el equipo de ingeniería y diseño. Una vez que se complete el análisis y se optimice el diseño, se procederá a la construcción del prototipo para realizar pruebas físicas y asegurar que la embarcación cumpla con los más altos estándares de calidad y seguridad.



METODOLOGÍA

1. Definición del Modelo: Obtención de los planos de diseño y especificaciones de la embarcación mediante software de Ingeniería Naval (Maxsurf Modeler). Creación del modelo utilizando un software de análisis estructural (SolidWorks), que represente con precisión la geometría de la embarcación, para este caso solo se tendrá en cuenta el casco. Definición de las propiedades de los materiales compuestos (Fibra de Carbono) y su comportamiento mecánico.  2. Aplicación de Cargas y Condiciones de Contorno: Identificación de las condiciones de carga que afectan a la embarcación durante su funcionamiento, como la carga estática y dinámica debida a la navegación, las fuerzas del mar, el viento, la carga de ocupantes, etc. Aplicación de las cargas y condiciones de contorno al modelo, asegurándose de que sean realistas y representativas de las condiciones de uso previstas, basándose en el cálculo por la RULES FOR BUILDING AND CLASSING - HIGH SPEED CRAFT de American Bureau of Shipping (ABS), Parte 3, Hull Construction and Equipment, su versión de julio de 2022. 3. Malla y Preprocesamiento: Generación de una malla de elementos finitos que divida el modelo en pequeños elementos, lo que permite aproximar la solución de las ecuaciones de equilibrio. Verificación de la calidad de la malla, asegurándose de que esté adecuadamente refinada en áreas críticas y evitando elementos demasiado grandes o pequeños. Asignación de propiedades de materiales y condiciones de contorno a los nodos y elementos de la malla.  4. Análisis y Post-procesamiento: Resolución del modelo mediante el método de elementos finitos para obtener resultados de tensión, deformación, desplazamientos y factor de seguridad. Evaluación de la integridad estructural y la seguridad de la embarcación bajo las condiciones de carga aplicadas. Identificación de áreas críticas que puedan requerir refuerzos o rediseño. 5. Optimización y Validación: Realización de iteraciones y ajustes en el modelo para mejorar su comportamiento mecánico y cumplir con los requisitos de diseño. Validación del modelo mediante comparación con otros materiales y evaluar el comportamiento con Aluminio (Serie 50XX). 6. Conclusiones y Recomendaciones: Documentación y presentación de los resultados del análisis estructural, incluyendo conclusiones sobre la integridad estructural de la embarcación y recomendaciones para mejoras o ajustes en el diseño.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los materiales compuestos reforzados con fibras y ponerlos en práctica con las técnicas de análisis mediante el uso de software, modelando la pieza como sólido o superficie teniendo en cuenta las propiedades mecánicas del material asignado. Se realizaron simulaciones teniendo en cuenta materiales metálicos en piezas sólidas y piezas modeladas como superficies empleando materiales compuestos reforzados con fibra de carbono y fibra de vidrio, obteniendo así el comportamiento de acuerdo con esfuerzos, desplazamientos y factores de seguridad. Por último, la actividad permitió desarrollar conocimientos en análisis de elementos finitos, uso de softwares para simulaciones, manejo de fichas técnicas e interpretación de resultados.
Leal Ramos Felipe, Universidad Tecnológica de Tecamachalco
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

PROTOTIPO DE SISTEMA INTEGRADO PARA AUTODIAGNóSTICO DE PRUEBAS RáPIDAS DE LABORATORIO (PRESIóN, GLUCOMETRíAS, OXIMETRíAS, CARDIO-PULMONARES, EMBARAZO Y OTRAS) PARA CITAS MéDICAS QUE MEJORE LA ATENCIóN EN PROCESOS DE DIAGNóSTICOS MéDICOS.


PROTOTIPO DE SISTEMA INTEGRADO PARA AUTODIAGNóSTICO DE PRUEBAS RáPIDAS DE LABORATORIO (PRESIóN, GLUCOMETRíAS, OXIMETRíAS, CARDIO-PULMONARES, EMBARAZO Y OTRAS) PARA CITAS MéDICAS QUE MEJORE LA ATENCIóN EN PROCESOS DE DIAGNóSTICOS MéDICOS.

Ayala Fontal Juan Carlos, Unidad Central del Valle del Cauca. Leal Ramos Felipe, Universidad Tecnológica de Tecamachalco. Perez Santamaria Oscar, Universidad Tecnológica de Tecamachalco. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Hoy en día en el mundo existen pocos proyectos y dispositivos que analisen y generen resultados de pruebas de toma de exámenes médicos de forma rápida e integral, por tal motivo es importante pensar en este tipo de proyectos que se puedan diseñar, codificar y construir a partir de partes electrónicas que sean favorables considerando los costos de fabricación y ensamblaje. Un proyecto que aproveche los datos de resultados generados por los dispositivos permite la búsqueda de nuevas alternativas para los pacientes donde se fortalezca la forma como se pueden realizar los exámenes de laboratorio médico de forma rápida para evitar retrasos en los diagnóstico que el especialista en la salud le deba formular al paciente. En otro escenario el paciente llega a los centro de salud sin realizarse las pruebas de laboratorio y esto genera retrasos o inconvenientes al especialista en la salud en cuanto a diagnosticar al paciente.  En el proyecto se estudia, diseña, ensambla y evalúa los dispositivos integrados en el sistema de autodiagnóstico de pruebas rápidas de laboratorio por medio de la utilización de modelos de simulación de circuitos que respondan a ¿Cómo hacer para generar los resultados de exámenes de laboratorio de forma rápida para poder realizar diagnósticos médicos? Para poder dar solución a esta pregunta se ha optado por la utilización de la electrónica considerando que esta cuenta con técnicas avanzadas que pueden dar como resultado una aproximación a los valores esperados en la generación de resultados de pruebas rápidas que sean integradas a un mismo dispositivo.  



METODOLOGÍA

Se trabaho en una metodologia de prototipo evolutivo donde se realizaron las siquientes etapas: Recolección de informacion y componetes electronicos para el refinamiento del equipo Modelado, diseño rápido y simulacion de los componentes electronicos  Construcción del Prototipo Desarrollo, evaluación del prototipo Refinamiento del prototipo Producto de Ingeniería


CONCLUSIONES

Este proyecto aprovecha los datos de resultados generados por los dispositivos  electrónicos contribuyendo a incorporar nuevas alternativas para los pacientes donde se fortalezca la forma como se pueden realizar los exámenes de laboratorio médico de forma rápida para evitar retrasos en los diagnóstico que el especialista en la salud le deba formular al paciente. El proyecto es una guía para construir, ensamblar y utilizar este tipo de nuevos sistemas para el diagnóstico de pruebas de laboratorio que ahorran tiempo y costos por ser un prototipo que se realiza desde la academia.  
Leal Ramos Luis Yair, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Oscar Martínez Fuentes, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SIMULACIóN DE CONTROLADOR EN TIEMPO DEFINIDO PARA ROBOT DE 2GDL.


SIMULACIóN DE CONTROLADOR EN TIEMPO DEFINIDO PARA ROBOT DE 2GDL.

Leal Ramos Luis Yair, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Oscar Martínez Fuentes, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El desarrollo tecnológico hasta nuestros días genera soluciones a problemáticas que antes no habría sido posible abordar, sin embargo, a su vez genera nuevos y más específicos desafíos que resulta interesante abordar con nuevas herramientas. El campo de la robótica representa un campo de interés sustancial en diferentes ámbitos como la industria, la agricultura, la medicina, la economía, la milicia, entre muchas otras, resultando de especial interés el modelado y desarrollo de robots manipuladores debido a la versatilidad que estos sistemas presentan para resolver múltiples tareas, es decir, es posible que un solo robot manipulador pueda empeñarse en diferentes contextos sin necesidad de un modelado específico para cada situación. La dinámica de un robot manipulador tiene un comportamiento no lineal, de modo que su análisis de vuelve más riguroso y se desea proponer alternativas de control capaces de generar respuestas rápidas y eficientes ante todo tipo de perturbaciones.



METODOLOGÍA

En este trabajo se ha realizado la prueba en simulación a través de MATLAB/Simulink, del control de un robot de 2 GDL para asegurar que este genere una convergencia adecuada a las posiciones deseadas en un tiempo conocido y resistente a perturbaciones externas. Se conoce el modelo dinámico de un robot manipulador: tau+d=M(q)q''+C(q,q')q'+g(q) Donde tau representa el vector de control dado por una acción de roque, d es el vector de perturbaciones desconocidas pero acotadas, M(q) es la matriz de inercia del robot, C(q,q') es la matriz de Coriolis y fuerzas centrífugas, g(q) es el vector de efectos gravitacionales, q, q' y q'' representan la posición angular, velocidad y aceleración de las coordenadas generalizadas, respectivamente.  El controlador implementado es un control robusto de estabilización en tiempo predefinido, su diseño involucra forzar la dinámica del sistema a la convergencia sobre una superficie deslizante Sr=q'-qr', donde qr' representa la referencia nominal dada por qr'=qd'-alpha(q-qd), donde a su vez qd representa la posición deseada a alcanzar y alpha un factor constante mayor a 0. Esta superficie deslizante ayuda a que las variables del sistema, como son las posiciones y velocidades de las coordenadas generalizadas, tiendan a "montarse" sobre esta superficie deslizante, de modo que si Sr=0, las variables también van a tender a 0 en un tiempo t tau=-(pi/2nTc)(V^(1-n/2)+V^(1+n/2))M(q)Sr+Yr donde n es un parametro escalar entre 0 y 1, y Tc es el valor del tiempo predefinido, y Yr es un término que condensa el efecto de la perturbación y del robot dinámica en la referencia nominal.


CONCLUSIONES

Se ha probado este algoritmo de control considerando los parámetros adecuados, con Tc=1, es decir, un tiempo de estabilización predefinido de 1 segundo, n=0.5, alpha=10^6. Se espera que el robot alcance la posición deseada qd=(1/sqrt(2))[1 1]' con condiciones iniciales q(0)=[0 0]' y q'(0)=[0 0]'. Se requería dar valores a los parámetros del robot manipulador, como es la longitud de los eslabones, las masas y los momentos de inercia, para ello se ha recurrido a obtener los parámetros de un robot real probado. Se ha probado correctamente la convergencia de las variables de estado a 0, en el tiempo que se ha definido de 1 segundo. Se espera seguir trabajando con este modelo de controlador implementado en la plataforma de Simulink para realizar las pruebas correspondientes a otro tipo de controladores para poder con ello generar una comparación de la eficiencia y ventajas que posee cada uno. Cabe señalar que no es trivial generar la implementación de estos controladores en físico, actualmente nos hemos de valer de MATLAB para generar los cálculos y operaciones que requieren una gran demanda del proceso. 
Lemus Chávez Martín, Instituto Tecnológico de Morelia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.


ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.

Barrera Ifarraguerri Erandi, Instituto Tecnológico de Morelia. Benítez Moreno Abraham, Instituto Tecnológico de Morelia. Celaya Cortés Marina, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Sánchez Bustos Itzel Jatziri, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto hidráulico es ampliamente utilizado en la pavimentación y construcción debido a sus roles principales de soportar grandes esfuerzos de compresión y flexión, así como absorber cargas sin deformarse en temperaturas bajas. Sin embargo, el agrietamiento es un problema puntual que afecta sus propiedades. El agrietamiento se debe a tensiones a las que está sometido el concreto y se agrava cuando se expande o contrae, o cuando se aplica carga pesada o cambios en soportes. Para abordar el problema de residuos de plástico, se busca usar fibras de polipropileno reciclado como aditamento en el concreto para aumentar su vida útil de 5-10 años hasta 50 años o más. En términos de seguridad en la construcción, es esencial que las construcciones cumplan con estándares para garantizar el bienestar de las personas. El concreto con fibras ofrece una mejora en sus propiedades mecánicas, y el control de grietas dependerá del tipo y dosis de fibra utilizada. Se busca constantemente mejorar las propiedades mecánicas del concreto mediante la adición de fibras poliméricas y aditivos fluidificantes, lo que ofrece beneficios significativos en comparación con el concreto hidráulico sin fibras. El objetivo de este trabajo es evaluar la variación en el concreto al agregar estas fibras y aditivos fluidificantes.



METODOLOGÍA

Para llevar a cabo esta investigación se realizó un diseño de concreto para calcular la mezcla necesaria para obtener 32 cilindros de 10x20 cm  y 12 vigas de 15x15x60 cm. De los cuales, 18 cilindros y 6 vigas fueron adicionadas con fibras de PP. Se hizo uso del método  de los coeficientes del ACI por su alta fiabilidad en cuanto a resultados. La mezcla fue hecha con agregados de los bancos de materiales de “Joyitas” y “La Roka” ubicadas en Morelia, Michoacán, con cemento portland CPC 30R RS. Los cálculos realizados para el diseño de la mezcla por ACI para vigas y cilindros fueron: - cemento sin adición: 44.29 kg - cemento adicionado: 39.03 kg - arena sin adición: 77.74 kg - arena adicionada: 87.15 kg - grava sin adición: 127.58 kg - grava adicionada: 127.57 kg - agua sin adición: 41.82 kg - agua adicionada: 40.11 kg - fibra adicionada: 0.26 kg - fibra sin adicionar: 0.08 kg La preparación de las mezclas se realizó de forma mecánica con ayuda de una máquina mezcladora de concreto. En cuanto a la mezcla que no tenía aditivos, simplemente fue vertida en los moldes  con un proceso de varillado y golpeteo, caso contrario para los cilindros y vigas adicionadas, la mezcla fue adicionada con fibra de polipropileno en forma tubular alargada en las siguientes cantidades: 0.07 kg para los cilindros y 0.19 kg para las vigas y aditivo fluidificante respectivamente, tomando en cuenta la relación agua/cemento que en este caso fue de 0.62, para su proceso de vertida en moldes fueron sometidos a golpeteo. De los 32 cilindros,16 de ellos fueron testeados y de las 12 vigas solamente 4  para llevar a cabo la investigación; Las muestras fueron sometidas al proceso de curado de 6 a 7 días y 20 a 21 días. Las pruebas de flexión y compresión fueron realizadas por medio de una máquina de ensayos universal a los 7 días para los CSA y VSA (cilindros sin adición, viga sin adición), 6 días para los CA y VA (cilindros adicionados, vigas adicionadas), posteriormente se tomó una segunda toma de prueba de compresión a los 21 días para los CSA y VSA , 20 días para los CA y VA.


CONCLUSIONES

El análisis de mezclas mediante el método ACI arrojó que la mezcla con adiciones modificó las siguientes cantidades de materiales con respecto a la mezcla sin adiciones: -Cemento disminuyó un 12%. -Arena aumentó un 12%. -Grava no experimentó un cambio considerable. -Agua disminuyó un 4%. Las pruebas de resistencia a flexión y compresión arrojaron las siguientes modificaciones con respecto a la mezcla modificada con fibras y aditivos: Resistencia a flexión: -Se observó un aumento del 47% para los 6-7 días de curado. -No se tienen los datos para las muestras a 20-21 días de curado, ya que quedaron pendientes; sin embargo, se espera un comportamiento similar o mejor que a los 6-7 días de curado. Resistencia a compresión: -Se presentó una reducción del 14% para los 6-7 días de curado. -Se registró una reducción del 11% para los 20-21 días de curado. En cuanto a los valores máximos de resistencia, se obtuvo lo siguiente: Resistencia a flexión: -2257 MPa en la edad de curado de 6 a 7 días, presentada en la mezcla modificada. Resistencia a compresión: -11211 MPa en la edad de curado de 6 a 7 días y 13194 MPa en la edad de curado de 20 a 21 días, ambos máximos se observaron en las muestras sin modificar. A pesar de que la teoría sugería que las mezclas con adiciones (fibras PP y aditivo fluidificante) tendrían un mejor comportamiento en la resistencia a la flexión y compresión, los resultados obtenidos mostraron una disminución en la resistencia a la compresión. Esto podría deberse principalmente al proceso de colado, ya que no se realizó un vaciado correcto para la mezcla con adiciones, lo que generó huecos en los cilindros de las pruebas de resistencia a compresión, pero no en las vigas de las pruebas de la resistencia a flexión.
Lemus Paez María Fernanda, Universidad Politécnica de Texcoco
Asesor: Mtra. Rita Rangel Flores, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo

LA LOGíSTICA FERROVIARIA EN MéXICO


LA LOGíSTICA FERROVIARIA EN MéXICO

Lemus Paez María Fernanda, Universidad Politécnica de Texcoco. Asesor: Mtra. Rita Rangel Flores, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En México el servicio de transporte ferroviario de mercancías tiene un indicador de desempeño de la calidad de la infraestructura muy inferior en comparación con los indicadores que tienen en este rubro los países aliados del tratado de libre comercio T-MEC, Estados Unidos y Canadá. Al no contar México con un nivel de calidad en la infraestructura ferroviaria, para el servicio de transporte de mercancías, similar al de los países aliados en el tratado de T-MEC, se convierte en un cuello de botella para atender los compromisos de ese acuerdo comercial de zona libre, impactando negativamente a los eslabones de las cadenas de suministro en el transporte de las mercancías a través de este medio de transporte cuyas principales ventajas son el bajo costo y la capacidad de carga del servicio de traslado.



METODOLOGÍA

El proyecto inició identificando un problema referente a la red ferroviaria, se definieron los alcances de la investigación y el título más adecuado al tema y problemática, esto fue seleccionado en conjunto por la investigadora y la estudiante. Después se consultaron diferentes fuentes de información como revistas, libros, registros y páginas web de instancias gubernamentales e internacionales, descartando la información más obsoleta y resaltando los datos más importantes para realizar el análisis de los diferentes tipos de transporte de mercancías en México, y específicamente los elementos del servicio de transporte de mercancías ferroviario, en este proceso se identificó poca existencia de datos relevantes que aportaran gran impacto en la investigación y no logramos encontrar información con respecto a los procesos logísticos que se realizan en un patio de trenes, esta información sólo se obtendría si teníamos la oportunidad de asistir directamente a una estación ferroviaria, lo cual no nos fue posible.  En la selección de la información sobre el servicio de transporte ferroviario en México, también se identificó que los datos tienen varios años de diferencia, no tienen una continuidad como en los servicios de transporte carretero, aéreo y marítimo. Las fuentes de información más relevantes para la investigación fueron la Secretaría de Comunicaciones y Transporte, INEGI, Agencia Reguladora de Transporte Ferroviario y el Banco Mundial.  Posteriormente, se recopilo la información que cumplia los requisitos para completar el temario que elaboró la investigadora a cargo del proyecto, el cual tenía el objetivo de que en la investigación se fuera comprendiendo los elementos y los términos simples y complejos del servicio de transporte ferroviario, además de realizar una investigación con la información más actualizada aportando un análisis personal de la situación actual, identificando los principales retos y oportunidades que se presentan para el desarrollo de la infraestructura del servicio de transporte ferroviaria. Los datos más relevantes sobre el servicio de transporte ferroviario en México son: Datos obtenidos por la empresa de custodia electrónica Al27 indicó que en 2022 se registraron 13199 reportes de robo al transporte de carga carretero y la Agencia Reguladora de Transporte Ferroviario registró 1996 reportes de robo. Por lo que el ferrocarril presenta mayor seguridad para el traslado de mercancías.  Información consultada en la Secretaría de Comunicaciones y Transportes, y la Agencia Reguladora del Transporte Ferroviario señalan que la longitud de la red ferroviaria representa únicamente el 13.21% de toda la red carretera. En 2022 la movilidad de mercancías a nivel nacional ocupó el puesto número 3 con respecto a los otros tipos de transporte, de acuerdo con registros publicados por el INEGI.  El ranking de redes ferroviarias en el mundo realizado por el Banco Mundial muestran que entre los países participantes en el T-MEC, México es el país que tiene la red ferroviaria de menor cobertura. Finalmente se realiza un resumen de toda la información encontrada para facilitar la exposición y comprensión, agregando gráficos comparativos con otros medios de transporte usados para el transporte de carga en México, entre estos el ferrocarril tiene puntos destacables como la capacidad de carga, el bajo nivel de contaminación y la seguridad de la carga, sin embargo como ya se ha mencionado no es tan destacable su participación en el transporte de mercancías.


CONCLUSIONES

Como resultado de la información investigada y el análisis realizado, la situación de la infraestructura de la red ferroviaria tiene el potencial de que el transporte ferroviario pueda tener mayor participación en la economía y la logística en México. Si fue un proyecto difícil por la poca información actualizada o importante que se logró encontrar pero también es importante mencionar que en los últimos años, se han creado 15 proyectos enfocados al sistema ferroviario, uno de los objetivos de estos planes es el mantenimiento de las vías ya existentes. De acuerdo con el Programa Nacional Ferroviario presentado por la subsecretaría de Infraestructura a través de la Dirección General de Desarrollo Ferroviario y Multimodal de la SICT, seis de estos proyectos se encuentran en construcción, cuatro más están por iniciar y cinco más se encuentran en fase de estudios. Otro proyecto es el Corredor T-MEC que tiene la finalidad de fortalecer el tratado comercial que existe entre México, Estados Unidos y Canadá a través de la construcción de nuevos puertos y vías férreas que faciliten el traslado de mercancías, así mismo para apoyar la estrategia nearshoring para externalizar ciertas actividades o servicios a empresas ubicadas en países cercanos geográficamente, en lugar de hacerlo en países más lejanos. Por lo anterior las cadenas de suministros de los países participantes pueden utilizar la red ferroviaria como parte del transporte multimodal para aprovechar los beneficios que tiene el transporte ferroviario de mercancías en el proceso logístico de distribución.­
Leon Bernal Mariana, Universidad de Guadalajara
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

BIOPLáSTICO DE MUCíLAGO DE NOPAL: BACTERIAS CELULOSAS CON MUCíLAGO DE NOPAL COMO SUSTITUTO DEL PLáSTICO EN APLICACIONES ARQUITECTóNICAS Y SU USO DIARIO


BIOPLáSTICO DE MUCíLAGO DE NOPAL: BACTERIAS CELULOSAS CON MUCíLAGO DE NOPAL COMO SUSTITUTO DEL PLáSTICO EN APLICACIONES ARQUITECTóNICAS Y SU USO DIARIO

Leon Bernal Mariana, Universidad de Guadalajara. López López Abraham Baruch, Instituto Politécnico Nacional. Téllez González Leonardo Jesús, Universidad de Guadalajara. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El uso generalizado de plásticos en la industria de la arquitectura y en productos de uso diario ha llevado a una creciente acumulación de residuos plásticos en el medio ambiente, lo que ha provocado problemas ambientales graves, como la contaminación de los océanos y la degradación de los ecosistemas. Estos plásticos pueden tardar cientos de años en descomponerse, lo que agrava aún más la crisis ambiental. Además, los materiales plásticos tradicionales utilizados en la arquitectura, como ventanas y laminados, no son biodegradables y su producción a menudo implica el uso de recursos no renovables, como el petróleo, lo que contribuye al agotamiento de recursos naturales. El uso excesivo de plásticos ha generado una crisis ambiental global, ya que estos materiales son altamente contaminantes y degradan el medio ambiente de manera significativa. La industria de la arquitectura y el diseño, así como muchos sectores de la vida cotidiana, dependen en gran medida del plástico para crear productos como bolsas, acabados, y láminas que simulen cristales. Con el fin de mitigar los efectos negativos del plástico y avanzar hacia una economía más sostenible y amigable con el medio ambiente, surge la necesidad de buscar alternativas biodegradables y eco amigables. El objetivo principal de este proyecto es desarrollar un material biodegradable basado en bacterias celulosas y mucílago de nopal, que pueda ser utilizado como sustituto del plástico en aplicaciones arquitectónicas y de uso diario. La utilización de bacterias celulosas con mucílago de nopal como sustituto del plástico presenta múltiples ventajas ambientales y económicas. En primer lugar, este material es biodegradable, lo que significa que se descompondrá naturalmente en el medio ambiente sin dejar residuos tóxicos ni dañinos. Además, las bacterias celulosas son una opción sostenible, ya que se pueden cultivar a partir de fuentes renovables y requieren menos energía para producirse en comparación con el plástico convencional. El mucílago de nopal, abundante en diversas regiones de México, aporta propiedades de resistencia y flexibilidad al material, haciéndolo adecuado para aplicaciones arquitectónicas como ventanas y láminas grandes, así como para bolsas biodegradables y otros productos de uso diario.



METODOLOGÍA

Para lograr el desarrollo de este material, se llevó a cabo diversas etapas de investigación y experimentación. Se aislaron bacterias celulosas y se cultivaron en medios improvisados pero adecuados, higiénicos y esterilizados para obtener una producción óptima. Se estudió las posibles aplicaciones arquitectónicas y de uso diario para determinar la viabilidad y la factibilidad comercial de esta alternativa. Se adquirió la cambucha con materias madres para su reproducción, se recolectaron recipientes de plástico y demás materiales e ingredientes como el azúcar, el nopal, servitoallas, alcohol etílico, atomizador, guantes de látex y cubra bocas. Para su reproducción se extrajo el mucilago de los nopales, en diversos recipientes se colocó agua, scooby (bacteria celulosa), azúcar disuelta en agua caliente y el mucilago de nopal apara alimentar a la bacteria, se cubrieron los contenedores para evitar contacto con insectos y cualquier tipo de luz. Después de unas semanas se pudo observar su crecimiento, se recolectaron las bacterias, se extrajeron del liquido y se dejaron secar. Al finalizar su secado se observan los resultados en color, dimensión, forma, consistencia y grosor.


CONCLUSIONES

Se espera que el material desarrollado a partir de bacterias celulosas con mucílago de nopal presente resultados prometedores como sustituto del plástico en aplicaciones arquitectónicas y de uso diario. Su biodegradabilidad y menor impacto ambiental podrían contribuir significativamente a la reducción de residuos plásticos y a la conservación de recursos naturales. Esta investigación podría ser el punto de partida para soluciones más sostenibles en la industria de la arquitectura y en otros sectores. Respecto a los experimento realizados se observo que las bacterias celulosas crecen de una mejor forma alimentándolas con mucilago hervido que crudo.
León Cabrera Frida Isabella, Universidad de Guadalajara
Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional

BIOCERáMICOS MULTIFUNCIONALES PARA APLICACIONES BIOMéDICAS


BIOCERáMICOS MULTIFUNCIONALES PARA APLICACIONES BIOMéDICAS

León Cabrera Frida Isabella, Universidad de Guadalajara. Asesor: Dr. Juan Muñoz Saldaña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La definición de biomaterial propuesta por la II Conferencia de Consenso de la Sociedad Europea de Biomateriales cita: Un biomaterial es un material destinado a interactuar con sistemas biológicos para evaluar, tratar, aumentar o reemplazar cualquier tejido, órgano o función del cuerpo. Los biomateriales se pueden clasificar en metales, polímeros, cerámicos, semiconductores, y compositos. En las últimas décadas se han presentado problemas en la salud que requieren la investigación de nuevos materiales para la ingeniería del tejido. Por lo cual se ha buscado una alternativa en los vidrios.   El biovidrio 45S5 (se encuentra dentro de los biocerámicos) puede sustituir injertos de hueso tradicionales remover desechos y suministrar nutrientes y oxígeno a las células en términos generales es beneficioso  debido a la bioactividad y biocompatibilidad.    El objetivo principal en este verano de Investigación es la obtención de biocerámicos y biovidrios, a partir de diferentes fuentes, tanto biogénicas como comerciales. obtener la mezcla de polvos necesarios en su porcentajes adecuados y de variadas derivaciones en Hidroxiapatita, basándonos en el vidrio 45S5 a partir de su fórmula inicial de Hench para caracterizar, evaluar sus propiedades, estructuras y sus condiciones de creación, seleccionando cúal fórmula es mejor para ser utilizado como materia prima de la fase Nurse Ass modificada, centrándose en su potencial osteogénico y angiogénico, sin embargo, las demás abren panorama para seguir investigando en qué y cómo pueden ser aplicadas.  



METODOLOGÍA

Ya que la fórmula original del 45S5 presenta P2O5 (pentóxido de fosfato, un compuesto altamente reactivo con el aire, generando ácido) se decidió sustituirlo por Hidroxiapatita (HA) en 4 diferentes Bases (Huevo, Bovino, Comercial y Comercial para proyección). Primeramente se realizó la relación estequiométrica de los compuestos para generar 5g de molienda por vial utilizado en el Molino SPEX Sampleprep.   Ya que la fórmula en productos es 45 SiO2 + 25 CaO + 25 Na2O + 6 P2O5  Por lo que los reactivos son 45 SiO2 + 5 CaO + 25 Na2CO3 + 2 Ca10 (PO4)6(OH)2 Utilizando una relación de bolas (Nitruro de silicio) de 10:40, grandes:chicas; obteniendo un volumen de 9,984cm3. 17,159cm3 es nuestro límite en los viales del Molino SPEX Sampleprep. Por lo que para la producción de 5g se necesitaron 1,77g SiO2 + 0,183g CaO + 1,72g Na2CO3 + 1,31g Ca10 (PO4)6(OH)2, estas relaciones generan un volumen de 1,81cm3 (ya que no pasa de nuestro límite, estamos seguro que será una molienda eficiente). Los reactivos son previamente separados y colocados en el horno de convección natural  (Lab Tech) que baja los índices de humedad  (100° C de 1 hora en adelante) al momento de la molienda. Los viales y Bolas de nitruro de silicio son previamente lavados bajo baño ultrasónico (Branson 2510) consistente en 4 ciclos de 1 hora, mientras los viales eran con Agua del grifo, las bolas en 2 de Etanol y 2 de Agua destilada alternandose una y una. Seguido de esto, se colocan las bolas en el horno de convección natural  (Lab Tech) junto con los reactivos para evaporar humedad (100°C de 1 hora en adelante ). Teniendo listos los reactivos y los viales con las bolas, pasamos a la Báscula analitica (Adventurer) se pesan los reactivos cuidadosamente y pasamos lo viales con los polvos a moler. La molienda se realiza por 60 minutos en el Molino SPEX SamplePrep . Una vez teniendo la molienda, se procede a hacer análisis de tamaño de partícula en Sympatec HELOS/BR-OM para hacer comparación cuando ya se hayan realizado los tratamientos térmicos. Por cada muestra se realizan 3 análisis comparando la gráfica de distribución de partícula y densidad. En total se hacen 12 análisis. Luego pasamos a la Prensa (gato hidráulico) para generar pastillas. El dado, émbolo y base, son limpiados previamente, se realiza una presión de 40 kg/cm2 por 3 minutos, se saca y guarda con correcta etiquetación para posteriores análisis. Se realizan las pruebas de DRX y RAMAN. Debido a las limitaciones con los equipos para tratamiento térmico se cambio de objetivos a una Mezcla de HAp (huevo y comercial) más MgO (Óxido de Magnesio )para producir los mismo 5gr pero con porcentajes de 90/10, 80/20 y 50/50, esto para generar una mezcla de recubrimiento con el Cold Spray de Baja.  


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos y prácticos de los recubrimientos para aplicaciones biomédicas, a base de diferentes tipos de Hidroxiapatitas (Base cáscara de huevo, hueso bovino, comercial y comercial utilizada para proyección), para la creación de vidrio Bioactivo, sin embargo, los hornos no estaban habilitados, esto provocó cambiar de objetivos y comenzar los análisis de muestras, primero por análisis de distribución de tamaño de partícula, DRX y  RAMAN con la molienda de reactivos que posteriormente se formó en pastillas para una mejor manipulación.  Además de ello, me capacité en protección y seguridad de laboratorio, HV Hardest Vickers, Sympatec HELOS/BR-OM, Molino SPEX SamplePrep, a realizar pruebas SEM y Raman, además de las prensas hidráulica y uniaxial. Se espera que al realizar los tratamientos térmicos con el horno en buen funcionamiento se llegué a la fase de vidrio (cristalización), realizar análisis de SEM para verificar su composición química, sus propiedades mecánicas y físicas, además de DRX.  
León Félix Jesus Eduardo, Universidad Autónoma de Sinaloa
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

USO DE PASTAS DE RESIDUOS MOLIDOS DE POLIESTIRENO EXPANDIDO CONGLOMERADOS CON YESO Y REFORZADAS CON FIBRAS DE AGAVE TEQUILERO, PARA LA FABRICACIÓN DE PLACAS ALIGERADAS PARA LA INDUSTRIA DE LA CONSTRUCCIÓN”


USO DE PASTAS DE RESIDUOS MOLIDOS DE POLIESTIRENO EXPANDIDO CONGLOMERADOS CON YESO Y REFORZADAS CON FIBRAS DE AGAVE TEQUILERO, PARA LA FABRICACIÓN DE PLACAS ALIGERADAS PARA LA INDUSTRIA DE LA CONSTRUCCIÓN”

Iribe Chaidez Deira Lizeth, Universidad Autónoma de Sinaloa. León Félix Jesus Eduardo, Universidad Autónoma de Sinaloa. Ramirez Rodriguez Ramon Antonio, Universidad de Guadalajara. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

De los resultados obtenidos en ensayos de resistencia mecánica de la tercera etapa de investigación, se observa una tendencia a la dispersión azarosa de las fibras de agave en los cuerpos de las mezclas, esa forma de distribución es indeseable debido a que la resistencia mecánica de la placa se condiciona por la mayor o menor presencia de fibras en diversas zonas de las muestras.



METODOLOGÍA

Primordialmente se trabajó con el método de investigación científica que se resume en los siguientes pasos; observación, reconocimiento del problema, hipótesis, predicciones, experimentación, análisis de los resultados y comunicación de los hallazgos.


CONCLUSIONES

La finalidad de este verano científico fue elaborar placas nuevas, probando nuevas tengas de elaboración mediante, el ajusto de las las fórmulas previamente ya investigadas en otros veranos de investigación, así como el ajuste del monde utilizado para la elaboración de dichas placas, se logró elaborar un total de 10 placas las cuales fueron: Cuatro placas con la formula 123  Cuatro placas con PVA en malla de fibra de penca de agave  Dos placas sin PVA en malla de fibra de penca de agave . Por otra parte también se realizaron placas testigos las cuales tendrían como finalidad de poder realizar comparativas útiles para poder realizar conclusiones, dichas conclusiones ayudarán a poder tomar en cuenta aspectos tanto económicos, como de tiempos de elaboración, las placas elaboradas testigos fueron :  Dos de solo yeso Dos de yeso + fibra  Dos de yeso + EPS Lo anterior redactado, da un informa claro de respecto a la elaboración de placas. Por otra parte, como un resultado añadido, realizamos tambien 2 de los múltiples ensayos que por norma deben realizarse.  Los ensayos realizados en este verano fueron: El ensayo de reacción al fuego  Densidad laminar.  Sin embargo, acerca de los ensayos y sus respectivas comparativas no podemos decir mucho al respecto, ya que quedaron pendiente el resto de ensayos para una continuación próxima.
León González Jorge Eduardo, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez

PROYECTO_INVESTIGACIóN_CISCO


PROYECTO_INVESTIGACIóN_CISCO

González Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán. León González Jorge Eduardo, Instituto Tecnológico Superior de Apatzingán. Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán. Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

la configuracion de antenas es un problemas para muchas personas por el hecho de que muchas veces los han instalado de forma erronea en algunos hogares o lugares publicos. esto pasa porque en los sitios donde han sido instalados no son lo correctos, ya que muchas veces se tiene que en el lugar instalado tienen muchas interferencias. Entonces aqui mostaremos unos metodos los cuales nos ayudaran a poder instalar  de forma seguro una antena o router de red.



METODOLOGÍA

a continuacion se mostrara como configurar un protocolo llamado EIGRP: Para poder habilitar el proceso de EIGRP, se utiliza el comando de configuración global **router eigrp **, donde **asn** corresponde al número del sistema autónomo. El valor de ASN es de 16 bits, por lo que puede ir de 1 a 65535: Para nuestro caso, el ASN que utilizaremos será 10. Si uno de los routers posee un sistema autónomo diferente a 10, estos routers nunca harán vecindad Ahora que se tiene configurada la instancia de EIGRP, se deben habilitar las interfaces para que trabajen con este protocolo. Esto se realiza a través del comando network.  si está habilitado el terminal monitor en la línea donde estamos conectados (vty o consola). Para poder ver las redes que saben los routers, se usa el comando show ip route, pero si queremos ver las redes aprendidas por EIGRP, se le agrega eigrp al final del comando. En la tabla de enrutamiento, las rede que son aprendidas por EIGRP se les asigna la letra D, pero, ¿Por qué no es la letra E? Eso se debe a que cuando salió EIGRP, estaba el protocolo EGP vigente, por lo tanto, este usaba la E,  Como se puede ver, R1 y R2 conocen las redes 172.16.1.0/24 y 172.16.2.0/24 solamente usando el comando network 172.16.0.0 (por falta de imagenes ya que no pueden poner en este apartado, no se es muy explisitiva la explicacion de esta metodologia)


CONCLUSIONES

Con esta investigación esperamos que se pueda informar tanto a nosotros como a la gente sobre la instalación de sistemas de redes Cisco, principalmente antenas, la serie de procesos que se deben llevar a cabo, metodologías para plantear la instalación y cotización de los productos necesarios y la configuración de la misma, así poder garantizar una serie de instrucciones sencillas para permitir a la gente instalar sus propias antenas y satisfacer las necesidades del usuario. Logramos adquirir conocimientos que nos serán de utilidad al momento de ejercerlos en una situación de la vida real, la investigación se centra en la instalación de sistemas de redes, antenas, y computo de redes en general, la información fue proporcionada por Cisco y otros medios como libros acerca de redes, se espera poder ejercer estos conocimientos de manera sabia y responsable. Aprendimos principalmente la teoria basica de los componentes de una red, los equipos que utilizaremos y los protocolos que podremos seguir al realzar una red general.
Leon Navarrete Carlos Esteban, Universitaria Agustiniana Uniagustiniana
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

TECNOLOGíA DE REALIDAD AUMENTADA EN LA INTERACCIóN CON UN ROBOT SCARA.


TECNOLOGíA DE REALIDAD AUMENTADA EN LA INTERACCIóN CON UN ROBOT SCARA.

Leon Navarrete Carlos Esteban, Universitaria Agustiniana Uniagustiniana. Pernett Alvarez Guarli Jose, Universitaria Agustiniana Uniagustiniana. Sanchez Martinez Nicolás, Universitaria Agustiniana Uniagustiniana. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Particularmente en el contexto de universidades, compañías y para las personas en general, el acceso y mantenimiento de un robot SCARA puede ser costoso y poco accesible. En este sentido, la realidad aumentada surge como una herramienta valiosa para superar estas barreras, se abre la posibilidad de beneficiarse de sus capacidades y funcionalidades sin incurrir en los altos costos asociados a la adquisición y mantenimiento de un robot físico. En este contexto, surge la necesidad de abordar el siguiente problema: ¿Cómo maximizar el potencial de la realidad aumentada en conjunto con un robot SCARA para optimizar la economía de recursos, tiempo y gastos en diversas situaciones cotidianas y profesionales? Este proyecto tiene como objetivo principal explorar las posibilidades de la realidad aumentada combinada con un robot SCARA para identificar y desarrollar soluciones que permitan economizar en recursos y tiempo, al mismo tiempo que se mejora la eficiencia y la precisión en diferentes escenarios de aplicación. Al abordar este problema, se pretende establecer una base sólida para el desarrollo y la implementación efectiva de esta tecnología, potenciando su uso en actividades académicas, empresariales y de la vida diaria.



METODOLOGÍA

Para llevar a cabo esta investigación se hace necesario dividirla en etapas, esto con el fin de tener una estructura clara y organizada y así facilitar la planificación, el seguimiento, la gestión de tareas y además de facilitar la medición de progreso del mismo. Las etapas son: Etapa 1: Diseño y Creación de Interfaces de Control para Robot SCARA mediante Realidad Aumentada Como primer paso es necesario definir los modos de operación y requisitos de Interacción del robot SCARA, para después de esto Identificar los modos de operación necesarios, como la manipulación, navegación, junto con los requisitos de interacción, incluidos gestos, acciones, comandos y feedback para cada modo. Por último establecer criterios para evaluar el éxito de las interfaces, como eficiencia, precisión y facilidad de uso. En el segundo paso se lleva a cabo la investigación de prácticas de diseño de interfaces de realidad aumentada, realizando una revisión exhaustiva de literatura sobre diseño de interfaces de realidad aumentada y su aplicación en control de robots y analizar ejemplos de interfaces de realidad aumentada exitosas y extrapolar lecciones clave para aplicar en el diseño. Como tercer paso tenemos la creación de prototipos de interfaces de control en Unity, en este paso es necesario familiarizarse con las herramientas de diseño en Unity y adquirir el conocimiento necesario para diseñar los prototipos iniciales de interfaces de control para cada modo de operación, siguiendo los requisitos de interacción definidos y integrar elementos de realidad aumentada, como objetos virtuales y feedback visual, en los prototipos. El cuarto paso es de pruebas y ajustes de las interfaces de control, en este se implementaron los prototipos en un entorno de prueba con el robot SCARA simulado o real, se realizaron pruebas con usuarios representativos para evaluar la funcionalidad y usabilidad de las interfaces, se recopilaron comentarios de los usuarios y identificaron áreas de mejora, para realizar los ajustes en los prototipos en función de los resultados de las pruebas y retroalimentación de los usuarios. Etapa 2: Evaluación y Optimización de las Interfaces de Control Como primer paso en esta segunda etapa se realizaron las pruebas de eficiencia y precisión, llevándolo a escenarios de prueba que reflejen situaciones reales de uso para cada modo de operación para por último registrar datos cuantitativos y cualitativos de las pruebas para análisis posterior. Ese paso es de iteración y optimización, aquí se analizaron los resultados de las pruebas y se detectaron posibles problemas de eficiencia, precisión o usabilidad. Luego de esto se realizaron los ajustes y mejoras en las interfaces en función de los resultados y conclusiones obtenidos. Se hizo necesario repetir el ciclo de pruebas y ajustes varias veces hasta alcanzar interfaces de control óptimas. Por último la documentación y conclusiones, en este último paso se documenta detalladamente el proceso de diseño, desarrollo, pruebas y optimización de las interfaces de control, es importante resumir los hallazgos clave, lecciones aprendidas y mejoras implementadas en las interfaces para lograr presentar conclusiones sobre la efectividad de las interfaces de realidad aumentada en el control del robot SCARA y su aplicabilidad en otros contextos.


CONCLUSIONES

En conclusión, la implementación de un robot SCARA mediante realidad aumentada nos brinda una solución más económica y accesible para que los estudiantes puedan familiarizarse con estos robots, lo que podría llegar a eliminar la necesidad de adquirir costosos robots físicos. Además, se pudo evidenciar que la realidad aumentada proporciona una experiencia más inmersiva, permitiendo a los estudiantes interactuar de manera más directa con los robots SCARA en un entorno simulado y controlado. Esta experiencia educativa mejora el aprendizaje al ofrecer una forma práctica y visual de entender los conceptos detrás de los robots SCARA y su funcionamiento. Gracias a la realidad aumentada, es posible simular el robot SCARA, lo que permite a los estudiantes practicar y aprender sin estar expuestos a riesgos inherentes al trabajar con maquinaria real, brindando así un ambiente de aprendizaje más seguro y permitiéndoles cometer errores sin consecuencias graves. En general, el proyecto investigativo basado en Unity y realidad aumentada para simular un robot SCARA demuestra ser una alternativa prometedora y efectiva para la educación en robótica. La combinación de estas tecnologías ofrece beneficios educativos, accesibilidad y seguridad, facilitando que los estudiantes adquieran conocimientos prácticos sobre los robots SCARA y se preparen para enfrentar desafíos futuros en el campo de la automatización industrial y la robótica.
Linares Gil Wendy Cristina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

AVENTURA EXPRESS: UN PROYECTO DE VIDEOJUEGO EN REALIDAD VIRTUAL PARA MEJORAR EL CONTROL POSTURAL EN ADULTOS MAYORES CON INESTABILIDAD


AVENTURA EXPRESS: UN PROYECTO DE VIDEOJUEGO EN REALIDAD VIRTUAL PARA MEJORAR EL CONTROL POSTURAL EN ADULTOS MAYORES CON INESTABILIDAD

Carrillo Amezcua Luis Francisco, Instituto Tecnológico de Estudios Superiores de Zamora. Linares Gil Wendy Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural se refiere a la capacidad del cuerpo para mantener una posición estable y equilibrada en diversas situaciones y actividades. Implica la coordinación de diferentes sistemas del cuerpo que trabajan de forma cooperativa para controlar la posición del cuerpo en el espacio. Los adultos mayores pueden presentar deterioro en el control postural que puede conducir a la inestabilidad, esto debido a la maduración de los diferentes sistemas que rigen el cuerpo y que permiten al individuo realizar sus actividades de manera cotidiana. En este contexto no solo se refiere a mantener el equilibrio del cuerpo en movimiento, si no también del cuerpo en reposo por lo cual es importante implementar estrategias para mejorar el control postural en los adultos mayores. Uno de los principales factores que contribuye a la inestabilidad en los adultos mayores es la disminución de la masa muscular y la fuerza, lo que afecta la capacidad para mantener una postura adecuada. Además, la pérdida de densidad ósea y la disminución de la flexibilidad también pueden influir en la estabilidad del cuerpo. Otro aspecto relevante es el declive del sistema vestibular, el cual es responsable de mantener el equilibrio y la orientación espacial. A medida que se envejece, las células sensoriales del oído interno pueden degradarse, lo que puede ocasionar mareos y desequilibrios. Anne Shumway-Cook et al., expresa en su estudio sobre este tema y de acuerdo con su investigación se estima que cerca de 50% de las caídas en personas mayores se deben a la alteración en el soporte de base, el 35% a desplazamientos externos del centro de masa muscular y solo el 10% a eventos fisiológicos.



METODOLOGÍA

En el caso de este proyecto, se trabajó con algunos ejercicios propuestos por PROBAUAM que van dirigidos a personas mayores con inestabilidad, el propósito de esto es hacer que los ejercicios sean más dinámicos y que a la vez el usuario se motive a realizar los mismos, por lo cuál se realizó un minijuego de realidad virtual para que cumpla con lo requerido, pero primero, ¿Por qué implementar la Realidad Virtual? Beneficios de la Realidad Virtual en el Ejercicio Dinámico: Estimulación Sensorial: La realidad virtual proporciona una experiencia multisensorial inmersiva, estimulando los sistemas visuales, vestibulares y sensoriales de manera controlada. Esto puede mejorar la percepción del cuerpo en el espacio y promover una mayor conciencia corporal. Entrenamiento Adaptativo: Permiten adaptar el nivel de dificultad y complejidad de los ejercicios según las capacidades individuales del paciente. Seguridad y Control: La RV ofrece un entorno seguro y controlado para realizar ejercicios, lo que es especialmente relevante para personas con inestabilidad que pueden temer caídas durante la rehabilitación Mayor Compromiso y Motivación: La naturaleza interactiva de la RV a menudo aumenta la motivación y el compromiso del paciente con el programa de ejercicios. En este caso, se decidió trabajar con un ejercicio específico proporcionado por PROBAUAM el cual consiste en que el paciente debe permanecer sentado con brazos a los lados y movilizar el tronco en diferentes direcciones (derecha, izquierda y al frente respectivamente). Este tipo de actividad de recuperación es frecuentemente empleada para fortalecer y estimular los músculos centrales del cuerpo y mejorar la conciencia corporal.  Los músculos centrales o axiales, que se encuentran en la zona del tronco y la pelvis, forman una compleja red muscular. Estos incluyen los músculos abdominales, lumbares, así como los músculos de la cadera y la pelvis. Su función es esencial para mantener una postura adecuada, asegurar la estabilidad de la columna vertebral y equilibrar el cuerpo. Cuando una persona se inclina en diferentes direcciones mientras está sentada, los músculos del núcleo se activan para mantener el equilibrio y prevenir caídas. Este tipo de movimiento ayuda a fortalecer y entrenar estos músculos, permitiéndoles responder de manera más eficaz a los desafíos de postura y equilibrio que se presenten en la vida cotidiana. Al ver que existían muchas propuestas de este ejercicio que no cumplían las expectativas, surgió la motivación de crear Aventura Express que es un juego en realidad virtual el cual consiste en un pequeño vagón de tren donde el jugador permanecerá sentado, rodeado de un gran jardín con muchos elementos llamativos que podrá visualizar durante el recorrido. A lo largo del trayecto, el usuario se encontrará con una serie de obstáculos estratégicamente colocados en las vías del tren. Desde árboles, grandes rocas, señales y túneles, deberá estar alerta y preparado para actuar rápidamente. Para esquivar los obstáculos, simplemente el usuario debe inclinarse físicamente en la dirección hacia donde deseas moverte. Si el obstáculo está a la derecha, deberá inclinarse hacia la izquierda; si está a la izquierda, debe inclinarse hacia la derecha. ¡Incluso puedes mover tu torso hacia adelante si el obstáculo se encuentra justo encima del vagón! Para ganar o perder el juego, el jugador debe esquivar la mayor cantidad de obstáculos en 3 vueltas que dará el vagón en movimiento, ganará si en esas vueltas el jugador consigue la mayor cantidad de puntos y perderá si ocurre lo contrario.


CONCLUSIONES

El desarrollo de este proyecto superó nuestras expectativas y resultó ser una experiencia emocionante y divertida para nosotros. A pesar de no haber podido probarlo con personas externas, estamos satisfechos con el resultado obtenido y creemos firmemente que cumple con el propósito original de proporcionar una experiencia de entretenimiento única y desafiante para los jugadores, así como ayudarlos en sus rehabilitaciones de fisioterapia para mejorar su calidad de vida. Confiamos en que hemos creado un producto de calidad que captura la emoción y la diversión que buscábamos transmitir. Se planea llevar a cabo pruebas con usuarios en el futuro para recopilar comentarios y realizar ajustes si es necesario, de modo que podamos ofrecer una experiencia aún más satisfactoria.
Linn Wong Pedro Yahvé, Universidad Politécnica de Sinaloa
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

ESTUDIO DEL POTENCIAL EóLICO Y DE FLUJOS DE POTENCIA DE UN PARQUE EóLICO EN LA LOCALIDAD DE SANTA MARíA DEL MAR, OAXACA, MéXICO.


ESTUDIO DEL POTENCIAL EóLICO Y DE FLUJOS DE POTENCIA DE UN PARQUE EóLICO EN LA LOCALIDAD DE SANTA MARíA DEL MAR, OAXACA, MéXICO.

Linn Wong Pedro Yahvé, Universidad Politécnica de Sinaloa. Valdez Sanchez Alexander, Universidad Politécnica de Sinaloa. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad es de suma importancia buscar la sostenibilidad mundial en cualquier actividad humana debido a que existe una gran demanda de insumos para la elaboración de cualquier producto que satisfaga una necesidad humana, pero sin que esta contribuya a la contaminación para poder lograr una mitigación en el calentamiento global y cambio climático. A si a su vez el consumo de energía eléctrica mundial se eleva anualmente, debido a la modernización que se tiene en todos los sectores. La generación de energía eléctrica también se cataloga como un producto el cual puede tener una gran variedad de insumos para su producción, pero que actualmente la mayoría de estos son provenientes de fuentes fósiles. Es por ello que es de suma importancia iniciar una transición de matriz energética a una la cual sea dominada por fuentes limpias y renovables. Es por eso que se tiene como objetivo analizar la viabilidad y beneficios que puede tener la instalación de un parque eólico en una comunidad, en este caso se seleccionó Salinas Cruz, Oaxaca. Con el proyecto ‘’Estudio del potencial eólico y de flujos de potencia de un parque eólico en la localidad de Santa María del Mar, Oaxaca, México’’. Buscando aprovechar el recurso eólico disponible, como una alternativa al uso de fuentes de energía eléctrica convencionales.



METODOLOGÍA

Se seleccionó Santa Maria del Mar, Oaxaca para realizar el estudio, debido a que esta cuenta con ubicación cercana a grandes fuentes del recurso eólico como lo es el istmo de tehuantepec. Se explicaran algunos pasos que se realizaron para el análisis de viento y posteriormente el análisis de flujo de potencia. Para obtención de los datos necesarios, se utilizaron registros de la NASA POWER LARC correspondientes a los años 2018-2022.  Se extrapolaron las velocidades de viento desde la altura de 50m a una altura de 150 metros basado en la ley de Hellman. Se calcularon los parámetros de concentración y dispersión del viento mediante las fórmulas de la media aritmética, desviación estándar e intensidad de turbulencia. Se realizaron estudios de distribuciones de frecuencias. Se calculó las frecuencias relativas, las frecuencias acumuladas menores o iguales y las frecuencias acumuladas mayores de viento . Estos análisis proporcionaron información sobre la ocurrencia de velocidades de viento específicas y su importancia para el diseño del parque eólico. Fue posible estimar la energía que generaría un aerogenerador en el parque eólico. Este se seleccionó en base a la velocidad media del viento y la velocidad de producción nominal del aerogenerador. Al multiplicar las horas por la energía generada a diferentes velocidades de viento, se pudo obtener la energía que puede producir un solo aerogenerador. Adicionalmente, se utilizó la función de Distribución de Probabilidad de Weibull (FDPW) para predecir las velocidades de viento más probables en función de los parámetros de centralización y dispersión presentes en el año. 


CONCLUSIONES

Los resultados obtenidos en general fueron realmente buenos, comenzando con el estudio de viento, se tiene que la extrapolación de datos gracias a la ley de Hellman tuvo un aumento en su magnitud considerable. Mientras que el comportamiento que se tuvo en el año promedio fue más uniforme por lo que es un buen punto para comparar con velocidades de años futuros. Se tiene una velocidad promedio de 9.19 m/s lo cual es buena. La distribución de viento muestra que la mayoría de la frecuencias rondan entre los 4,5,6 m/s y tienen un descenso uniforme hasta los 18 m/s. En cuanto la dirección de este mismo es favorable, ya que la mayoría del tiempo suele dirigirse hacia el norte con lo que el choque entre pala y viento sería mayormente perpendicular sin consumo de corriente para la rotación de la góndola. Gracias a la distribución de frecuencia y la curva característica de potencia del aerogenerador, podemos obtener la energía que este produciría en 1 año que sería alrededor de 20 GWh. Para el estudio de flujos de potencia, se calculó que por el espacio de la zona se pueden instalar alrededor de 11 aerogeneradores  por lo que se optó por solamente 10 los cuales respetan un espaciado de 520 entre aerogeneradores . En conjunto se estima que generen 200 GWh al año los cuales pueden satisfacer la demanda eléctrica de Salinas Cruz y otros pueblos cercanos si así se requiere. El estudio de potencia mostró que dicha central estaría consumiendo una demanda de 20.464 MVAr los cual es una gran cantidad de potencia reactiva, por lo que se dimensionó y agrego un banco de capacitores el cual pudo reducir dicha potencia y crear una central eléctrica la cual no perjudique a la red eléctrica nacional. Con esta información se redactó el artículo Estudio del potencial eólico y de flujos de potencia de un parque eólico en la localidad de Santa María del Mar, Oaxaca, México.
Llamas Becerra Joahan Fernando, Instituto Tecnológico de Tepic
Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato

DETECCIóN DE EMOCIONES Y EXPRESIONES EMPLEANDO DIADEMA EPOC+ E INTELIGENCIA ARTIFICIAL


DETECCIóN DE EMOCIONES Y EXPRESIONES EMPLEANDO DIADEMA EPOC+ E INTELIGENCIA ARTIFICIAL

Castañeda Álvarez Luis Adrián, Instituto Tecnológico de Tepic. Castro Lopez Angel Gustavo, Instituto Tecnológico Superior de Irapuato. Llamas Becerra Joahan Fernando, Instituto Tecnológico de Tepic. Asesor: Dra. Miroslava Cano Lara, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Es posible determinar el estado emocional de un individuo examinando las características musculares del rostro. Dicha posibilidad ha despertado un creciente interés en distintas áreas acerca del análisis de regiones específicas del rostro. Interés que ha llevado al desarrollo de diversos métodos de detección, de los cuales, los más rudimentarios presentan una intervención directa en el rostro del individuo. Este contacto puede crear una sensación constante de incomodidad y llegar a alterar los resultados al interferir en las emociones en el sujeto de estudio, razón por la cual se ha buscado implementar sistemas que realicen esta tarea de manera no invasiva al usuario.  Siguiendo este principio, el presente trabajo aborda la implementación tres metodologías de detección de expresiones faciales y emociones; la primera metodología hace uso de la diadema EMOTIV EPOC+, la segunda se fundamenta en una red convolucional MTCNN y la tercera toma cimientos en una librería de Python con Machine Learning. Esto con la finalidad de realizar una comparativa estadística de la precisión del sistema en conjunto.



METODOLOGÍA

Método 1 | Diadema Emotiv Epoc + y Emotiv Xavier. Un sistema BCI permite emplear la diadema Emotiv Epoc+ en conjunto con el software Xavier Control Panel para extraer los pulsos eléctricos emitidos por los músculos faciales teniendo la capacidad de comprender y entender cómo las expresiones faciales y emociones son generadas de forma nativa en las regiones del cerebro/rostro. Para lograr una correcta detección de las expresiones faciales es necesario entrenar el sistema BCI. Se establece que las expresiones faciales de estudio neutral, levantamiento de cejas y sonrisa, se asigna una emoción para su identificación. Se completó un total de 9 entrenamientos de los cuales se asociaron 5 entrenamientos para la expresión neutral, 3 para sorpresa (levantamiento de cejas) y 3 para alegre (sonrisa grande mostrando los dientes).  Método 2 | Detección de emociones por MTCNN. Para la segunda metodología, se hizo uso de un modelo de redes neuronales MTCNN (Multi-Task Cascaded Convolutional Networks) implementado en Python, capaz de detectar uno o varios rostros dentro de un video en tiempo real. Su funcionamiento se basa en la conexión en cascada con tres redes convoluciones que leen la imagen original donde la transforman a diferentes escalas para detectar la presencia de un rostro. Cada red trabaja a distinta profundidad de análisis donde se procesa el rostro en la imagen leída según su clasificador.Para dar robustez a la detección se implementó la librería de Python TensorFlow, donde se llama a un framework que contiene estructurada la base de datos compuesta de una gama de fotos predeterminadas. Comparando los datos obtenidos de la red, con los datos almacenados por TensorFlow, se determina la emoción capturada por el individuo. Las emociones que puede detectar este algoritmo son molestia, disgusto, miedo, alegre, neutral, tristeza y sorpresa. Se estudiaron las emociones neutral, alegre y sorpresa, las cuales se clasifican en un porcentaje predominante. A su vez, se detectan las posibles emociones de las expresiones realizadas. Dicho monitoreo se realiza mediante un gráfico de barras generado con el uso de la librería matplotlib, además de la video-captura del rostro con librería OpenCv . Método 3 | Análisis de proporciones faciales mediante Mediapipe. La tercera metodología se apoya fuertemente en la librería de Python, Mediapie. Una plataforma de código abierto con arquitectura de pipelines (procesos informáticos secuenciales) fundamentada en Machine Learning.  El método está dividido en dos códigos, uno dedicado a la extracción de frames y el segundo se enfoca en el procesamiento de los frames para determinar ciertas proporciones de la cara. Para el primer código, se hizo uso de OpenCV y OS. Se lee un video de entrada desde un directorio y lo procesa para extraer 300 frames del mismo. Posteriormente los almacena en una carpeta particular dónde se puede acceder a cada grupo de frames de manera independiente. El segundo código accede a las carpetas para procesar cada imagen individualmente. Usando Mediapipe, se aplica una malla facial llamada Landmark a cada rostro en los frames extraídos que permite el seguimiento de una selección de puntos en la cara, de los cuales se determina una recta y una distancia. Se obtiene la relación entre estas distancias obtenidas y se generan dos proporciones; una dependiente de las cejas y otra dependiente de la boca. Finalmente, el código toma las proporciones y las envía a una carpeta externa como archivo .csv en excel. Con el desarrollo del método es posible observar momentos específicos del video dentro de los frames, además del comportamiento presentado por las proporciones faciales, conectando así, los datos extraídos con la detección de emociones del sujeto.


CONCLUSIONES

A través de la adquisición de conocimientos teóricos respectivos a las expresiones faciales, micro expresiones, emociones, interfaces BCI, etc, se implementó el uso de hardware comercial especializado como la diadema EMOTIV EPOC+, además del diseño de algoritmos fundamentados en IA y Machine Learning, para la detección de expresiones faciales y emociones. También se ahondó en temas referentes a la programación, el uso de la plataforma Python y la identificación de distintas librerías aptas para la realización de nuestro proyecto. Usando distintas metodologías, se realizó un muestreo de conjunto en tiempo real dónde se generó una base de datos para su análisis, la cual facilitó el entendimiento de estos sistemas y ayudó a la detección de emociones.
Llamas Bernal Veida Michell, Universidad Tecnológica de Nayarit
Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla

TRAZANDO EL FUTURO EDUCATIVO: UN MODELO PREDICTIVO PARA LA DETECCIóN TEMPRANA DE ESTUDIANTES CON ALTO RIESGO DE REPROBACIóN ACADéMICA


TRAZANDO EL FUTURO EDUCATIVO: UN MODELO PREDICTIVO PARA LA DETECCIóN TEMPRANA DE ESTUDIANTES CON ALTO RIESGO DE REPROBACIóN ACADéMICA

Hernandez Briones Benny Emerson, Universidad Tecnológica de Nayarit. Llamas Bernal Veida Michell, Universidad Tecnológica de Nayarit. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Mediante el informe se presenta un enfoque innovador mediante un modelo predictivo basado en Regresión Logística para identificar a estudiantes con alto riesgo de reprobación académica. Se explica cómo este modelo se fundamenta en datos académicos y de rendimiento previo de los estudiantes y se destaca su utilidad para brindar apoyo proactivo y personalizado a aquellos que lo necesitan. Obteniendo que el modelo predictivo basado en Regresión Logística es una herramienta valiosa para mejorar la retención y el éxito académico, contribuyendo a una educación más inclusiva y efectiva.



METODOLOGÍA

La metodología se desarrolló de manera general en 4 fases, para de esta manera lograr trabajar de manera secuencial y ordenada, cada una de las fases se subdivide en distintas tareas y se explica detalladamente a continuación. Fase 1: Comprensión de los datos: Se llevó a cabo una exhaustiva recopilación de datos con el propósito de establecer un primer acercamiento al complejo problema de detección temprana de estudiantes con alto riesgo de reprobación académica. Se obtienen las siguientes tareas generales: Recolectar datos iniciales. Descripción de los datos. Exploración de los datos. Verificar la calidad de los datos. Fase 2: Preparación de los datos: En esta fase crítica, se realizó una minuciosa preparación y adaptación de los datos para asegurar que estén en la forma adecuada y listos para ser utilizados en el modelo predictivo. Se obtienen las siguientes tareas generales: Seleccionar los datos. Limpiar los datos. Construir los datos. Integrar los datos. Formateo de los datos. Fase 3: Modelado:  En esta fase de Modelado, nuestra contribución fue determinante para abordar de manera efectiva el problema de detección temprana de estudiantes con alto riesgo de reprobación académica. Se obtienen las siguientes tareas generales: Escoger técnica de modelado. Generar el plan de prueba. Construir el modelo. Evaluar el modelo. Fase 4: Evaluación: En esta fase final, se llevó a cabo una evaluación rigurosa del modelo para determinar su capacidad de detección temprana de estudiantes con alto riesgo de reprobación académica. Se obtienen las siguientes tareas generales: Evaluar los resultados. Revisar el proceso. Determinar los próximos pasos.


CONCLUSIONES

El modelo predictivo basado en Regresión Logística ha demostrado alta efectividad en detectar tempranamente estudiantes en riesgo de reprobación académica, con precisión, recall y F1 Score cercanos al 100%. Su aplicación permite estrategias de intervención temprana y apoyo personalizado, mejorando la retención y el éxito académico. Futuras investigaciones deben explorar otros algoritmos de aprendizaje automático e incluir factores adicionales en el rendimiento académico. Es una valiosa herramienta para educadores y consejeros, respaldando la toma de decisiones basada en datos, buscando un sistema educativo más sólido y equitativo.
López Aguado Ana Isabel, Instituto Politécnico Nacional
Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco

MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL


MANTENIMIENTO PREDICTIVO EN EL SECTOR INDUSTRIAL

Fernandez Hernández Juan Joel, Instituto Tecnológico Superior de Ciudad Serdán. López Aguado Ana Isabel, Instituto Politécnico Nacional. Asesor: M.C. Manuel Pérez Villegas, Universidad Tecnológica de Tecamachalco



PLANTEAMIENTO DEL PROBLEMA

Actualmente la maquinaria y equipos son necesarios para todos los procesos industriales, hospitales, hoteles y cualquier tipo de empresa pública o privada, debido a ello, el mantenimiento es una parte esencial para un buen desempeño. Todo producto tiene una vida útil, las máquinas están compuestas por piezas que van sufriendo un deterioro; el mantenimiento tiene el objetivo de prolongar su vida útil y al mismo tiempo lograr un funcionamiento óptimo de las instalaciones industriales, trayendo consigo beneficios tales como: seguridad del operario, reducción de costos, disminución de pérdidas y mejora de la calidad.   Los principales tipos de mantenimiento son: mantenimiento correctivo, preventivo y predictivo, el primero corrige las averías una vez que son evidentes, mientras que el segundo establece plazos de tiempo para hacer intervenciones en la máquina, sin embargo, ambos tienen como problemática un aumento en los costos, es por ello que el predictivo realiza monitoreo de condición a la máquina sin necesidad de detenerla, logrando predecir futuras fallas. En la Universidad Tecnológica de Tecamachalco (UTTECAM) se cuenta con diversas máquinas, equipos y sistemas industriales y por lo anteriormente mencionado, es que en este verano de investigación se estudiaron las técnicas del mantenimiento predictivo y se aplicaron en las instalaciones de la UTTECAM.



METODOLOGÍA

Se tomaron cursos de preparación para complementar el conocimiento sobre el mantenimiento predictivo, en el primer curso realizamos cordones de soldadura para unir piezas. Después se aprendió sobre la producción de energías renovables, realizamos cálculos y empleamos el equipo necesario para la instalación de paneles fotovoltaicos y calentadores solares, finalmente se vieron los procesos y las máquinas empleadas en la inyección de plásticos y se conocieron las instalaciones, principalmente las instalaciones de procesos de alimentos. Paralelamente se vieron las técnicas de mantenimiento predictivo, primero se estudió la inspección visual, dicha técnica permite detectar defectos superficiales usando solo la visión y herramientas como el boroscopio, con lo aprendido se hicieron pequeños ensayos de análisis en herramientas y utensilios de los laboratorios de mantenimiento. Posteriormente se usaron líquidos penetrantes. Cabe hacer mención que para cada técnica existen normas ASTM, ISO, NOM u otras que sirven como guía para la aplicación y para la evaluación de los resultados. Para este caso es la familia de normas ASTM E 165, la cual fue explorada para la correcta ejecución de los ensayos realizados en las piezas soldadas durante el primer curso, en dichas piezas se lograron identificar los defectos en la soldadura. Partículas magnéticas fue la técnica posteriormente abordada, se estudió la norma NOM-020-STPS-2011 y después de conocer el yugo electromagnético procedimos a realizar ensayos en la soldadura de estructuras metálicas del laboratorio de mantenimiento, con esto observamos fisuras superficiales y subsuperficiales y pudimos definir su nivel de riesgo. Después se estudió la técnica de termografía infrarroja, estudiamos los principios de funcionamiento y operación de la cámara termográfica, que mide la radiación infrarroja emitida por un cuerpo, se estudió las configuraciones de visualización y el correcto uso e interpretación de este, para ello se realizaron pruebas en diferentes equipos y materiales de la UTTECAM. Se estudió el análisis de vibraciones, primero se abordó la teoría sobre los espectros de vibraciones, a los cuales se les aplicaba la transformada de Fourier, con ello se lograron identificar las frecuencias fundamentales y habiendo conocido el equipo y estudiado la norma NOM-024-STPS-2001, se procedió a realizar lecturas en las maquinas industriales de la UTTECAM, en las cuales se identificaron los componentes relevantes en el espectro de vibraciones, así como el estado general de la máquina. La recolección de datos se realizó con el analizador de vibraciones ADASH VA3PRO.  Se utilizó la lámpara estroboscópica para poder detectar las RPM de los motores de las máquinas estudiadas que no tenían placa de datos, ya que éste era un dato necesario para realizar el análisis de vibraciones. También se utilizó el equipo para realizar balanceos dinámicos, con apoyo del tacógrafo y el acelerómetro incluidos. Finalmente se abordaron técnicas de manera teórica; el ultrasonido nos permite detectar anomalías en maquinaria antes de que sean evidentes, como pequeñas fugas o fisuras, se consultó la norma ASTM E 114-10, diferentes equipos, proveedores, y los principios de funcionamiento. Se abordó el análisis de lubricantes, se conocieron los diferentes equipos y técnicas que existen según el tipo de contaminante en el lubricante, desde contador de partículas hasta espectrometría de infrarrojos. De igual forma estudio la técnica de emisiones acústicas, la cual permite localizar fugas, grietas o fallas en equipo a presión o maquinaria. Por último, se estudiaron las pruebas hidrostáticas, enfatizando que todos los equipos sometidos a presión deben ser inspeccionados y deben aprobar las normas vigentes.  Se revisaron diversas normas, como la NOM-020-STPS-2011.  Para conocer la ejecución analizamos estudios que realizan proveedores de tanques a presión.


CONCLUSIONES

De los estudios aplicados a las máquinas se concluye que, en el compresor, torno y taladro una intervención es innecesaria, ya que operan de manera intermitente y no son utilizados para trabajo de precisión, además, se logró comprobar que mientras más alejado se encuentre el sensor del motor habrá un mayor rango de error. La correcta implementación de las técnicas del mantenimiento predictivo son una inversión estratégica para la industria que busca alcanzar un alto nivel de confiabilidad y rendimiento en sus activos. La combinación de estas técnicas ofrece una visión integral del estado de los equipos, permitiendo una gestión eficiente y un mejor aprovechamiento de los recursos, lo que conlleva a un sector industrial más competitivo y sostenible.
López Arias Ernesto Leonardo, Universidad Tecnologica de León
Asesor: Dr. Heraclio García Cervantes, Universidad Tecnologica de León

PROGRAMACIóN DE SISTEMA AUTOMATIZADO PARA MEDICIóN DE PARáMETROS FíSICOS UTILIZANDO REALIDAD AUMENTADA E INTERNET DE LAS COSAS.


PROGRAMACIóN DE SISTEMA AUTOMATIZADO PARA MEDICIóN DE PARáMETROS FíSICOS UTILIZANDO REALIDAD AUMENTADA E INTERNET DE LAS COSAS.

López Arias Ernesto Leonardo, Universidad Tecnologica de León. Villalpando Alonso Pablo Raziel, Universidad Tecnologica de León. Asesor: Dr. Heraclio García Cervantes, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

En la industria, la eficacia de los procesos muchas veces puede verse comprometida, debido a que muy a menudo no se suelen alcanzar los parámetros requeridos para acatar el control de calidad, generando como consecuencia una disminución parcial e incluso total en la producción, en muchas empresas, el prescindir de una producción continua y eficaz representa una pérdida significativa de recursos, tales cómo, tiempo, capital, materiales, entre otros. Muchas veces, la interacción hombre-máquina es bastante lenta, esto es causado por diversos factores, tales cómo, el transporte de maquinaria es lento, invasivo, costoso, entre otros. Esto representa diversos retrasos en la producción. A la hora de capacitar nuevos trabajadores un problema recurrente es que no se logra que el aprendizaje sea consistente, el aprendizaje del trabajador puede resultar poco eficaz e incluso ambiguo, teniendo consecuencias en la producción a corto o largo plazo, la realidad aumentada nos ayudará a que el aprendizaje se desarrolle de mejor manera y lo más clara posible. Con una correcta implementación de la realidad aumentada e internet de las cosas, nos permitirá lograr una medición e interacción en tiempo real, mejorando increíblemente el proceso de recolección e interpretación de datos, disminuyendo en gran medida el problema de los estándares de calidad, problemas de aprendizaje en la capacitación, beneficiando al empleador y a los empleados, permitiendo ahorrar una cantidad nada despreciable de recursos, capital, y tiempo, lo cual podría ayudar a mejorar considerablemente la calidad de los productos, a desarrollar e incluso hacer posible pulir y mejorar en gran medida los procesos en las corporaciones



METODOLOGÍA

La realidad aumentada (RA) es la integración de información digital a una imagen del mundo real con ayuda de la cámara de los diferentes dispositivos tecnológicos. La RA consiste en tomar una imagen como referencia, la cual es procesada por un algoritmo de detección de bordes en el cual se prepara la imagen para la etapa de segmentación y reconocimiento de patrones. Este proceso permite determinar la posición en la cual se debe reemplazar un objeto real por uno virtual, tomando en cuenta posición y perspectiva. Una ventaja que ofrece RA es que permite incorporar objetos reales con virtuales en el mismo entorno, en donde se pueden manipular artefactos reales interaccionar con objetos virtuales. La RA tiene un gran número de aplicaciones abarcando diferentes áreas: educativa, industrial, capacitación, publicidad, médicas, etc. 


CONCLUSIONES

Se desea obtener información usando diferentes sensores, sobre parámetros físicos como lo son temperatura, humedad, intensidad luminosa con la finalidad de tener un monitoreo para un lugar en específico con ayuda de la realidad aumentada e internet de las cosas. Todo esto como una herramienta de aprendizaje para los alumnos y una gran cantidad de aplicaciones en la parte industrial y educativa. La realidad aumentada se vuelve muy atractiva y de gran apoyo para poder tener acceso a objetos desde largas distancias y poder monitorear los mismos.
López Banda Paulina Nallely, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre

ANALÍTICA DE DATOS EN INFRACCIONES DE VEHÍCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VÍAL DE LA CALLE 13.


ANALÍTICA DE DATOS EN INFRACCIONES DE VEHÍCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VÍAL DE LA CALLE 13.

López Banda Paulina Nallely, Instituto Tecnológico Superior de Irapuato. Ramírez Cisneros Miriam Paulina, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Analizar a través de información disponible el fenómeno de infracciones de vehículos de carga de alimentos en el corredor vial de la calle 13.Analizar a través de información disponible el fenómeno de infracciones de vehículos de carga de alimentos en el corredor vial de la calle 13.



METODOLOGÍA

•Revisión de la bibliografía mínimo 10 artículos más relevantes en el área, entrega en el formato de fecha metodológica. •Validación ficha metodologica construida socialización con expertos. •Versión final del documento entregado. •Desarrollar un tablero de visualización de los datos en Power BI. •Informe de interpretación de los resultados. •Divulgación y validación de los resultados obtenidos. •Primera versión de artículo de resultados de investigación. •Primera versión póster y presentación de resultados obtenidos. •Revisión y ajuste de acuerdo a comentarios. •Versión final de tablero Power BI, artículo, presentación en diapositivas y póster. Socialización Interna de resultados obtenidos.


CONCLUSIONES

Con la investigación realizada observamos que existen 10 clasificaciones de infracciones de tránsito de las cuales se deslindan diversos códigos dando un total de 132 infracciones tanto para vehículos de carga, peatones, vehículos de servicio públicos, vehículos particulares, motocicletas y bicicletas. Centrándonos solo en las infracciones relacionas con los vehículos de carga se presentan un total de 40 códigos por lo tanto se puede concluir que con la información obtenida y plasmada gráficamente en el Power BI se puede observar que la infracción con mayor porcentaje de incidencias entre los años 2015-2020 es la de transitar por sitios restringidos o en horas prohibidas por la autoridad competente, representada por el código C14, y la infracción con menor incidencias fue la de circular con combinaciones de vehículos de dos (2) o más unidades remolcadas, sin autorización especial de autoridad competente, representada con el código C17.
Lopez Castillo Irving Paul, Instituto Tecnológico Superior de Los Reyes
Asesor: Dra. Elvia Luz González Muñoz, Universidad de Guadalajara

ERGONOMíA OCUPACIONAL


ERGONOMíA OCUPACIONAL

Lopez Castillo Irving Paul, Instituto Tecnológico Superior de Los Reyes. Asesor: Dra. Elvia Luz González Muñoz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El objetivo de este estudio es analizar la problemática relacionada con la carga y descarga de frutas y verduras en un tianguis, aplicando principios de ergonomía ocupacional y utilizando como marco de referencia la Norma Oficial Mexicana NOM-036-STPS-2018, y el método de evaluación NIOSH (National Institute for Occupational Safety and Health). Asi mismo, identificar y comprender los riesgos ergonómicos presentes durante las actividades de carga y descarga de frutas y verduras en un tianguis, con el fin de proponer medidas preventivas y correctivas que contribuyan a mejorar las condiciones laborales de los trabajadores involucrados en estas tareas.



METODOLOGÍA

Se llevará a cabo un estudio descriptivo y analítico, en el que se aplicará un enfoque cualitativo y cuantitativo para obtener una visión integral de la problemática de la carga y descarga en el tianguis.


CONCLUSIONES

La ergonomía ocupacional es una disciplina que busca adaptar el entorno laboral y las condiciones de trabajo para que sean seguros, saludables y eficientes para los trabajadores. En México, la NOM-036 es la normativa que regula las condiciones de seguridad y salud en los centros de trabajo, y abarca aspectos relevantes para prevenir riesgos en el ámbito laboral, incluyendo la carga y descarga de frutas y verduras. Aplicado al trabajo de carga y descarga de frutas y verduras, la ergonomía ocupacional y la NOM-036 son de vital importancia para mitigar los riesgos asociados con las malas posturas y el exceso de peso levantado. Las malas posturas pueden generar tensiones en la espalda, cuello y articulaciones, mientras que el levantamiento excesivo de peso puede ocasionar lesiones musculares y esqueléticas. Dentro de este escenario, es evidente que aquellos trabajadores que no utilizan equipos de apoyo, como el diablo de carga, están en una situación de mayor riesgo. Los trabajadores que no cuentan con este tipo de herramientas se ven obligados a cargar manualmente el peso, lo que aumenta significativamente las posibilidades de sufrir lesiones y problemas de salud a largo plazo. En conclusión, en el trabajo de carga y descarga de frutas y verduras, la ergonomía ocupacional y el cumplimiento de la NOM-036 son fundamentales para reducir los riesgos asociados con las malas posturas y el exceso de peso levantado. Los trabajadores que no utilizan el diablo de carga corren un riesgo alto de sufrir lesiones y problemas de salud, por lo que es imperativo promover el uso adecuado de equipos de apoyo y la implementación de medidas ergonómicas para garantizar un entorno laboral seguro y saludable para todos los empleados involucrados en estas tareas.
Lopez Castro Andrea del Carmen, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

FORMACIóN DE PELíCULAS DE QUITOSANO-AUNPS/MWCNTS-COOH CON PROPIEDADES SEMICONDUCTORAS.


FORMACIóN DE PELíCULAS DE QUITOSANO-AUNPS/MWCNTS-COOH CON PROPIEDADES SEMICONDUCTORAS.

Gonzalez Solis Leticia Lizette, Universidad de Guadalajara. Lopez Castro Andrea del Carmen, Universidad de Guadalajara. Orozco Sahagún Ignacio, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los nanotubos de carbono de pared simple son materiales ideales como semiconductores tipo-p en celdas solares, sin embargo, su producción aún es costosa. Como alternativa, los nanotubos de pared múltiple, pueden usarse como remplazo debido a que son de mucho menor costo. Sin embargo, debido a que no presenta propiedades ópticas en el intercalo del UV-visible, contribuye a la disminución en la eficiencia de la celda. Como alternativa, para aumentar las propiedades ópticas de los nanotubos de pared múltiple, se plantea dispersar nanopartículas de oro-quitosano en la superficie de los nanotubos de pared multiple para que absorba en un intervalo mayor de longitudes de onda y aumenta su eficiencia. Dichas nanopartículas deben estar distribuidas homogéneamente, por lo tanto, se plantea la funcionalización de los nanotubos de carbono, para permitir la interacción con las nanopartículas de oro y poder formar sistemas nanoestructurados.



METODOLOGÍA

Síntesis de nanopartículas de oro La síntesis de nanopartículas de oro (NPsAu) se realizó mediante el método descrito por Israel et al., 2020. Para sintetizar las NPsAu, se preparó una solución al 2% en peso de CH3CO2H. Posteriormente, se preparó una solución al 0.5% de quitosano disuelto en la solución de CH3CO2H. Posteriormente se mezclaron, la solución de HAuCl4·3H2O en y solución de quitosano, se sónico por un lapso de 16 min utilizando el equipo Qsonica sonicators con una amplitud de 20%. Oxidación de MWCNTs Los MWCNTs fueron oxidados, para funcionalizarlos con ácidos carboxílicos y grupos hidroxilo. Para ello, se prepararon dos soluciones ácidas de 4 M de HNO3 y 10 M de H2SO4. Enseguida, se realizó una mezcla con un volumen de 20ml a una relación 1:3 de las soluciones y se adicionaron 100 mg de MWCNTs, posteriormente se realizaron lavados con agua bidestilada hasta obtener un pH aproximado de 6. Para cuantificar la cantidad formada de ácidos carboxílicos, se realizó una titulación ácido fuerte-base fuerte. Las concentraciones utilizadas de NaOH y HCl fueron 0.05M para ambos ácidos. Para comenzar la titulación, los MWCNTs fueron colocados en la solución de NaOH, se añadió el ácido clorhídrico hasta mantener un pH constante. Una vez finalizado se graficaron los datos para así obtener el valor de Pka, para identificar la cantidad de ácidos carboxílicos obtenidos. Formación de una película nanoestructurada de PAM/Chitosan-AuNPs/(MWCNT-COOH) Las películas se realizaron con distintas muestras para determinar su funcionalidad. Para su preparación, se realizó una polimerización de acrilamida (AM)-acido acrílico (AA) 80:20 (relación en peso m/m) utilizando 100gr de agua bidestilada y como iniciador 1% de persulfato de potación a base del peso de la mezcla AM-AA a una temperatura de 60 °C en atmosfera inerte, hasta lograr una mezcla viscosa. Se utilizaron recipientes caja Petri con un diámetro de 3 cm y se colocó una solución de AM-AA en cada recipiente (aproximadamente 5gr), en una estufa a 35 °C se colocaron durante 6hr hasta lograr una película media seca, después se le añadieron 4.5 gr de la solución de nanoestructuras Chitosan-AuNPs/(MWCNT-COOH) se dejaron secar por 1 día en la estufa a 35 °C.   Caracterización Espectrofotometría UV-Visible Para identificar la longitud de onda de absorción de las NPsAu, se usó espectrofotometría de UV-Visible en un equipo (Varian Cary 300 UV-Visible Spectrophotometer).   Calorimetría diferencial de barrido Este equipo se uso para identificar la diferencia en la temperatura de transición vítrea que tenía el copolímero puro y el copolímero con nanoestructuras, debido a la interacción física. Se realizo la medición de esta mediante un calorímetro diferencial de barrido (DSC Perkin Elmer 6).   Impedancia Electroquímica Para determinar la conductividad eléctrica a diferentes temperaturas y resistencia eléctrica de las películas de Poli(AM-AA) se usó impedancia química en un equipo HIOKI, IM3590 Chemical Impedance Analyzer. Para la conductividad eléctrica, cada una de las películas fueron puestas en un termoagitador para transferir calor, se realizaron las mediciones a diferentes temperaturas para obtener el efecto de la conductividad. Posteriormente, en este mismo equipo se realizaron pruebas de resistencia eléctrica, se realizaron las mediciones a cada una a diferentes cambiando la frecuencia eléctrica. TEM y SEM Las nanopartículas de oro fueron identificadas por Microscopía electrónica de Transmisión en un equipo Jeol 1010. Las muestras fueron preparadas colocando una dispersión de NPsAu y colocadas en rejillas de cobre de 200 mallas. Para la identificación de las nanoestructuras Chitosan-AuNPs/(MWCNT-COOH), se usó microscopía electrónica de barrido en un equipo Tescan Mira 3 MLU. Las muestras fueron preparadas realizando un corte transversal a la película, después de haber sido colocadas en nitrógeno líquido por dos minutos.


CONCLUSIONES

La longitud de onda de absorción máximo o superficie de resonancia de Plasmon de todas las réplicas de las NPsAu sintetizadas (537nm), demuestran reproducibilidad del proceso de síntesis.  Además, la distribución de absorción, hace posible que pueda ser absorber en un amplio rango de longitudes de onda, lo que permitirá aumentar la eficiencia en una celda, necesitando menos energía para pasar de la banda de valencia a la banda de conducción. La obtención de las nanopartículas pudo ser demostrada a partir de SEM y TEM. El aumento en la temperatura de transición vítrea, demuestra la interacción física de las nanoestructuras con la superficie de copolímero. El aumento en la conductividad eléctrica de las nanoestructuras demuestra que se comportan como un semiconductor, ya que a medida que aumenta la temperatura muestran menor resistencia a la conducción eléctrica.
Lopez Eugenio Diana Valeria, Universidad Autónoma del Estado de México
Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas

DESHIDROGENACIÓN DE PROPANO HACIA PROPILENO CON CATALIZADORES DE PT-SN


DESHIDROGENACIÓN DE PROPANO HACIA PROPILENO CON CATALIZADORES DE PT-SN

Lopez Eugenio Diana Valeria, Universidad Autónoma del Estado de México. Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

El propileno es un producto importante en la industria química ya que es usado como materia prima en diversos procesos como la síntesis de óxido propileno, polipropileno, por lo que se busca obtener catalizadores que permitan altas conversiones de propano y altas selectividades hacia propileno.



METODOLOGÍA

Síntesis de SBA-16 REACTIVOS: Surfactante Pluronic F127 Agua desionizada Ácido clorhídrico concentrado (HCl 36.5-38% Merch) Tetraetiloortosilicilato (TEOS) Butanol (1- butanol, Aldrich 99%) METODOLOGÍA: Se pondrá en función el recirculador a 45°C, posteriormente se añadirán 6.4 g del surfactante F127, 12.7g HCl, 308.6 de agua destilada. Se mantendrá en agitación durante 1 h, para después añadir 19.3 g de BuOH permaneciendo en agitación durante 1 h. Se agregarán 30.5g de TEOS y se mantendrá en agitación durante 24 hrs Se pondrá a calentar la mufla hasta que alcance la temperatura de 100 °C, enseguida pasar la solución del vaso enchaquetado a la autoclave, para permanecer a esa temperatura durante 24 hrs. Se sacará la autoclave de la mufla y se montará el equipo de filtración para comenzar a filtrar y a lavar el precipitado con agua desionizada. Se secará a 100° C por 12 h. Después, se llevará el precipitado a la mufla para secarse por 24 h a 100º C y finalmente se calcinará a 550°C por 6 h con rampa de 1.5°C/min. Síntesis de KIT-6 REACTIVOS: Surfactante Pluronic P123 Agua desionizada Ácido clorhídrico concentrado (HCl 36.5-38% Merch) Tetraetiloortosilicilato (TEOS) Butanol (1- butanol, Aldrich 99%) METODOLOGÍA: Se pondrá a funcionar el recirculador a 45°C, posteriormente se añadirán 12g del surfactante P123, 22.2g HCl, 434.4 de agua destilada.  Se mantendrá en agitación durante 1 h, para después añadir 12g de BuOH permaneciendo en agitación durante 1 h. Se agregarán 31.2g de TEOS y se mantuvo en agitación durante 24 hrs Se pondrá a calentar la mufla hasta que alcance la temperatura de 100 °C, enseguida se pasó la solución del vaso enchaquetado a la autoclave, para permanecer a esa temperatura durante 24 hrs. Se sacará la autoclave de la mufla y se montará el equipo de filtración para comenzar a filtrar y a lavar el precipitado con agua desionizada. Se secó a 100° C por 12 h. Después, se llevará el precipitado a la mufla para secarse por 24 h a 100º C y finalmente se calcinará a 550°C por 6 h con rampa de 1.5°C/min. Impregnación-Incipiente de platino-estaño (I-I) REACTIVOS: Nitrato tetraamin platino II (Pt(NH3)4(NO3)2, 50.0%, Aldrich) Cloruro de estaño II dihidratado ((SnCl2*2H2O, 99.99%, Aldrich) Agua desionizada KIT-6 SBA-16 METODOLOGÍA: Se sintetizarán catalizadores con 1% de Pt y Sn por el método de impregnación incipiente a concentraciones de 1%, 0.5% y 0.25% Se agregarán 0.2g de Nitrato tetraamin platino II en 10ml de agua desionizada para la solución del 1% Pt Se agregarán 0.16g de Cloruro de estaño II dihidratado en 8 ml de agua desionizada Se agregarán 0.038g de Cloruro de estaño II dihidratado en 4 ml de agua desionizada Se agregarán 0.019g de Cloruro de estaño II dihidratado en 4 ml de agua desionizada Posterior mente se pesará 1g de KIT-6 en 8 crisoles, repetir lo mismo para SBA-16, Estas soluciones se añadirán respectivamente como se muestra en el anexo gota a gota a los soportes Se secarán a 100 °C por 16 h seguido se calcinarán a 400 °C durante 4 h, con una rampa de 1 ºC/min. Sistema de reacción de deshidrogenación de propano El sistema de reacción consistirá en un micro reactor de cuarzo de 12.6 mm de diámetro y 44 cm de largo, con un disco poroso de cuarzo donde se colocará el lecho fijo con 150 mg del catalizador (Figura 9). Inicialmente se aplicará un pre-tratamiento de reducción con un flujo de H2 de 20 mL/min y una rampa de calentamiento de 10 °C/min, desde temperatura ambiente hasta 520 °C, donde se mantendrá por 2 h. Una vez terminado el pre-tratamiento, el flujo de gas se cambiará por la mezcla reactiva consistente en 13 mL/min de C3H8, 2.2 mL/min de H2 y 135 mL/min de N2, con un flujo total de 150 mL/min a velocidad espacial de 60 L/g·cat*h.


CONCLUSIONES

Realizar las pruebas correspondientes de los catalizadores con las distintas  concentraciones de Pt-Snen los soportes, en el sistema de reaccion para la produccion de propeno,analizar las conversiones y selectividades obtenidas en las reacciones 
López García Ivonne, Universidad de Sonora
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
López González Ana Karen, Tecnológico de Estudios Superiores de Chicoloapan
Asesor: Mtro. Juan Angel Ramos Ixta. Tecnm, Instituto Tecnológico Superior de Los Reyes

DISEñO DE MOLDE PARA LA FABRICACIóN DE BOCKS DE PLáSTICO RECICLADO (POLIPROPILENO) POR MéTODO DE INYECCIóN.


DISEñO DE MOLDE PARA LA FABRICACIóN DE BOCKS DE PLáSTICO RECICLADO (POLIPROPILENO) POR MéTODO DE INYECCIóN.

López González Ana Karen, Tecnológico de Estudios Superiores de Chicoloapan. Asesor: Mtro. Juan Angel Ramos Ixta. Tecnm, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

A nombre e inspiración del TecNM Tecnológico Nacional de México este trabajo fue realizado con fines de enaltecer el nombre de esta gran casa de estudio Nacional. La razón por la que el plástico es nocivo para el medioambiente es por su gran durabilidad. Por lo tanto, si no se recicla, se está perdiendo una materia prima perfectamente reutilizable y la industria se forza a seguir usando materias primas nuevas. Así mismo el reciclado de plástico del polipropileno (PP), se le dará otro uso fabricando blocks de dicho plástico reciclado. El uso del método de inyección es una manera versátil para la fabricación de blocks de plástico reciclado, cumpliendo en darle otro uso al Polipropileno así mismo diseñando un molde para fabricar los blocks de plástico reciclado.



METODOLOGÍA

La creación de blocks y ladrillos plásticos no es un tema relativamente nuevo, en el mercado mundial se pueden encontrar unas cuantas empresas que se dedican a la creación de este tipo de elementos para distintos fines. Como parte del diseño del ladrillo plástico, es importante revisar la propuesta existente para determinar cuáles características se pueden adoptar, que mejoren la funcionalidad del producto, así como también aquellas que no aporten en gran manera al diseño. Los aspectos que son importantes mencionar para el diseño final del bloque están: facilidad del proceso de fabricación, estabilidad de la estructura, facilidad en la edificación, funcionalidad a la que está dirigido y costos generales,  Una vez que fueron analizadas las opciones existentes en el mercado sobre la fabricación de los blocks de plástico, y tomando en cuenta las ventajas de cada uno de ellos, se decide realizar un diseño de fácil armado como Legos, y fácil manejo a los ladrillos convencionales, además de ser impermeables.


CONCLUSIONES

Se cumplió el objetivo del diseño de Molde para método de inyección en toda la parte del teórica, está primera partes del proyecto se realizó se trabajó el diseño del molde en este caso que es el block de plástico PP reciclable, con el fin de darle otro uso a este material que contamina y que se desperdicia demasiado. Así mismo se llevará a cabo más adelante la simulación del trabajo completo de la función del molde con el método de inyección para la fabricación de blocks de plástico reciclado de polipropileno. Falta mucho por manejar y llevar a cabo en el programa de Soliwoks como por ejemplo desde la colocación de las ecuaciones y el buen manejo de las funciones de cada apartado del programa. Para saber todo el funcionamiento del proceso de inyección desde la colocación del PP hasta el producto terminado del block de plástico.  
López González Javier Paulino, Instituto Tecnológico Superior de Irapuato
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

MINERíA DE DATOS PARA LPI


MINERíA DE DATOS PARA LPI

López González Javier Paulino, Instituto Tecnológico Superior de Irapuato. Quintana Frías Alina Rocío, Instituto Tecnológico Superior de Irapuato. Rodriguez Hernandez Claudia Paola, Instituto Tecnológico Superior de Irapuato. Venegas Cruz Isabel Concepción, Universidad Autónoma de Sinaloa. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El índice de desempeño logístico (LPI) es una evaluación realizada por el Banco Mundial donde evalúa a más de 150 países. En el LPI se tiene información de categorías como aduanas, infraestructura, trazabilidad, calidad y tiempo de entrega. Sin embargo, para comprender mejor el índice hace falta información sobre indicadores económicos, sociales y de consumo de energía, por lo cual es necesario crear una base de datos.



METODOLOGÍA

Se realizó un código en la plataforma de Google Colab para hacer web scraping de páginas como calificadoras crediticias, la ONU y el World Factbook de la CIA. Se desarrolló el código con la librearía Pandas y BeautifulSoup para leer en un ciclo diversas url’s y acomodar la información en columnas en un archivo CSV según los selectores deseados.


CONCLUSIONES

El trabajo realizado permitió ahorrar tiempo, en un lapso de 703 segundos se obtuvo un archivo CSV con la información solicitada. Fue necesario hacer ajustes a los datos del archivo obtenido, pero fueron mínimos. El código realizado es útil para realizar otro tipo de trabajos similares, solo es cuestión de indicar las url’s y los selectores. El código fue probado con otras instancias como la página del Guanajuato International Film Festival y el Festival Internacional Cervantino; obteniendo resultados satisfactorios.
López González Norma Lucía, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

DESARROLLO DE PROPUESTAS DE MEJORA EN PROCESOS INDUSTRIALES


DESARROLLO DE PROPUESTAS DE MEJORA EN PROCESOS INDUSTRIALES

Gómez Hernández Nelli Guadalupe, Instituto Tecnológico Superior de Guanajuato. López González Norma Lucía, Instituto Tecnológico Superior de Guanajuato. Maldonado Durán Israel, Instituto Tecnológico Superior de Guanajuato. Murrieta Méndez Perla Vianney, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La finalidad de toda organización es cumplir sus objetivos y metas, para que esto sea posible es necesario analizar sus procesos para verificar si existen fallas o áreas de oportunidad que den pauta para implementar propuestas de mejora en función de las problemáticas que se hayan detectado. Esto es de gran relevancia, ya que en México el 75% de las pymes fracasan y cierran sus establecimientos antes de cumplir los dos años de haber iniciado operaciones, definitivamente las micro, pequeñas y medianas empresas deben encontrar en su entorno las herramientas necesarias para mejorar la innovación y la gestión. En la empresa que sirvió como objeto de estudio para el presente trabajo se aplicaron los intrumentos de la Metodología JICA para la recolección de datos, logrando con el análisis de los datos detectar que la pricipal problemática que podría afectar su funcionamiento se encontraba en las áreas de producción y recursos humanos, en la primera se observó que sus problemas principales es que no tienen un mantenimiento del control de ingeniería establecida, no patentan sus productos y no tienen un responsable para el control de equipo e instalación del mismo, mientras que en el área de recursos humanos, existe mal ambiente laboral, no cuenta con algún sistema de apoyo a la superación personal del empleado o si lo tiene no se le esta dando la atención o importancia necesaria, además que a los trabajadores no se les estimula sus capacidades de la manera adecuada.



METODOLOGÍA

La empresa que sirvió como objeto de estudio pertenece al grupo de las pymes y se dedica a la elaboración de productos derivados del Maíz, para la recolección de datos se aplicaron instrumentos que permiten analizar las diferentes área de la empresa, cuyo orden metodológico es el siguiente: Analizar la situación general de la empresa y los factores externos. Realizar diagnósticos sector, se recopilará información de la empresa para posteriormente evaluarlo. Analizar los problemas y beneficios, así como las debilidades e intereses del negocio, y finalmente una comparación entre ellos. Realizar el proceso de planificación y asesoramiento. Realizar un informe de diagnóstico y sugerencias de mejora, así como sus respectivos formaos de apoyo.


CONCLUSIONES

Cuando la organización realiza sus actividades en función de la mejora continua son altas sus posibilidades de sobrevivencia, el proyecto realizado contribuyó de manera importante a la identificación de las áreas en las que se debe poner atención, estó, por lo detectado en el análisis de la información que se recabó sobre el funcionamiento de las diferentas áreas de la empresa, con base en ello  se realizó una propuesta de mejora que conlleva principalmente la aplicación de algunas herramientas de ingeniería industrial cuya finalidad es contrarrestar los puntos negativos encontrados, etre los mas preocupantes están, las necesidades de los colaboradores, el correcto funcionamiento de los procesos así como el involucramiento del personal en las actividades. Teniendo en cuenta que solo es una propuesta, con ello se pueden proyectar que lo beneficios que traerá la aplicación de la propuesta serán, una mayor productividad, liderazgo, identidad corporativa y una comunicación adecuada que ayudarán a alcanzar de manera más sencilla los objetivos y metas de la empresa. 
López Guerrero Mariana, Universidad Tecnologica de León
Asesor: Mg. Andres Mauricio Arguello Vasquez, Fundación Universitaria Empresarial

USO DE TECNOLOGíAS 4.0 Y 5.0 COMO APOYO A PRáCTICAS DE MANUFACTURA SOSTENIBLE.


USO DE TECNOLOGíAS 4.0 Y 5.0 COMO APOYO A PRáCTICAS DE MANUFACTURA SOSTENIBLE.

López Guerrero Mariana, Universidad Tecnologica de León. Muñoz Chávez Vania Isabella, Instituto Tecnológico de Pachuca. Santana Mendoza Pily Fernanda, Universidad Autónoma del Estado de México. Asesor: Mg. Andres Mauricio Arguello Vasquez, Fundación Universitaria Empresarial



PLANTEAMIENTO DEL PROBLEMA

Según el Banco de desarrollo de América Latina y el Caribe, las pymes representan más del 99.5% de las empresas en la región, por lo que estas juegan un papel crucial en el desarrollo económico de los países. En la actualidad, la cuarta revolución industrial ha introducido nuevas tecnologías, metodologías y procesos que han transformado la vida actual. Esto ha llevado a los empresarios a considerar la necesidad de transformación interna para adoptar posturas más competitivas, innovadoras y propiciar el crecimiento en sus respectivos sectores. Sin embargo, no todos poseen el conocimiento necesario sobre las técnicas y lineamientos para implementar estas tecnologías, lo que genera una brecha tecnológica y productiva entre las organizaciones. Por ello es de gran importancia la correcta implementación de estas nuevas tecnologías para respaldar el crecimiento del modelo de negocio en términos de desarrollo, innovación e investigación aplicada. En el ámbito del desarrollo, la adopción de nuevas tecnologías podría impulsar la creación de empleos para personal capacitado y especializado en el manejo de los nuevos procesos, además de optimizar el uso de los recursos internos, lo que se traduciría en ahorros y disminución de costos. Durante el verano de investigación, se realizan investigaciones pertinentes a la innovación tecnológica, así como a las tecnologías 4.0 y 5.0 aplicadas a diferentes ámbitos, principalmente en el entorno empresarial y como herramientas de apoyo en Pymes. Agregando con ello, la formación de un curso de innovación tecnológica, con 8 módulos de información relevante. Además, se entrevista a expertos de distintas áreas, con conocimiento en tecnologías 4.0 y 5.0 como apoyo a prácticas de manufactura sostenible en Pymes.



METODOLOGÍA

Se inicia con la investigación documental de manera individual, para familiarizarnos con el tema de las tecnologías 4.0 y 5.0 en el mundo actual. Así como también, con el uso de las herramientas tecnológicas para realizar las tareas asignadas, por ejemplo la utilización de la IA de Chat GPT. Esta herramienta nos apoyó en el desarrollo de la investigación, donde inicialmente brindamos información para ayudar a contextualizar a la inteligencia, favoreciendo así la eficiencia, veracidad y aproximación a la realidad de las respuestas, de modo que durante el desarrollo pudiéramos ampliar la investigación y generar un aporte desde un punto de vista diferente, apoyándonos en la generación de preguntas, cuestionarios , ejercicios, como también tomando fuentes de información y generando un proceso dinámico dentro del archivo. Una vez familiarizadas, iniciamos con la labor de dar un formato específico a la elaboración de un curso online que abordó temas de la innovación tecnológica, de tal manera que fuera dinámico, estructurado y concreto para el aprendizaje de los próximos aprendices e interesados al curso. Se generó un desarrollo del formato del curso, teniendo un total de 8 módulos, en donde se contempla no solo la instrucción de información, además se considera e invita a la participación y reflexión, ya que el formato se dividió en : el módulo con la información a instruir, un caso de éxito, el taller, un quiz, en donde en el módulo se instruye al participante sobre toda la información, contenidos y características del tema. En el caso de éxito, se muestra un ejemplo de la aplicación del contenido, generalmente de empresas, mostrando su éxito a través de la aplicación de lo visto en el módulo. El taller, donde se invita al participante a ejercitar lo aplicado, invitando a la reflexión y retención del contenido. El quiz, finalmente evalua lo aprendido. A la par, se estuvo trabajando con una selectiva entrevista a personas que estuvieran un poco más familiarizadas con el tema y que a lo largo de su trayectoria, pudieron observar la aplicación de dichos avances tecnológicos en su sector manufacturero. Gracias a esta técnica de recolección de información personal, pudimos obtener un acercamiento de cómo es en tiempo real la relación de innovadoras herramientas y su impacto en la sociedad empresarial en Latinoamérica.


CONCLUSIONES

El haber participado en un verano de investigación Delfín, favoreció a la formación de un curso de innovación tecnológica, que ayudará a transmitir la importancia que tiene la tecnología actualmente en nuestra sociedad, principalmente en las organizaciones. Así mismo cada módulo se profundizó en temas específicos que de alguna manera son parte de las prácticas de manufactura sostenible, mismos que posteriormente se pretende sean compartidos a estudiantes, y fomenten una cultura de innovación en su área de estudio. Se aportó además un registro de conclusiones obtenidas a partir de entrevistas aplicadas a dos Ingenieros Industriales y un Licenciado en Diseño Industrial, como aportación a la investigación Tecnologías 5.0 como apoyo a prácticas de manufactura sostenible en Pymes.
López Hernández Eloy, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.


GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.

López Hernández Eloy, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Barrales Eunice, Benemérita Universidad Autónoma de Puebla. Martinez Eulogio David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Perez Mujica Carlos Herbey, Instituto Tecnológico de Acapulco. Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

El procesamiento de Datos integrado al Modelo CIM en motores eléctricos desarrolla un trabajo muy importante para el desarrollo de las medianas industrias, la función principal de este modelo es prevenir con anticipación una posible falla o daño. Esta investigación tuvo como objetivo principal la gestión del mantenimiento integrado al modelo CIM con inteligencia artificial para la optimización del equipamiento postcosecha en el Atlántico.



METODOLOGÍA

En cuanto a la metodología utilizamos una metodología mixta. Esta metodología cuenta con un diseño experimental que se utiliza para obtener mediciones de variables que sirven para establecer un comportamiento, corroborar o descartar alguna idea puesta en mente. Para esta parte se tomaron en cuenta 2 factores internos: la temperatura y vibración. Para diseñar este modelo se creó un programa en el lenguaje de Python que se complementa con la lectura de una Base de Datos con diferentes registros para comenzar a entrenar la red neuronal que será la base principal de identificación de los motores a tratar. Para el enfoque cuantitativo, se creó una Base de Datos que tuvo como base el diseño de un Modelo Entidad Relación que está conformado por 6 tablas: admins, captura_motor, datos_tecnico, datos_usuario, empresas e info_motor. Durante el diseño del frontend, para facilitar la interacción directa de los usuarios se creó un sitio que esta conformado por 7 vistas: index (pagina principal), inicio_de_sesión, menú_usuario, alta_empresas, alta_motores, alta_usuarios y dashboard. Inicialmente para comenzar con las pruebas se crearon 3 usuarios: administrador_general, técnico y cliente. Para mostrar de forma grafica la síntesis del enfoque de la formación que el SENA comparte con sus aprendices, se utilizó un logotipo que pretende ser un elemento motivador sobre la formación profesional de los futuros aprendices dentro del medio social que engloba la búsqueda permanente de nuevos horizontes y caminos, enfocándolos hacia el futuro de iniciativa e innovación. Este logo está formado por la silueta de un motor con las iniciales de las letras M e I mayúsculas que en conjunto significan el nombre de la empresa Motors Insight. Conforme a los colores se trabajó el fondo de color verde oliva de código hexadecimal #39A900 que se asocia con la naturaleza del medio ambiente la cual refleja y transmite una sensación de calma, tranquilidad. Para el contorno manejamos el color blanco que está asociado con la seriedad y la transparencia, las cuales complementándose transmiten confianza. Para el backend se realizó un programa ejecutable que se cargaría al sistema de la Raspberry que tiene como funcionamiento realizar la lectura de ID del motor que será monitoreado, enviando a la Base de Datos en el servidor de MySQL Para la última etapa se creó un formulario de apoyo al usuario en el que se le permita la elección del modelo de motor a inspeccionar. Una vez completado el formulario en automático se le mostrará un dashboard en donde se podrá visualizar con ayuda de una gráfica circular el estado actual de la temperatura y vibración del motor que se inspecciona, en esta parte se desarrolló la metodología cualitativa por medio de una clasificación que consiste en 3 tipos de estados identificados con un color especifico.


CONCLUSIONES

Se concluyo con el funcionamiento del sistema que nos va a permitir obtener los datos necesarios para realizar el trabajo de análisis y almacenamiento de datos que se obtendrán de los sensores de temperatura y vibración. Una vez realizado el análisis comparativo entre el grupo amplio de muestra de resultados, se le permite al sistema desarrollado, realizar una selección del estado actual del motor, para el entrenamiento de la red neuronal de IA, se requiere de una BD con la información que permita esta aprenda, sobre los resultados arrojados por las pruebas realizadas en diferentes situaciones del motor. Al ser un proyecto en desarrollo, se esperan mejoras para la parte de diseño del prototipo e impresión en 3D, para realizar las pruebas necesarias y corregir posibles errores.
López Hernández Erick Paul, Universidad Vizcaya de las Américas
Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.


RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.

Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan. López Hernández Erick Paul, Universidad Vizcaya de las Américas. Rodriguez Linares Maria Lizbeydi, Universidad Autónoma de Guerrero. Torres Arano Aileen Alitzel, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Según el COSPES 3874 la disponibilidad de suelos para efectuar la disposición final no está acorde con la creciente generación de residuos. El 83% de los residuos sólidos domiciliarios que se generan van a los rellenos sanitarios y solo el 17% es recuperado por recicladores para su reincorporación al ciclo productivo (DNP y BM, 2015, como se citó en (Manuel Santos Calderón et al., 2016) ). Si se continúa con la misma dinámica de generación de residuos, sin adecuadas medidas para mejorar su aprovechamiento o tratamiento, y con patrones de producción y consumo insostenibles, en el año 2030 tendremos emergencias sanitarias en la mayoría de las ciudades del país y una alta generación de emisiones de GEI.  Dada la escasez de información Nacional del aprovechamiento de materias primas a partir de residuos de construcción y demolición. Esta investigación pretende abordar los objetivos específicos del Plan Integral de gestión de Residuos Sólidos PGIRS 2015-2027 Manizales, en su apartado de la gestión de Residuos de Construcción y Demolición , en lo que refiere a  realizar la caracterización de los RCD, a fin de conocer sus cualidades químicas y físicas que permitan adoptar estrategias para disminuir la disposición final en escombreras, al igual que  el objetivo de maximizar y  fomentar el procesos de recuperación y reutilización  de los RCD fortaleciendo aspectos de orden técnico, administrativo, ambiental, económico, cultural y social. Principalmente, el enfoque se da en la ciudad de Manizales por las metas establecidas en su plan de desarrollo de 2020-2023 como una ciudad sostenible y resiliente, que actualmente lleva un 70,9 % de cumplimiento en avances, según datos del mes de julio. Para ello la investigación plantea ¿Es viable la recuperación de residuos de construcción y demolición para la fabricación de productos arquitectónicos?  con la cual se busca contribuir a los siguientes objetivos de desarrollo sostenible y a las metas del plan de desarrollo sostenible Manizales 2020-2023:



METODOLOGÍA

1.- CARACTERIZACIÓN 1.1 Prueba geométrica  ASTM C136: Método de prueba estándar para análisis granulométrico de agregados finos y gruesos.(ASTM, 2019a) Pruebas físicas  ASTM C127:  Método de prueba estándar para la densidad relativa y la absorción del agregado grueso.(ASTM, 2015) ASTM C131:  Método de prueba estándar para determinar la resistencia a la degradación de agregados gruesos de tamaño pequeño por abrasión e impacto en la Máquina de los Ángeles. (ASTM, 2020a) ASTM D4791: Método de prueba estándar para partículas planas, partículas alargadas o partículas planas y alargadas en agregados gruesos.(ASTM, 2019c) Microscopía Electrónica de barrido y Fluorescencia de rayos X por energía dispersiva: Método para determinar la composición química superficial del RCD y su apariencia superficial a nivel microscópico para comprender las anteriores pruebas físicas como densidad especifica y absorción de agua. ASTM C39/C39M-20: Método de prueba estándar para determinar la resistencia a la comprensión de cilindros de concreto. (ASTM, 2020b). 2.- FABRICACIÓN 2.1 Diseño de producto Para el diseño de estos productos se parte de un estudio de la normatividad técnica colombiana, dadas por el Instituto Colombiana de Normas Técnicas y Certificación (ICONTEC) esto con el fin de que el diseño cumpla con los lineamientos geométricos y de resistencia establecidos para lograr su comercialización.   . Adoquin Fachaleta 2.2 Prototipado 3D de los moldes de Adoquín y fachaleta El prototipado es una técnica utilizada en la fabricación de productos o moldes, debido a las prestaciones económicas y de modelo real o a escala que se obtiene, permitiendo una acercamiento visual y comercial del producto. 2.3 Diseño de mezcla de concreto con RCD El diseño de mezcla de concreto para los productos de adoquín, fachaleta y los cilindros de testeo para el ensayo de compresión, los Ingenieros Civiles trabajaron bajo el Método ACI 211.1. 2.4 Desencofrado El desencofrado es una etapa que se realiza con el concreto húmedo con el objetivo de empezar el proceso de curado, dado que en el proceso de curado se garantiza que el concreto conserve la humedad y se eviten fisuraciones en el producto. 2.5 Ensayo de resistencia a la compresión El ensayo de resistencia a la comprensión permite evaluar la resistencia mecánica de un material cuando es sometido a una carga axial de aplastamiento, para este caso permite evaluar como se comportará el concreto y específicamente los adoquines en sus aplicaciones de pavimentación, bancas, etc.


CONCLUSIONES

Los resultados obtenidos en esta investigación, de acuerdo a las pruebas realizadas al material proveído arrojaron que el tamaño de partícula a incorporar a la mezcla es de 3/8, debido a que en la prueba de análisis granulométrico se encontró que es una de las partículas con mayor cantidad. Diseñando una mezcla considerado para elementos de una resistencia de 40 MPa se realizaron productos de ensayo para la evaluación, los resultados obtenidos de las pruebas de compresión describen una capacidad de 25 MPa, siendo un 62.5% de lo considerado en el diseño. Esto se debe a las cualidades de desgaste, absorción y humedad de los materiales. El RCD cumple como agregado para la elaboración de elementos de construcción no estructurales como lo son los adoquines y fachaletas, siempre y cuando se evalúe la calidad química y mecánica, además de realizar un diseño factible de mezcla de concreto para la optimización del desempeño, considerando los factores de absorción, desgaste y por ende relación agua y cemento como los principales puntos críticos del material. El aprovechamiento de los residuos de demolición y construcción se han vuelto un factor importante para el crecimiento de las ciudades sostenibles, en éste caso para la ciudad de Manizales, es una respuesta ante el programa de desarrollo en beneficio del medio ambiente y hacia la convergencia de una ciudad inteligente.
López Huitron Karla Liliana, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

EVALUACIÓN DE LA CALIDAD DEL AGUA DE DISTINTAS FUENTES DE ABASTECIMIENTO EN TLALPUJAHUA, MICHOACAN.


EVALUACIÓN DE LA CALIDAD DEL AGUA DE DISTINTAS FUENTES DE ABASTECIMIENTO EN TLALPUJAHUA, MICHOACAN.

López Huitron Karla Liliana, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El agua es fundamental para los seres vivos. La calidad del agua para el consumo y abastecimiento humano, es importante para la salud y el bienestar de la población. En México para poder determinar que el agua que se abastece no afectará la salud de la población se debe de cumplir con los parámetros mínimos que nos indica la Norma Oficial Mexicana NOM-127-SSA1-2021, Agua para uso y consumo humano. Límites permisibles de la calidad del agua y con la Guía para la calidad del agua de consumo humano establecida por la Organización Mundial de la Salud en el 2011.   En el municipio de Tlalpujahua, es reconocido por su pasado minero, por lo que podría afectar la calidad de agua superficial y subterránea que se abastece a la población. Por lo que sé que plantea realizar una evaluación de calidad de agua, con base a algunos de los parámetros indicados en la Norma Oficial Mexicana y la Organización Mundial de la Salud (OMS), para poder verificar que el agua que se abastece en la zona periurbana del municipio de Tlalpujahua cumple con la calidad para el uso y consumo humano.



METODOLOGÍA

Zona de estudio.Con ayuda de un sistema de información geográfica (SIG), se ubican las coordenadas en donde se tomaron las muestras del agua. Las muestras se analizaron y se obtuvieron los resultados de aniones y cationes que contiene el agua. Las muestras obtenidas en campos son: Tlal-1 (muestra de manantial), Tlal-2 (muestra de pozo profundo), Tlal-3 (muestra de mina) y, Tlal-4 (muestra de pozo municipal). Condición de electroneutralidad. Para definir con que muestras trabajar, es necesario realizar un balance de cargas expresados en meq/L, en la practica siempre existe un cierto error. Normatividad. En México y en el mundo existen diferentes normas, estas normas oficiales son regulaciones técnicas de observancia obligatoria expedidas por dependencias competente. Estas tienen la finalidad de establecer características de los procesos o servicios para la seguridad del bienestar del ser humano. Ya que las muestras solo cuentan la información de aniones y cationes, de acuerdo a lo establecido con la NOM-127-SSA1-2021- Agua para uso y consumo humano. Solo se podrá realizar el análisis del subapartado 5.1 el cual indica que el agua de abastecimiento no debe de tener como fuente de abastecimiento agua residual tratada. En el subapartado 5.2 se encuentran las especificaciones sanitarias físicas, las cuales deben de cumplir con los limites permisibles. Este cuenta con 3 parámetros diferentes, los cuales son turbiedad, pH, color verdadero. Pero solamente se trabajará con el parámetro del pH, debido a que este es el único que se pudo medir en campo. El subapartado 5.3 muestra las especificaciones sanitarias químicas. En el caso particular los parámetros sanitarios químicos con los que se trabajarán son: fluoruros (F), Nitratos (NO3), Nitratos (NO2), Solidos disueltos totales (SDT) y Sulfatos (SO4). El mismo subapartado menciona que: en los Fluoruros el límite permisible para fluoruros será de 1.50 mg/L para todas las localidades y se ajustará de conformidad con la tabla de cumplimiento gradual Tabla 3 del inciso 5.3. Organización Mundial de la Salud. De acuerdo con las guías para la calidad del agua de consumo humano de la  Organización Mundial de la Salud (2011), se buscan los parámetros que se obtuvieron en los análisis de las pruebas. Los parámetros que indican sin valor, se debe a que la OMS estipula que son parámetros a los cuales no se han establecido un valor de referencia basado en efectos sobre la salud. Pero para aspectos relativos a la aceptabilidad: sabor, olor y apariencia, los parámetros SDT (Solidos disueltos Totales), SO42 (Sulfatos), y pH, si se tienen límites establecidos. El pH no afecta directamente a los consumidores, pero es uno de los parámetros operativos más importante. Ya que para la desinfección con cloro sea eficaz, es preferible que el pH sea menor a 8 y si se tiene un pH menor al 7 puede ser corrosiva y puede afectar el sistema de distribución. El pH óptimo requerido variará en distintos sistemas de abastecimiento de acuerdo con la composición del agua y la naturaleza de los materiales empleados en el sistema de distribución, pero suele oscilar entre 6.5 y 8 (Organización Mundial de la Salud, 2011). Los sulfatos en el agua de uso y consumo humano pueden generar un sabor perceptible en niveles muy altos, el cual podría provocar un efecto laxante en consumidores no habituados. El deterioro del sabor varía en función de la naturaleza del catión asociado; se han determinado umbrales gustativos que van de 250 mg/L para el sulfato de sodio a 1000 mg/L para el sulfato de calcio. Por lo general, se considera que el deterioro del sabor es mínimo cuando la concentración es menor a 250 mg/L (Organización Mundial de la Salud, 2011). El sabor del agua con una concentración de SDT menor que 600 mg/L suele considerarse aceptable, pero a concentraciones mayores a aproximadamente 1000 mg/L, la aceptabilidad del sabor del agua de consumo humano disminuye significativa y progresivamente. Los consumidores también pueden considerar inaceptable la presencia de concentraciones altas de SDT debido a que genera excesivas incrustaciones en tuberías, calentadores, calderas y electrodomésticos (Organización Mundial de la Salud, 2011).


CONCLUSIONES

Las 4 muestras cumplen con valores adecuados para el pH, indicado en ambas normas. Las muestras Tlal-3 y Tlal-4, no cumplen con el límite de sulfatos (SO42). La muestra Tlal-3 es la única muestra que resultó con fluoruros, pero con la cantidad con la que cuenta la muestra, no pasa ninguno de los límites que nos marca la NOM-127-SAA1-2021 y OMS. Por lo que se puede decir que el agua de la mina (Tlal-3) no es apta para el consumo humano, ya que si se usa para consumo humano el fluoruro podría ocasionar afectaciones a la salud como la fluorosis dental e incluso fluorosis ósea. La NOM-127-SAA1-2021 indica los procedimientos para tratar el agua y volverla potable, los cuales pueden aplicarse para el mejoramiento de las Tlal-3 y Tlal-4.
Lopez Jimenez Luis Manuel, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima

CONTROL DE ROBOTS MóVILES POR VISIóN


CONTROL DE ROBOTS MóVILES POR VISIóN

García Herrera Edgar, Universidad de Guadalajara. Lopez Jimenez Luis Manuel, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Según la Organización Mundial de la Salud al 2020, más de 1,000 millones de personas viven en todo el mundo con algún tipo de discapacidad, aproximadamente el 15 % de la población mundial; de ellas, casi 190 millones tienen dificultades en su funcionamiento y requieren con frecuencia servicios de asistencia. En México hay 6,179,890 personas con algún tipo de discapacidad, lo que representa 4.9 % de la población total del país. Discapacidades como la cuadriplejia que es la pérdida extensa o completa de la función motora en las cuatro extremidades imposibilitan el manejo de dispositivos de asistencia para la persona afectada por lo que requieren de cuidados de un tercero ya sea al moverse de un lugar a otro o en aspectos variados de su vida personal. Durante el verano de investigación se buscó desarrollar un método de control robótico mediante el uso de visión por computadora que permita manejar un robot por medio del movimiento ocular del usuario, sin necesidad de manipular el dispositivo con alguna extremidad o ayuda externa.



METODOLOGÍA

Se utilizó un sistema de visión computacional conectado a una cámara Logitech C920 PRO HD WEBCAM para hacer detección de la posición de un robot omnidireccional. Lo anterior se realizó mediante el uso de la aplicación Color Tresholder que se encuentra en la plataforma de Matlab R2020b la cual trabaja con segmentación de color mediante el modelo HSV, se obtienen máscaras binarizadas detectando dos calcomanías de diferente color ubicadas una al frente y otra en la parte trasera del robot. Posteriormente se desarrolló un programa en Matlab el cual  ejecuta un análisis de blob para obtener el centroide de las marcas de color en el robot obtenidas previamente y de esta manera poder calcular la posición del robot en tiempo real haciendo uso de transformaciones matriciales para convertir la información recopilada en pixeles a una en escala 1:1 en centímetros y de la misma manera calcular el ángulo aplicando funciones trigonométricas para encontrar la tangente inversa de la pendiente entre las marcas de color. A continuación, al programa se le añadió un controlador de lazo cerrado que utiliza como retroalimentación la información obtenida por el sistema de visión, calculando la diferencia (error) de la posición del robot en tiempo real con la posición deseada. Fue implementada una ganancia que actúa sobre una función hiperbólica aplicada a una fracción del error para calcular las velocidades necesarias en los ejes x y. Estas velocidades son ingresadas en una matriz en el programa que toma en cuenta el ángulo calculado en tiempo real y el ángulo en el que se desea que el robot llegue a su destino para hacer correcciones en las velocidades en x, y y angular para mandar esta información a una nueva matriz de control que calcula la velocidad de cada llanta para poder realizar las trayectorias omnidireccionales del robot. Una vez que el controlador realiza todos los cálculos necesarios para obtener la velocidad necesaria en cada llanta y llegar a la coordenada destino, la información es enviada vía Wifi mediante protocolos MQTT a un servidor del bróker Mosquitto al cual el programa de Matlab se conecta para publicar con la librería MQTT in MATLAB y el robot se suscribe utilizando una tarjeta ESP32 para recibir dicha información de manera inalámbrica. La tarjeta ESP32 a través de la comunicación serial manda la información recibida a una tarjeta Arduino UNO, la cual manda dichos valores que van en un rango de 0 a 255 a los puentes h, que utilizando el ancho de pulso (PWM) controla el voltaje que llega a los motores y de esta manera, su velocidad y dirección.


CONCLUSIONES

En este verano de investigación se consiguió un gran progreso en el desarrollo del controlador para el robot omnidireccional, es capaz de llegar de una manera autónoma a diferentes coordenadas independientemente de su punto de salida o ángulo inicial, sin embargo, aún es necesario mejorar el algoritmo para obtener resultados más exactos y rápidos. El proyecto queda abierto para seguir desarrollando la parte de Eye tracking y de esta manera poder completar los objetivos iniciales de manera satisfactoria.
López López Abraham Baruch, Instituto Politécnico Nacional
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

BIOPLáSTICO DE MUCíLAGO DE NOPAL: BACTERIAS CELULOSAS CON MUCíLAGO DE NOPAL COMO SUSTITUTO DEL PLáSTICO EN APLICACIONES ARQUITECTóNICAS Y SU USO DIARIO


BIOPLáSTICO DE MUCíLAGO DE NOPAL: BACTERIAS CELULOSAS CON MUCíLAGO DE NOPAL COMO SUSTITUTO DEL PLáSTICO EN APLICACIONES ARQUITECTóNICAS Y SU USO DIARIO

Leon Bernal Mariana, Universidad de Guadalajara. López López Abraham Baruch, Instituto Politécnico Nacional. Téllez González Leonardo Jesús, Universidad de Guadalajara. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El uso generalizado de plásticos en la industria de la arquitectura y en productos de uso diario ha llevado a una creciente acumulación de residuos plásticos en el medio ambiente, lo que ha provocado problemas ambientales graves, como la contaminación de los océanos y la degradación de los ecosistemas. Estos plásticos pueden tardar cientos de años en descomponerse, lo que agrava aún más la crisis ambiental. Además, los materiales plásticos tradicionales utilizados en la arquitectura, como ventanas y laminados, no son biodegradables y su producción a menudo implica el uso de recursos no renovables, como el petróleo, lo que contribuye al agotamiento de recursos naturales. El uso excesivo de plásticos ha generado una crisis ambiental global, ya que estos materiales son altamente contaminantes y degradan el medio ambiente de manera significativa. La industria de la arquitectura y el diseño, así como muchos sectores de la vida cotidiana, dependen en gran medida del plástico para crear productos como bolsas, acabados, y láminas que simulen cristales. Con el fin de mitigar los efectos negativos del plástico y avanzar hacia una economía más sostenible y amigable con el medio ambiente, surge la necesidad de buscar alternativas biodegradables y eco amigables. El objetivo principal de este proyecto es desarrollar un material biodegradable basado en bacterias celulosas y mucílago de nopal, que pueda ser utilizado como sustituto del plástico en aplicaciones arquitectónicas y de uso diario. La utilización de bacterias celulosas con mucílago de nopal como sustituto del plástico presenta múltiples ventajas ambientales y económicas. En primer lugar, este material es biodegradable, lo que significa que se descompondrá naturalmente en el medio ambiente sin dejar residuos tóxicos ni dañinos. Además, las bacterias celulosas son una opción sostenible, ya que se pueden cultivar a partir de fuentes renovables y requieren menos energía para producirse en comparación con el plástico convencional. El mucílago de nopal, abundante en diversas regiones de México, aporta propiedades de resistencia y flexibilidad al material, haciéndolo adecuado para aplicaciones arquitectónicas como ventanas y láminas grandes, así como para bolsas biodegradables y otros productos de uso diario.



METODOLOGÍA

Para lograr el desarrollo de este material, se llevó a cabo diversas etapas de investigación y experimentación. Se aislaron bacterias celulosas y se cultivaron en medios improvisados pero adecuados, higiénicos y esterilizados para obtener una producción óptima. Se estudió las posibles aplicaciones arquitectónicas y de uso diario para determinar la viabilidad y la factibilidad comercial de esta alternativa. Se adquirió la cambucha con materias madres para su reproducción, se recolectaron recipientes de plástico y demás materiales e ingredientes como el azúcar, el nopal, servitoallas, alcohol etílico, atomizador, guantes de látex y cubra bocas. Para su reproducción se extrajo el mucilago de los nopales, en diversos recipientes se colocó agua, scooby (bacteria celulosa), azúcar disuelta en agua caliente y el mucilago de nopal apara alimentar a la bacteria, se cubrieron los contenedores para evitar contacto con insectos y cualquier tipo de luz. Después de unas semanas se pudo observar su crecimiento, se recolectaron las bacterias, se extrajeron del liquido y se dejaron secar. Al finalizar su secado se observan los resultados en color, dimensión, forma, consistencia y grosor.


CONCLUSIONES

Se espera que el material desarrollado a partir de bacterias celulosas con mucílago de nopal presente resultados prometedores como sustituto del plástico en aplicaciones arquitectónicas y de uso diario. Su biodegradabilidad y menor impacto ambiental podrían contribuir significativamente a la reducción de residuos plásticos y a la conservación de recursos naturales. Esta investigación podría ser el punto de partida para soluciones más sostenibles en la industria de la arquitectura y en otros sectores. Respecto a los experimento realizados se observo que las bacterias celulosas crecen de una mejor forma alimentándolas con mucilago hervido que crudo.
López Méndez Kevin Michael, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Mayra Ruiz Reyes, Benemérita Universidad Autónoma de Puebla

MODELACION Y SIMULACION DE PLANTA DE EXTRACCIóN DE LICOPENO EN ASPEN PLUS


MODELACION Y SIMULACION DE PLANTA DE EXTRACCIóN DE LICOPENO EN ASPEN PLUS

López Méndez Kevin Michael, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Mayra Ruiz Reyes, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El licopeno es un carotenoide natural presente en diversas frutas y hortalizas, conocido por sus propiedades antioxidantes y beneficios para la salud. Uno de los principales frutos naturales que lo contienen es el tomate. Hoy en día se conocen varios métodos para la extracción de licopeno como: 1) Extracción mediante uso de solventes orgánicos, 2) Extracción mediante uso de fluidos supercríticos, 4) Extracción mediante tratamiento enzimático o 5) Extracción por ultrasonido. Sin embargo, para el diseño o síntesis del proceso de extracción es necesario contar con información de las variables operativas y su efecto en el rendimiento del proceso, por lo que es necesario realizar estudios de optimización o análisis de sensibilidad para mejorar el rendimiento de licopeno. Estos estudios si bien pueden realizarse a nivel laboratorio o en plantas piloto, estos pueden resultar muy costosos por lo que una alternativa es el desarrollo de modelos de simulación en entornos virtuales o empleando software especializado para evaluar el efecto de las variables de estado del proceso.  La confiabilidad de los resultados o la certeza con la que el modelo de simulación reproduce el comportamiento real del proceso depende del conocimiento adecuado de los procesos y fenómenos involucrados, para el desarrollo de la síntesis del proceso y la selección adecuada del método termodinámico. Por lo que, en este trabajo de investigación se realizó el diseño conceptual de una planta de extraccion del licopeno empleando el simulador Aspen Plus V8.8. Las propiedades iniciales del tomate y solventes (composición) se complementaron empleando datos reportados por la literatura.



METODOLOGÍA

Tomando como base las heurísticas de diseño de procesos (Lewin , Seader, & Seider, 2003), se realizó el diseño conceptual del proceso estableciendo las etapas principales y su secuencia de acuerdo a un proceso de extracción mediante empleo de solventes orgánicos a nivel laboratorio. Para el proceso de extracción se considera como solvente de extracción una mezcla de acetona-aceite, el cual entra en contacto con la materia prima procesada (Tomate molido y seco) para la recuperación de licopeno, posteriormente el extracto entra en contacto con una corriente de agua para llevar a cabo la formación de fases (Equilibrio líquido-líquido). La composición del tomate como: contenido de humedad, sólidos solubles, ceniza, licopeno, etc, se estableció de acuerdo con lo reportado en la literatura. El modelo de simulación presenta tres corrientes frescas (corrientes de alimentación al proceso) denominadas JITOMATE, ACEITE y ACETONA. En la primera etapa del proceso se lleva a cabo el secado de la materia prima (corriente JITOMATE). El secador se simula empleando un reactor estequiométrico denominado SECADOR conectado en serie con un separador teórico denominado SEP-1. El proceso de secado se lleva a cabo a 100°C sin caída de presión; para definir la proporción de humedad perdida por unidad másica de la muestra se establecer la proporción estequiométrica (0.0555081) con un rendimiento de 97%; el secador presenta dos corrientes de salida, una de ellas denominada HUMED la cual contiene la humedad perdida (descargada al ambiente) y otra corriente denominada SOLSEC en la cual se presentan los sólidos deshidratados. Una vez modelado el proceso de pretratamiento del tomate se procede a modelar las etapas del proceso de extracción del licopeno, en donde los sólidos deshidratados son combinados con el solvente de extracción (mezcla aceite-acetona).   En la segunda etapa se modela el proceso de mezclado del aceite y acetona (preparación del solvente de extracción), para la simulación se empleó un mezclador denominado MIX-1 alimentado con dos corrientes frescas llamadas: ACEITE Y ACETONA, ambas a temperatura y presión ambiente, que interactúan en el mezclador para poder obtener el solvente (S3) utilizado para la de extracción. Para la tercera etapa (integración de los sólidos deshidratados con el solvente de extracción) simulamos un tanque de mezclado denominado TANK que trabaja a temperatura ambiente y sin caída de presión, donde interactúan la pasta o polvo obtenida en el proceso de secado y el solvente de extracción obtenido del mezclador de la segunda etapa del proceso. La cuarta etapa comienza con la descargar del tanque de mezclado, entrando a otro bloque denominado CENTRIFUGA representando un proceso de separación, obteniendo de esta manera dos corrientes nuevas, SOLIDOS, corriente que contiene los sólidos deshidratados de la muestra inicial del jitomate, los cuales pueden ser reutilizados y generar otros subproductos, y LIQ - CENT corriente liquida compuesta por el sobrenadante de la mezcla de solventes que contiene el licopeno disuelto.  Para la quinta etapa el sobrenadante descargado del bloque de separación denominado CENTRIFUGA entra a un mezclador MIX - 2 junto con otra corriente de alimentación fresca denominada AGUA, esto con el objetivo de remover la mayor cantidad posible de la acetona presente en la corriente de sobrenadante alimentada. En la sexta y última etapa la descarga de la mezcla (S4) la cual es un sistema liquido-liquido con características de dos fases no miscibles es alimentado a un equipo denominado DECANTADOR el cual simulara el proceso de separación por decantación, obteniendo la fase ligera denominada LIQ-1 donde predomina el ACEITE y la fase pesada denominada LIQ-2 con la presencia de AGUA y ACETONA.


CONCLUSIONES

En la modelación y simulación de la planta de extracción de licopeno pudimos encontrarnos con datos reportados en la literatura para las distintas etapas del proceso que deben ser consideradas para la parte experimental, así como también mientras se realice la parte experimental deben tomarse en cuenta los factores teóricos que puedan alterar de manera significativa los resultados que se obtendrán al realizar el proceso de extraccion de licopeno.
Lopez Mijangos Alan Francisco, Universidad de Guadalajara
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

DISPOSITIVO FLEXIBLE USANDO NPSAG PARA EL MONITOREO CARDIACO


DISPOSITIVO FLEXIBLE USANDO NPSAG PARA EL MONITOREO CARDIACO

Lopez Mijangos Alan Francisco, Universidad de Guadalajara. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El electrocardiograma (ECG) registra señales eléctricas del corazón, son de las pruebas más comunes e indoloras que se utiliza con rapidez para detectar problemas del corazón y monitorearlo. Hoy en día los ECG siguen usando electrodos para obtener una señal estable y confiable, no obstante, es un proceso que puede llegar a dar lecturas falsas, es por eso su gran precisión a la hora de insertar los electrodos en el cuerpo, parte de este proceso es buscar una manera más sencilla de registrar y monitorear usando nuevas propuestas tecnológicas, como es el caso de la electrónica flexible. Con esta línea de investigación, hacer un parche con circuito integrado podría ser posible la implementación de un parche cardiaco. Los pasos de la medicina han crecido de forma exponencial gracias a las tecnologías, con esto nos hemos enfrentado a renovar, innovar y rediseñar los dispositivos viejos, con el fin de ser más eficientes y ecológicos. Nuestro objetivo es crear un circuito flexible con el cual poder visualizar y monitorear los signos vitales de cualquier persona, con el fin de sustituir el ECG convencional que se ha usado por ya varios años aquí en México. El funcionamiento del oxímetro es a través de la medición óptica con un par de pequeños diodos emisores de luz (LED) enfocados hacia un fotodiodo que envían unos trenes de impulsos que atraviesan una parte translúcida del cuerpo del paciente que puede ser un dedo hasta llegar al fototransistor. Un LED tiene una longitud de onda de 660 nm (rojo) y el otro tiene una longitud de onda de 940 nm (infrarrojo). Para esto, nuestra propuesta por el momento es un pulso cardiaco sencillo, fácil de replicar, donde todo funcione de forma analógica. Usaremos un circuito integrado que amplifique la señal y otro donde la convierta a una señal digital, para después, recolectar datos y enviarlos a través de una aplicación para monitorear de forma sencilla y rápida.



METODOLOGÍA

Se realizo una búsqueda de circuitos donde funcione de forma analógica y sin módulos integrados, para estos se seleccionó de primer momento el funcionamiento de un oxímetro. Se inicio realizando una simulación en Proteus con los siguientes componentes: amplificador LM358, Capacitor de 1uF, resistencias de 100k, 47k,10k, 1k, 220Ω, 1 fototransistor, 1 fotodiodo, 1 pote 1 led DIP rojo y una fuente de voltaje. La simulación fue un éxito, siendo esto, pasar a la parte de implementación en Protoboard. Durante la implementación del circuito hubo algunas complicaciones y adaptaciones, sin embargo, el funcionamiento es el mismo, mediante la longitud de onda enviada del fotodiodo, al incidir con el dedo humano, la longitud que traspasa e incide en el fototransistor estaría cambiando por la oxihemoglobina y la hemoglobina, donde podemos observar y determinar la frecuencia cardiaca junto con la saturación de oxigeno en la sangre. Los componentes para el circuito fueron los siguientes:  1 Arduino UNO, 1 Led Rojo, 1 Led Infrarrojo 660nm, resistencias de 220Ω, 100Ω, 47K, 10K, 100K, 2 capacitores electrolíticos de 1uf-10uf, 1 Amplificador Operacional LM358, 1 Tablilla de Protoboard. El circuito es funcional, al principio se presento en los datos un ruido constante, por lo que un ajuste en los capacitores fue suficiente para obtener lecturas mas eficientes. Con el circuito en protoboard lo siguiente es diseñar nuestro dispositivo para la implementación en una PCB flexible con canales de NpsAg, se realizó el diseño en Wizard PCB que es un software para diseñar PCB, por lo tanto, nos beneficia porque la metodología es la misma para ambos circuitos (PBC y PBC-flexible). Para esto se necesita sintetizar nuestras NpsAg que será nuestros canales de conducción, la metodología es la siguiente: Se uso citrato de sodio (Na3C6H5O7) como agente reductor y estabilizador, Nitrato de plata (AgNO3) como fuente de iones de plata y Borohidruro de sodio (NaBH4) como agente reductor adicional.El borohidruro de sodio actúa como un agente reductor adicional y ayuda a mejorar la eficiencia de la reducción de los iones de plata a nanopartículas de plata. En la purificación, una vez que se ha completado el proceso de reducción, las nanopartículas de plata se pueden purificar mediante lavados repetidos para eliminar los reactivos y subproductos no deseados.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos como la síntesis de nanopartículas, amplificadores, transistores y prácticos sobre manejo de reactivos químicos, circuitos eléctricos junto con los diseños en PCB, además la implementación de un nuevo dispositivo mediante las nuevas líneas de investigación. Sin embargo, al ser un proyecto extenso aun nos encontramos en la parte de prototipo y las verdaderas pruebas inician al implementar leds de mayor eficiencia para encontrar la longitud de onda adecuada para monitorear el pulso y la frecuencia cardiaca.
López Murillo Katia Guadalupe, Universidad de Guadalajara
Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac

ANáLISIS DE LA VIABILIDAD TéCNICA-ECONóMICA DEL APROVECHAMIENTO DE LA ENERGíA SOLAR MEDIANTE EL POTENCIAMIENTO DEL CONCENTRADOR SOLAR EN LA LUCHA CONTRA EL CAMBIO CLIMáTICO


ANáLISIS DE LA VIABILIDAD TéCNICA-ECONóMICA DEL APROVECHAMIENTO DE LA ENERGíA SOLAR MEDIANTE EL POTENCIAMIENTO DEL CONCENTRADOR SOLAR EN LA LUCHA CONTRA EL CAMBIO CLIMáTICO

Gualdron Godoy Laury Katherine, Universidad de Pamplona. López Murillo Katia Guadalupe, Universidad de Guadalajara. Asesor: Dr. Alejandro Garza Galicia, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema: La aceleración de la transición energética es un tema crítico para enfrentar el cambio climático, especialmente en países con economías deficientes. En México, la alta radiación solar, alcanzando hasta 1000 watt/m2 en un día normal, presenta una oportunidad para el aprovechamiento de la energía termo-solar como parte de esta transición. Sin embargo, se necesita una metodología adecuada para caracterizar y utilizar eficientemente esta fuente de energía. El objetivo de este estudio es desarrollar una metodología basada en el método científico, enfocándose en la parte experimental, la ingeniería energética y ambiental, para aprovechar de manera óptima la energía solar termo-solar en México.



METODOLOGÍA

Metodología: Para alcanzar el objetivo planteado, se estableció un esquema basado en el método científico, centrándose en la parte experimental y la ingeniería energética y ambiental. Inicialmente, se exploraron sistemas físicos de concentración solar y cocina solar tipo caja para caracterizar el proceso de captación de energía solar. Se identificaron potenciales de energía por encima de los 800 wtts/m2 y un proceso de cambio de fase que llega a la saturación, indicando una disponibilidad para considerar su utilización a una escala mayor. Además, se realizó una revisión exhaustiva de la literatura científica, patentes registradas y sistemas comerciales relacionados con el aprovechamiento de la energía termo-solar. La caracterización del proceso de ebullición a partir de la concentración solar demostró que es posible alcanzar esta condición en el agua con una radiación solar mínima de 800 wtts/m2. Este hallazgo sugiere que el sistema puede ser utilizado en una amplia gama de procesos, siendo más rápido en comparación con otras tecnologías solares. Sin embargo, se detectaron condicionantes, como la inestabilidad de la atmósfera en tiempos de lluvia, lo que podría afectar la constancia del suministro energético.


CONCLUSIONES

El estudio demuestra que la transición hacia fuentes de energía más sostenibles es fundamental para abordar de manera urgente el cambio climático, especialmente en países con economías en desarrollo, como México. El aprovechamiento de la energía solar termo-solar juega un papel crucial en esta transición, aprovechando la alta radiación solar del país. El sistema propuesto en este estudio utiliza la energía solar como fuente primaria y tiene la capacidad de generar electricidad o calor de forma sostenible con el medio ambiente. Al reducir la dependencia de combustibles fósiles y disminuir las emisiones de efecto invernadero, este enfoque contribuye significativamente a la mitigación del cambio climático. Además, se destaca que este sistema puede beneficiar a comunidades rurales, urbanas e industriales, contribuyendo a erradicar la pobreza energética y mejorando la calidad de vida al proporcionar un suministro confiable de energía. La eficiencia del sistema también se ve fortalecida al complementar la energía perdida en el concentrador con otras fuentes renovables, lo que promueve un cambio positivo en la industria energética hacia tecnologías más sustentables. En conclusión, la metodología propuesta en este estudio puede ser una base sólida para el desarrollo y aprovechamiento efectivo de la energía solar termo-solar en México, impulsando la transición hacia un sistema energético más sostenible y reduciendo el impacto ambiental asociado con el uso de combustibles fósiles.
López Novoa Leopoldo Benjamín, Universidad de Guadalajara
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

DETECCIóN DE ESTRéS A PARTIR DE RESPUESTAS FISIOLóGICAS


DETECCIóN DE ESTRéS A PARTIR DE RESPUESTAS FISIOLóGICAS

López Novoa Leopoldo Benjamín, Universidad de Guadalajara. Muñoz González Gerardo Daniel, Universidad de Guadalajara. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El estrés es un estado fisiológico alterado en el que el sistema nervioso simpático es sobreestimulado, que causa un deterioro crónico psicológico, físico y conductual [2]. Cuando una persona es sometida a grandes cantidades de estrés y no es atendida, puede distenderse el problema hasta somatizarse en enfermedades del sistema cardiovascular, trastornos afectivos como la depresión, y un decremento generalizado en las funciones ejecutivas. En el panorama laboral y educativo en el que nos encontramos, marcado por la globalidad y la inestabilidad, se observa un alto nivel de complejidad, pues hay una constante demanda de aumento de productividad, es por eso que el estudio del estrés se vuelve relevante. Además, existe gente altamente sensible al estrés (como niños en edades formativas, víctimas de abuso, estudiantes de carreras de alta exigencia) la cual es propensa a sufrir de mayor afección, esto en un entorno escolar puede implicar burnout académico a corto plazo y hasta de enfermedades cardiovasculares a largo plazo. Al ser una problemática tan universal, pues no distingue de sexos ni edades, es oportuna la búsqueda de métodos económicos en la automatización de la detección de estrés y a bajo costo computacional. Es donde cobran importancia los esfuerzos por conocer el estado de la población, para poder prevenir complicaciones de salud y errores por tareas ejecutadas de forma insuficiente. La detección del estrés por señales fisiológicas cobra importancia, pues debido al enmascaramiento voluntario o involuntario de las emociones por parte de los sujetos analizados, la medición de señales fisiológicas llega a ser de más alta fiabilidad.



METODOLOGÍA

Se hizo una revisión de literatura sobre propuestas de implementación de técnicas de machine learning en la detección emocional y del estrés [4], así como técnicas relativas a la inducción ética de estrés en sujetos [3]; se diseñó un protocolo experimental para la adquisición de bioseñales a partir de dos parámetros fisiológicos: Respuesta Galvánica de la Piel (GSR) y fotopletismografía para medir el nivel de irrigación sanguínea en el tejido de los dedos.   El estudio está dirigido para estudiantes de nivel universitario y se realizará en un entorno controlado para asegurar la lectura del nivel fisiológico antes de someter a los participantes a situaciones controladas para provocarles estrés. La metodología empleada para inducir a los participantes en estados de estrés consiste (en esencia) en pedirle con antelación al sujeto que cante una canción, mientras comienza una cuenta regresiva, esta técnica demostró ser casi tan eficiente como el estándar de oro para inducir estrés y ser significativamente menos compleja que esta. La adquisición de la señal GSR es realizada por la lectura del sensor comercial GSR Grove mediante sus electrodos colocados en los dedos de la mano del participante, mientras que la vascularización se medirá utilizando circuitos ópticos construidos por nosotros. Las señales son preprocesadas en el entorno de MATLAB para poder extraer las características. Emplear técnicas de machine learning aprendidas en la estancia para desarrollar un modelo capaz de distinguir las características de una señal producida en un estado de calma.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre diferentes técnicas de machine learning y de cómo llevarlas a la práctica, pero debido que el trabajo que implica este proyecto requiere de la coordinación de diferentes personas, esto aún se encuentra en fase de diseño y no se puede demostrar resultados. Podemos esperar diferentes complicaciones en el proceso de adquisición pero para esto entran en juego los conocimientos adquiridos antes de la estancia en nuestro centro universitario. [1] Gedam, S., & Paul, S. (2021). A Review on Mental Stress Detection Using Wearable Sensors and Machine Learning Techniques. IEEE Access, 9, 84045-84066. doi:10.1109/access.2021.3085502   [2] Kim, H. G., Cheon, E. J., Bai, D. S., Lee, Y. H., & Koo, B. H. (2018). Stress and heart rate variability: a meta-analysis and review of the literature. Psychiatry investigation, 15(3), 235. ISO 690 [3] Brouwer, A. M., & Hogervorst, M. A. (2014). A new paradigm to induce mental stress: the Sing-a-Song Stress Test (SSST). Frontiers in neuroscience, 8, 224. ISO 690 [4] Domínguez-Jiménez, J. A., Campo-Landines, K. C., Martínez-Santos, J. C., Delahoz, E. J., & Contreras-Ortiz, S. H. (2020). A machine learning model for emotion recognition from physiological signals. Biomedical signal processing and control, 55, 101646.    
López Osuna Francisco Javier, Universidad Autónoma de Nayarit
Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt

MODELO DE SIMULACIÓN EMPRESARIAL PARA LA FORMACIÓN EN LA TOMA DE DECISIONES EN LOGÍSTICA Y CADENAS DE ABASTECIMIENTO


MODELO DE SIMULACIÓN EMPRESARIAL PARA LA FORMACIÓN EN LA TOMA DE DECISIONES EN LOGÍSTICA Y CADENAS DE ABASTECIMIENTO

López Osuna Francisco Javier, Universidad Autónoma de Nayarit. Asesor: Mg. Nolberto Gutiérrez Posada, Corporación Universitaria Empresarial Alexander von Humboldt



PLANTEAMIENTO DEL PROBLEMA

A raíz de la pandemia del SARS-Covid-19 en 2019, el mundo se paralizó. El comercio internacional tuvo que acoplarse a las nuevas normas para el flujo de mercancías a nivel mundial y las cadenas de abastecimiento tuvieron severas modificaciones con la finalidad de no romper con el reglamento comercial y de salubridad ante la contingencia.  Es por ello que surgió la siguiente interrogante: ¿De qué manera se podía seguir trabajando las cadenas de abastecimiento, cumpliendo con la demanda mundial, sin verse afectadas las empresas por la situación de salud pública del momento? Dicha cuestión llevó a las grandes empresas a analizar los posibles escenarios de cómo mantener la cadena de abastecimiento sin alteraciones significativas. Así como todo en la naturaleza evoluciona, así mismo deben evolucionar y revolucionar las estrategias empresariales en torno a la distribución de mercancías, acomodando todo de acuerdo a la evolución de la nueva normalidad. Ahora, ¿Cómo es posible optimizar el flujo de la cadena de abastecimiento, tomando en cuenta las nuevas normas sanitarias, agilizando el ritmo logístico, optimizando el desempeño de cada eslabón, utilizando los medios de transporte disponibles para la relación comercial Colombia-México? ¿De qué manera se pueden controlar los gastos generales, conservando la calidad, respetando el margen de ganancia y manteniendo el desperdicio a cero de la cadena de abastecimiento? El control absoluto de inventarios, apoyado por la tecnología, es parte fundamental para el desarrollo y evolución de la empresa, además de que es necesario conocer cuándo y qué cantidad de materia prima solicitar, con previo conocimiento de los tiempos de entrega en relación con la demanda.



METODOLOGÍA

Para el desarrollo de simulación de la empresa, se realizó la revisión bibliográfica de los temas más impactantes como: Procesos de Aduana Col-Mex Logística del Transporte Cadenas de Abastecimiento Industria 4,0 en SCM Indicadores en SCM Costeo en SCM. La simulación fue apoyada con la donación de vehículos tipo Lego por parte de la Corporación Universitaria Alexander Von Humboldt.   Se estableció la situación inicial para la simulación, la cual permite desarrollar en los participantes la capacidad de análisis crítico para la toma de decisiones con base en los datos obtenidos respecto a toda la cadena de suministro de los vehículos. Además de las condiciones y posibles complicaciones a las que se podría enfrentar por una toma decisiones inadecuada.  


CONCLUSIONES

El proyecto de investigación, permite la obtención de conocimientos precisos sobre la cadena de suministro como un todo y cada uno de sus eslabones por separado, con la finalidad de poner en práctica con las estrategias y técnicas más convenientes, previamente analizadas y sustentadas con datos reales y verídicos. Los resultados obtenidos del análisis y estudio bibliográfico resultan de gran valor en el desarrollo del proyecto de investigación en pro de la empresa, ya que toda empresa u organización requiere de una cadena de suministro y para que esta sea competente debe estar al día con los requerimientos de las empresas u organizaciones. Para poner en práctica estas premisas, en internet se encuentran simuladores logísticos de empresas que permiten desarrollar ejercicios de logística basados en el acierto o error.
Lopez Priego Jose Manuel, Instituto Tecnológico de Puebla
Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez

APLICACIÓN DEL MÉTODO DE INGENIERIA EN LA MAQUILADORA KYOCERA AVX COMPANY: ANÁLISIS DE LA VARIACIÓN EN LOS DATOS NUMÉRICOS DURANTE LA PRUEBA DE LACKAGE EN LA PIEZA BZ09008 DEL DEPARTAMENTO DE BEST CAP


APLICACIÓN DEL MÉTODO DE INGENIERIA EN LA MAQUILADORA KYOCERA AVX COMPANY: ANÁLISIS DE LA VARIACIÓN EN LOS DATOS NUMÉRICOS DURANTE LA PRUEBA DE LACKAGE EN LA PIEZA BZ09008 DEL DEPARTAMENTO DE BEST CAP

Lopez Priego Jose Manuel, Instituto Tecnológico de Puebla. Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En el área de interés, se realizan pruebas eléctricas en la pieza Bz090008 para asegurar su calidad antes de pasar al área de empaquetado final. Sin embargo, durante la prueba de Lackage, que mide la intensidad de corriente, se ha detectado una considerable variación en los datos proporcionados por las computadoras, lo que ha llevado a someter nuevamente las piezas no conformes a una prueba de 15 horas. Esta situación causa pérdida de tiempo, dinero y afecta la producción diaria de manera significativa. El problema radica en los índices de carbón generados y tratados en la primera línea del proceso, lo que afecta los resultados de la prueba de Lackage. Es crucial abordar esta variación y comprender cómo afecta a los índices de carbón para optimizar la producción de ultra condensadores en el área de BestCap de Kyocera AVX Company. OBJETIVOS: Identificar y analizar las causas de la variación en los datos numéricos durante la prueba de Lackage en el proceso de ensamblado de la pieza Bz090008. OBJETIVOS ESPECIFICOS  Implementar mejoras en la primera línea del proceso para reducir la incidencia de índices de carbón que afectan los resultados de la prueba de Lackage. Adquirir habilidades del método de Ingeniería para identificar problemas y generar soluciones mediante el uso de herramientas estadísticas. ALCANCE: El alcance del proyecto abarca el análisis detallado de la variación en los datos numéricos durante la prueba de Lackage en el proceso de ensamblado de la pieza Bz090008 en el área de BestCap de Kyocera AVX Company. El proyecto no incluirá intervenciones en el proceso de producción ni la implementación de soluciones, solo se limitará a la identificación y análisis de las causas de la variación. El análisis se enfocará exclusivamente en la pieza Bz090008 y su proceso de ensamblado, sin extenderse a otras áreas o líneas de producción dentro de la empresa. El tiempo estimado para la ejecución del proyecto dependerá de la complejidad del análisis y la disponibilidad de datos relevantes.



METODOLOGÍA

Se abordó el análisis de procesos de producción, donde se describe cómo entender la realidad y llevar a cabo estudios para identificar problemas y generar soluciones. Se explicó la importancia de conocer los datos y cómo utilizar herramientas estadísticas para el análisis, para posteriormente presentar una descripción del producto Bz090008, un ultra condensador ampliamente demandado y su estructura básica. Enfocándonos en la ciencia teórica y aplicada, avanzamos hacia la mejora y optimización de la realidad, buscando siempre el desarrollo tecnológico. La comparación se convierte en un error, pues nuestra realidad es perfecta en sí misma, aunque buscamos mejoras. Para ello, es crucial establecer objetivos claros y utilizar metodologías como 8D's, Lean Manufacturing, DMAIC, 6 Sigma y Taguchi. Se destacaron las características críticas del ultra condensador, como su velocidad de carga y descarga, vida útil, baja resistencia interna y amplio rango de temperatura. Finalmente podemos hablar de cierta manera en que el análisis de procesos de producción y nuestra realidad requiere de métodos científicos, herramientas estadísticas y un enfoque integral para mejorar y optimizar nuestros productos, logrando un desarrollo tecnológico que beneficie a la sociedad. Ésta parte estadística proporciona ciertas predicciones, clasificadas como cualitativas y cuantitativas. Comenzando desde la ciencia teórica y pasando a la ciencia aplicada, el análisis se centra en mejorar la realidad y avanzar hacia el desarrollo tecnológico ya que la comparación surge como un desafío, porque la realidad perfecta para cada individuo varía, lo que requiere crear una necesidad para progresar y lograr innovación.


CONCLUSIONES

Tras obtener los datos y realizar las inspecciones, se analizó la variación en los resultados de la intensidad de corriente en la prueba eléctrica. Se observó que algunos valores se desviaban de los límites de control, representando aproximadamente el 8% de errores. También se encontró una alta variación en los valores de las piezas, lo que requiere volver a evaluarlas para tomar decisiones adecuadas. A través de los gráficos de control de promedios, rangos y desviación estándar, se identificaron los problemas específicos. Se detectaron piezas con intensidades fuera de control y una alta variación en las inspecciones 6, 13 y 14. En las conclusiones, se destaca la necesidad de investigar la causa raíz de las variaciones, particularmente en la preparación del carbón, etapa crucial del proceso de producción. Sin embargo, debido a limitaciones de tiempo, no se pudo profundizar en esta área. Para analizar los factores causantes de las discrepancias, se sugiere emplear un diseño experimental DOE factorial completo o un análisis de regresión múltiple. Finalmente, se recomienda compartir los resultados con los líderes de la organización para resaltar la importancia de los estudios y la autocrítica en los procesos de todas las áreas de la empresa. Esto permitirá tomar acciones correctivas y optimizar la producción de ultra condensadores para garantizar la calidad del producto final en el área de BestCap de Kyozera AVX Company.
López Quiroz Mariana Jocelyn, Universidad de Guadalajara
Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco

ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA


ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. González Ascencio Osvaldo Isay, Universidad de Guadalajara. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Quintero García Oliver Israel, Universidad de Guadalajara. Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

El dengue transmitido por los mosquitos Aedes aegypti y Aedes albopictus es un problema de salud crítico en las zonas tropicales de nuestro país. Sin embargo, incluso en áreas urbanas con un clima cálido y subhúmedo, como la zona metropolitana de Guadalajara, existe un riesgo considerable, especialmente durante el verano. Aunque los casos registrados en Jalisco son relativamente pocos, alrededor de 150 confirmados por año en promedio, es importante considerar que la mayoría de los casos pueden no ser diagnosticados, ya que otras regiones del país con clima similar y menor densidad poblacional informan y registran más casos anualmente. Entre la información necesaria a la hora de atacar esta problemática, está la estimación de densidad poblacional de los mosquitos y riesgos de transmisión. Ésta se realiza haciendo uso de ovitrampas distribuidas estratégicamente en zonas críticas de la región, utilizadas para recolectar huevos de vectores de dengue (Ae. aegypti y Ae. albopictus). Las ovitrampas utilizadas en el área metropolitana de Guadalajara consisten en dispositivos hechos de un bote plástico de color negro de 1 L. de capacidad, el cual es llenado a partes de volumen y recubierto sobre el borde de agua con una papeleta de pellón o papel filtro. Uno de los problemas presentes en el uso de este método de monitoreo del dengue es la falta de practicidad y fiabilidad en el conteo manual de los huevos de Ae. aegypti y Ae. albopictus en ovitrampas por parte del personal del Departamento de Dirección del Programa de Enfermedades Transmitidas por Vectores del Gobierno de Jalisco. Para abordar esta situación, es necesario digitalizar el proceso de conteo de huevos, que actualmente se realiza de forma manual por el personal gubernamental. Además, es importante analizar la información procesada para determinar la precisión del conteo de huevos en contraste con los datos públicos. El conteo manual de los huevos no solo se ve afectado por la salud visual del personal a largo plazo, si no que también presenta una fiabilidad altamente variable debido a la fatiga visual que se produce en la concentración de la vista en puntos específicos como lo demanda el conteo que realiza el personal. Al abordar el siguiente problema, también se podría reducir el margen de error en el conteo de huevos en un considerable porcentaje.



METODOLOGÍA

Con base al análisis situacional previo, realizado en base a los reportes emitidos por la Secretaría de Salud de Jalisco, en el cual se conoció el proceso de vigilancia y monitoreo de las ovitrampas instaladas en la zona, se ha detectado la necesidad de vigilar y cuantificar la cantidad de huevecillos producidos por el mosquito Aedes Aegypti y Aedes Albopictus transmisor de la enfermedad del dengue. El hecho de cuantificar los huevecillos captados en las ovitrampas le proporciona al sector salud información para determinar las estrategias a implementar para combatir la proliferación de dicho mosquito. Sin embargo, se percibe que este proceso de vigilancia y cuantificación se realiza de forma manual, por lo cual sería importante realizarlo con base a tecnologías emergentes que coadyuven en esta tarea para aumentar la optimización del tiempo y los niveles de confianza en el conteo y monitoreo. Se ha tomado como punto de partida el hecho de que, para una computadora, las imágenes no son más que una matriz de información donde se almacena el valor del píxel en que se encuentra sobre una pantalla. Cada uno de dichos píxeles se identifica por sus coordenadas y el nivel de intensidad con el que se visualiza. En las imágenes en blanco y negro dicho nivel de intensidad es un valor en el rango 0 - 255, siendo 0 la oscuridad absoluta y 255 la máxima luminosidad. Entre medias estaría toda la escala de grises. En las imágenes en color cada píxel se compone de tres valores, correspondientes a la intensidad de los tres colores primarios: rojo, verde y azul. De tal manera que para el desarrollo del proyecto, se han aplicado los aportes conceptuales de los diversos autores consultados así como las cuatro fases ya mencionadas: adquisición, preprocesamiento, determinación de objetos y análisis de imágenes del mundo real.


CONCLUSIONES

Una de las técnicas empleadas para el procesamiento de la imagen fue la binarización. Esta técnica tiene como función principal convertir la imagen en escala de grises a una imagen binaria, donde los píxeles se representan con valores de blanco o negro. La binarización permite que la computadora perciba la imagen de manera más efectiva, se simplifica la complejidad de la imagen y se resaltan los contornos y características distintivas. A través de la binarización es posible distinguir los contornos de la imagen y los objetos que contienen, de esta manera podemos identificar los huevos en el pellón, para reducir la cantidad de falsos positivos basándonos en un análisis previo de los rangos en los que se encuentran los tamaños de los huevos. De esta manera, el algoritmo puede realizar un conteo preciso de la cantidad de huevos presentes en el pellón. El avance de este algoritmo de conteo, que emplea técnicas de visión artificial, representa una alternativa considerablemente más precisa y eficiente en comparación con los métodos actuales que el personal de la Secretaría de Salud de Jalisco utiliza para contar manualmente los huevecillos presentes en el pellón. Además del ahorro de tiempo, el enfoque de visión artificial muestra un mayor grado de consistencia y fidelidad en los datos obtenidos. Al eliminar el factor subjetivo asociado con el conteo manual, se minimizan las posibles discrepancias y errores humanos, asegurando resultados más precisos y confiables en el análisis. En conclusión, los resultados de esta investigación respaldan la superioridad del enfoque de visión artificial en términos de ahorro de tiempo, eficiencia y precisión en el conteo de huevecillos. Esta tecnología promete ser una herramienta valiosa para mejorar la calidad y efectividad de los procesos de conteo en diversas aplicaciones, incluida la labor del personal de la Jurisdicción Sanitaria en el monitoreo de huevecillos y otras tareas relacionadas.
López Ramos Víctor Daniel, Instituto Tecnológico de Tepic
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS


FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS

de Robles Ramírez Miguel Israel, Instituto Tecnológico de Tepic. Gutiérrez Delgado Valeria Dinora, Instituto Tecnológico de Tepic. López Ramos Víctor Daniel, Instituto Tecnológico de Tepic. Medina Rodríguez Sebastián Jazael, Instituto Tecnológico de Tepic. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El "Framing" se refiere a la manera en que los medios de comunicación, a través de sus elecciones lingüísticas y visuales, dan forma a la cobertura de eventos y situaciones específicas. Varias disciplinas contribuyeron en la conformación de lo que hoy se conoce como teoría del Framing: la psicología, la sociología, los estudios sobre los movimientos sociales y la comunicación, por mencionar las áreas más sobresalientes. Al seleccionar ciertas palabras, imágenes o enfoques para presentar una noticia, los medios pueden influir en cómo las personas entienden y reaccionan a esa información. El problema planteado en la investigación es cómo se puede utilizar el "Framing" como una herramienta analítica para examinar cómo los medios de comunicación presentan las noticias y cómo esto afecta la percepción del público. Al abordar este problema de investigación, se busca comprender mejor cómo el "Framing" puede ser una herramienta útil para analizar y desentrañar los mecanismos detrás de la presentación de las noticias, y cómo esto afecta la comprensión del público sobre los acontecimientos y temas importantes en la sociedad. Además, este enfoque también puede tener implicaciones para la ética periodística y el papel de los medios de comunicación en la formación de opiniones y actitudes en la sociedad. 



METODOLOGÍA

Para lograrlo, se desarrolló una metodología que consistió en dos pasos fundamentales. Primero, se creó un conjunto de palabras o términos que representan los diferentes marcos temáticos que podrían estar presentes en los artículos de noticias. Este conjunto de palabras se conoce como "vocabulario de marcos temáticos". Se elaboró una lista de tópicos en el que se especifica a detalle cómo se evalúa cada criterio de la noticia, como tal la temática del estudio, cuyas opciones de encuadre son las siguientes:   1 = Economic, 2 = Capacity and resources, 3 = Morality, 4 = Fairness and equality, 5 = Legality, constitutionality and jurisprudence, 6 = Policy prescription and evaluation, 7= Crime and punishment, 8 = Security and defense, 9 = Health and safety, 10 = Quality of life, 11 = Cultural identity, 12 = Public opinión, 13 = Political, 14 = External regulation and reputation, 15 = Other. También se tomaron en cuenta tópicos de tonos en el que esté la noticia, cuyas opciones son las siguientes: Tono Neutral, Tono Positivo, Tono Negativo. Por otro lado, se debía especificar Autor, Fecha y Titulo (siempre y cuando la página de donde fue extraída la noticia contara con estos parámetros), por último, es necesario especificar el tópico general en el que se basaba la noticia. Cada noticia debe ser etiquetada mínimo 2 veces para que exista una mejor coherencia al especificar cada tópico.  Luego, se aplicaron diversas técnicas de clasificación, las cuales permitieron etiquetar automáticamente los marcos temáticos en los artículos de noticias basándose en el vocabulario creado previamente. Estas técnicas de clasificación mostraron resultados prometedores, ya que indicaron la posibilidad de mejorar el rendimiento general del sistema de predicción. 


CONCLUSIONES

Durante la estancia de verano, en su mayoría las noticias que fueron analizadas se enfocan en la observación de situaciones reales en casos concretos, tienen un enfoque más práctico y menos teórico. Nos permitió comprender como los medios de comunicación influyen en la percepción y la interpretación de la información por parte del público. Al desarrollar esta habilidad, podemos ser más conscientes de cómo la información es presentada y, en última instancia, tomar decisiones más informadas y responsables. En esta investigación, se aplicaron lenguajes de programación como Python, técnicas de procesamiento de lenguaje natural y algoritmos de inteligencia artificial para entrenar una herramienta llamada Label Box (la cual es completamente gratuita y sencilla de entender) la cual nos ayudó para analizar noticias basada en el concepto de "Framing". Python proporcionó una plataforma flexible y eficiente para manipular y analizar grandes conjuntos de datos de noticias, mientras que las técnicas de procesamiento de lenguaje natural permitieron extraer y comprender la información textual de manera automatizada. La inteligencia artificial se utilizó para entrenar modelos capaces de identificar patrones de "Framing" en las noticias y clasificar los diferentes marcos utilizados. El resultado de la investigación se materializó en una exposición y resumen sobre el entrenamiento del "Framing" desarrollado y su aplicación en el análisis de noticias. La exposición incluyó ejemplos prácticos de noticias analizadas, mostrando cómo la herramienta identificó y categorizó los marcos utilizados por los medios. Además, se presentaron gráficos y visualizaciones para ilustrar las tendencias de "Framing" y su distribución en las noticias. El resumen proporcionó una síntesis de los hallazgos clave, destacando la importancia de esta herramienta para comprender cómo los medios influyen en la percepción pública sobre temas importantes.
López Reséndiz Andrea, Instituto Tecnológico de Querétaro
Asesor: Dra. Irma Martínez Carrillo, Universidad Autónoma del Estado de México

DISEÑO Y CONSTRUCCIÓN DE UN COLORÍMETRO PARA RECONOCER LOS PATRONES DE COLOR EN ESCALA RGB EN UNA PRENDA DE VESTIR


DISEÑO Y CONSTRUCCIÓN DE UN COLORÍMETRO PARA RECONOCER LOS PATRONES DE COLOR EN ESCALA RGB EN UNA PRENDA DE VESTIR

Estrada Villanueva María Cruz, Instituto Tecnológico de Querétaro. López Reséndiz Andrea, Instituto Tecnológico de Querétaro. Asesor: Dra. Irma Martínez Carrillo, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La calidad de los productos es un factor sumamente importante que se debe considerar dentro del mecanismo de producción para agregar mayor valor al producto final, uno de los problemas más comunes en las industrias textiles y/o maquiladoras es la incorrecta coloración en las prendas, lo que causa que la calidad del producto decaiga y por lo tanto el rendimiento de la industria también. La problemática de las tonalidades comienza desde el proceso de teñido, donde en ocasiones sucede que la tonalidad de la tela varia debido distintos factores, como la humedad, la luz, el material y el mismo proceso, ocasionando que en los lotes exista discrepancia de tonalidades y con ese defecto sean enviados a las maquiladoras para su ensamble y obtención de prendas terminadas. La percepción del color en los humanos solo se encuentra dentro del espectro visible por lo que no es posible distinguir a simple vista aquellas tonalidades que son sumamente parecidas, pasando desapercibido los estándares de calidad requeridos por el cliente convirtiéndole en un factor sumamente importante para obtención de prendas con tonalidades distintas, lo que conlleva a obtener productos defectuosos o de mala calidad y por consiguiente permite que la productividad de la empresa disminuya generando pérdidas importantes en la rentabilidad.



METODOLOGÍA

La obtención de un dispositivo sistemático permite facilitar las tareas y obtener un grado de calidad y fiabilidad más significativo, además ayuda a la disminución de tareas y eleva la rentabilidad. Para cumplir con los estándares de calidad requeridos por el cliente, es necesario desarrollar un dispositivo que permita conocer las tonalidades de las telas, de modo que sean clasificadas correctamente y se encuentren dentro del rango de tolerancia. El color para R. Jiménez (2015) es la separación de la luz en sus diversos componentes, lo que en realidad es una ilusión óptica. El color es producido por tres elementos importantes, la luz, un objeto que lo refleja y el aparato visual compuesto de ojos y cerebro que interpreta la información de la luz reflejada, conocidos como colores primarios al rojo, verde y azul, formando la base del colorímetro RGB. Para el desarrollo de las pruebas fue necesario implementar un sistema de circuitos en un dispositivo de Arduino, el cual fue pieza clave para el desarrollo del colorímetro. La automatización del dispositivo analiza a través de una cámara la tonalidad de la tela y los datos obtenidos los refleja utilizando notación numérica. El dispositivo contiene un circuito autónomo que funciona a través de diversos componentes, se realizó a base de una cámara cerrada con la finalidad de regular la entrada de luz al momento de realizar las pruebas, los elementos que permiten facilitar su uso se colocaron de manera estratégica fuera de la carcasa, de modo que sea más sencillo su manejo. Para el correcto uso del dispositivo es necesario tener un fondo color negro o antirreflejante y colocar la boquilla de la cámara en pos de la tela evitando la entrada de luz al momento de realizar la prueba. Las pruebas elaboradas se realizaron en playeras M/C de costados color azul 100% algodón tejido de punto de 3 cortes diferentes. Las muestras fueros escogidas aleatoriamente para identificar la tonalidad de las piezas ya ensambladas y terminadas. El orden de las pruebas se realizó teniendo como base la parte delantera de la camisa, consecutivamente se tomó la muestra del hombro derecho, hombro izquierdo, espalda y por último el cuello, considerando que el margen de tolerancia era de 5 puntos. Las pruebas se realizaron en prendas terminadas con el fin de identificar la autenticidad del lote, puesto que con anterioridad se habían detectado complicaciones en el área de calidad por prendas con discrepancia en las partes cortadas.   De acuerdo con los datos obtenidos, se pudo analizar que las prendas tienen variaciones sumamente ligeras, de modo que a simple vista no se distinguen. Con forme a las tolerancias marcadas ninguna prenda estuvo fuera del rango de aceptación, la variación máxima fue de 3 puntos por lo tanto se considera como prendas premium. Es importante considerar que la parte frontal de la camisa es la base de todo el cuerpo, considerando este parámetro se puedo observar que las diferencias de tonos fueron mínimas a comparación de está, por lo tanto, se concluye que los cortes son muy parecidos y que no hay peligro de salirse de los límites de aceptación para la calidad, aunque se aconseja que no se debe de dar por hecho que todo el lote será así, por lo tanto, las revisiones tendrán que ser periódicas.


CONCLUSIONES

La importancia del control de calidad es inmensa en las industrias, por lo que es necesario el desarrollo de dispositivos tecnológicos que permitan facilitar el uso de tareas durante el proceso de producción. A lo largo del curso de verano Delfín fue posible desarrollar un dispositivo que permite medir la tonalidad a través del modelo RGB, se comprobó su funcionalidad en camisas 100% algodón llegando a la conclusión que es un artefacto funcional y con múltiples beneficios. El impacto de este dispositivo y su versatilidad permite ser utilizado en diversas áreas como en monitoreos, tintorerías, la industria automovilística para el pintado de los autos o directamente en la industria de las pinturas y barnices.
López Ríos Erick Eduardo, Universidad de Guadalajara
Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

CLASIFICACIóN DE IMáGENES DE RETINOPATíA DIABéTICA SEGúN SU DIAGNóSTICO Y GRADO DE DETERIORO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO (DEEP LEARNING)


CLASIFICACIóN DE IMáGENES DE RETINOPATíA DIABéTICA SEGúN SU DIAGNóSTICO Y GRADO DE DETERIORO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO (DEEP LEARNING)

López Ríos Erick Eduardo, Universidad de Guadalajara. Mendoza Muñoz Itzel Ameyalli, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La Retinopatía Diabética (RD) es una complicación ocular causada por la Diabetes Mellitus, resulta de anormalidades macro y microvasculares, además de un metabolismo de glucosa deficiente, afectando la visión y siendo una de las principales causas de ceguera alrededor del mundo, cuando no se detecta y trata de manera temprana. El tratamiento temprano puede frenar el desarrollo de las lesiones, sin embargo, no puede revertirlas, pero reduce significativamente el riesgo de pérdida de la visión. En México, según un estudio realizado por Prado et al. y publicado en la revista Mexicana de Oftalmología en septiembre del 2009, se mostró que el 71% de los pacientes diagnosticados con diabetes tienen lesiones de retinopatía diabética. Los pacientes con diabetes tipo 1 tuvieron mayor prevalencia. Tomando en cuenta que esta patología tiene una prevalencia considerablemente alta, la detección y el tratamiento precoz son cruciales para mantener una calidad de vida óptima en los pacientes. Para contribuir de forma positiva en esta problemática, en este verano de investigación, se implementó un algoritmo basado en técnicas de Deep learning para la detección y clasificación de imágenes del fondo de la retina, con base en los signos asociados a la RD, para predecir el curso de la enfermedad y del tratamiento.



METODOLOGÍA

Para la implementación y entrenamiento del modelo de Deep learning se utilizó la base de datos creada por Porwal et al. conformada por imágenes del fondo de la retina en pacientes de la India. Esta base de datos está constituida por 516 imágenes a color de tamaño de 4288 x 2848 píxeles. En estas imágenes se puede notar la presencia de microaneurismas, hemorragias, exudados y discos ópticos, los cuales denotan el grado de retinopatía del 0 al 4, según su gravedad, siendo 0 imágenes de retinas normales sin signos de retinopatía. Este conjunto de datos formó parte del "Diabetic Retinopathy: Segmentation and Grading Challenge (http://biomedicalimaging.org/2018/challenges/)" organizado juntamente con el IEEE International Symposium on Biomedical Imaging (ISBI-2018). Al revisar la base de datos, se encontró que el conjunto de datos estaba desbalanceado, esto ocasiona problemas al usar la base para datos de entrenamiento. Las clases 2 y 5 tenían muy pocos datos de muestra. Para solucionar este inconveniente, se generaron nuevas imágenes a partir de estas clases, se hicieron cambios en la intensidad de brillo, en el contraste y saturación de la imagen y zooms y rotaciones aleatorias dentro de la imagen, sin deformar o alterar su proporción de aspecto. Estas transformaciones se realizaron con apoyo del lenguaje de programación Python y la librería Python Imaging Library o Pillow. Para resolver la tarea de clasificación de las imágenes según el grado de avance de la enfermedad, se utilizó el modelo de red neuronal propuesto por Kaiming He et al. en 2015, siendo una arquitectura de red residual de 18 capas, descripción por la cual recibe su nombre ResNet-18. Esta red proporciona solución a varias tareas complejas que involucran la visión por computadora y la clasificación de imágenes. Entre sus características se encuentran las siguientes; 1.    Uso de bloques residuales: Característica que la distingue de otras redes, ya que se trata de una red que aprende también de los residuos o restos y no solo de la función principal de mapeo. 2.    Capas convolucionales: Al igual que otras arquitecturas de red basadas en redes neuronales convolucionales, esta incluye capas convolucionales, son 18 en total. 3.    Estructura: Las capas de esta red se agrupan en cuatro bloques principales con activaciones ReLU. Para implementar este modelo se utilizó el software de computador Deep Learning Tool, desarrollado por la empresa MVTec, el cual pone a disposición varios modelos de redes neuronales pre entrenadas. En la fase de entrenamiento, se usó el 90% de las imágenes de nuestra base de datos para entrenamiento y el 10% restante fue para la evaluación en cada iteración. Se configuró el entrenamiento, durante 80 épocas, con un ritmo de aprendizaje de 0.0001 y un optimizador Adam con un momento de 0.9. Para evaluar la precisión de las clasificaciones se utilizaron las métricas Error de Top-1 y la puntuación F1. 


CONCLUSIONES

Aunque la base de datos utilizada presentó un significativo desbalance en la cantidad de imágenes en sus diferentes categorías, esto se solventó con la generación de imágenes artificiales a partir de las originales, aumentando la cantidad de datos en las clases 2, 4 y 5. Con las clases balanceadas, se logró alcanzar una precisión de 81.93% y una sensibilidad del 82.98% tras 80 épocas de entrenamiento. El mejor resultado se registró en la época 62, con un error de Top-1 del 18%, puntuación F1 de 82.01% y función de pérdida de 0.06. Los resultados de la matriz de confusión muestran las predicciones realizadas por el modelo de clasificación distribuida por clases. En la diagonal principal, se encuentran los valores verdaderos positivos y verdaderos negativos de cada nivel. Por otro lado, los valores fuera de la diagonal representan los errores de clasificación; falsos positivos (FP) y falsos negativos (FN). Los FP y FN totales fueron 15 sobre 83 imágenes evaluadas.  Como conclusión, el verano de investigación fue una experiencia enriquecedora, donde se adquirieron sólidos conocimientos sobre fundamentos de aprendizaje automatizado, aprendizaje profundo y procesamiento de datos. Durante el desarrollo del proyecto, se utilizó una combinación de herramientas comerciales y desarrollo propio, destacando la aplicación del software Deep Learning Tool de MVTec.  Asimismo, el proceso permitió poner en práctica las habilidades adquiridas en la modificación de parámetros para obtener un mejor rendimiento en el entrenamiento de la red neuronal. La comprensión de cómo ajustar adecuadamente los parámetros y estrategias para enfrentar el desbalance de datos resultó fundamental para obtener resultados prometedores.
López Rodríguez Fatima, Universidad Autónoma de Zacatecas
Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIÓN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIÓN DEL EQUIPAMIENTO POSTCOSECHA DEL ATLÁNTICO


GESTIÓN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIÓN DEL EQUIPAMIENTO POSTCOSECHA DEL ATLÁNTICO

López Rodríguez Fatima, Universidad Autónoma de Zacatecas. Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En la zona Regional Atlántico Colombia, se encuentran aproximadamente 25 empresas dedicadas al tratamiento de alimento y flora en general después de su cosecha, de las cuales el 80% utiliza equipamiento avanzado que requiere de la revisión de un técnico, para prevenir, detectar y corregir cualquier anomalía presentada en los equipos. Esto genera un retraso en la producción y por lo tanto genera pérdida económica además que es de vital importancia para la seguridad de los trabajadores que el equipo este en buenas condiciones sin ningún tipo de riesgo que atente contra su integridad. 



METODOLOGÍA

FASE 1 Primero que nada comenzamos con una investigación basada en nuestros objetivos, y en conjunto logramos encontrar diversos artículos que nos iban a servir para la selección de material, seguido empezamos con la realización de una pagina web, para tener un control de técnicos y usuarios, al mismo tiempo estábamos en la creación de una base de datos, para registrar el comportamiento del motor de nuestra elección. Al igual creamos otra base de datos alterna, para registrar diversas fichas técnicas del motor, y poder realizar una comparación en tiempo real. Al tener todo lo anterior listo, comenzamos con una simulación en diferentes plataformas para verificar que los motores y sensores seleccionados nos van a funcionar.  FASE 2 De las simulaciones obtuvimos los resultados esperados. FASE 3 Nos dispusimos a trabajar en un dispositivo que ayude a facilitar el trabajo de los técnicos de diferentes maneras como lo serian enviando recordatorios de mantenimiento, enviando notificaciones sobre una posible falla y a través de diferentes sensores que se utilizaran, detectar el error para poder ofrecer distintas soluciones. También se podrá ver el estado del equipo en tiempo real, esto porque realizamos una base de datos obtenidos de un motor trifásico al que se le añadirá un conversor de corriente y este hará una conversión de señales analógicas, regresando señales digitales, para poder ver en qué momentos su comportamiento fue anormal, esto agilizará el trabajo y será clave para no detener la producción, así evitando pérdidas económicas como accidentes. 


CONCLUSIONES

Durante la estancia de verano logré adquirir conocimientos teóricos sobre los diferentes métodos para programar utilizando Arduino y Raspberry, también tuve la oportunidad de incrementar mis conocimientos en la parte digital, y servir de apoyo en la creación de la página web y también pude poner en práctica mi conocimiento previamente adquirido, sin embargo, al ser un extenso trabajo aún se terminado y no se pueden mostrar los resultados prácticos obtenidos. Pero confiamos firmemente que es un proyecto que beneficiara a los técnicos, empleados y empresarios. 
López Romo Ana Karen, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

LIBERACIÓN CONTROLADA DE ÁCIDO ASCÓRBICO DESDE MATERIALES POLIMÉRICOS BIODEGRADABLES


LIBERACIÓN CONTROLADA DE ÁCIDO ASCÓRBICO DESDE MATERIALES POLIMÉRICOS BIODEGRADABLES

López Romo Ana Karen, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de liberación de fármacos actuales presentan múltiples inconvenientes, entre ellos se encuentra la relación de tiempo de liberación y concentración liberada del mismo, que suele ser inadecuada debido a los múltiples picos con altas concentraciones y valles con bajas concentraciones. La concentración de un fármaco respecto al tiempo de permanencia en un organismo presenta picos con altas concentraciones cuando se ingiere el medicamento, y alcanza un máximo de concentración. Así mismo, el efecto se revierte con el paso del tiempo hasta llegar a una concentración mínima.  El objetivo principal es que el sistema analizado sea capaz de permitir la administración de sustancias bioactivas de forma lenta y continua durante largos periodos de tiempo, haciendo uso de un material biocompatible y biodegradable.



METODOLOGÍA

Hidrogeles de PAS (poliacrilato de sodio)/XA (xantana), al 20% en sólidos totales, se sintetizaron en diferentes proporciones. Del total de sólidos, se modificó la composición de xantana en las siguientes proporciones: 0%, 2%, 5%, 7%, 10% masa. Como entrecruzante se utilizó NMBA ((N,N’-metilenbisacrilamida) y como iniciador se utilizó el v50 (2, diclorhidrato 2-Azobis 2- methylpropionamide) y el KPS (potasio peroxodisulfato). Para la síntesis del hidrogel se utilizaron vasos de precipitado de vidrio a los cuales se les agregó agua destilada y con un homogeneizador se agregó el acrilato de sodio, una vez disuelto se agregó la xantana, posterior a su disolución se agregó el entrecruzante y finalmente el iniciador. Se colocó en la estufa durante 24 horas a 50°C. Una vez transcurrido el tiempo de polimerización, se obtuvieron geles húmedos que se cortaron en forma cilíndrica, para dejarlo secar hasta peso constante y así obtener el xerogel. Para los hinchamientos se tomaron las medidas de los xerogeles y se pesaron, después se colocaron en medios de hinchamiento con diferente pH a temperatura ambiente, y se monitoreó su peso en lapsos de tiempo propuestos por el investigador (de 1 a 2 horas durante aproximadamente tres días), removiendo el exceso de agua de la muestra con papel filtro en cada monitoreo. Los pH de cada medio fueron: Agua destilada (pH neutro) y soluciones buffer de pH ácido de 2 y pH básico de 10. Para la liberación del ácido ascórbico se pesaron y midieron los xerogeles, posteriormente se cargaron por inmersión en solución acuosa al 5% de ácido ascórbico durante un día, cubiertos y a temperatura ambiente. Los hidrogeles previamente cargados se pesaron, se midieron y se colocaron en 200 ml de agua destilada a temperatura ambiente con agitación constante en un agitador eléctrico. Para monitorear la cinética de liberación se tomaron alícuotas de 5 ml a diferentes intervalos de tiempo y en diluciones de 1ml en 50 o 100 ml, según el caso; así se determinaron las absorbancias en un espectrofotómetro UV (Genesys 10 UV-Visible) a una longitud de onda de 265 nm. Una vez obtenidas las absorbancias, se realizaron cálculos para obtener la fracción masa liberada y en base a ello los coeficientes de difusión de cada muestra.


CONCLUSIONES

La gráfica creada muestra los resultados de la cinética de hinchamiento del xerogel cuando fue sintetizado con KPS como iniciador a distintas concentraciones de xantana en pH neutro, hasta un tiempo aproximado de 45 horas. Los resultados presentan que las muestras con distintas concentraciones de xantana, inicialmente no tienen una diferencia significativa de hinchamiento, en periodos relativamente cortos de tiempo, sin embargo, alrededor de las 8 horas transcurridas, las diferencias de peso en el pH neutro comienzan a ser significativas, aunque es necesario aclarar que gran parte de la muestra a este punto comenzó a desintegrarse, por lo que la diferencia puede ser, además atribuida a la pérdida de muestra, un error inherente a la naturaleza del experimento. El comportamiento de las muestras de V50 fue muy similar en medio neutro. Así mismo, al observar el hinchamiento en los diferentes medios, se observó que tanto en el medio ácido como en el básico, el peso del hinchamiento disminuyó significativamente, con respecto al medio neutro, siendo el medio básico en el que el hinchamiento alcanzó mayores rangos en el peso. Podemos deducir que, la cantidad de xantana cargada en el hidrogel no afecta significativamente el grado de hinchamiento, aunque sí se puede observar una clara tendencia, a mayor cantidad de xantana mayor es el hinchamiento que se presenta en el hidrogel. Después de 55 horas hinchando el hidrogel comienza a desintegrarse por lo que no se puede continuar con el experimento. En cuanto a la liberación del ácido ascórbico, se obtuvieron múltiples absorbancias, las cuales se utilizaron para calcular la concentración de ácido presente en cada muestra, apoyándonos en una curva base previamente realizada con el ácido. Con esta concentración, y los pesos obtenidos antes y después de pesar cada gel, fue posible calcular la fracción liberada del ácido y graficar una curva de raíz de tiempo contra fracción liberada. Durante la estancia de verano se obtuvieron múltiples conocimientos teóricos y prácticos en lo que al campo de la transferencia de masa y biomateriales se refiere, específicamente aplicado en la liberación de fármacos, poniéndolo en práctica en las técnicas de espectroscopía UV-visible y en las curvas de liberación obtenidas por parte de cada hidrogel. Se espera que los resultados sean comparados con los previos obtenidos por tesistas del centro universitario, y que se añada información a los mismos con las prácticas de hinchamiento realizada en medio ácido y medio básico, que cabe aclarar, eran medios en los que no se habían realizado estos hinchamientos.  
López Solís Osvaldo Jesus, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN


APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN

López Solís Osvaldo Jesus, Instituto Tecnológico Superior de Uruapan. Morales de Gante Jorman Aldrich, Universidad Politécnica de Tecámac. Ponce Reyes Andrea Gpe, Instituto Tecnológico Superior de Uruapan. Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Rubio Solis Carlos Alberto, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la aplicación surgió a partir de encontrar que hoy en dia en distinguidas tiendas de aplicaciones móviles no existen tantas alternativas para la fomentación del aprendizaje por lo cual partimos de una propuesta inicial la cual fue desarrollar una aplicación de preguntas donde se haga esta fomentación del aprendizaje mediante multiples preguntas de todo tipo de áreas(Matemáticas,Filosofía,Literatura,etc.)Esto nos recordó al famoso juego preguntados, donde tomando como principal dicho juego añadimos que los usuarios tengan que registrarse para poder acceder a la aplicación.



METODOLOGÍA

Jor de Gante, [28/07/23 9:20 P.M.] Para este proyecto notamos que sería necesario la utilización de una metodología donde no se pierda tanto tiempo ya que no contamos con una gran cantidad de este para el desarrollo de nuestra aplicación  por lo cual la Metodología de prototipado resultó la más convenienteya que está se adecuada a nuestras necesidades. Comunicación: La comunicación para esta metodología es sumamente necesaria por lo cual nuestro equipo de trabajo desde el primer dia presentó este apartado por lo cual resultó sencillo poder dividirnos el trabajo además de la solidaridad y el trabajo en equipo resultaron factores beneficiosos para todos. Plan rápido: La aplicación surgió apartir de una idea del profesor donde todos los compañeros ayudamos a reforzar dicha idea y sacamos el proyecto adelante, partiendo de referencias o bases al igual que estudiar el mercado para poder hacer una aplicación que realmente atraiga a futuros usuarios. Modelado diseño rápido: Para el modelado utilizamos imagenes de referencias donde todos ibamos a desarrollar el mismo proyecto pero en cuanto a diseño era a criterio propio por lo cual nos apoyamos de igual forma del software figma para desarrollar los mockups para una vez todos estuvieramos deacuerdo comenzariamos a trabajar con el SDK de Flutter.Este paso resultó el más interesante puesto que cada uno de nosotros dejamos ir nuestra imaginación para los mockups. Construcción del prototipado: Para este paso tuvimos que aprender los fundamentos de flutter , desde su instalación,complementos,actualizaciones,etc. donde resultó un poco mayor el nivel de complejidad puesto que la mayoría no tenía un amplio conocimineto de esta tecnología sin embargo el apoyo de los compañeros fue el principal factor para que todos vallamos de la mano . Desarrollo y entrega: En este apartado el profesor nos dio a conocer distintas  herramientas que en este y en muchos más proyectos nos serán de gran utilidad para la reducción de tiempos,costos,complejidad,etc como lo son complementos de flutter,firebase,etc.Llegando a este punto resultó muy interesante el tema de una base de datos en tiempo real, además de aprender bastante de la tecnología flutter. Con forme avanzamos la aplicación iba tomando forma,estructura y resultó muy atractiva para todos.


CONCLUSIONES

Gracias al trabajo en equipo la autoretroalimentación y enseñanza de el profesor logramos obtener el exito mediante la aplicación de manera ágil y efectiva dando como resultado una aplicación multiplataforma util,atractiva y sobre todo facil de usar de igual forma conseguimos implementar la base de datos en tiempo real donde esta resultó sumamente beneficiosa para el desarrollo del proyecto.
Lopez Soto Jesus Alberto, Universidad Autónoma de Sinaloa
Asesor: Dr. Carlos Alberto Chavez Guzman, Universidad Autónoma de Baja California

SISTEMAS DE CONTROL LINEAL Y NO LINEAL APLICADOS A SISTEMAS MECATRóNICOS


SISTEMAS DE CONTROL LINEAL Y NO LINEAL APLICADOS A SISTEMAS MECATRóNICOS

Lopez Soto Jesus Alberto, Universidad Autónoma de Sinaloa. Rojas Plazas Jeison Andres, Universidad Antonio Nariño. Asesor: Dr. Carlos Alberto Chavez Guzman, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Los sistemas mecánicos subactuados son aquellos que poseen en su estructura más grados de libertad que actuadores. Muchos sistemas de este tipo se estudian con el fin de ejecutar leyes de control que mantengan el seguimiento de una trayectoria o mantenerlo en un punto específico de equilibrio. El péndulo de Furuta es un sistema mecánico subactuado no lineal, que consta de un brazo impulsado que gira en un plano horizontal, este modelo representa muchos sistemas complejos como cohetes, misiles y satélites en órbita. El uso de las redes neuronales se basa en datos que pueden brindar algún tipo de información, que al ser procesada aporta resultados que se traducen en leyes de control que logran resultados satisfactorios. En el ámbito académico, es una herramienta bastante importante que ayuda a los estudiantes a comprender mejor el modelo y control de sistemas no lineales. Las redes neuronales forman un control que aprende de la dinámica de la planta, de este modo es posible reducir el costo de aplicación en muchos fenómenos físicos.



METODOLOGÍA

Modelado de la planta: Para la representación de la planta este proyecto se basa en el modelo propuesto según el artículo Desarrollo de un péndulo de Furuta de (Medina Cervantes, Gallardo Sánchez, Villafuerte Díaz, & Mejía Sánchez, 2017). A partir del análisis dinámico del sistema se obtienen ecuaciones. En este proyecto se incluye una ecuación más, la cual alude al par efectuado por el motor en función al voltaje aplicado. Sustituyendo las ecuaciones anteriores a excepción de la ecuación del par, en la formulación de Euler- Lagrange se obtienen las ecuaciones anteriores para el modelado en Matlab Simulink donde se despejan las segundas derivadas temporales de tetha y alfa. Las dos ecuaciones resultantes anteriores definen el comportamiento de la planta en el siguiente esquema de Matlab Simulink.  Linealización de la planta: El controlador LQR es un controlador para sistemas lineales representados en espacio de estados, para obtener la representación en espacio de estados de este sistema no lineal, primero se debe linealizar, para este proyecto la linealización de la planta se basó en el trabajo Control Híbrido del Péndulo de Furuta de (Escobar Dávila & Montoya Giraldo, 2012). Se plantean las variables de estado y se definen las ecuaciones de estado. Tras la linealización considerando puntos de equilibrio y aplicando series de Taylor, los autores del trabajo Control Híbrido del Péndulo de Furuta concluyen en la representación en espacio de estados del sistema linealizado de la planta. Diseño del Controlador LQR: Utilizando el comando de Matlab lqr() obtenemos la matriz de retroalimentación de estados K_lqr. Observando los polos del sistema almacenados en E sabemos que el sistema es estable. Ejecutando la simulación, obtenemos la  respuesta para con condiciones iniciales de alfa=pi/10 con los demás valores iniciales iguales a cero. Diseño de la Red Neuronal Artificial: Los patrones de entrenamiento se obtienen a partir de la simulación del controlador LQR con los bloques To Workspace en Simulink mostrados con el nombre de out.X1 hasta out.V. Obtenemos los datos para entrenar a la red neuronal  Se obtienen vectores columnas Para obtener vectores filas, obtenemos la traspuesta de cada vector columna Agrupamos las entradas en una matriz Una vez obtenidos los datos para el entrenamiento, la matriz X se ingresa como entrada y el vector V como objetivo, quedando de la forma los comandos para entrenar la RNA Simulamos el controlador neuronal con el comando net(X) el cual calcula la respuesta de la red neuronal artificial (RNA) en base a las entradas contenidas en la matriz X, además comparamos el comportamiento con la salida del controlador LQR y una segunda forma de implementación de la RNA haciendo las operaciones matemáticas con los pesos y bias obtenidos.  Simulación en lazo cerrado empleando la red neuronal: En el esquema de simulación se sustituye el controlador LQR por un bloque que implementa los valores de los pesos y bias de la red neuronal. El bloque myNeuralNetworkFunction.


CONCLUSIONES

Resultados: Se modelo de manera exitosa el péndulo de Furuta. Se linealizo el modelo para poder obtener un controlador optimo cuadrático LQR. Se obtuvo un controlador LQR capaz de estabilizar el péndulo de Furuta en su estado de equilibrio inestable. Se diseño y entreno una red neuronal artificial que cuenta con una neurona para la sustitución del controlador LQR. Al implementar la simulación sustituyendo el controlador LQR por el controlador neuronal se obtuvieron resultados distintos a los esperados ya que tanto las posiciones como el voltaje aplicado al motor deben converger en cero, el porque no pasa esto es aún desconocido, sin embargo, se plantean las siguientes hipótesis:     La implementación dentro del bloque para el control con la RNA de la planta presenta algún error en las operaciones matemáticas, sin embargo, esta posibilidad fue analizada y aún no se encuentran errores. El diseño de la red neuronal a pesar de haber obtenido valores que indican un nivel de error minúsculo no es el óptimo. Pudiese existir la posibilidad que dentro del comando net(X) se ejecute algún procedimiento que difiere en el aplicado con las operaciones matemáticas. Posiblemente se necesitan más datos de entrenamiento para que la red neuronal pueda ejercer la acción de control ante diferentes valores de entrada. Conclusiones: Se diseño un controlador neuronal para un sistema mecatrónico no lineal denominado Péndulo de Furuta que en base a los datos de entrenamiento sigue con gran exactitud al controlador LQR, en su implementación los resultados difieren, se continúa analizando la causa de tal efecto por lo que se han planteado en la parte de resultados algunas hipótesis. 
Lopez Torres Gabriela, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima

CONTROL DE ROBOT OMNIDIRECCIONAL A TRAVéS DE LA DIADEMA EMOTIV EPOC


CONTROL DE ROBOT OMNIDIRECCIONAL A TRAVéS DE LA DIADEMA EMOTIV EPOC

Gonzalez Reyes Ximena, Universidad Autónoma del Estado de México. Lopez Torres Gabriela, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Una lesión en la medula espinal se define como el daño en su estructura dentro del canal vertebral. Cuando este tipo de lesiones afecta el segmento medular cervical se provoca cuadriplejía, la cual es la parálisis en la parte superior del cuerpo (hombros, brazos, manos y dedos) y la parte inferior del cuerpo (pecho, piernas, pies y dedos de los pies). De acuerdo con la Organización Mundial de la Salud entre 250 000 y 500 000 personas sufren cada año en todo el mundo lesiones medulares. Estas lesiones pueden obligar a una persona a depender de sus cuidadores desde sus actividades en la vida cotidiana hasta en sus necesidades básicas.  Sin embargo, con el uso de diversas tecnologías asistenciales se puede lograr facilitar la movilidad, la comunicación, la autoasistencia o las actividades domésticas. En este verano de investigación se buscó obtener una comunicación en tiempo real entre la diadema Emotiv Epoc la cual es una herramienta de obtención de señales electroencefalográficas y un robot omnidireccional para lograr controlar la dirección de este mediante él envió de señales a través de los diferentes gestos faciales.



METODOLOGÍA

Para la elaboración de este proyecto se inició trabajando con el análisis de estructura, diseño y función de la diadema EMOTIV EPOC+ de 14 canales, así como del software de esta, Emotiv Launcher. Particularmente se empleó la aplicación de EmotivPRO, en la cual se comenzaron a adquirir señales electroencefalográficas de diferentes sujetos de prueba por medio de la diadema, una vez corroborado que la conexión entre diadema y sujeto obtuviera un rango aceptable de entre el 50% y el 100 % se comenzaron a grabar dichas adquisiciones para posteriormente ser analizadas. De las señales obtenidas se buscó identificar específicamente cuáles eran los movimientos faciales que activaban cada uno de los 14 canales característicos de la diadema los cuales fueron identificados como AF3, F7, FC5, F8, AF4. Determinando así que los movimientos más característicos y de utilidad fueron cuatro: el guiño izquierdo, guiñó derecho, el apretar la mandíbula y el levantamiento de ambas cejas. Posteriormente para poder examinar dichas señales y buscar sus propiedades de utilidad se buscó un ambiente de programación idóneo, siendo el seleccionado MATLAB versión R2022b, de igual manera se empleó la interfaz EEGLAB la cual es una caja de herramientas de MATLAB distribuida bajo la licencia BSD gratuita para el procesamiento de datos de electroencefalografía.  Seguidamente con la ayuda de la herramienta Lab Streaming Layer se logró la conectividad de la diadema con Matlab, en donde los datos de las señales electroencefalográficas fueron guardados en tiempo real en la estructura EGG, en la variable data, la cual iba creciendo periódicamente de acuerdo con el número de muestras tomadas en la señal. Una vez la señal estuviera guardada e importada en Matlab, se desarrolló un programa que identificara el umbral delimitante de los canales activados que enviaría la señal al robot omnidireccional. En dicho programa al importar el archivo de Emotiv .csv , se acomodaron los datos de los canales, para posteriormente realizar un  muestreo de dicha información de la señal en el tiempo y a través de un análisis previo se identificaron los canales a graficar, es decir los que por medio de los diferentes gestos faciales fueron activados,  después mediante la función findpeaks se localizaron los picos los cuales fueron los responsables de mover al robot en las diferentes direcciones asignadas: guiño derecho gira a la derecha, guiño izquierdo gira a la izquierda, levantar ambas cejas desplazarse hacia atrás y por ultimo apretar la mandíbula desplazarse hacia adelante. Para que el movimiento del robot fuera en tiempo real es decir en el tiempo en que duró la grabación se utilizó la función TICTOC de Matlab que cuenta el tiempo de la señal mandada cada segundo, después ingresa a un ciclo for y a través de unas banderas se nos indica que pico va pasando, y así sucesivamente hasta que todos los picos hayan sido leídos. Con esto se aseguró que el robot realizara la secuencia de movimientos grabada y cuando terminara se detendría. Por último, al detecta un cambio en la señal se mandó llamar una función externa que es la que tendría la comunicación directa con el robot omnidireccional, esto a través del uso de un servidor colocado en una computadora fija. Se mandó llamar la IP de dicho servidor, se asignaron cuatro temas a las cuatro ruedas del robot y se suscribieron en dicho servidor, luego se mandaron a llamar las velocidades para posteriormente ser convertidas en texto para que de esta manera los valores, el tema y las velocidades se publicaran en el servidor.


CONCLUSIONES

En el periodo de la estancia de investigación se lograron adquirir conocimientos teóricos sobre las distintas aplicaciones de las señales encefalografías, así como el uso de las diversas tecnologías con que las que se puede trabajar este tipo de señales y como esta unión puede llegar a mejorar la calidad de vida de las personas que sufren limitaciones de movimiento en sus extremidades. Si bien se logró un avance en el desarrollo del proyecto, se espera obtener una comunicación en tiempo real que realice el movimiento del robot y no solo se trabaje con señales previamente grabadas.
López Urbano Pamela Aimée, Instituto Politécnico Nacional
Asesor: Ing. Araceli Rebollar Becerra, Tecnológico de Estudios Superiores de Valle de Bravo

DETERMINAR LOS íNDICES DE CAPACIDAD DEL PROCESO (CP Y CPK) DE UNA FRESADORA CNC EN POLIAMIDA MECANIZABLE.


DETERMINAR LOS íNDICES DE CAPACIDAD DEL PROCESO (CP Y CPK) DE UNA FRESADORA CNC EN POLIAMIDA MECANIZABLE.

López Urbano Pamela Aimée, Instituto Politécnico Nacional. Urbina Velarde Julio Cesar, Universidad de Sonora. Asesor: Ing. Araceli Rebollar Becerra, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

En el proceso de fresado de piezas, es esencial garantizar que las tolerancias y especificaciones establecidas se cumplan de manera consistente para asegurar la calidad del producto final. Sin embargo, la variabilidad inherente en los procesos de manufactura puede dar lugar a desviaciones y defectos en las dimensiones de las piezas fresadas, lo que podría impactar negativamente en la satisfacción del cliente, la eficiencia de producción y la rentabilidad. Es decir, un Cpk menor a uno es una señal de que el proceso de fresado no es capaz de producir piezas dentro de las tolerancias requeridas de manera consistente. Esto puede resultar en problemas de calidad, costos adicionales y una disminución general en la eficiencia. Por lo tanto, el problema radica en la necesidad de determinar de manera precisa y sistemática los valores de Cp y Cpk en el proceso de fresado, para identificar si el proceso se encuentra bajo control o existen fuentes de variabilidad que afectan la calidad del producto, lo cual, conlleve a tomar medidas correctivas efectivas que mejoren la capacidad del proceso y producir piezas mecanizadas de alta calidad de manera consistente.



METODOLOGÍA

Establecimos los siguientes pasos para la metodología:  Planeación y diseño de la pieza: Se realizó el diseño de la pieza en AutoCAD, estableciendo las especificaciones de las medidas, el tamaño de muestra y el tipo de herramienta a utilizar. Elaboración del código CNC: Elaboramos el código del programa CNC para fresadora, con su respectiva simulación. Mecanizado de piezas: Ajustamos los parámetros necesarios para el mecanizado en la fresadora CNC y mecanizamos las piezas. Acabado de piezas: Al final del proceso de mecanizado, realizamos un proceso de acabado retirando la viruta de las piezas. Medición: Utilizamos un comparador óptico como instrumento de medición para obtener las mediciones de las piezas mecanizadas.  Recolección de datos: Una vez obtenidos los datos de las mediciones, organizamos los datos por cada lado de la pieza y establecimos las tolerancias correspondientes, en base a la normal DIN ISO 2768. Análisis estadístico: Interpretamos los indicadores de capacidad y evaluamos con los criterios de Cp y Cpk para tomar decisiones en base a la capacidad del proceso.


CONCLUSIONES

Después de 48 mecanizaciones se determinó que el Cpk es menor a 1, lo que significa que el proceso está fuera de control y que las medidas no cumplen con las especificaciones establecidas, por lo que el proceso no es confiable, esto se debe a diferentes variaciones en factores como: la calidad de la herramienta, la velocidad de corte y el material utilizado.  La conclusión principal de este proyecto es la toma de medidas preventivas y correctivas para el aseguramiento de la calidad de las piezas, cumpliendo con los requisitos y satisfacción del cliente. Algunas recomendaciones que sugerimos es la supervisión constante del proceso de mecanizado, así como también una producción por lotes, ya que la fresadora se puede descalibrar. Para eso implementar mantenimiento correctivo estandarizado y supervisar los resultados de mecanizado para posteriores mantenimientos preventivos de la máquina.
López Villarreal Camila, Universidad Libre
Asesor: Mtro. Juan Carlos Jeronimo Niniz, Instituto Tecnológico Superior Purépecha

CLúSTER DE LA SALUD EN EL MUNICIPIO DE TULUá - VALLE DEL CAUCA


CLúSTER DE LA SALUD EN EL MUNICIPIO DE TULUá - VALLE DEL CAUCA

Bravo Niño Crisdayan, Universidad Libre. López Villarreal Camila, Universidad Libre. Asesor: Mtro. Juan Carlos Jeronimo Niniz, Instituto Tecnológico Superior Purépecha



PLANTEAMIENTO DEL PROBLEMA

El Valle del Cauca es un departamento altamente competitivo en el área de servicios de salud, es por esto que observamos la importancia de fomentar la sana y correcta competencia en toda la región en el que el Municipio de Tuluá juega un papel muy importante ya que al realizar la creación de redes empresariales puede convertirse en un gran referente de la región y potencializar su mercado.   La necesidad de un enfoque clúster en el sector salud en Tuluá se hace evidente al considerar la desigualdad en el acceso a los servicios de salud en Colombia y en la región del Valle del Cauca, se han identificado factores que impiden la conformación de una red clúster en la región, como la falta de articulación entre los diferentes actores del sector salud, la ausencia de estrategias de asociación y la falta de estructuras organizativas adecuadas. 



METODOLOGÍA

El tipo de investigación propuesto es una combinación de investigación experimental, descriptiva y mixta, que integra enfoques cuantitativos y cualitativos. Para la recolección de datos se utilizarán técnicas como revisión de fuentes documentales, sitios web especializados y fuentes secundarias como tesis de pregrado y estadísticas de la Cámara de Comercio de Cali y Tuluá, así como entrevistas semiestructuradas, encuestas, investigación acción participativa, talleres formativos, observación y visita de campo, y análisis de información documental.​​


CONCLUSIONES

Después de haber realizado el análisis panorámico del sector salud a nivel internacional, nacional, departamental y municipal, se identifica la importancia de la creación de estrategias de desarrollo para aportar a la innovación de las regiones con deficiencia en el desarrollo competitivo, a su vez mejorar los niveles económicos e identidad.  La conformación de iniciativas clúster, nos permite una iniciativa favorable para el desarrollo regional, para esto se realizó el análisis de las diferentes teorías existentes acerca de clúster, en el que se tomaron en cuenta una serie de variables que nos permiten identificar la viabilidad de proponer una estrategia clúster.  De acuerdo a los diferentes actores y docentes que se enfocan en el tema clúster, existen 7 variables importantes para la formación de los clúster estratégicos. Éstas variables son:  - Concentración geográfica  - Especialización y denominación común  - Autores  - Masa crítica  - Dinámica  - Encadenamientos  - Ciclo de vida  - Innovación.    Debido al poco tiempo para realizar el estudio y comprobar cada variable, en esta oportunidad se realizó la trazabilidad para comprobar la proximidad.  Sin embargo debido a el tiempo y dificultad para comprobar cada una de ellas es casi imposible desarrollar todas las variables. La variable proximidad se comprobó mediante las razones propuestas por Fregoso (2012), con resultado positivo. En el municipio de Tuluá - Valle, existe proximidad en las entidades dedicadas al sector salud. Es el primer indicador para estar de acuerdo en proponer una estrategia de clúster.  Realizando la comprobación efectiva de la variable de proximidad, se cumplen los objetivos de este trabajo: Identificar que en el municipio de Tuluá - Valle existe proximidad entre industrias del mueble.  .Con esto podemos concluir que si es factible la conformación de un clúster de la salud en el municipio.  El hecho de que haya una cantidad de empresas en una determinada área geográfica no significa que se pueda implementar una iniciativa clúster, si bien es cierto que esto hace que sean más competitivas, depende de muchos factores cómo: autores, masa crítica, dinámica, ciclo de vida, etc.  En la investigación realizada durante la estancia de investigación, se logra evidenciar que para que haya un éxito total entre las organizaciones se deben tener en cuenta principalmente 7 variables (factores), para que sean examinadas y así determinar si la propuesta es 100% confiable.  En la región que se realizó el estudio logramos evidenciar que existe proximidad entre las empresas, adicionalmente que son empresas innovadoras debido a que en el municipio el área de la salud es foco para las entidades gubernamentales, quienes apoyarían económicamente la creación del clúster propuesto (Clúster de la Salud), sin embargo, hasta que no esté puesta en marcha no podemos asegurar su éxito.  Por tal motivo se recomienda:  En el momento en el que podamos asegurar un tiempo prudente para la investigación, se pueden analizar más variables que permiten aproximar un resultado prospectivo para el éxito del proyecto, adicionalmente es importante que se pueda asegurar las entidades que podrían inyectar recursos económicos y en especie de investigación para que el clúster se sostenga en el tiempo y genere crecimiento económico de la región, siendo referente no sólo a nivel departamental, sino también a nivel nacional. 
López Vizguerra Edgar, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

PLANTEAR E IMPLEMENTAR MEJORAS EN MINI AEROGENERADOR EóLICO VERTICAL


PLANTEAR E IMPLEMENTAR MEJORAS EN MINI AEROGENERADOR EóLICO VERTICAL

López Vizguerra Edgar, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El proceso de elaboración de este trabajo fue basado en un aerogenerador tipo Savonius; al realizar una breve investigación era la mejor opción debido a nuestras condiciones geográficas.  Se tenía un desarrollo previo el cuál no satisfacía por completo nuestros requerimientos energéticos, además de que queríamos agregar mejoras de diseño funcional y estético. Se realizan mejoras en el diseño del generador eléctrico y se realizan análisis de cambio de posición de componentes. Se propone: Cambio de posición el mini aerogenerador debido a que se encontraba en una posición donde se mostraba el generador y para hacerlo más estético se cambió a su forma original. Cambiar a una base circular para evitar el desplazamiento del mini aerogenerador y las vibraciones excesivas. 



METODOLOGÍA

  Para el desarrollo del proyecto planteamos las siguientes actividades a realizar: 1. Etapa inicial Formulación y planteamiento del problema. Revisión del estado de arte y de la técnica. 2. Selección de diseño. Estudio de diseño inicial y generación de propuestas de mejora. Selección de modelos de generadores eléctricos. Obtención de pruebas de cámara de alta velocidad. 3. Construcción. Diseño en CAD de todo el generador para simulaciones. Selección y adquisición de componentes para el generador eléctrico. 4. Pruebas y adecuaciones. Realizar pruebas y ajustes del sistema completo. Análisis de los resultados y optimización de pruebas. 5. Análisis de resultados. Realización de los resultados y optimización de pruebas.


CONCLUSIONES

Debido a que se contaba con un prototipo previo del mini aerogenerador los objetivos de optimización se pudieron comparar de manera directa. Se tiene así un área más limpia para el generador que facilita la rotación y se obtendrá, también, un mejor diseño. Durante la estancia en el programa Delfin logramos los objetivos específicos y generales los cuales se enfocaban en una mejor eficiencia al generar energía eléctrica y de este modo nuestro prototipo fuera lo suficiente práctico.
Loredo Pérez Citlalli, Universidad de Guadalajara
Asesor: Dra. Jorgelina Cecilia Pasqualino Na, Universidad Tecnológica De Bolívar

MONITOREO DE LA CALIDAD DE AGUA EN CUERPOS DE AGUA EN CARTAGENA DE INDIAS, COLOMBIA.


MONITOREO DE LA CALIDAD DE AGUA EN CUERPOS DE AGUA EN CARTAGENA DE INDIAS, COLOMBIA.

Guzmán Moreno Paola Itzel, Tecnológico de Estudios Superiores de Tianguistenco. Loredo Pérez Citlalli, Universidad de Guadalajara. Asesor: Dra. Jorgelina Cecilia Pasqualino Na, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

En Cartagena de Indias, Colombia, los cuerpos de agua como playas, ciénagas y lagos desempeñan un papel fundamental en la identidad, el turismo y la economía de la ciudad. Sin embargo, el rápido crecimiento poblacional y el desarrollo urbano no planificado han generado una serie de desafíos ambientales que amenazan la salud y la sostenibilidad de estos ecosistemas costeros. La proliferación de actividades humanas no reguladas, como descargas de aguas residuales sin tratar, vertidos de desechos sólidos, la presencia de colillas de cigarros y el uso irresponsable de playas han provocado un aumento en la contaminación del agua en estos cuerpos acuáticos. La calidad del agua es un factor crítico para el funcionamiento equilibrado de los ecosistemas costeros. Por lo tanto, es imperativo el monitoreo constante que evalúe regularmente los parámetros físicoquímicos y biológicos de éstos ecosistemas. Cartagena es la segunda ciudad con más turismo en Colombia, por lo que una de las principales actividades económicas de Cartagena es el turismo en sus playas, es por ello que es de suma importancia la conservación de sus playas y demás ecosistemas costeros. El monitoreo regular permite detectar tendencias y cambios en la calidad del agua, identificar fuentes de contaminación y evaluar los impactos de las actividades humanas en los ecosistemas costeros. Con esta información, se podrán diseñar estrategias y medidas de conservación orientadas a proteger la salud de estos valiosos recursos acuáticos.



METODOLOGÍA

  Monitoreo de playas  Nutrientes (Nitritos, nitratos y amonio) En muestras de  10 mL,para agregar el reactivo, esperar 6 minutos, verter en el cubo comparador de colores y observar Conductividad y sólidos solubles totales Sumergir el conductímetro en la muestra y anotar resultados. Temperatura y pH Sumergir el equipo en la muestra y anotar resultados. Dióxido de carbono Añadir 1 gota de fenoltaleína a 5 ml de muestra, si la solución queda rosa, la cantidad de CO2=0, si la solución permanece incolora, titular el reactivo HI 3818-0. Salinidad y gravedad específica Llenar de muestra el hidrómetro, esperar a que la aguja se estabilice y anotar resultados. Turbidez Colocar 10 ml de muestra dentro del equipo y leer rsultado   Demanda béntica de El Laguito. Se seleccionan 4 puntos de monitoreo Se construyen pequeños reactores con una bomba y una manguera. Los primeros 15 cm le corresponden a lodos, los otros 5 cm deberán ir libres y finalmente en el centímetro 20 colocar la bomba. En los reactores verter sólidos recolectados en El Laguito Dejar airear las muestras de agua recolectadas del Laguito por 20 minutos.  Verter en los reactores el agua aireada, mientras se deja bombear por cuatro horas y se toman mediciones de oxígeno cada hora. Realizar mediciones de oxígeno disuelto en cada muestra y medir parámetros, como turbidez, alcalinidad, nutrientes (nitrato, nitrito, amonio), densidad, salinidad, conductividad, potencial redox y sólidos disueltos. Identificación de microplásticos Secar la arena a 60°C por 48 horas. Disolver 359 g de NaCl en 1L de agua y agitar 48 h a 600 rpm a 60°C Se deja reposar la solución hasta temperatura ambiente. Se filtra la disolución salina a través de filtro de poro fino mediante uso de una bomba de vacío Se mezclan 50 g de suelo seco con 200 ml de la solución concentrada, a 600 rpm durante 2 minutos.  Se deja asentar la muestra por 6 horas Se filtra la muestra de arena en la disolución con el papel de poro fino mediante bomba de vacío. Se seca el filtro a temperatura ambiente en caja Petri de vidrio Se  una separación de microplásticos para su clasificación por microscopio o estereoscopio. Se repite la agitación, asentamiento y filtrado dos veces más. Monitoreo de la ciénega Virgen Se seleccionan 5 puntos de muestreo en la ciénega. Se toman muestra de los 5 puntos y además se realiza la medición de oxígeno, dióxido de carbono y turbidez.


CONCLUSIONES

El proyecto de monitoreo de playas en Cartagena arrojó resultados alentadores sobre la calidad del agua en tres áreas evaluadas: Bocagrande, Crespo y Playa Azul. Los valores encontrados para pH (7.8), oxígeno disuelto (6.06-6.24 mg/L), temperatura (30.3-31°C) y CO2 (7.62-16 ppm) se mantuvieron dentro de los límites aceptables, reflejando una excelente salud de los ecosistemas acuáticos. La ausencia de contaminantes como amonio, nitritos y nitratos, junto con una turbidez baja y salinidad adecuada (34.12-36.2 PSU), respaldan una calidad óptima del agua, al igual que la gravedad específica cuyos valores se encuentran alrededor de 1.026. Además, los sólidos disueltos totales (8.74-9.53 ppt) también se encontraron en niveles apropiados. El monitoreo de playas en Cartagena reveló que los parámetros analizados se encuentran dentro de los límites aceptables, con mínimas variaciones ocasionales. Se observó una excelente calidad del agua en todos los parámetros analizados. Los resultados indican que las playas de Cartagena mantienen una alta calidad del agua, lo que contribuye a la preservación de estos valiosos ecosistemas costeros. Sin embargo, es crucial seguir con el monitoreo periódico para detectar cambios a largo plazo y prevenir posibles impactos negativos por el crecimiento urbano y turismo. La gestión adecuada y la promoción de prácticas sostenibles son fundamentales para mantener la salud y la conservación de los ecosistemas costeros de Cartagena. En cuanto a la medición de la demanda béntica de El Laguito y la identificación de microplásticos en Bocagrande, aún no se han concluido dichos proyectos, por lo que no es posible presentar los resultados finales.  
Lorenzo Nicolas Pedro, Instituto Tecnológico de Reynosa
Asesor: Mg. Johan David Ñañez Zuleta, Servicio Nacional de Aprendizaje SENA - Regional Risaralda

DESARROLLO DE UNA PICO CENTRAL HIDROELéCTRICA PARA LA GENERACIóN DE ENERGíA EN ZONAS CON ALTO POTENCIAL HIDRO CINéTICO


DESARROLLO DE UNA PICO CENTRAL HIDROELéCTRICA PARA LA GENERACIóN DE ENERGíA EN ZONAS CON ALTO POTENCIAL HIDRO CINéTICO

Lorenzo Nicolas Pedro, Instituto Tecnológico de Reynosa. Medina Montañez Alejandro, Instituto Tecnológico de Morelia. Asesor: Mg. Johan David Ñañez Zuleta, Servicio Nacional de Aprendizaje SENA - Regional Risaralda



PLANTEAMIENTO DEL PROBLEMA

Las fuentes de energía renovable han cobrado una creciente importancia en la búsqueda de soluciones sostenibles para la demanda global de energía. Dentro de estas fuentes, la energía hidroeléctrica ha sido históricamente una de las más utilizadas y eficientes en términos de generación de electricidad. La creciente preocupación por el cambio climático y la necesidad de reducir las emisiones de gases de efecto invernadero han impulsado la búsqueda de fuentes de energía renovable que sean eficientes y, al mismo tiempo, tengan un bajo impacto ambiental. En este contexto, las pico centrales hidroeléctricas han surgido como una potencial alternativa prometedora debido a su capacidad para aprovechar el potencial hidrocinético de ríos y corrientes de menor caudal. Las pico centrales hidroeléctricas tienen la capacidad de operar en armonía con los ecosistemas fluviales existentes, minimizando la alteración de los hábitats acuáticos y la degradación del entorno natural. A diferencia de las grandes represas, que pueden causar cambios significativos en la geomorfología de los ríos y en la biodiversidad acuática, las pico centrales hidroeléctricas pueden ser diseñadas para causar un impacto ambiental mucho más limitado. Al proporcionar una fuente constante de energía renovable, las pico centrales hidroeléctricas pueden contribuir a la reducción de las emisiones de gases de efecto invernadero al reemplazar las fuentes de energía basadas en combustibles fósiles. Las pico centrales hidroeléctricas pueden aprovechar los flujos de agua locales, lo que reduce la necesidad de transporte y distribución de combustibles fósiles.



METODOLOGÍA

En la fase inicial del proyecto, se procedió a la selección del tipo de turbina más apropiado para transferir tanto la potencia como el torque al generador en la pico central hidroeléctrica. Entre diversas alternativas de diseño y fabricación, como las turbinas Francis, Kaplan y Darrieus, se tomó la decisión de emplear una turbina de múltiples palas. Esta elección se fundamentó en la eficiencia demostrada, además de su relativa facilidad de instalación y menor costo. Para el desarrollo del primer prototipo, la turbina fue diseñada utilizando software de diseño asistido por computadora (CAD) de Solid Works y posteriormente se materializó mediante impresión en 3D. Cabe destacar que cada una de las tres palas de esta turbina presenta una curvatura singular que potencionaliza su eficiencia.  En la fase subsiguiente, se procedió con el desarrollo de los componentes tanto mecánicos como eléctricos. En términos generales, se construyó una estructura de soporte diseñada para mantener y estabilizar todos los elementos mecánicos, que incluyen la turbina de múltiples palas, un sistema de arrastre compuesto por dos discos y dos piñones de bicicleta. Este sistema de arrastre es esencial para la transmisión efectiva del torque desde las palas de la turbina al generador eléctrico de corriente continua con imán permanente. Además de estas características, la configuración mecánica incorpora un sistema innovador de flotabilidad, asegurando la adecuada flotación y estabilidad de la pico central hidroeléctrica en su entorno acuático. En lo que respecta a los componentes eléctricos, se diseñaron sistemas para la medición de voltaje, corriente y potencia eléctrica mediante diversos sensores, así como para el registro de las revoluciones por minuto proporcionadas por el sistema, utilizando un sensor de efecto Hall. En la fase posterior del proyecto, el prototipo de laboratorio fue validado en condiciones de operación en ambiente de trabajo real. Los resultados obtenidos en esta etapa arrojaron valores positivos, con un voltaje de salida oscilando entre 7 y 8 voltios, una potencia que varía entre 25 y 30 vatios, y una producción energética de 18 a 21.6 kilovatios por mes. En la última fase de desarrollo, se realizó una ampliación del tamaño del primer prototipo, aproximadamente al doble de sus dimensiones originales, con el propósito de incrementar tanto el voltaje como la potencia y energía generada por el sistema. Este paso persigue maximizar la capacidad de generación eléctrica de la pico central hidroeléctrica, con miras a obtener un rendimiento óptimo en términos de producción energética y eficiencia.


CONCLUSIONES

En resumen, la turbina de tipo multipala ha demostrado el mejor desempeño en las pruebas de laboratorio y se alinea de manera óptima con los objetivos del proyecto. Cabe destacar la originalidad de los diseños de álabes curvos y del sistema de flotabilidad, que, a pesar de la escasa documentación disponible, han demostrado ser elementos innovadores clave en la optimización del sistema. La siguiente fase del proyecto involucrará pruebas en condiciones reales utilizando un prototipo a escala. Estas pruebas proporcionarán información esencial para validar nuestras conclusiones y recopilar datos valiosos para futuras implementaciones y mejoras. Este proyecto sigue desempeñando un papel importante en la evolución de tecnologías de energía sostenible y eficiente.
Lorenzo Torres Esteban Gabriel, Instituto Politécnico Nacional
Asesor: Dra. Claudia del Carmen Gutiérrez Torres, Instituto Politécnico Nacional

SIMULACIóN NUMéRICA EN FENóMENOS DE TRANSPORTE


SIMULACIóN NUMéRICA EN FENóMENOS DE TRANSPORTE

Arellano Alcántar Diana Laura, Instituto Tecnológico de Morelia. Lorenzo Torres Esteban Gabriel, Instituto Politécnico Nacional. Salinas Dominguéz Jaquelin, Instituto Tecnológico de Gustavo A. Madero II. Asesor: Dra. Claudia del Carmen Gutiérrez Torres, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en reproducir mediante un software CAT las diferentes geometrías del copo de nieve de Koch que es una geometría fractal que ha sido estudiada en diferentes ámbitos para diferentes aplicaciones y generar barras sólidas que tengan ese tipo de geometrías en su sección transversal para posteriormente realizar una simulación numérica del flujo sobre esta barra con la finalidad de analizar el comportamiento de las fuerzas de arrastre en las geometrías.  



METODOLOGÍA

La simulación numérica se llevó a cabo utilizando los softwares Ansys-Fluent y Solidworks, en dos y tres dimensiones, pero con las mismas condiciones de flujo, es decir, con el mismo número de Reynolds. Posteriormente, se realizará una comparación del flujo alrededor de estas barras con respecto al flujo sobre un cilindro liso. La idea principal es comparar los campos de flujo (velocidad, presión) de las diferentes geometrías de los copos de nieve de Koch con los del cilindro circular liso cuando en dichos flujos se tiene un número de Reynolds de 30000.


CONCLUSIONES

El objetivo final es determinar si el uso de estas geometrías de copo de nieve de Koch pueden representar un ahorro de energía en términos de reducción del arrastre a geometrías similares como lo es la de un cilindro liso con sección transversal circular. De ser así, este tipo de geometrías podría ser utilizada en el diseño de dispositivos de ingeniería que utilicen cilindros dentro de su construcción y en los que se presente una interacción sólido-fluido como por ejemplo en intercambiadores de calor. Será necesario estudiar los efectos a diferentes números de Reynolds antes de tener conclusiones contundentes al respecto.
Lozano Cruz Rut Trinidad, Instituto Politécnico Nacional
Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez

INTERFACE SOLIDWORKS-PYTHON


INTERFACE SOLIDWORKS-PYTHON

Lozano Cruz Rut Trinidad, Instituto Politécnico Nacional. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El uso de distintos softwares para la creación y desarrollo de proyectos suele ser una tarea repetitiva a la que se dedica mucho tiempo, tenemos que interactuar por separado con cada uno de estos para así controlarlos y obtener información, lo que nos limita a trabajar de manera obsoleta y abre paso a posibles errores que pudieran producirse en el proceso. La necesidad frecuente del mundo actual de almacenar, procesar y recopilar datos hace que el uso manual de estos sea una actividad monótona, propensa a errores que pueden ser costosos, además, obstaculiza identificar errores y al mismo tiempo crear soluciones a problemas que puedan surgir.



METODOLOGÍA

Con este proyecto se busca automatizar el diseño de una pieza en SolidWorks a través de Python y de manera simultánea almacenar las especificaciones de esta en una base de datos, por medio de una interfaz gráfica o GUI. Para lograrlo realizamos los siguientes objetivos específicos: Definir la estructura de la GUI y cada uno de sus elementos. Parametrizar las ecuaciones en SolidWorks. Realizar una base de datos, así como la conexión con Python. Para diseñar la interfaz gráfica de usuario se utilizó el software QtDesigner de Python, en el que podemos construir de manera rápida y sencilla gráficos con widgets, como lo son botones, cuadros de texto y otros elementos que son sencillos de ubicar dentro de esta, a su vez, contiene configuración de hoja de estilo, lo que nos ayuda programar, por ejemplo, el color de fondo, estilo de letra o el tamaño de fuente y se puede utilizar el número de ventanas necesarias sin ser confuso o difícil. Además, para agregar algunos efectos de sombra cree una función desde el editor de texto Visual Studio Code, y después solo se elige que elementos presentaran este. Para realizar el código se optó por usar Python, ya que es un lenguaje de programación fácil de usar y se pueden elegir una amplia gama de bibliotecas adicionales para mejorar o hacer más completo nuestro trabajo. Se establecieron los elementos que debe contener la interfaz gráfica de acuerdo con las necesidades del usuario y la interacción con los demás softwares, que son DB Browser y SolidWorks, se utilizaron 4 interfaces de usuario, a continuación, se enlistan cada una y sus características: Pantalla principal, en la que el usuario puede elegir entre modificar las dimensiones de la pieza realizada en SolidWorks, visualizar el historial de modificaciones que se han realizado a la pieza y finalmente salir del programa. Menú, donde se pueden realizar acciones para modificar las medidas de la pieza de o por archivo. Modificación manual de la pieza realizada, es decir, el usuario introduce las medidas que el decida para redibujar o modificación por archivo donde se elige un documento con extensión txt creado por el usuario anteriormente. Los datos que se guardan el formato txt tiene conexión directa con SolidWorks a través de un link. Historial, se puede observar la fecha, hora y modificaciones realizadas a la pieza, identificadas con un ID único, datos que se almacenan en una base creada en DB Browser. Como se mencionó anteriormente la conexión entre SolidWorks y Python se realiza configurando las ecuaciones de nuestra pieza desde el software, posteriormente se elige un archivo txt al que se genera un link para poder automatizar el diseño de la pieza, una vez hecho esto, solo resta hacer el programa en Python, en donde se usa el nombre exacto con el que guardamos nuestro txt. De la misma manera para enlazar DB Browser, la GIU y el archivo txt se hace desde el editor de texto, donde se conecta con la base de datos y se visualizan estos en una tabla, donde también se puede observar el nombre del archivo txt del que provienen las modificaciones.


CONCLUSIONES

En la actualidad realizar la automatización de un diseño o proceso es de gran utilidad, ya que es mas eficiente, facilita el uso de diversos softwares de manera sencilla, es fácil de usar, nos ahorra tiempo, podemos manipular ciertas características y parámetros desde un solo lugar. A lo largo de la estancia de verano se logró realizar el proyecto de manera correcta, también, se adquirieron conocimientos en el uso de SolidWorks, DB Browser, Visual Studio Code, QtDesigner y Python, se compendió una manera diferente de programar y realizar proyectos innovadores en la ingeniería. RESULTADOS: Al termino de la estancia de verano se logró controlar las especificaciones del diseño a través del uso de las diversas herramientas que nos ofrece SolidWorks y mediante el código desarrollado, este se controla con 7 variables globales, que pueden cambiar según sea el tipo de diseño y las características deseadas por el usuario, además en la interfaz se pueden hacer modificaciones de dos tipos y visualizar estas en una base de datos. Se consiguió concretar la GUI, siendo esta interactiva y fácil de usar.
Lucatero Díaz Ángel Josafat, Universidad Politécnica de Sinaloa
Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa

SISTEMA SIMULADOR UNDIMOTRíZ


SISTEMA SIMULADOR UNDIMOTRíZ

Hernández Bravo Saramaría Galilea, Instituto Tecnológico Superior de Uruapan. Lucatero Díaz Ángel Josafat, Universidad Politécnica de Sinaloa. Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El uso de energías renovables es fundamental para reducir la dependencia de los recursos no renovables y mitigar el impacto ambiental causado por las fuentes de energía tradicionales. Entre las diversas fuentes renovables, la energía undimotriz, que proviene de las olas del océano, muestra un gran potencial para ser aprovechada como una fuente de energía limpia y sostenible en México. Para el desarrollo de sistemas de energía undimotriz eficientes, se ha recurrido a simuladores para modelar y evaluar el rendimiento de diferentes diseños y tecnologías. Estos simuladores permiten predecir el comportamiento de los dispositivos undimotrices bajo diversas condiciones del mar, lo que ayuda a optimizar su eficiencia y fiabilidad antes de implementarlos a gran escala.



METODOLOGÍA

El dispositivo simulador undimotríz está basado en una plataforma móvil de 1 grado de libertad, en modo lineal cartesiano. El dispositivo en desarrollo ya cuenta con un diseño y ensamble. Se realizaron pequeñas mejoras y cambios al diseño mecánico del prototipo, en el cual se cambió la forma de organización y se propusieron nuevas ideas para la transmisión del movimiento del motor que moverá una veleta que a su vez realizará un movimiento que simulará el comportamiento de las olas, así también se diseñaron piezas únicas para algunas partes, como una pieza especial que estará en el motor y un piñón que estará montado en el encoder con el que será posible la lectura del movimiento del motor a través de una banda dentada. Algunas piezas del prototipo se fueron imprimiendo en 3D para poder hacer pruebas de funcionamiento. Para poder realizar estas pruebas se implementó una pequeña plataforma en la que se montó el motor y el encoder, así como una base para el encoder con la que quedara a la misma altura del motor, esta base se rediseñó y se imprimió en 3D, también se diseñó e imprimió un pequeño adaptador con el que se pudiera unir el motor con el encoder y poder realizar la lectura de este a través de programación. En la programación se realizaron en primera instancia programas para probar los componentes a utilizar, como el encoder, en el cual se realizó un programa con el que puedes medir los pulsos por segundo que arroja este cuando se mueve. Se realizó un código para poder controlar el sentido del motor a través de un puente H y comprobar su correcto funcionamiento, y se implementaron diferentes controladores para ver el funcionamiento con cada unp, hasta finalmente trabajar con un arduino mega 2560. Para la programación y el control del prototipo, se utilizó el software matlab en donde se realizó un programa de apoyo para poder identificar el funcionamiento de la función de control PID predeterminada que tiene el software, en donde se median las rpm y se controlaba la velocidad del motor, mientras que en arduino se realizó un programa para poder mover el motor en cualquier sentido y poder hacer la medición hacia cual sentido es y cuantos pulsos contaba el encoder dependiendo de las vueltas que hacía. También se realizó un programa en matlab para hacer una comunicación serial entre arduino y matlab, en el cual se tenía pensado que a través de matlab se implementara el control pid y con el programa de arduino obtener los datos necesarios. En el intermedio de este proceso se estuvo investigando qué componentes utilizar y cómo utilizarlos, ya que se tenía que saber si eran adecuados para esta aplicación.  


CONCLUSIONES

Durante esta estancia de verano se logró tener claro cómo será un primer prototipo, la forma en la que se hará el control de este y con qué componentes se podrá hacer, por falta de tiempo no se pudo realizar el ensamble completo ni la implementación de algunas piezas y ya que es un proyecto muy extenso y se quedó en una etapa inicial, por lo que no se pueden mostrar las simulaciones que podría hacer el prototipo. Se espera que en el momento que se encuentren todas las piezas manufacturadas se pueda hacer un primer prototipo funcional con el cual se puedan realizar las pruebas necesarias para seguir trabajando en su control.
Lugo Martinez Saul Isui, Instituto Tecnológico de Pachuca
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ANáLISIS DE SEGURIDAD DE APLICACIONES MóVILES WEARABLES PARA SISTEMA OPERATIVO ANDROID


ANáLISIS DE SEGURIDAD DE APLICACIONES MóVILES WEARABLES PARA SISTEMA OPERATIVO ANDROID

Lugo Martinez Saul Isui, Instituto Tecnológico de Pachuca. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el contexto de un mundo cada vez más digital, las aplicaciones móviles y los dispositivos wearables han experimentado un crecimiento significativo, desempeñando un papel crucial en la vida cotidiana de los usuarios. Sin embargo, este aumento en el uso de aplicaciones móviles también ha dado lugar a preocupaciones sobre la seguridad y privacidad de los usuarios. El presente trabajo se enfoca en abordar el problema de la seguridad en aplicaciones móviles wearables para el sistema operativo Android. Uno de los mayores desafíos es garantizar la protección de la información personal y sensible de los usuarios que utilizan estas aplicaciones móviles. La sinergia entre aplicaciones móviles y dispositivos wearables implica una interconexión más profunda y constante, lo que aumenta la cantidad de datos recopilados y compartidos entre ellos. Esto, a su vez, podría exponer a los usuarios a posibles vulnerabilidades y amenazas de seguridad. Además, el aumento del uso de aplicaciones móviles y wearables también ha atraído la atención de los ciberdelincuentes, quienes buscan explotar estas plataformas para llevar a cabo actividades maliciosas. La inyección de código malicioso es una técnica utilizada por los atacantes para comprometer la integridad y seguridad del código fuente de las aplicaciones, pudiendo obtener acceso no autorizado a la información del usuario y causar daños significativos. Por lo tanto, el problema que se pretende abordar en este trabajo de análisis de seguridad es determinar cómo las aplicaciones móviles wearables para Android podrían verse afectadas por la inyección de código malicioso, y evaluar el alcance y las consecuencias de dichas vulnerabilidades en la seguridad de la información de los usuarios. Es crucial realizar un análisis exhaustivo de la aplicación certificada y autenticada, cuyo código se someterá a pruebas de evaluación estática para identificar y detectar posibles puntos débiles que puedan ser explotados por atacantes. El objetivo principal es obtener una comprensión profunda de los riesgos asociados con la inyección de código malicioso en aplicaciones móviles wearables para Android y proporcionar recomendaciones y soluciones para mejorar la seguridad y proteger la privacidad de los usuarios. Al abordar este problema, se busca fomentar el desarrollo de aplicaciones más seguras y confiables, fortaleciendo así la confianza de los usuarios en el uso de estas tecnologías emergentes.



METODOLOGÍA

Se establecieron los objetivos de la investigación, como analizar la seguridad de aplicaciones móviles wearables para Android, específicamente enfocándose en la inyección de malware y la detección de vulnerabilidades. Se delimito el alcance del estudio, incluyendo las aplicaciones a analizar, los dispositivos wearables involucrados y los tipos de malware que se inyectarán. Selección de aplicaciones móviles wearables: Se Identifico y selecciono un conjunto representativo de aplicaciones móviles wearables para Android que sean ampliamente utilizadas y representen diversos casos de uso. Entorno de pruebas seguro: Se configuro un entorno de pruebas seguro y aislado que simule un entorno realista pero protegido de la red y sistemas de producción. Se utilizaron herramientas de virtualización y contenedores para asegurar el aislamiento y evitar el impacto en sistemas externos. Inyección de malware: Mediante Metasploit Framework se seleccionó un conjunto de diferentes técnicas de inyección de código malicioso. Se inyecto este malware en las aplicaciones de prueba seleccionadas, simulando ataques de ciberdelincuentes para evaluar su impacto. Análisis estático: Se llevo a cabo un análisis estático del código fuente de las aplicaciones móviles wearables utilizando herramientas de análisis de seguridad estática. Identificando y evaluando posibles vulnerabilidades y debilidades en el código que podrían permitir la inyección de malware y otras formas de ataques. Análisis dinámico: Se ejecutaron las aplicaciones de prueba en un entorno de pruebas controlado para llevar a cabo un análisis dinámico. Monitorizando el comportamiento de las aplicaciones en tiempo de ejecución y analizar las interacciones con el sistema operativo, otros dispositivos wearables y redes externas.


CONCLUSIONES

Durante la estancia de verano, se llevó a cabo una investigación exhaustiva centrada en el análisis de vulnerabilidades en dispositivos IoT y aplicaciones móviles. El objetivo principal fue comprender y evaluar los diversos tipos de vulnerabilidades que pueden afectar a estos dispositivos y aplicaciones, y proporcionar recomendaciones para fortalecer la seguridad y proteger la privacidad de los usuarios. En esta investigación, se enfocó especialmente en el uso de técnicas de descompilado de software para estudiar el comportamiento y estructura interna de aplicaciones móviles e IoT. Para ello, se seleccionaron diferentes aplicaciones legítimas, representativas de las utilizadas en la vida cotidiana, y se embebió código malicioso en ellas. Este paso fue fundamental para simular situaciones realistas de ataques cibernéticos, donde ciberdelincuentes podrían intentar inyectar código malicioso en aplicaciones legítimas para comprometer la seguridad de los usuarios. Una vez que se integró el código malicioso en las aplicaciones, se procedió a realizar un análisis estático y dinámico para evaluar las posibles vulnerabilidades y evaluar su alcance. El análisis estático se enfocó en examinar el código fuente de las aplicaciones, identificando posibles debilidades y vulnerabilidades que podrían ser aprovechadas por atacantes para llevar a cabo inyecciones de código malicioso o acceder a información confidencial. Por otro lado, el análisis dinámico se llevó a cabo mediante la ejecución de las aplicaciones en un entorno controlado, monitoreando su comportamiento en tiempo de ejecución y detectando posibles actividades maliciosas.
Lugo Quevedo David Alejandro, Universidad de Sonora
Asesor: Dr. Clemente Guadalupe Alvarado Beltrán, Universidad Autónoma de Sinaloa

DEGRADACIóN DE COMPUESTOS COLORANTES TóXICOS CON DIóXIDO DE TITANIO SINTETIZADO CON EXTRACTOS NATURALES DE JAMAICA, MORINGA Y ESPINACA


DEGRADACIóN DE COMPUESTOS COLORANTES TóXICOS CON DIóXIDO DE TITANIO SINTETIZADO CON EXTRACTOS NATURALES DE JAMAICA, MORINGA Y ESPINACA

Lugo Quevedo David Alejandro, Universidad de Sonora. Salmerón Bastidas César Noel, Universidad Autónoma de Sinaloa. Vazquez Chávez Jesús Miguel, Universidad de Guadalajara. Asesor: Dr. Clemente Guadalupe Alvarado Beltrán, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los colorantes como el azul de metileno significan un riesgo para el medio ambiente por sus diversos efectos negativos y la lenta degradación de estos, es por esto que es importante buscar estrategias como lo es la fotocatálisis para poder eliminar estos colorantes tóxicos en nuestro entorno. La fotocatálisis es un proceso fotoquímico que transforma la energía solar en energía química en la superficie de un catalizador, que consiste en un material semiconductor que incrementa la velocidad de la reacción. Durante este proceso, se llevan a cabo tanto reacciones de oxidación como de reducción. Cuando se menciona la fotocatálisis, se hace alusión a una reacción catalítica en la que se absorbe luz por parte de un catalizador o sustrato. En el campo de la química, la fotocatálisis se refiere a la aceleración de una fotorreacción en presencia de un catalizador.



METODOLOGÍA

Partiendo del tetracloruro de titanio (TiCL4) se sintetizó dióxido de titanio (TiO2), al cual se le agregaron extractos naturales de moringa, espinaca y jamaica, para posteriormente evaporar el solvente y calcinarlo en la mufla. Con ayuda del mortero se molieron las cenizas para obtener las nanopartículas, las cuales fueron agregadas a muestras de azul de metileno para iniciar su degradación a luz directa del sol. Una vez obtenidas varias muestras de la degradación de azul de metileno en distintos lapsos de tiempo a exposición de luz, se analizaron con el equipo UV-Vis y se graficaron con el programa origin para comparar los resultados de las degradaciones de las distintas muestras.


CONCLUSIONES

La síntesis del dióxido de titanio (TiO2) fue exitosa según las caracterizaciones realizadas en UV-Vis, sin embargo, al agregar los extractos naturales solo se obtuvo resultado favorable en el caso de la jamaica debido al band gap calculado. En el caso de las degradaciones, en todos los casos se observó disminución de la concentración de azul de metileno, pero la muestra correspondiente a la jamaica fue la que obtuvo mayor eficiencia. Podemos concluir que la investigación fue un éxito al degradar azul de metileno con dióxido de titanio (TiO2​) sintetizado con extracto natural de jamaica, ya que pudimos sensibilizar las moléculas a la luz visible al disminuir el band gap, pudiendo lograr eficientemente la reacción fotocatalitica.
Lulo Reyes Estefania, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dra. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

MODELO DE SIMULACIóN EN SIMIO DE UN CRUCERO VIAL EN LA CIUDAD DE LáZARO CáRDENAS MICHOACáN.


MODELO DE SIMULACIóN EN SIMIO DE UN CRUCERO VIAL EN LA CIUDAD DE LáZARO CáRDENAS MICHOACáN.

Lulo Reyes Estefania, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dra. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

El presente estudio tuvo como meta la construcción de un modelo de simulación representativo de un crucero vial ubicado en la Ciudad de Lázaro Cárdenas, Michoacán, México. En dicho crucero se se interceptan la avenida Melchor Ocampo y la calle Morelos, en el Fideicomiso 2do sector. La avenida Melchor Ocampo está conformada por dos calles las cuales tienen tres carriles cada una y cada una se direcciona este a oeste y viceversa, la calle Morelos se compone igualmente de dos calles cada una con tres carriles y los sentidos de ellas son de norte a sur y viceversa  Es importante señalar que la avenida Melchor Ocampo, conecta muchos puntos importantes de la ciudad; lo que hace esta zona sea concurrida en ciertas horas; como a la entrada de las escuelas y salida de estas, sumado a ello la calle Morelos conecta con dos de las avenidas principales de la ciudad. Debido a la concurrencia de estas dos vialidades, se han ocasionado varios accidentes viales que ponen en riesgo muchas vidas, no solo de conductores y pasajeros sino también de peatones, pues cerca se encuentra un supermercado y un centro de atención telefónica, donde constantemente hay afluencia de personas. Durante el periodo de enero a junio 2023; se tienen registrados 8 accidentes en esta área, dato obtenido del Delegado de Tránsito en la ciudad, el Capitán Arnoldo Herrera Campos.



METODOLOGÍA

Metodologia Law y Kelton (2010), consiste en diez pasos: 1. Formulación del problema Delimitar el problema Definir objetivos Definir criterio a comparar Indicar número de participantes Indicar costo involucrado 2. Recolección de datos y definición del modelo Definir parámetros de entrada y salida del sistema Crear instrumentos de recolección Toma de datos Tratamiento estadístico de datos Diagrama de proceso  3. Verificación del modelo Analizar el modelo con personas familiarizadas con la operación del sistema Proceso de demostración de que el modelo trabaja como se intento Se apoya en el diagrama de flujo 4. Construcción del programa Traducción del modelo conceptual al lenguaje de programación del simulador a utilizar para procesarlo en la computadora y obtener los resultados deseados  5. Realización de pruebas piloto Corregir deficiencias del modelo de simulación Obtener información para realizar la validación  6. Validación del programa Se comprueba si los datos que arroja la simulación son parecidos a los del sistema real. Comparar los resultados de la simulación con los del sistema real, para detallar deficiencias en la formulación del modelo o en los datos alimentados a él. Se utiliza la prueba t-pareada. 7. Diseño de experimentos Determinar el número de simulaciones independientes (replicaciones) para cada alternativa, especificando claramente su tiempo y sus condiciones iniciales. Se utiliza un procedimiento matemático a través de determinar un error absoluto.  8. Corridas del programa De acuerdo con el número de replicaciones obtenidas en el paso anterior, se procede a su realización.  9. Análisis de resultados Análisis de información generada en el paso anterior, se estiman medidas de desempeño para determinar el mejor sistema con respecto a alguna de ellas. 10. Documentación e implementación de resultados  Guardar los pasos realizados para tener las condiciones necesarias para la implementación de resultados.


CONCLUSIONES

Siguiendo la metodología antes expuesta; los resultados en cada paso fueron los siguientes: 1. Formulación del problema Se seleccionó el crucero antes mencionado por las características descritas, el objetivo fue tener un modelo de simulación representativo del sistema real que arroje información del comportamiento del mismo y que sirva como base para probar alternativas de mejora. 2. Recolección de datos y definición del modelo Primeramente, se identificaron las variables a analizar, las cuales fueron las siguientes: Tiempo entre llegadas de los vehículos al crucero por la calle MORELOS NORTE. Tiempo entre llegadas de los vehículos al crucero por la calle MORELOS SUR. Tiempo entre llegadas de los vehículos al crucero por la calle MELCHOR ESTE. Tiempo entre llegadas de los vehículos al crucero por la calle MELCHOR OESTE. Probabilidad de que un vehículo cambie de dirección. Después de ello, se diseñó un instrumento para la toma de datos de cada una de las variables La toma de datos se realizó en dos momentos importantes; dónde durante dos días se capturaron los arribos de los vehículos según las cuatro variables identificadas, esto en un horario particular que se considera hora pico en esa zona, que fue de aproximadamente las 13:30 y 14:30 del día, el siguiente momento fue para capturar las veces que los autos cambian de dirección dentro de la circunferencia del crucero, para lo cual se capturo en un día diferente y en un horario estimado al anterior. Estos datos, llevan un tratamiento estadístico con ayuda del software Stat::Fit; el cual realiza pruebas de bondad de ajuste; para determinar el comportamiento de los datos y poder utilizarlos en el software de simulación SIMIO. 3. Verificación del modelo El modelo, es verificado con el Capitán a cargo de la Delegación de Transito de la Ciudad y se genera el siguiente diagrama de flujo. 4.Construcción del programa El modelo conceptual del sistema tiene los elementos siguientes: VEHICULOS = Entidades SEMAFOROS = Server VIALIDADES = Paths ENTRADA AL CRUCERO = Source SALIDA DEL CRUCERO =Sink   Durante la estancia Delfín, se llega hasta el paso 4 de la metodología Law y Kelton; sin embargo, el trabajo a futuro incluye pruebas de validación del modelo y propuesta de una alternativa a la problemática identificada. Personalmente, considero que el software SIMIO es una herramienta muy poderosa en mi formación profesional, porque brinda la opción de implementar alternativas de mejora a manera de prueba, y de esta manera la empresa o el cliente no comprometen el sistema original o generan gastos innecesarios; durante la estancia también conocí una nueva metodología de investigación y descubrí que la investigación puede unir a varios países.
Luna Amezquita Yoshua Arath, Universidad Politécnica de Tecámac
Asesor: Dr. Jorge Ramón Parra Michel, Universidad de La Salle Bajío

DOBLE PROYECCIóN DE LUZ ESTRUCTURADA PARA TOPOMETRíA DE SUPERFICIES COMPLEJAS.


DOBLE PROYECCIóN DE LUZ ESTRUCTURADA PARA TOPOMETRíA DE SUPERFICIES COMPLEJAS.

Luna Amezquita Yoshua Arath, Universidad Politécnica de Tecámac. Asesor: Dr. Jorge Ramón Parra Michel, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

El avance de la tecnología en la topografía 3D ha abierto posibilidades para reconstruir superficies complejas mediante técnicas invasivas y sin contacto. Entre estas últimas, destacan el escaneo 3D por triangulación láser, fotogrametría y luz estructurada. Este resumen se centra en el uso de escáneres de luz estructurada con doble proyección y patrones de estéreo moiré, una solución efectiva para capturar representaciones detalladas en 3D. El desafío abordado es la complejidad geométrica de ciertas superficies, que dificulta la captura precisa de detalles y la forma exacta con métodos tradicionales. El alto costo y tiempo de procesamiento de los escáneres 3D limitan el acceso a tecnologías avanzadas. La propuesta busca superar estos desafíos con escáneres de luz estructurada, permitiendo una captura rápida y simultánea de datos tridimensionales. La configuración de doble luz estructurada y patrones de estéreo moiré proporciona información detallada sobre variaciones en la superficie, mejorando la eficiencia y precisión. Los objetivos incluyen elegir equipo adecuado, calibrar, programar algoritmos para proyección de franjas, fase de corrimiento, procesamiento digital de imágenes y cálculo de fase envuelta.



METODOLOGÍA

El proyecto inicia seleccionando el equipo adecuado para capturar la fase de corrimiento del patrón estéreo moiré. Se optará por proyectores comerciales con lentes no telemétricos, capaces de proyectar franjas a lo largo del eje "y". Las cámaras utilizadas deberán captar la fase de corrimiento de las franjas proyectadas para obtener las imágenes necesarias. La calibración del equipo se realizará previamente mediante técnicas en MATLAB, ajustando aberraciones y estableciendo la correspondencia entre puntos de proyección y el mundo real. El siguiente paso implica programar el patrón estéreo moiré y la fase de corrimiento en MATLAB. Se implementará un algoritmo que proyecte las franjas de luz desde dos direcciones y calcule la fase de corrimiento a partir del análisis de las imágenes capturadas. Luego, se procesarán las imágenes en MATLAB, recortando la región de interés y convirtiéndolas a escala de grises para reducir ruido no deseado. Un filtro gaussiano se aplicará para centrar la información relevante en el espectro de Fourier, mejorando la calidad de la información y eliminando ruido. El cálculo de la fase envuelta será fundamental, para lo cual se implementará un algoritmo en MATLAB que utilice la información de las imágenes de fase de corrimiento, proporcionando datos precisos sobre la topografía del objeto escaneado. El desarrollo del algoritmo para el desenvolvimiento de fase será clave, obteniendo una representación más precisa de la topografía del objeto y mejorando la calidad de los resultados. Para asegurar una referencia precisa en el proceso de escaneo, se aplicará un filtrado digital a la imagen del plano de referencia, eliminando cualquier distorsión o ruido en la proyección. Finalmente, se desarrollará un algoritmo en MATLAB para calcular la forma real del objeto a partir de la información de fase obtenida y el desenvolvimiento de fase. Con estos datos, se obtendrá una nube de puntos tridimensionales en formato STL, permitiendo la representación digital de la superficie compleja del objeto escaneado.


CONCLUSIONES

El proyecto logró su objetivo de obtener una nube de puntos tridimensionales en formato STL de una superficie compleja mediante la técnica de doble proyección de luz estructurada y patrones estéreo moiré, junto con el procesamiento digital de imágenes en MATLAB. Esta metodología capturó con precisión la topografía y los detalles del objeto, brindando resultados confiables y detallados. La captura de imágenes durante la fase de corrimiento y la implementación de algoritmos para el cálculo de la fase envuelta y el desenvolvimiento fueron fundamentales para obtener datos detallados de la geometría del objeto. Además, las técnicas de filtrado digital mejoraron la calidad de la imagen y eliminaron el ruido no deseado. La nube de puntos en formato STL permite una visualización y análisis detallado de la estructura tridimensional del objeto, lo cual es invaluable para la toma de decisiones en diseño, ingeniería e investigación. Esta técnica destaca por su viabilidad económica en comparación con otros escáneres 3D, lo que la hace atractiva para diversas empresas y aplicaciones. En conclusión, la técnica de doble proyección de luz estructurada y patrones estéreo moiré, respaldada por el procesamiento digital de imágenes en MATLAB, se muestra como una opción prometedora en el campo del escaneo 3D y la ingeniería inversa. Los resultados obtenidos abren nuevas perspectivas y oportunidades en diversos campos de aplicación, contribuyendo al avance de la ciencia y la tecnología en general.
Luna Damian Jose, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Alejandro Arana Paredes, Instituto Tecnológico Superior de Los Ríos

CLIMA ORGANIZACIONAL


CLIMA ORGANIZACIONAL

Luna Damian Jose, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Alejandro Arana Paredes, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

El clima organizacional es un factor fundamental que influye en el éxito y el bienestar de las empresas y organizaciones. Es importante comprender cómo se configura el clima laboral en diversas organizaciones y cómo impacta en los empleados y la eficiencia operativa. Por desgracia en Balancán, México no hay información detallada y actualizada sobre la situación del clima organizacional. Balancán no es diferente y durante la estancia de Investigación de Verano se llevó a cabo una recopilación de información relacionada con la situación actual del ambiente laboral, siempre vinculado al análisis del logro y el bienestar de las compañías y organizaciones.



METODOLOGÍA

El objetivo principal de esta investigación es analizar el clima organizacional en Balancán, México para identificar sus principales fortalezas y debilidades. La estrategia empleada fue principalmente una "metodología cualitativa", para ello se realizaron encuesta a empleados de diferentes empresas en Balancán para obtener datos cuantitativos sobre su percepción del clima organizacional y su nivel de satisfacción. Las entrevistas nos permitieron obtener una comprensión más profunda y detallada, se recurrió a la búsqueda de documentos y archivos, observación activa y trabajo de campo para luego llevar a cabo la transcripción y análisis del contenido.


CONCLUSIONES

En esta investigación, esperamos que los resultados brinden una comprensión más profunda del ambiente de trabajo en Balancán, México, y puedan servir como base para implementar estrategias y políticas que mejoren la calidad del entorno laboral y promuevan el bienestar y la eficiencia de los empleados en las empresas de la región. Además, se espera que este estudio contribuya a aumentar la conciencia sobre la importancia del ambiente de trabajo en el contexto local y su impacto en el éxito empresarial. Es importante mencionar que, gracias al Verano de la Investigación Científica, he fortalecido mi formación académica al permitirme comprender desde otra perspectiva la importancia vital del clima laboral para el éxito y bienestar de cualquier organización.
Luna López Juan Jair, Universidad Tecnológica de Tehuacán
Asesor: Dr. Oscar Martínez Fuentes, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PéNDULO INVERTIDO CON RUEDA INERCIAL


PéNDULO INVERTIDO CON RUEDA INERCIAL

Guzmán Cid Edgar Jossua, Universidad Tecnológica de Tehuacán. Luna López Juan Jair, Universidad Tecnológica de Tehuacán. Asesor: Dr. Oscar Martínez Fuentes, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la industria aeroespacial, existen ciertas condiciones o parámetros que las naves necesitan cambiar, una de ellas es su orientación. En la mayoría de los casos se opta por la utilización de propulsores, pero debido a su costo y a su peso, y la generación de vibraciones, se buscan otras alternativas que generen el torque necesario en la nave espacial para poder cambiar la orientación, por ejemplo, a partir del intercambio de algún momento angular entre una rueda de inercia y la nave.  Para dar solución a esta problemática, se presenta el diseño, instrumentación y puesta a punto de una plataforma de péndulo invertido, así como el diseño de controladores robustos que emulen tareas espaciales y resuelvan algunos problemas. La plataforma se construye de manera que sea de bajo costo y pueda utilizarse para implementar y validar distintos algoritmos de control, así como para realizar tareas didácticas en la enseñanza de la teoría de control.



METODOLOGÍA

Se llevó a cabo una revisión exhaustiva del estado del arte utilizando buscadores académicos de alto nivel. Se prestó especial atención a la relevancia de la información y su relación con investigaciones previas. A continuación, se presentan los tipos de investigación implementados: Investigación teórica. La investigación teórica se implementa para generar conocimiento del sistema de control y componentes que podremos aplicar. Investigación aplicada. Se aplicará en la industria aeroespacial y también; a las personas que quieran o tengan la inquietud para realizar tareas didácticas en la enseñanza de la teorıa de control. Investigación aplicada tecnológica. Se busca que la industria aeroespacial y aeronáutica tengan como alternativa al uso de propulsores, una plataforma que genere el torque necesario en la nave espacial para poder cambiar la orientación. Investigación aplicada científica. En el ámbito científico, se busca implementar el modelo matemático para validar e innovar en distintos algoritmos de control.


CONCLUSIONES

Este proyecto se estructura en dos partes. La primera parte se enfoca en el desarrollo del modelado matemático y el diseño CAD del servo mecanismo, mientras que la segunda parte aborda la aplicación del modelo para estabilizar el péndulo. Actualmente, se ha concluido tanto el diseño CAD como el ensamblado del prototipo. También se llevado a cabo la realización de planos normalizados. Así mismo, continuamos con el desarrollo del modelado matemático para, posteriormente simular e implementar el modelo utilizando herramientas como Simulink y Arduino UNO. Por otro lado, la segunda parte se centra en desarrollar un método innovador que permite levantar el péndulo de manera eficiente y segura. Una vez completadas ambas partes, se obtiene una plataforma versátil para probar diversas aplicaciones en algoritmos de control. La plataforma permite evaluar el rendimiento de técnicas como el control de orientación, lógica difusa o redes neuronales al integrarlas con las interfaces entre Matlab y el controlador Arduino UNO.
Luna Robles Yara Karen, Instituto Tecnológico de Tepic
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA


DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA

Luna Robles Yara Karen, Instituto Tecnológico de Tepic. Rivera Serrano Gil Alberto, Universidad Autónoma de Sinaloa. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La Digitalización de la Fotogrametría e implementación de inteligencia artificial (IA), es una técnica que se utiliza para obtener información precisa sobre la forma, tamaño, posición y dimensiones de objetos o espacios a través de la realización de fotografías. La fotogrametría se utiliza en diversas disciplinas, especialmente en la topografía, la agricultura, la arquitectura, el ordenamiento del territorio y la ocupación del suelo.   Aunque la fotogrametría es una técnica muy eficiente en México, según un artículo publicado en la revista Scielo, llamado fotografía aérea para el estudio de la ciudad: el crucero de El Caballito; explica que en México al igual que en otros lugares, puede enfrentar diversas problemáticas. Uno de ellos es el acceso a tecnología y equipos; La adquisición de equipos y tecnología especializada en fotogrametría puede ser costosa, lo que puede limitar el acceso a esta técnica para algunas instituciones o profesionales en México.   La mayor problemática que se presenta en este tipo de implementación de IAS es la poca rentabilidad en el uso de equipos como la impresora en corte laser o las gafas VR, debido al precio de cada uno de ellos; ya que a que es muy cómodo tenerlos, pero poco accesible adquirirlos de forma individual.



METODOLOGÍA

Primero, llevé a cabo la fotogrametría de un objeto pináculo utilizando la aplicación 3DF Zhephyr. Me proporcionaron 50 fotos del objeto, y las importé al programa para comenzar el proceso. En la segunda actividad, la tarea era tomar fotografías de un juguete u objeto irregular y realizar la fotogrametría. Escogí una figura de garza de cerámica y utilicé 3DF Zhephyr para realizar el proceso. Exporté los objetos en formatos PDF y Obj para trabajar con ellos en otros programas.   En la tercera actividad, me enfoqué en fotogrametrizar la fachada de un edificio histórico del centro. Esto me ayudó a familiarizarme más con 3DF Zhephyr. Para la cuarta actividad, elegimos un proyecto y lo renderizamos en Enscape para poder utilizar gafas de realidad virtual y hacer recorridos virtuales. Aunque la experiencia fue interesante, me sentí un poco incómodo debido al espacio limitado de movimiento con las gafas.   Para la quinta actividad, retomamos el juguete que habíamos fotogrametrizado previamente, en mi caso, el muñeco de Black Adam. Utilicé Rhino 7 para corregir los desperfectos y agujeros en la malla del objeto, y luego lo exporté nuevamente en formato Obj. Con el programa Slicer for Fusion, modifiqué el objeto para adaptarlo a una cortadora láser, ya sea en paneles o como un ensamblaje. También aprendí sobre impresión 3D con resina, instalando y desinstalando una impresora de resina con cuidado.   En la última actividad, instalé el programa Lychee Slicer para preparar mi objeto para la impresión 3D con resina. Además, seleccioné un objeto arquitectónico y lo modifiqué siguiendo las instrucciones proporcionadas. Esta experiencia en fotogrametría y modelado 3D ha sido enriquecedora y me ha permitido explorar diversas herramientas y aplicaciones para trabajar con objetos digitales y en impresión 3D.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y sobre todo prácticos acerca de la inteligencia artificial enfocada en la arquitectura, en el uso de softwares como Lychee Slicer, Rhino 7, 3DF Zhephyr y Oculus; para posteriormente ponerlos en práctica en la impresión de objetos a escala, cortes de piezas en laser y visualización de modelos arquitectónicos con ayuda de gafas VR. A pesar de que usar este tipo de equipos resulta muy optimizable, también es poco común adquirir uno de forma individual, debido a su alto costo en el mercado en la actualidad, y al poco conocimiento que aun se tiene de las aplicaciones que son necesarias para usar dichos equipos.
Lupian Ibarra Aldo, Universidad de Guadalajara
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

DESARROLLO DE UN MODELO DE PREDICCIóN PARA ENFERMEDADES CARDIOVASCULARES UTILIZANDO TéCNICAS DE MACHINE LEARNING


DESARROLLO DE UN MODELO DE PREDICCIóN PARA ENFERMEDADES CARDIOVASCULARES UTILIZANDO TéCNICAS DE MACHINE LEARNING

Estrada Garcia Christopher Jair, Instituto Tecnológico de Tepic. Lupian Ibarra Aldo, Universidad de Guadalajara. Ramos Rivera Andres Sebastian, Instituto Tecnológico de Tepic. Rivera Basulto Alberto Dair, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El problema de las enfermedades cardiovasculares es una preocupación de salud pública a nivel mundial debido a su alta incidencia y consecuencias graves para la salud de las personas. Las enfermedades cardiovasculares, también conocidas como enfermedades del corazón, afectan a los vasos sanguíneos y al corazón, y pueden incluir condiciones como la enfermedad coronaria, el infarto de miocardio, la insuficiencia cardíaca, el accidente cerebrovascular y otras enfermedades relacionadas. La evidencia del problema de las enfermedades cardiovasculares está respaldada por numerosos estudios epidemiológicos y datos recopilados por organizaciones de salud a nivel mundial. Según la Organización Mundial de la Salud (OMS), las enfermedades cardiovasculares son la principal causa de muerte en todo el mundo. Se estima que cada año, alrededor de 17.9 millones de personas mueren debido a enfermedades cardiovasculares, lo que representa aproximadamente el 31% de todas las muertes a nivel global. Además, se estima que más del 80% de estas muertes ocurren en países de ingresos bajos y medianos, lo que indica una marcada desigualdad en el acceso a la atención y la prevención. Si el problema de las enfermedades cardiovasculares no es intervenido de manera efectiva, se espera que la carga de la enfermedad siga aumentando en las próximas décadas. Con el envejecimiento de la población y el aumento de factores de riesgo como la obesidad, el sedentarismo, el tabaquismo y la dieta poco saludable, se prevé que el número de casos y la mortalidad por enfermedades cardiovasculares continúen en aumento. Esto tendrá un impacto significativo en la calidad de vida de las personas y aumentará la presión sobre los sistemas de salud en todo el mundo. El proyecto de análisis de datos que se realizó, puede tener un papel importante en el control y mejora del pronóstico de las enfermedades cardiovasculares. Al aplicar técnicas de inteligencia artificial y aprendizaje automático en el conjunto de datos de las enfermedades cardiovasculares, se pueden identificar patrones y factores de riesgo asociados con mayor precisión y rapidez. Estos modelos predictivos pueden ayudar a predecir qué grupos de personas tienen mayor riesgo de desarrollar enfermedades cardiovasculares y permitir una intervención temprana y personalizada. Además, puede proporcionar información valiosa para diseñar estrategias de prevención y control más efectivas. Al comprender mejor los factores de riesgo y los determinantes de las enfermedades cardiovasculares, las autoridades de salud pueden implementar políticas y programas de prevención más específicos y dirigidos. Esto puede incluir campañas de concientización sobre la importancia de la actividad física, una dieta saludable y el control del tabaquismo, así como la mejora del acceso a la atención médica y la detección temprana de factores de riesgo.



METODOLOGÍA

Universo y Muestra: La investigación incluyó personas de Suiza, Hungría y Estados Unidos (Cleveland) sometidas a evaluaciones médicas sobre enfermedades cardiovasculares. Se utilizó una muestra representativa de Suiza, Hungría y Estados Unidos debido a restricciones de recursos y tiempo, generalizando los resultados al universo de estas poblaciones con precauciones. Tipo de Investigación: El enfoque de la investigación es de tipo mixto, con un alcance exploratorio y descriptivo. Fuentes primarias y secundarias: La fuente primaria es el conjunto de datos de Kaggle, como fuente secundaria se tienen los diferentes documentos consultados relacionadas con las diferentes fases de la metodología CRISP-DM. Metodología de desarrollo:  Se emplearon las siguientes metodologías y algoritmos para la investigación y análisis de datos: CRISP-DM (Cross Industry Process Model for Data Mining), MLP, DTC con Log Loss, Regresión logística, DTC con entropía.


CONCLUSIONES

La investigación de análisis de datos aplicada a las enfermedades cardiovasculares muestra el impacto que el análisis de datos puede tener en la comprensión de fenómenos complejos y la mejora de procesos. Esta disciplina puede ayudar a los profesionales de la salud a identificar factores de riesgo, analizar tendencias epidemiológicas y desarrollar modelos predictivos para la prevención temprana y la atención personalizada del paciente. En resumen, el análisis de datos es una herramienta poderosa que promueve la detección temprana e implementación de estrategias de prevención y tratamiento más efectivas, lo que ayudará a mejorar la calidad de vida de las personas y reducir la carga de estas enfermedades en la sociedad. RESULTADOS Debido a que la muestra de nuestros resultados es más gráfica, el formato que nos brinda delfín para explicarlos no nos permite agregar las tablas y gráficas de los resultados, sin embargo, obtuvimos resultados satisfactorios en los cuales nuestros modelos de Machine Learning nos daban aproximaciones muy cercanas a 0.90 en nuestra escala normalizada (0.84 y en algunos casos 0.83) lo que son muy buenos datos, pero pueden mejorar ya que estamos hablando de un modelo de predicción de problemas cardiovasculares y necesitamos los rangos más altos que se puedan obtener dado que es un modelo de prevención y entre más acertado sea, más posibilidades de salvar una vida se pueden lograr. 
Madrigal Mendoza Maria Victoria, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

DISEñO DE UN PLAN DE VENTAS PARA LA GASOLINERA GASOEXPRESS LA CENTRAL DE TACáMBARO


DISEñO DE UN PLAN DE VENTAS PARA LA GASOLINERA GASOEXPRESS LA CENTRAL DE TACáMBARO

Madrigal Mendoza Maria Victoria, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Las ventas representan el mayor generador de ganancias para una empresa, su importancia en las organizaciones va más allá de vender, que significa construir lealtad en los clientes, y sirven para crear una buena relación tanto con el consumidor, como con los colaboradores del negocio. (zendesk, 2023) En la empresa es útil que se considere la planeación estratégica ya que es como una brújula que permite hacer las cosas correctas, si no existe una planeación bien estructurada puede ocasionar problemas a las organizaciones.  La problemática que se presenta es que no se implementan estrategias para atraer más clientes a la empresa, para aumentar las ventas, es por ello que durante el verano de investigación se ha estado trabajando en el desarrollo e implementación de las estrategias de marketing, para lograr incrementar las ventas.  



METODOLOGÍA

Para realizar el diseño del plan de ventas en la gasolinera se tomaron en cuenta 8 pasos para poder llevar a cabo el proyecto Se indago en fuentes primarias y secundarias para poder llevar a cabo   lo que es un plan de ventas en las organizaciones. Para conocer a la audiencia se realizó un diagnóstico aplicando una encuesta a los clientes que pasaban a cargar el combustible en la gasolinera. Así mismo se establecieron objetivos de venta con la finalidad de incrementar las ventas en la empresa. Para lograr cada objetivo se establecieron algunas metas. Se realizó un análisis de la competencia, este me permitió identificar a los principales competidores a través de una investigación y un estudio de mercado a través del benchmarking. Para analizar a la competencia se tomaron en cuenta algunos pasos.Como primer paso se realizó un resumen de los 5 competidores, para compararlos con respecto a la empresa Gasoexpress. Como segundo paso se realizo un estudio de mercado a través de una mezcla de investigaciones primarias y secundarias. La investigación primaria proviene directamente de los clientes o del producto mismo, mientras que la secundaria es la información que ya se ha recabado, se realizo a traves de un benchmarking. Como tercer paso se realizó un análisis actual de la empresa Gasoexpres la central esto con la finalidad de realizar mejoras en la empresa, es por ello que para lograr un buen análisis se utilizó un análisis FODA, este análisis ha permitió identificar   algunas fortalezas, oportunidades, debilidades, y a menazas de la empresa, y así convertir esas debilidades en fortalezas. Como último paso se identificó el lugar que se ocupa en el mercado se realizó un gráfico con los ejes X e Y. Los dos ejes deben representar los factores más importantes necesarios para ser competitivo en el sector del mercado. Cabe mencionar que los productos en la empresa ya estan definidos, por lo que se ofrece en la gasolinera Gasoexpress es combustible, Premium, Magna, Diesel, y diferentes tipos de aceites para vehículos. La gasolina es producida de petróleo en el proceso de refinación. Es un líquido incoloro, pardo pálido o rosado, y es sumamente inflamable. Típicamente, la gasolina contiene más de 150 productos químicos, incluyendo pequeñas cantidades de benceno, tolueno, xileno, y algunas veces plomo.  (ATSDR, 2016) El diésel, también conocido como gasóleo o gasoil, es un hidrocarburo líquido que se obtiene principalmente de la destilación del petróleo a una temperatura entre los 200ºc y 380º C. (romy09729, s.f.) Así mismo se debía planificar estrategias de marketing para dar seguimiento al proyecto y que este se pudiera implementar para el logro del objetivo.  Existen diferentes tipos de estrategia de marketing que permiten lograr los objetivos deseados, pero para ello solo se aplicaron dos tipos de marketing, marketing estacional y marketing de contenidos. Las estrategias que se estuvieron realizando fueron las siguientes: CAFES POR LAS MAÑANAS: Está estrategia se realiza todos los días por las mañanas a los clientes que pasen a cargar su combustible se les regale un café. JUEVES ROSA: A todas las mujeres que andan al volante y que pasan a cargar su combustible en Gasoexpress la central son a creadoras de bonitos obsequios a través de una ruleta, por lo que la ruleta trae bonitos obsequios. La cual consiste que al momento de girarla la suerte elegirá tu obsequio. Este tipo de estrategias requería un tipo de marketing para hacer las promociones, y se pensó en el marketing de contenidos ya que este tipo de marketing es el que nos sirvió, debido a que este tipo de marketing se realiza a través de redes sociales y el canal 105 de TV express se está haciendo publicidad sobre las promociones que se están realizando en  Gasoexpres,  además con este tipo de marketing se está publicando contenido como es las felicitaciones de los cumpleaños del mes, así como ofertas  de trabajo, felicitaciones de días conmemorativos, este contenido se hace a través de la página de Facebook GasoExpres la central de Tacámbaro. Para poder llevar a cabo el proyecto se requirio de un presupuesto para poder implementar dichas estrategias, se conto con el apoyo de $20,000.00, este dinero se utilizó en los regalos a los clientes, en la publicidad, y en el canal de TV Express. Finalmente se estuvieron implementando las estrategias en la empresa para ir evaluando, y ver si realmente si están funcionando y ayudando a la empresa, para así mismo corregir los errores, esto con la finalidad de mejorar el funcionamiento de las estrategias.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos acerca del desarrollo de un plan de ventas. Algunas de las estrategias que se implementaron fueron el café todos los días por las mañanas esto con la finalidad de obtener más clientes en la empresa, así como también todos los jueves se estuvo  implementando los jueves rosas, los resultados obtenidos a través de las estrategias fueron buenos, se espera que los resultados sigan siendo aun mejores. Cabe mencionar que no solo durante la estancia se llevaron a cabo estas estrategias, estas mismas estrategias se seguirán implementando, así como algunas otras estrategias de marketing estacional, se esperaran resultados buenos.
Madueño Navarrete Daniel, Universidad de Guadalajara
Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla

MEMBRANA ANTICORROSIVA A BASE DE óXIDO DE GRAFENO Y áCIDO POLILáCTICO


MEMBRANA ANTICORROSIVA A BASE DE óXIDO DE GRAFENO Y áCIDO POLILáCTICO

Franco Morales Santiago Said, Instituto Tecnológico de Morelia. Madueño Navarrete Daniel, Universidad de Guadalajara. Palma Avila Fernando, Universidad Autónoma de Baja California. Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla. Co- Asesor: Mtra. Erika Muñoz Gracia, Benemérita Universidad Autónoma de Puebla. Estudiantes:  Palma Ávila Fernando, Universidad Autónoma de Baja California. Daniel Madueño Navarrete, Universidad de Guadalajara. Santiago Said Franco Morales, Instituto Tecnológico de Morelia.          La corrosión es un fenómeno destructivo y costoso que afecta a una amplia variedad de materiales, como lo son los de naturaleza metálica y sus aleaciones, los cuales son ampliamente utilizados en diversas aplicaciones industriales y estructurales debido a sus características mecánicas. A pesar de sus muchas ventajas, muchos de estos materiales son altamente sensibles a la corrosión, lo que limita su vida útil y su eficacia en entornos hostiles. Para enfrentar este desafío, la industria ha buscado constantemente nuevas tecnologías y métodos para mejorar la resistencia a la corrosión metálica. Entre las posibles soluciones, el uso de recubrimientos anticorrosivos ha demostrado ser una estrategia efectiva para proteger la superficie del material contra la degradación causada por agentes corrosivos. En este contexto, el óxido de grafeno y el ácido poliláctico han surgido como materiales prometedores para desarrollar membranas anticorrosivas. El óxido de grafeno, derivado del grafeno, ha demostrado una alta resistencia mecánica y una excelente conductividad, mientras que el ácido poliláctico, un polímero biodegradable, presenta propiedades de barrera frente a sustancias corrosivas. La combinación de estas dos sustancias podría generar una membrana altamente efectiva y eco-amigable para proteger de la corrosión a la superficie donde esta sea colocada. Sin embargo, a pesar del potencial prometedor de esta tecnología, aún existen diversos desafíos técnicos y científicos que deben abordarse para lograr una aplicación comercial viable.  



METODOLOGÍA

Se utilizó una solución de Óxido de grafeno (OG) sintetizado por el método de Hummers y ácido poliláctico (PLA) con el fin de crear una película que funcionara como una membrana anticorrosiva. Mismos materiales que ya se encontraban disponibles en el edificio de Dirección de Innovación y Transferencia de Conocimiento (DiTCo), mismo en el que se trabajó.  Para la sintetización de la membrana se utilizaron 0.25 g de PLA para diluirse con 0.005 g de OG en 5 ml de cloroformo, el recipiente en el que se colocó la muestra fue agitado manualmente durante 1 hora con el fin de diluir lo más posible la solución, después se coloca sobre probetas del mismo tamaño para obtener películas de la misma longitud, en este caso del mismo diámetro. Cabe destacar que fueron utilizadas 8 probetas para los diferentes tiempos de incidencia en el 3M HCl y diferente estructura de membrana,  pues fueron evaluadas con y sin OG, es decir: PLA - 0h, PLA + OG - 0h,  PLA - 24h, PLA + OG - 24h, PLA - 48h, PLA + OG - 48h, PLA - 72h y PLA + OG - 72h. Una vez colocadas, se dejan secar al aire libre por otra hora para no provocar un secado tan drástico que dañe la composición de la estructura ya que después de ser secado a temperatura ambiente se lleva al horno a 80°C para terminar de secar y obtener la película.  Mientras las muestras quedan listas procedemos con la preparación del 3M HCl la cuál constituye una concentración de 29.26 ml de HCl + 70.73 ml de agua destilada (AD) para obtener 15 ml de 3M HCl para probar cada una de las muestras en sus respectivos tiempos de inmersión. Finalmente ya estando listas las películas se sumergen en recipientes de vidrio herméticamente cerrados, sin embargo consideramos importante que las muestras cumplieran su tiempo simultáneamente con el fin de evitar algún daño a las mismas, para esto se sumergió primero la muestra de 72h y pasando 24h se sumergió la de 48 y al transcurso de otras 24h se sumergió la de 24h. La muestra de 0h no fue introducida al ácido, se utilizó como referencia para medir daños en las películas. Transcurridas las 72h  se retiran las películas de sus respectivos envases y se lavan con agua del grifo para retirar cualquier residuo de ácido y se enjuagan con AD para posteriormente dejar secando al aire libre y evaluar. Para obtener las conclusiones se utilizó la técnica de Difracción de Rayos X (DRX), Microscopía Electrónica de Barrido (MEB) y Espectroscopía de Infrarrojo.  


CONCLUSIONES

Durante la estancia de verano se logró concluir que en efecto la membrana es funcional y resistente a la corrosión, pues gracias a las técnicas mencionadas anteriormente no fue observado un deterioro de gran magnitud con el aumento del tiempo de inmersión; no obstante es necesaria una revisión bibliográfica antes de ponerla en marcha como recubrimiento en determinado material, para verificar su adherencia a la superficie del mismo.  
Magaña Loera Christian Alejandro, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISEñO DE MECANISMO AUTOMATIZADO PARA UNA MAQUINA EXPENDEDORA DE PIZZAS


DISEñO DE MECANISMO AUTOMATIZADO PARA UNA MAQUINA EXPENDEDORA DE PIZZAS

Magaña Loera Christian Alejandro, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

El principal problema que se tiene con el diseño es la adecuación de este, ya que cada máquina tiene diferentes servicios y diseños a los cuales no se tiene acceso, por lo que se diseñara un nuevo mecanismo en el cual nos tenemos que acoplar a las medidas que se tienen en los diferentes apartados como lo son la nevera y el horno de la máquina expendedora, así mismo se tiene que tener un bajo costo y un sistema confiable.



METODOLOGÍA

El mecanismo que se diseñara tiene que ser capaz de llevar a cabo el transporte de las pizzas esto por un numero de ciclos los cuales no sea necesario el mantenimiento y que por cada ciclo ser capaz de llevar al menos las 70 pizzas. Así mismo el peso de cada pizza puede variar por lo que el diseño tiene que tener determinado tamaño y resistencia adecuados de la cinta, es por esto que se debe tener en cuenta las dimensiones para se ajuste el mecanismo.   Análisis Se análisis que el mecanismo mas optimo para la maquina es el uso de motores nema 17 y tornillos sin fin ya que es un mecasimo eficiente en la industria alimentaria, así mismo se llevara el diseño de esto y en conjunto de las demás piezas necesarias. Con esto se analizó las limitaciones que se tienen en cuanto al espacio dentro de la maquina para determinar el diseño mas adecuado.   Simulaciones y prototipos. La herramienta a utilizar para el diseño y simulación es el software SolidWorks el cual es de tipo cada, de diseño mecánico, que utilizando un entorno gráfico basado en Microsoft Windows permite de manera intuitiva y rápida la creación de modelos sólidos en 3d, ensamblajes y dibujos.  Se basa en el modelado paramétrico, reduciendo el esfuerzo necesario en modificar y crear variantes en el diseño, ya que las cotas y relaciones usadas para realizar operaciones se almacenan en el modelo.   SolidWorks, proporciona un software de diseño de fácil uso y poderosas herramientas para los ingenieros y diseñadores, permitiéndoles cubrir todo el proceso (crear, validar, comunicar y gestionar) de desarrollo de producto, asegurándose de que este es correcto antes de fabricarlo. De esta manera es posible conseguir costes de fabricación más bajos y acelerar la introducción de productos en el mercado debido a la mejora en el flujo de información y comunicación del diseño de estos en toda la empresa, además de entre sus proveedores y clientes.   Este software se usará • utilización de una simulación para comprobar el funcionamiento del sistema. • análisis de aluminio a las diferentes partes del mecanismo • análisis de resistencia en las piezas más propensas a fallar • en caso de fallar el analizar se tendrán que hacer mejoras en el diseño   Información adquirida. Se proporcionan medidas de la maquina expendedora en general tanto de la parte exterior como la interior las cuales son necesarias para diseñar el mecanismo.   Fabricación de diseño. Tenemos que la máquina expendedora se ajustaron medidas en la parte del hornoy nevera las cuales son necesarias para determinar el diseño del mecanismo. en el diseño de la nevera se implemento el riel siendo en la parte inferior, este riel de aluminio en u, el cual en su interior tiene un tonillo sin y que esta en funcionamiento por un motor nema 17. Para la sujeción en el techo se acoplo un riel de eje de guía deslizante lineal sbr12.  Se realizó el diseño de una plancha la cual será la que soporte a las pizas una vez que se extraiga la pizza con la ayuda de un actuador lineal, él tiene un recorrido de 20-25 cm los cuales suficientes para enganchar la pizza de los orificios de la caja. Dicha plancha se adaptó con un par de poleas las cuales tendrán la función de recorrer la pluma para dar paso a el horno.


CONCLUSIONES

El resultado final del mecanismo el cual se muestra en la parte de la nevera tiene un mecanismo efeciente y ergonimico. Al igual se tiene en cuenta el mecanismo del horno, por cuestiones externas al diseñador, este apartado queda a posibles cambios. Se realizo un analisis de desplazamientos en cada parte diseñada para corroborar su eficiencia, asi como su factor de seguriadad que tener el  este caso el material seleccionado que fue aluminio 1060 y acero inoxidable.  Al realizar este estudio se llego a la conclusion de qeu es efectivo y rentable el realizarlo con este material y asi mismo el diseño    
Magaña Nava Diana, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PROYECTO IOT


PROYECTO IOT

Magaña Nava Diana, Instituto Politécnico Nacional. Perez Hernandez Arturo, Instituto Politécnico Nacional. Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Internet de las cosas (IoT) ha impactado la industria, especialmente en salud. Beneficios incluyen monitoreo remoto de pacientes, prevención de accidentes en adultos mayores y detección de enfermedades crónicas.  En México, viven cerca de 15.4 millones de personas consideradas de la tercera edad que rondan entre los 60 o más años, de las cuales 1.7 millones viven solas, según la Encuesta Nacional de la Dinámica Demográfica (ENADID) 2018, el reciente censo del  Instituto Nacional de Estadística y Geografía (INEGI) de 2019  menciona que siete de cada diez (69.4\%) adultos mayores que viven solos presentan algún tipo de discapacidad. Con la cantidad de adultos mayores viviendo solos, la caída es un peligro frecuente. Implementar algoritmos de detección de caídas precisos y monitorear constantemente el ritmo cardiaco se vuelve esencial para su cuidado.



METODOLOGÍA

La metodología del desarrollo del dispositivo IoT para geriatría consta de cuatro etapas principales: instrumentación de pacientes con sensores, adquisición y procesamiento de datos con el microprocesador, envío de datos a la nube y análisis de datos con el software matricial. Se utilizó el microcontrolador ESP32 debido a su tamaño reducido y amplias aplicaciones. Sensores como el MAX 30102 permitieron monitorear la oxigenación y pulso cardiaco en un solo dispositivo, mientras que el módulo MPU6050 se utilizó para medir la aceleración y velocidad angular, lo que resultó importante para detectar caídas y accidentes físicos. Los datos brutos obtenidos de los sensores se procesaron mediante librerías y algoritmos específicos desarrollados para cada módulo, lo que permitió obtener valores numéricos significativos. Para enviar los datos a la nube, se utilizó la plataforma ThingSpeak de MATLAB, que presentó desafíos debido a la cantidad de información requerida y la velocidad de lectura. Se implementaron dos canales privados con 8 campos cada uno para enviar datos a la nube, y los datos se agruparon en vectores para ser enviados como un único dato a la plataforma. La instrumentación de los sensores se realizó cada 125ms, proporcionando lecturas confiables de los pacientes. En la etapa de análisis de datos, se extrajeron los datos en formato de texto desde ThingSpeak y se procesaron en Microsoft Excel para obtener un formato legible y conveniente para el desarrollo del algoritmo de la red neuronal. El diseño de la red neuronal se implementó en MATLAB con una arquitectura 6-10-10-10-3, con funciones de activación tansig, logsig y purelin en las capas correspondientes. El aprendizaje supervisado se llevó a cabo con un algoritmo de retropropagación, ajustando los pesos y sesgos para reducir el error hasta alcanzar la efectividad deseada en la detección de caídas, bradicardia y taquicardia. La efectividad de la red neuronal se evaluó utilizando diferentes porcentajes del lote total de datos, obteniendo una efectividad del 94.93\% con el 70\% de los datos totales. Para futuros trabajos, se sugiere aumentar el tamaño del lote de datos y considerar la implementación de la red neuronal en un microcontrolador con las ecuaciones de salida. Además, se destaca la importancia de garantizar la privacidad y seguridad de los datos médicos de los adultos mayores.  


CONCLUSIONES

En conclusión, el dispositivo IoT para geriatría desarrollado ofrece una solución efectiva para la detección temprana de problemas de salud en adultos mayores, lo que puede contribuir significativamente a mejorar la atención médica y evitar accidentes fatales. La combinación de sensores biomédicos, un microcontrolador ESP32 y una red neuronal entrenada mediante retropropagación permite monitorear y detectar condiciones críticas como caídas, bradicardia y taquicardia de manera eficiente y precisa. Con un adecuado manejo de los datos y un diseño bien establecido, este tipo de tecnología tiene el potencial de ofrecer una atención médica personalizada y mejorar la calidad de vida de los adultos mayores.
Magdaleno López Angel, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla

SISTEMAS TUTORES INTELIGENTES ADAPTATIVOS Y SISTEMAS HIPERMEDIA ADAPTATIVOS


SISTEMAS TUTORES INTELIGENTES ADAPTATIVOS Y SISTEMAS HIPERMEDIA ADAPTATIVOS

Ayala Jeronimo Carmen Gabriela, Instituto Tecnológico de Estudios Superiores de Zamora. Magdaleno López Angel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Eugenia Erica Vera Cervantes, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La Facultad de Ciencias de la Computación de la BUAP enfrenta un grave problema de reprobación y bajo rendimiento académico para los estudiantes, especialmente en las materias de Metodología de la Programación y Programación I. Aunque se realizaron modificaciones al plan de estudio para abordar esta situación, el porcentaje de reprobados sigue siendo alto, y el bajo rendimiento académico se extiende a lo largo de varios cuatrimestres. Se han identificado múltiples factores que contribuyen a estos resultados, incluyendo el ausentismo, falta de asesoría individualizada, deficiencia en la comprensión y solución de problemas, y limitadas estrategias de aprendizaje por parte de los estudiantes. Aprender a programar se considera una tarea difícil, y muchos estudiantes novatos tienen dificultades en planificar programas y combinar conocimientos y estrategias de programación. Se ha observado que hay diferencias marcadas entre los resultados de los estudiantes, independientemente del profesor que imparta la materia. Por lo tanto, se plantea la necesidad de investigar el aprendizaje autónomo como un proceso individual que depende del trabajo, los hábitos de estudio y las estrategias del alumno. El propósito final de esta investigación es proporcionar un proceso de enseñanza para ampliar y mejora el repertorio de estrategias de aprendizaje de los alumnos, para poder avanzar de manera autónoma en la materia de Metodología de la Programación y, con ello, reducir los índices de reprobación.



METODOLOGÍA

A partir de la revisión de varios resultados de estudios y artículos relacionados con el diseño de sistemas hipermedia educativo-adaptativos, se han identificado diferentes herramientas y estrategias que se pueden utilizar para desarrollar estos sistemas. Los STI y STA utilizan algoritmos y técnicas de inteligencia artificial real o simulada para evaluar el desempeño de los estudiantes y ofrecer recomendaciones y actividades adaptadas a su nivel de conocimiento. A través de interacciones con el estudiante, estos sistemas pueden detectar errores comunes, evaluar el progreso y ajustar el contenido para optimizar el aprendizaje. Lo anterior es expuesto en el artículo de Walkington, C., & Bernacki, M. L. (2019). Donde se menciona que en un sistema tutor inteligente se deben llevar registro de indicadores de atención del estudiante. Se indica que se debería registrar el utilizar indicadores como solicitudes de ayuda anteriores, duración de las acciones, la frecuencia con la que una pista se sigue de un error, acciones en las que se predice que el estudiante ha aprendido después de adivinar, dar una respuesta incorrecta en lugar de pedir una pista, entre otros. Por otro lado, las ayudas de hipermedia dinámicas, como las utilizadas por Salazar (2017), se destacan por su capacidad para dinamizar la enseñanza y promover el trabajo colaborativo entre docentes y estudiantes mediante el uso de herramientas como videos, pruebas en línea y aprendizaje basado en problemas de la vida real. El impacto del uso de sistemas hipermedia educativo-adaptativos en el aprendizaje es un tema relevante en la educación, sobre todo en la moderna. Varias investigaciones han abordado esta temática, proporcionando diferentes enfoques y criterios para el diseño de estos sistemas. Benigni y Marcano (2014) examinaron los criterios que debe satisfacer un sistema hipermedia adaptativo, destacando la forma de hipertexto o hipermedia, el incluir un modelo de usuario y la capacidad de adaptarse según este modelo. Asimismo, identificaron diversas formas de adaptación tanto en la presentación como en la navegación, como la provisión de explicaciones adicionales, prerrequisitos, comparaciones, variantes y ordenaciones. En el trabajo realizado por Ingrid y Gladis, en las escuelas, liceos y universidades en Venezuela que utilizan los medios tecnológicos para incentivar y motivar el aprendizaje, como es el caso del proyecto Programa de Fomento al Uso de Redes Avanzadas en Latinoamérica para el Desarrollo de la Ciencia, Tecnología e Innovación, Los criterios que debe satisfacer un sistema hipermedia adaptativo en base a lo que establece Buitrago (op. cit.), son tres (3): a) ser un sistema hipertexto o hipermedia, b) tener un modelo de usuario y c) ser capaz de adaptar el hipermedia usando este modelo. Por otro lado, Ponce, Pintado y Biset (2019) realizaron un análisis de implementaciones de sistemas tutores inteligentes y afectivos, utilizando electrocardiogramas y otras mediciones fisiológicas para evaluar las respuestas emocionales de los estudiantes. Encontraron que la intervención emocional no siempre es necesaria, pero que ciertas emociones como el aburrimiento y la insatisfacción pueden afectar la interacción con el sistema tutor. Además, Reyes, Hernández, Martínez y Esquivel (2021) exploraron la gamificación como herramienta de apoyo en sistemas tutores inteligentes. Se destacó que los juegos pueden ser efectivos para enganchar a los estudiantes y facilitar el aprendizaje de manera lúdica. Apoyando este artículo, Gutiérrez (2016) exploró el impacto de un tutor inteligente de entrenamiento de atención selectiva sobre el aprendizaje matemático. Se resaltó la importancia de la atención selectiva en el proceso de aprendizaje y cómo los STI pueden incluir pequeños videojuegos para trabajar con esta habilidad. Por lo que se concluye que el uso de Sistemas Tutores Adaptativos a manera de juego, son una excelente opción para mantener centrados y motivados a los estudiantes, solucionando así los problemas que presentaban Ponce, Pintado y Biset en su artículo, donde se menciona que el estudiante no se debe aburrir ni sentir insatisfacción.


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos teóricos sólidos de los sistemas tutores inteligentes adaptativos, sistemas hipermedia adaptativos y la comprensión de nuevos conceptos. Sentimos que desconociamos que existiera tanta información en diversos idiomas de estos temas, nos resultó muy interesante que desde hace años atrás se estuvieran llevando a cabo extensos estudios sobre los STI y que, además, tuvieran tan buenos resultados. Nos enseñó un nuevo panorama sobre lo que podemos lograr siendo profesionista como Ing. en Sistemas Computacionales. Además, nos generó interes por que tantos parametros se deben medir para mejorar la educación, que consas infuyen y nos ayudo demasiado entender como funcionan plataformas de este tipo que inclusive ya hemos usando con anterioridad, como lo es Khan Academy, la cual fue con la que más tuvimos contacto durante la estancia. Se espera la implementación exitosa de todas las actividades trabajadas en la materia de matemáticas, puntualmente de algebra, dentro del Sistema Educativo desarrollado, logrando así el objetivo esperado.
Maldonado Durán Israel, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

DESARROLLO DE PROPUESTAS DE MEJORA EN PROCESOS INDUSTRIALES


DESARROLLO DE PROPUESTAS DE MEJORA EN PROCESOS INDUSTRIALES

Gómez Hernández Nelli Guadalupe, Instituto Tecnológico Superior de Guanajuato. López González Norma Lucía, Instituto Tecnológico Superior de Guanajuato. Maldonado Durán Israel, Instituto Tecnológico Superior de Guanajuato. Murrieta Méndez Perla Vianney, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La finalidad de toda organización es cumplir sus objetivos y metas, para que esto sea posible es necesario analizar sus procesos para verificar si existen fallas o áreas de oportunidad que den pauta para implementar propuestas de mejora en función de las problemáticas que se hayan detectado. Esto es de gran relevancia, ya que en México el 75% de las pymes fracasan y cierran sus establecimientos antes de cumplir los dos años de haber iniciado operaciones, definitivamente las micro, pequeñas y medianas empresas deben encontrar en su entorno las herramientas necesarias para mejorar la innovación y la gestión. En la empresa que sirvió como objeto de estudio para el presente trabajo se aplicaron los intrumentos de la Metodología JICA para la recolección de datos, logrando con el análisis de los datos detectar que la pricipal problemática que podría afectar su funcionamiento se encontraba en las áreas de producción y recursos humanos, en la primera se observó que sus problemas principales es que no tienen un mantenimiento del control de ingeniería establecida, no patentan sus productos y no tienen un responsable para el control de equipo e instalación del mismo, mientras que en el área de recursos humanos, existe mal ambiente laboral, no cuenta con algún sistema de apoyo a la superación personal del empleado o si lo tiene no se le esta dando la atención o importancia necesaria, además que a los trabajadores no se les estimula sus capacidades de la manera adecuada.



METODOLOGÍA

La empresa que sirvió como objeto de estudio pertenece al grupo de las pymes y se dedica a la elaboración de productos derivados del Maíz, para la recolección de datos se aplicaron instrumentos que permiten analizar las diferentes área de la empresa, cuyo orden metodológico es el siguiente: Analizar la situación general de la empresa y los factores externos. Realizar diagnósticos sector, se recopilará información de la empresa para posteriormente evaluarlo. Analizar los problemas y beneficios, así como las debilidades e intereses del negocio, y finalmente una comparación entre ellos. Realizar el proceso de planificación y asesoramiento. Realizar un informe de diagnóstico y sugerencias de mejora, así como sus respectivos formaos de apoyo.


CONCLUSIONES

Cuando la organización realiza sus actividades en función de la mejora continua son altas sus posibilidades de sobrevivencia, el proyecto realizado contribuyó de manera importante a la identificación de las áreas en las que se debe poner atención, estó, por lo detectado en el análisis de la información que se recabó sobre el funcionamiento de las diferentas áreas de la empresa, con base en ello  se realizó una propuesta de mejora que conlleva principalmente la aplicación de algunas herramientas de ingeniería industrial cuya finalidad es contrarrestar los puntos negativos encontrados, etre los mas preocupantes están, las necesidades de los colaboradores, el correcto funcionamiento de los procesos así como el involucramiento del personal en las actividades. Teniendo en cuenta que solo es una propuesta, con ello se pueden proyectar que lo beneficios que traerá la aplicación de la propuesta serán, una mayor productividad, liderazgo, identidad corporativa y una comunicación adecuada que ayudarán a alcanzar de manera más sencilla los objetivos y metas de la empresa. 
Maldonado Fonseca Ana Jacqueline, Instituto Tecnológico de Matamoros
Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla

OBTENCIóN Y CARACTERIZACIóN DE HIDROGELES PARA DESCONTAMINACIóN DE AGUAS A BASE DE POLIACRILAMIDA CON ALMIDóN


OBTENCIóN Y CARACTERIZACIóN DE HIDROGELES PARA DESCONTAMINACIóN DE AGUAS A BASE DE POLIACRILAMIDA CON ALMIDóN

Maldonado Fonseca Ana Jacqueline, Instituto Tecnológico de Matamoros. Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La investigación en ciencia de polímeros es esencial debido a sus múltiples aplicaciones en la vida cotidiana, ciencia y tecnología. Los polímeros son compuestos químicos formados por monómeros, naturales o sintéticos, y su versatilidad radica en ajustar sus propiedades mediante la manipulación de su estructura y composición. La investigación continua en hidrogeles de poliacrilamida y almidón ofrece aplicaciones potenciales en el tratamiento de aguas contaminadas. Estos avances pueden mejorar la calidad del agua, contribuyendo a la conservación del medio ambiente.



METODOLOGÍA

a) PREPARACIÓN DE SOLUCIONES Para la obtención de los hidrogeles semi-interpenetrados se preparó una solución de acrilamida 18 % y se añadió diferentes concentraciones de bisacrilamida en concentraciones de 1.5, 1 y 0.5 % (p/p) de que fungió como agente entrecruzamiento, además del 1% (p/p) de KPS como iniciador, posteriormente se introdujeron las soluciones en un baño ultrasónico para homogeneizar la solución por 15 min, una vez transcurrido el tiempo, se colocaron las soluciones en una tuvos de ensayo para posteriormente introducirlos en un vaso que se encontraba en una parrilla de calentamiento para que ocurra el proceso de polimerización a una temperatura de 60 °C durante 20 minutos, después del tiempo de reacción se desmoldaron los hidrogeles de los tubos y se les realizo 3 lavados con agua desionizada y uno en una solución al 30% metanol/agua y se dejan secar hasta obtener los xerogeles a peso constante.   Para la obtención de los hidrogeles semi-interpenetrados se realizó la metodología anterior además se preparó una solución al 20% de almidón y se prepararon relaciones 70 % poliacrilamida y 30 % almidón, 60 % poliacrilamida y 40 % almidón y 50 % poliacrilamida y 50 % almidón. METODOLOGÍA (CARACTERIZACIÓNES) 1.UV Vis. En el presente trabajo la caracterización del espectro UV fue utilizado para medir la absorbancia de los colorantes para conocer con precisión la remoción del colorante con el hidrogel. Se realizo primero la curva de calibración con el colorante Azul de metileno. El colorante se preparo primero a 100 ppm, a partir de esta solución madre se obtuvieron muestras a 4 ppm, 3 ppm, 2 ppm, 1 ppm, y 5 ppm. Las muestras se midieron en el equipo obteniendo la curva de calibrado. 1.IR (Espectroscopía infrarroja) La espectroscopía infrarroja (FTIR, por sus siglas en inglés) es una técnica analítica que se utiliza para estudiar la composición química y las estructuras moleculares de materiales, incluyendo hidrogeles, Germandia Diago (2020). Se realizó un análisis a cada una de las muestras, para estudiar sus composiciones químicas. Para realizar este estudio fue necesario pulverizar lo máximo posible las muestras para la lectura de estas. El equipo se manejaba por medio de una computadora. Preparación de la muestra. Preparación del espectrofotómetro. Preparación de la muestra para medición. Medición del espectro infrarrojo. Análisis de los resultados. Interpretación de los resultados.   2.Remoción de colorante Esta metodología permite caracterizar la capacidad del hidrogel para remover el colorante presente en la solución, proporcionando información valiosa sobre su potencial para aplicaciones de remoción de contaminantes y tratamiento de aguas residuales. La curva de calibrado obtenida es esencial para relacionar la absorbancia medida en el espectrofotómetro con la concentración real del colorante, lo que permite cuantificar la eficiencia de remoción del hidrogel de manera precisa. Se utilizó el colorante obtenido a 4 ppm (el más concentrado), se pone en contacto por separado cada muestra de hidrogel para conocer su nivel de remoción. Preparación de la solución de colorante Obtención de la curva de calibrado Preparación de la muestra para medición Medición de la absorbancia de la muestra de hidrogel Determinación de la concentración del colorante en la muestra de hidrogel 6.Cinética de hinchamiento La caracterización de la cinética de hinchamiento es un proceso que se utiliza para estudiar cómo un hidrogel absorbe y retiene agua con el tiempo. Esta información es importante para comprender cómo el hidrogel responde a la presencia de líquidos o la humedad en su entorno. Se estuvieron tomando los pesos por 3 muestras de cada muestra de hidrogel, es decir, se tomaron 3 veces los pesos de 70/30 al 0.5%, y así de cada uno. Al tener 9 muestras diferentes en total se tomaron los pesos de 27. Al tener nuestros pesos se realizo un promedio, y a partir de este promedio se obtuvieron los datos necesarios para conocer la cinética de hinchamiento.      


CONCLUSIONES

Se realizaron hidrogeles de poliacrilamida y almidón, caracterizándolos. Los resultados mostraron su eficacia y versatilidad. La espectroscopía infrarroja identificó enlaces y grupos funcionales característicos. La técnica de UV-vis cuantificó la eficiencia de remoción de colorante azul de metileno, demostrando su capacidad como agentes de adsorción y tratamiento de aguas contaminadas. Estos resultados son alentadores, mostrando el potencial de los hidrogeles en la eliminación de contaminantes y mejora de la calidad del agua. Se proponen como materiales prometedores con diversas aplicaciones ambientales. Es crucial continuar investigando y refinando sus propiedades y aplicaciones para soluciones más efectivas y sostenibles en el tratamiento de problemas ambientales.
Maldonado Ibarra María Nayary, Instituto Tecnológico de Tepic
Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana

MODELO DE CO-CREACIóN DE UNIDADES FAMILIARES DE PRODUCCIóN SOSTENIBLE Y SUSTENTABLE CON ENFOQUE INTERDISCIPLINARIO BASADO EN SABERES ANCESTRALES. BUSCA SALVAGUARDAR LOS SABERES ANCESTRALES PARA LA PRESERVACIóN DE LOS RECURSOS NATURALES, CULTURALES Y SOCIALES.


MODELO DE CO-CREACIóN DE UNIDADES FAMILIARES DE PRODUCCIóN SOSTENIBLE Y SUSTENTABLE CON ENFOQUE INTERDISCIPLINARIO BASADO EN SABERES ANCESTRALES. BUSCA SALVAGUARDAR LOS SABERES ANCESTRALES PARA LA PRESERVACIóN DE LOS RECURSOS NATURALES, CULTURALES Y SOCIALES.

Maldonado Ibarra María Nayary, Instituto Tecnológico de Tepic. Padilla Real Mayra Alejandra, Instituto Tecnológico de Tepic. Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA La expension desmedida de las zonas urbanas han afectado de manera considerable a las zonas rurales, llevandolas a la segregacion sociespacial, la perdida ancestral, el aumento de la pobreza y el amuento del desempleo, a dichas zonas se les llama interfaces territoriales. Usme y cienega son las zonas de estudio en esta investigacion. Dicha investigacion busca la preservaciòn de indentidad cultural, brindar herramientas y metodologìas para conservar las multiples formas de representacion de tradiciones, de esta misma manera, busca el impulso al turismo cultural como la proteccion del entrono natural y rural, transmitiendo el conocimiento ancestral: por medio de la documentacion de saberes, asegurando lapreservacion y salvaguarda del conocimiento ancestral de las comunidades, lo que ayuda a manteder vivas las tradiciones y costumbres de las comunidades.  



METODOLOGÍA

La investigacion propuso un modelo co-creacion de unidades familiares de produccion sostenible y sustentable con enfoque interdisciplinario basado en saberes ancestrales. Buscando la salvaguarda de los saberes ancestrales para la preservacion de los recursos naturales, culturales y sociales.  Este modelo posibilita la intefracion multifdisciplinaria de areas del conocimiento como lo son: la agricultura, la ganaderia, la arquitectura, la economia y las finanzas. Se encontraron ciertos competidores con respecto a los entregables de dicha investigacion, mas no del modelo. Se crearon diferentes objetos de uso, planos arquitectonicos, tesisi y documentos, material audiovisual como un documental que gano un premio, recetas ricas nutrimentalmente.   


CONCLUSIONES

Durante la estancia, se logoro desarrollar nuevas capacidades y adaptar nuevas herramientas para la busqueda de informacion y la construccion de un informe de vigilancia tecnologica, como de un anexo referenciado. La ingenieria busca la solucion eficaz y eficiente para problemas que muchas veces suelen ser complejos, y dicha investigacion que engloba distintas areas nos desafio a desarrollar habilidades para la resolucion de dichos problemas. Como a la concientizacion de problemas sociales, y la responsabilidad que tenemos nosotros como ingenieros industriales crear un mundo mas equitativo.
Maldonado Pinedo Samantha Jacqueline, Universidad de Guadalajara
Asesor: Dr. Eddisson Hernández Hernández, Universidad Nacional de Ingeniería

CONCRETO CELULAR COMO MATERIAL DE CONSTRUCCIóN; UNA REVISIóN


CONCRETO CELULAR COMO MATERIAL DE CONSTRUCCIóN; UNA REVISIóN

Maldonado Pinedo Samantha Jacqueline, Universidad de Guadalajara. Asesor: Dr. Eddisson Hernández Hernández, Universidad Nacional de Ingeniería



PLANTEAMIENTO DEL PROBLEMA

Esta investigación describe el uso, composición y propiedades físicas del concreto celular. El estudio fue realizado a través de la revisión de antecedentes, destacando el propósito de creación y situación surgimiento. En la literatura se evidencia la realización de una infinidad de investigaciones del concreto celular a lo largo de los años con la intención de hacer mejoras en la elaboración de la vivienda e infraestructura, revolucionado año tras año hasta convertirse en uno de los desarrollos más importantes dentro de la ingeniería civil. 7 A fines del siglo XIX en los Estados Unidos de Norteamérica, en Inglaterra y en muchos otros lugares, para su elaboración se empleó agregado de escoria de hulla y aire encapsulado. Su empleo no se limitó a viviendas y habitaciones populares de bajo costo, sino que se utilizó también en ciertas estructuras de edificios y monumentos, tales como el museo británico terminado en 1907. A mediados de la década de los treinta, la escoria espumosa de los altos hornos se introdujo en Inglaterra, desde entonces se ha usado frecuentemente como agregado de peso ligero. Antes de la última guerra mundial, el concreto a base de espuma se utilizaba en el Reino Unido, principalmente en la fabricación de bloques para muros no portantes de carga; es decir, muros no principales. En 1929 se produjo por primera vez en Suecia el concreto aireado con bomba generadora de espuma, y su empleo durante los primeros años se destinó exclusivamente a la fabricación de bloques. Las mejoras de sus propiedades condujeron al desarrollo de unidades reforzadas. No fue sino hasta el año de 1950 cuando se introdujo en Inglaterra el concreto aireado para elementos de carga. En Gran Bretaña el concreto ligero se fabricaba con escoria de termoeléctricas a base de carbón, pero la gran aceptación del material obligó a que la demanda creciera acabando con las pocas existencias que había de polvo de ceniza. A raíz de esto, se implementó el concreto ligero a base de espumas jabonosas que permitieran el encapsulamiento de aire. En Australia y Alemania se comenzó con la fabricación de un mortero de cemento liviano con la adición de espumas, y se puede considerar esto como el inicio de los morteros celulares



METODOLOGÍA

Se encontró que la principal aplicación del concreto celular es el campo de la construcción, en la elaboración de viviendas y edificios. También se usa en obras como carpetas, contrapisos, terrazas, paneles pre-moldeados y losas que se usan como base para la pavimentación. Para este estudio se revisaron diversos artículos científicos y trabajos de grado para conocer los conceptos básicos acerca del concreto celular y el diseño de mezclas de concreto celular y convencional. 


CONCLUSIONES

El aprovechamiento que puede generar este material va más allá de la estructura y costos, dado que genera seguridad, confort y una adaptación a los diferentes tipos de climas a los que se expone, ya que evita toda perdida de calor, funcionando como contenedor del calor en invierno y como una barrera para el mismo en verano. Tiene la particularidad de ser un elemento que respira. Deja pasar el vapor de agua que se produce por tareas cotidianas y por los ocupantes de la vivienda. Esto es vital para impedir la aparición de daños por causa de la humedad y la condensación, como la presencia de hongos. El material puede ser colocado de manera rápida y sencilla, debido al ensamblaje de sus bloques con mortero. Igualmente, la forma y el peso ligero de los bloques, permite que el trabajo sea muy efectivo y con un alto rendimiento.
Maldonado Rodriguez Irianitzi Paloma, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán

ESTANDARIZACIÓN DEL PROCESO DE OBTENCIÓN DE UNA BEBIDA A BASE DEL DESTILADO TUNA


ESTANDARIZACIÓN DEL PROCESO DE OBTENCIÓN DE UNA BEBIDA A BASE DEL DESTILADO TUNA

Maldonado Rodriguez Irianitzi Paloma, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

La tuna en el mercado mexicano tiene una gran ventaja, por lo extenso de sus recursos agroclimáticos y la tradición del cultivo entre los agricultores de muchas regiones a lo largo del país al producir con gran riqueza la tuna blanca, amarilla, anaranjadas, purpuras y rojas, estando dentro de los cultivos más producidos dentro del territorio. En la región de Ciudad Serdán, Puebla la mayoría de los productores se dedican a la siembra de nopal, esto conlleva a una sobre población del producto provocando que su precio se devalúe, son producidas alrededor de 19 toneladas por hectárea al año en estado de Puebla y no tiene el suficiente aprovechamiento industrial. La mayor problemática que se tiene es el mal aprovechamiento de la materia prima la tuna ya que se comercializa a un bajo precio, buscando otra alternativa en la cual esta se lleve a un proceso industrial, en el verano de investigación se realizaran diferentes pruebas en las cuales se logre la obtención de una bebida destilada a base del fermento de tuna, bajo los parámetros físico químicos, para la fermentación y destilación bajo las condiciones ambientales de la zona, como temperatura y presión atmosférica y así darle valor agregado a la materia prima, mejorando la economía de los productores.



METODOLOGÍA

Investigar documentación científica sobre el proceso de elaboración de una bebida destilada de tuna. Los documentos utilizados (artículos científicos y tesis) fueron obtenidos de la plataforma de Google académico. Los cuales se leyeron detalladamente y posteriormente se resumieron para la obtención de información necesaria y concisa. Estandarizar un proceso para la obtención de una bebida a base del destilado de tuna. Se llevaron a cabo diferentes pruebas para determinar el punto de ebullición del mosto de tuna, para la fermentación y destilación tomando en cuenta los factores climáticos, implementando distintas formulaciones para lograr los resultados deseados. Nivel laboratorio Como primer paso se llevó a cabo la creación del mosto de tuna la cual consiste en lavar la tuna, pelarla y quitarle las partes malas, licuar con el 20% de agua, posteriormente se agregó el 20% de azúcar, en esta parte se miden los °Brix iniciales con un refractómetro Brix 0-32% marca ATAGO, modelo 300001 y se agrega azúcar hasta llegar aproximadamente 18-24°Brix y se mide la acidez con tiras de pH-Fix 0-14 marca CRISA. El segundo paso fue la fermentación del mosto de manera anaerobia, en este se filtró con una manta cielo para separar la parte solida de la fase liquida, se llevó a pasteurizar por 30 minutos con el objetivo de eliminar compuestos que afecten o dañen el proceso de fermentación y por último el 1.5% de levadura la cual se diluyo en 10 ml de agua destilada a 32°C y se vertió en el mosto previamente pasteurizado una vez que la temperatura se encontrara entre 25-35°C. En este paso se midieron los factores de pH, los °Brix, la cantidad de azúcar, la temperatura con un termómetro ASTM °C marca Brannan 76mm de inmersión, cantidad de levadura y tiempo de fermentación en días, si esta al finalizar produjo CO2 y sí presenciaba olor a alcohol. Se fermento durante 5 días, a una temperatura de 20°C (temperatura ambiente lugar Chalchicomula, Puebla). Por último se llevó a cabo el proceso de destilación trabajando con un equipo el cual consta de un matras para destilación de fondo redondo marca VICMEX, con un refrigerante LIEBIG (recto) con juntas 20/40 marca KIMAX, un mechero, termómetro, pinzas mangueras, tapones de silicón, soporte y vasos de precipitado de 100 ml en el cual se obtenía el destilado de tuna, en el cual el primero se recuperaban todos los alcoholes y eliminaban residuos y posteriormente se sometía a  una doble destilación en la cual se trabajó de acuerdo a la temperatura eliminando las colas y las cabezas y se quedó con el cuerpo, para esto se llevaron a cabo cálculos para poder determinar la temperatura de ebullición del metanol, etanol y agua, ya que estos varían al estar a otro nivel del mar, para la obtención del cuerpo que se determinó a una temperatura alrededor de 82° 89° y posteriormente se le hicieron las pruebas de alcohol con un densímetro para alcohol (grados Gay Lussac) a una temperatura de 15 °C, Preparar una bebida a base del destilado del fermento de tuna. Se creo un mosto que contuviera el 20% de agua, se fermento bajo una temperatura de 20°C, con un 20% de azúcar y un 1.5% de levadura casera marca Tradi pan, se hizo una doble destilación en la cual en la primera se obtuvieron todos los alcoholes y agua contenida y en la segunda se destilo a una temperatura de 75-80 °C eliminando colas, 81-87 °C recuperando el cuerpo y de 89-96 °C eliminando las cabezas. Obteniendo un destilado de tuna con un grado de alcohol del 58.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la creación de mezcales y se pusieron en práctica para poder obtener una bebida destilada a base del mosto de tuna. Se hicieron 6 formulaciones distintas en las cuales se modificaban en la realización del mosto y la fermentación del mismo, en el mosto se hicieron las variaciones en la cantidad de azúcar que se le agregaba esto para poder subir los °Brix, y en la fermentación se aumentaron los días en los cuales se dejó fermentar, en esta también se aumentó la cantidad de levadura utilizando la marca Tradi pan ya que obtuvo una mejor fermentación, solo las dos últimas formulaciones fueron pasteurizadas y tomando en cuenta todos esos factores y resultados se eligió la mejor formulación. Se seleccionaron la formulación 5 y 6 ya que fueron las más aceptadas conforme a sus propiedades organolépticas y la obtención del grado alcohólico fue el más favorable. En estas se trabajaron bajo las mismas condiciones a excepción de la cantidad de agua, fermentadas a temperatura ambiente, obteniendo un destilado de tuna con un grado de alcohol de °58 a una temperatura de 15 °C, luego de una doble destilación trabajando con las temperaturas correspondientes al nivel del mar de la región para que fuera posible la eliminación de la cabeza y colas, logrando así cumplir con el objetivo de elaborar una bebida destilada a base del fermento del mosto de tuna mediante un proceso simple.
Maldonado Sánchez Dimas Ricardo, Universidad Politécnica de Victoria
Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan

MODELADO DINáMICO DE MECANISMOS MEDIANTE SOFTWARE DE ELEMENTOS FINITOS


MODELADO DINáMICO DE MECANISMOS MEDIANTE SOFTWARE DE ELEMENTOS FINITOS

Maldonado Sánchez Dimas Ricardo, Universidad Politécnica de Victoria. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En la vida cotidiana de un ingeniero mecánico, se pueden presentar problemas que difícilmente se pueden resolver con solo lápiz y papel, donde las ideas no se pueden analizar y probar físicamente por restricciones económicas o que pueden poner en riesgo la vida de un operador. Para dar solución a este tipo de problemas, se emplean programas de Ingeniería Asistida por Computadora (CAE), esta herramienta esencial en la ingeniería moderna que permite a los ingenieros realizar análisis avanzados, tomar decisiones informadas y optimizar el diseño de productos y sistemas, lo que conduce a la mejora del rendimiento, la calidad y la eficiencia en la industria. El análisis de mecanismos y elementos de máquinas es un tema complejo y, en ocasiones, resulta difícil interpretar los resultados, debido a que implica el conocimiento de diversas ramas de la ingeniería y la visualización tridimensional de dichos elementos. En este contexto, se busca demostrar, mediante ejemplos, cómo los programas CAE que utilizan el método de elemento finito pueden resolver este tipo de problemas de manera efectiva.



METODOLOGÍA

Se llevó a cabo una revisión de los conceptos teóricos y fundamentos del método de elementos finitos mediante la realización de ejercicios. Se empleó el software de simulación, ANSYS, para aplicar los conceptos básicos de diseño y del método de elementos finitos. En el proceso, se utilizó el módulo CAD Design Modeler para el modelado e importación de diversas partes mecánicas. Posteriormente, se abordaron los conceptos teóricos del mallado y se realizaron varios ejercicios prácticos. Se analizaron algunos sistemas estructurales utilizando el módulo Static Structural y se revisaron conceptos importantes en el diseño de elementos de máquinas. Para el análisis cinemático, se empleó el módulo Rigid Dynamics, obteniendo valores de posición, velocidad y aceleración para diferentes partes de un mecanismo. Finalmente, se llevó a cabo una simulación de un pistón en movimiento utilizando el módulo Transient Structural, enfocándose en el análisis de la biela y procurando que el modelo fuera lo más aproximado posible a un sistema real. Se incorporó una velocidad de rotación y se aplicó una fuerza sobre dicho mecanismo. El resultado de esta simulación proporcionó los valores de esfuerzo generados por la carga y las fuerzas de inercia presentes.


CONCLUSIONES

Con los trabajos realizados, se puede observar que el uso de programas CAE permite una mejor comprensión de conceptos relacionados con el diseño de elementos de máquinas, como el análisis de esfuerzos, teorías de falla, análisis cinemático de mecanismos y análisis transiente. La implementación de este tipo de programas en el aula mejoraría la comprensión de diferentes materias en el área de diseño en Ingeniería Mecánica. A modo de ejemplo, se muestra el análisis transiente de un mecanismo, donde se obtienen velocidades, aceleraciones y esfuerzos mientras el mecanismo se encuentra en condiciones de trabajo.
Maldonado Santamaria Abileybi, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

EVALUACIóN DE LA EFECTIVIDAD DE DIFERENTES ALGORITMOS DE PROCESAMIENTO DE DATOS EN EL CáLCULO DE DESCARGA UTILIZANDO SENSORES ULTRASóNICOS EN CANAL PRISMáTICO DE SECCIóN VARIABLE


EVALUACIóN DE LA EFECTIVIDAD DE DIFERENTES ALGORITMOS DE PROCESAMIENTO DE DATOS EN EL CáLCULO DE DESCARGA UTILIZANDO SENSORES ULTRASóNICOS EN CANAL PRISMáTICO DE SECCIóN VARIABLE

Maldonado Santamaria Abileybi, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los canales prismáticos de sección variable son estructuras hidráulicas utilizadas para el transporte de agua con diferentes aplicaciones como lo pueden ser: abastecimiento de agua potable, control de inundaciones y drenaje, etc., por lo tanto, la medición precisa de la descarga de agua es esencial para una gestión adecuada y eficiente de los recursos hídricos.   Para países en vías de desarrollo como México, la gestión del agua se ve afectada negativamente por el alto costo de los instrumentos y equipos necesarios para medir y controlar el flujo en canales. En la ciudad de Morelia, existe poca información hidrométrica, además de estar desactualizada, por lo que un procesamiento adecuado de los datos recopilados presenta una alternativa para obtener resultados eficientes en la medición de la descarga y accesible para toda la población. La implementación de sensores ultrasónicos para medir el tirante presenta ventajas potenciales en términos de precisión y automatización. Sin embargo, el problema radica en que existen diversos algoritmos para calcular la descarga utilizando sensores, pero no se ha establecido cuál de ellos ofrece los resultados más confiables, consistentes y de bajo costo en el contexto específico de canales prismáticos de sección variable. Por lo tanto, el objetivo de esta investigación es desarrollar y evaluar la efectividad de diferentes algoritmos de procesamiento de datos utilizando el lenguaje de programación C++ en distintos IDE’s.  Para ello, se recopilarán datos de distancia en un canal de sección variable con diferentes condiciones de flujo. Posteriormente, se compararán los resultados obtenidos con mediciones de descarga de referencia y se analizará la precisión y consistencia de cada enfoque de procesamiento de datos.



METODOLOGÍA

La secuencia es la siguiente: Selección del área de estudio: El área de estudio corresponde al laboratorio de hidráulica Ing. David Hernández Hueramo de la UMSNH, el cual cuenta con un canal prismático de sección variable, que permite el tránsito de distintos caudales a lo largo del tiempo. Creación de algoritmo: En el desarrollo del algoritmo fue necesario comprender claramente el problema y definir los objetivos del código, así como identificar los componentes y/o sensores a utilizar.  En dicho algoritmo se utilizaron los IDE’s de Arduino y Visual Studio Code, los cuales proporcionan herramientas y funcionalidades para facilitar y agilizar el desarrollo de programas informáticos, y programando los sensores en el lenguaje C++. Algoritmos de procesamiento de datos: Se desarrollaron distintos algoritmos de procesamiento de datos para cumplir con las necesidades de la problemática. En el primer algoritmo se muestran únicamente las mediciones de un sensor ultrasónico en centímetros, marcando la distancia entre el sensor y la plantilla del canal. En el segundo algoritmo se adicionó una pantalla OLED de 0.96 para registrar y visualizar los datos obtenidos físicamente. En el tercer algoritmo se le añadió un fragmento al código para agregar 4 sensores más, que funcionaran simultáneamente, vinculándose igualmente a la pantalla OLED. En el cuarto algoritmo, se agregó un fragmento de código para obtener un factor de corrección, ya que presentaba un ligero error en la distancia mostrada. En el quinto algoritmo se adicionó un código que promediara la distancia del número total de sensores utilizados y que, además relacionara dicho promedio con la distancia medida físicamente a la plantilla del canal. Lo que permitió a través de una resta, el cálculo del tirante de flujo. Se programó un sexto y último algoritmo en el cual se realizó una recopilación de todos los algoritmos anteriores. Además de un código para el cálculo del gasto del canal y la transmisión de dichos datos a una plataforma (IoT) como lo es Blink, para su recopilación. Selección y montaje de sensores ultrasónicos: Se seleccionarán 5 sensores ultrasónicos para la medición de caudales. Estos sensores se instalaron en una estructura de madera en puntos estratégicos del canal, considerando la variabilidad de la sección transversal y los patrones de flujo. Debido a que los canales son de sección variable se realizaron modificaciones en los algoritmos. Diseño de pruebas de calibración: Se planificaron y diseñaron pruebas específicas de calibración para los sensores ultrasónicos. Estas pruebas incluyeron mediciones de caudales conocidos en diferentes secciones transversales del canal y bajo distintas condiciones de flujo. Análisis de datos y desarrollo del algoritmo: Se analizaron los datos recopilados durante las pruebas de calibración para determinar las relaciones entre las mediciones proporcionadas por los sensores ultrasónicos y los caudales reales del canal. Validación del algoritmo: El algoritmo desarrollado se sometió a un proceso de validación utilizando datos hidráulicos adicionales recopilados en diferentes períodos de tiempo y condiciones de flujo. Se compararán las mediciones proporcionadas por los sensores ultrasónicos y las mediciones de referencia para verificar la precisión del algoritmo.


CONCLUSIONES

En conclusión, la evaluación de la efectividad de diferentes algoritmos de procesamiento de datos en el cálculo de descarga utilizando sensores ultrasónicos en un canal prismático de sección variable es de gran relevancia para la optimización de la gestión del agua en diversas aplicaciones hidráulicas. El estudio permitió desarrollar y comparar distintos enfoques de procesamiento de datos, lo que resultó en un análisis exhaustivo de su precisión y confiabilidad en la medición de caudales. El algoritmo final fue diseñado para adaptarse a diferentes formas y tamaños de canales de sección prismática simple (rectangular, trapecial, triangular, etc), lo que requirió una programación flexible y robusta.
Mancilla Flores Lizeth Berenice, Universidad de Guadalajara
Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer

MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS


MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS

Díaz Ibarra Jatsiry Citlally, Instituto Tecnológico de Tepic. Gutiérrez Cervantes Silvia Marlene, Instituto Tecnológico Superior de Irapuato. Herrera Diaz Ailed Lourdes, Instituto Tecnológico de Tepic. Juárez Ochoa Carmen Andrea, Instituto Tecnológico Superior de Irapuato. Mancilla Flores Lizeth Berenice, Universidad de Guadalajara. Ramírez Ulloa Abraxis Baruch, Instituto Tecnológico de Tepic. Savalza Castillo Karla Veronica, Universidad Autónoma de Nayarit. Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer



PLANTEAMIENTO DEL PROBLEMA

En la actualidad Colombia está enfrentando diversos retos a nivel del comercio internacional debido a las diferentes fuerzas que trae la globalización y que han llegado para transformar como se producen, los diferentes productos servicios que necesitan los consumidores, de igual manera, representa una oportunidad para que las empresas nacionales desarrollen estrategias con el propósito de lograr mayor productividad y competitividad en un mercado compuesto por clientes mucho más exigentes en cuanto a sus preferencias y necesidades. La globalización es parte esencial cuando se habla de competencia y actualización de metodologías, debido a que las empresas nacionales tienen la posibilidad de renovar sus procesos con el fin de automatizarlos como lo hacen algunas  empresas extranjeras, aunque se debe destacar que la entrada de nuevas tecnologías no se debe relacionar con la salida de capital humano.  La reingeniería de procesos está relacionada con la reducción de costos y aumento de utilidades, pero no con el recorte de personal como la gente lo supone. Las empresas en Colombia tienen tiene solo una opción en su planeamiento estratégico: es involucrase decididamente en procesos de transformación tecnológica con el fin de lograr estándares mundiales de alto nivel con el fin de lograr su sostenibilidad en el tiempo.



METODOLOGÍA

Tener casos de éxito en la adaptación a las megatendencias en el sector empresarial es fundamental, por lo que cuando se realizó una visita pedagógica  en la empresa Cohan: (Cooperativa de Hospitales de Antioquia), donde se pudo observar cómo se desarrolló un proyecto de automatización en sus procesos de venta, el personal directivo logró la implementación de almacenes verticales automatizados  para la optimización de procesos de picking y dicha implementación fue exitosa tanto así que sus ventas y tiempos de entrega mejoraron drásticamente. Antes la entrega de un pedido podía durar hasta 8 días para llegar al cliente final, ahora se entrega en 24 horas y lo más importante de todo, no salió ningún auxiliar de sus operaciones lo que la hacen un ejemplo a seguir de muchas empresas Colombianas de su sector ya que, tomaron las megatendencias a su favor y decidieron adaptarse a por medio de la tecnología. Como se ha dado a conocer, los recursos son siempre escasos y por ello es necesario invertir en aquellos proyectos que le den a la empresa la mayor rentabilidad posible tal como lo hizo la empresa Cohan, la tecnología en sí misma no es la solución, pero haciendo una planeación adecuada, la tecnología agrega valor, ayuda a que nuestras operaciones sean más eficientes, eviten errores y reduce los costos operativos y tiempos logísticos, estos elementos hacen que un proyecto sea rentable. En este caso, debemos estar plenamente convencidos de la relación entre la inversión y el sistema de almacenamiento que necesitamos. También, visitamos una de la empresa más representativas de la industria del Café en Colombia, Colcafé; esta es la primera empresa colombiana de café en exportar café en  diferentes presentaciones. Esta empresa en su proceso implementa un software con el cual se escanea el código de barras que está colocado en el pallet con la carga de mercancía, al momento de escanearlo arroja una ficha técnica, donde se especifica el historial del producto, es decir, detallando datos importantes como si será exportado o será distribuido a nivel nacional, y en caso de ser exportación nos indica el país de destino.


CONCLUSIONES

Con base en la información proporcionada, es importante destacar que las megatendencias globales tienen un impacto significativo en la eficiencia logística de las empresas colombianas. Las megatendencias son fuerzas transformadoras a gran escala que afectan a nivel mundial y que generan cambios importantes en la sociedad, la economía y la tecnología. Cada una de las empresas que se visitaron y evaluaron, implementan de forma distinta las megatendencias, sin embargo, todas lo realizan con la misma finalidad que es eficientizar y optimizar sus procesos. Algunas de las megatendencias globales relevantes para la eficiencia logística en Colombia incluyen la globalización, los cambios demográficos, la variabilidad y cambio climático, la escasez de recursos, la hiperconectividad, el traslado de los ejes del poder, y la urbanización. Estas tendencias han dado lugar a desafíos y oportunidades para las empresas que operan en el país, especialmente en el ámbito logístico. En conclusión, las megatendencias globales están transformando la forma en que las empresas colombianas abordan la eficiencia logística. Aquellas que logren adaptarse y aprovechar las oportunidades que estas tendencias ofrecen, a través de la implementación de tecnologías avanzadas, prácticas sostenibles y estrategias innovadoras, estarán en una mejor posición para mantenerse competitivas y satisfacer las demandas cambiantes de un mercado globalizado y en constante evolución. La colaboración entre el sector público y privado también es esencial para superar los desafíos logísticos y mejorar la infraestructura, lo que contribuirá en última instancia al crecimiento económico y desarrollo sostenible del país.
Manjarrez Valenzuela Mónica Natalia, Instituto Tecnológico de Colima
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

PREPARACIóN DE CATALIZADORES SóLIDOS A PARTIR DE BIOMASA Y SU APLICACIóN EN LA TRANSESTERIFICACIóN DE LíPIDOS


PREPARACIóN DE CATALIZADORES SóLIDOS A PARTIR DE BIOMASA Y SU APLICACIóN EN LA TRANSESTERIFICACIóN DE LíPIDOS

Barrera Ruiz Scarlet Azuay, Instituto Tecnológico de Colima. Manjarrez Valenzuela Mónica Natalia, Instituto Tecnológico de Colima. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Los combustibles fósiles, como el petróleo, el carbón y el gas natural, han sido durante un largo tiempo la principal fuente de energía utilizada en el mundo para satisfacer la demanda energética. Sin embargo, su extracción y consumo desmedido han contribuido a la contaminación y el deterioro ambiental. Por ello, ha sido necesario buscar alternativas sostenibles que no comprometan el medio ambiente. El biodiesel tiene el potencial de sustituir o disminuir la dependencia a los combustibles fósiles y combatir la crisis energética mundial debido a sus múltiples beneficios, entre ellos su buen desempeño en motores de combustión y la generación de bajas emisiones de gases contaminantes a la atmósfera (gases de efecto invernadero), además es amigable con el medio ambiente, no tóxico, biodegradable y sustentable. Este biocombustible puede ser obtenido mediante diferentes procesos como la pirolisis, la dilución, la micro-emulsión y la transesterificación. Específicamente, la transesterificación es uno de los métodos más empleados para producir biodiesel y se basa en la reacción entre los triglicéridos y un alcohol, preferentemente de cadena corta, en presencia de un catalizador. Los catalizadores juegan un papel fundamental en la transesterificación de lípidos provocando un aumento en la velocidad de reacción y el rendimiento de biodiesel. Los catalizadores heterogéneos son una alternativa prometedora a los catalizadores homogéneos, debido a sus ventajas como reutilización, facilidad de separación, mejor estabilidad, durabilidad y menor impacto ambiental. En los últimos años, la preparación de catalizadores sólidos verdes a base de cenizas derivados de biomasas residuales ha sido considerada una opción viable y prometedora para la producción de biodiesel (FAME por las siglas en inglés de Fatty acid methyl esters). Estos catalizadores sólidos a base de cenizas son obtenidos principalmente vía calcinación y no requieren modificación para ser utilizados directamente en la transesterificación de lípidos, mostrando excelente actividad catalítica debido a su naturaleza básica. Bajo este contexto, en este proyecto se prepararon catalizadores sólidos a base de cenizas vía calcinación de diversas biomasas lignocelulósicas (cáscaras de naranja, cáscara de plátano pencas de nopal) y se evaluó su desempeño en la transesterificación del aceite de cártamo.



METODOLOGÍA

Se utilizaron la cáscara de plátano, cáscara de naranja y nopal como biomasas para la preparación de catalizadores sólidos y su aplicación para la producción de biodiesel. Primeramente, se realizó el acondicionamiento de las biomasas, donde se pusieron a secar al sol durante varios días para eliminar humedad. La biomasa se molió para disminuir su tamaño y se tamizó empleando un número de malla de 8-35. La calcinación se desarrolló en horno mufla a 800 °C durante 30 min empleando 20 g de biomasa y una rampa de calentamiento de 5 °C/min. Las cenizas (catalizadores sólidos) resultantes fueron lavadas con 150 mL de agua desionizada para eliminar impurezas y se secaron en un horno a 100 °C durante la noche. Se realizaron cinéticas de reacción empleando una carga de catalizador del 10%, relación molar metanol/aceite: 19/1 a diferentes temperaturas (40-60 °C) y tiempos de reacción (0.25-4 h). Una vez terminada la reacción, la fase líquida y sólida fueron separadas mediante centrifugación. La fase líquida se colocó en un horno a 100 °C para evaporar el metanol que no reaccionó. Finalmente, se realizó una caracterización fisicoquímica de la biomasas y catalizadores obtenidos mediante diferentes técnicas de caracterización (XRD y FTIR).


CONCLUSIONES

Los catalizadores sólidos a base de cenizas preparados en el presente estudio mostraron una elevada actividad catalítica y adecuado desempeño en la transesterificación del aceite de cártamo. Los resultados de las cinéticas de reacción indicaron que la máxima conversión de FAME alcanzada fue a la mayor temperatura y tiempo evaluados (60 °C, 4 h), demostrando la naturaleza endotérmica de la reacción. El uso de catalizadores a base de cenizas ha sido considerado una opción viable, sostenible y rentable desde el punto de vista económico y ambiental para el proceso de producción de biodiesel.
Manuel Martínez José Ángel, Universidad Veracruzana
Asesor: Dra. Paola Andrea Acevedo Pabon, Universidad Cooperativa de Colombia

ESTRATEGIA DE MODERNIZACIÓN PARA UNA PLANTA PILOTO DE DIGESTIÓN ANAERÓBICA QUE PERMITA UNA TOMA DE DATOS ONLINE UTILIZANDO ELEMENTOS EMBEBIDOS.


ESTRATEGIA DE MODERNIZACIÓN PARA UNA PLANTA PILOTO DE DIGESTIÓN ANAERÓBICA QUE PERMITA UNA TOMA DE DATOS ONLINE UTILIZANDO ELEMENTOS EMBEBIDOS.

Manuel Martínez José Ángel, Universidad Veracruzana. Asesor: Dra. Paola Andrea Acevedo Pabon, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

En Colombia, la implementación está avanzando con el auge de los cultivos de palma y la necesidad de tratamiento de los efluentes líquidos originados en las extractoras de aceite ha fomentado la implementación de proyectos en este sector (Melvin Acosta Pabuena and Jorgelina Pasqualino, 2014). Por otra parte, en Bogotá hay casi ocho millones de habitantes con una tasa de crecimiento poblacional cercano al 2% anual, donde la tasa de crecimiento económico obedece a un 4% lo que causa un incremento en la demanda de bienes y servicios en todos los niveles y así mismo, esto causa un aumento representativo en la generación de residuos en la ciudad (DANE, 2020). El consumo de bienes y servicios significa una gran producción de residuos, lo cual deriva problemas de contaminación, salud y economía ya que, gracias al crecimiento poblacional, se va haciendo cada vez más difícil tener un lugar donde disponer los residuos y aún más importante, hacerlo adecuadamente. Es por esto que aumenta la necesidad de alternativas que contribuyan al tratamiento de los mismos, implementando diferentes tecnologías que no solo aporten al control de los residuos, sino que también puedan aportar en la generación de subproductos sostenibles con el ambiente.  Es por eso que desde las instituciones educativas especialmente desde las universidades se está implementando un avance constante en investigación para el uso y tratamiento de los residuos sólidos, desarrollando varias iniciativas para el aprovechamiento energético de estos residuos diseñando plantas pilotos como una manera de ir estructurando un conocimiento en el campo de las plantas de energía de biogás y que se puedan replicar a un bajo coste económico y de fácil entendimiento para sus operantes. Por lo tanto la Universidad Cooperativa de Colombia sede Bogotá DC, ha implementado una planta piloto de digestión anaerobia para residuos sólidos y automatizado de tal forma que se puedan manipular y observar las variables mediante una interfaz humano máquina (HMI) y visualizar toda su información para que se pueda analizar en el punto de operación, sin embargo algunos de sus componentes no se encuentran en buen estado y su controlador principal no cumple con las necesidades que se presentan hoy en día frente al procesamiento de información, adquisición de datos, alarmas y transferencia o comunicación con dispositivos externos, para luego su interpretación y análisis, Luego se hace necesario una optimización de dichos elementos y de su funcionamiento general cumpliendo con las expectativas y exigencias a las cuales fue diseñada y pueda dar información que ayude en la investigación este campo.



METODOLOGÍA

1. Caracterización de la muestra y del inóculo. 2. Definir los parámetros y condiciones operacionales. 3. Realizar el diseño experimental (cantidades de cada elemento a utilizar en los reactores). 4. Realizar el montaje. 5. Durante el montaje realizar muestreo, de pH, y caracterización de biogás (cada tres días) y diariamente medir el desplazamiento del hidróxido de sodio o del miligas en mililitro. 6. Esperar el pico máximo de producción. 7. Desmontar y realizar análisis dé resultados.


CONCLUSIONES

Con la materia orgánica utilizada no se ve favorecido la producción de biogás o si se está produciendo, una fuga sea la responsable de valores muy bajos de producción. Por otro lado, el reactor presentó una acidificación casi espontánea, lo que se interpreta que la carga orgánica es muy alta.Con la materia orgánica utilizada no se ve favorecido la producción de biogás o si se está produciendo, una fuga sea la responsable de valores muy bajos de producción. Por otro lado, el reactor presentó una acidificación casi espontánea, lo que se interpreta que la carga orgánica es muy alta.
Maqueda Robles Axel Yair, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Rodolfo Murrieta Dueñas, Instituto Tecnológico Superior de Irapuato

ANÁLISIS DE ESFUERZOS EN AGITADORES DE PROXIMIDAD UTILIZANDO SOLIDWORKS


ANÁLISIS DE ESFUERZOS EN AGITADORES DE PROXIMIDAD UTILIZANDO SOLIDWORKS

Maqueda Robles Axel Yair, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Rodolfo Murrieta Dueñas, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Los agitadores tienen múltiples aplicaciones en la industria, debido a que existen múltiples procesos que requieren una etapa de agitación y/o mezclado o se agrega esta etapa para una optimización del proceso. Para poder tener un agitador correcto para el proceso en el que se debe implementar, se necesita conocer las propiedades fisicoquímicas de lo que se va a agitar, las dimensiones del tanque que va a agitarse y si se requiere que se mezcle o simplemente se agite a lo largo del proceso. A partir de esto se puede elegir el tipo de agitador para el proceso y calcular todo lo necesario para que el agitador trabaje correctamente. Para la mayoría de los procesos, se busca saber que tan seguro es utilizar el agitador en las condiciones en las que se está trabajando o si dicho agitador soportará las condiciones de operación. Bossio, M. A. 2021 realizó un análisis de respuesta de agitadores de hélice sobre fluidos con diferentes viscosidades donde llevaba a cabo 2 análisis diferentes, una simulación estructural y fluidodinámica y una experimental, permitiéndole obtener resultados tanto numéricos como gráficos y comparando el comportamiento real del agitador con el teórico de las simulaciones. Sin embargo, menciona que tuvo que hacer consideraciones posteriores a las experimentaciones para que sus resultados fueran más reales a lo que requería la empresa sobre la que realizaba el estudio. Esto debido a que pudo observar que el modelo numérico que implementó presentaba errores. En el trabajo realizado Ramírez C. 2014, se realiza un modelo numérico para el análisis de fuerzas que actúan sobre un agitador implementado en la cristalización de azúcares, dicho modelo abarca las ecuaciones utilizadas por Bossio M. A. 2021, sin embargo se adaptan a las condiciones de operación a las que se trabajan. A diferencia del primer trabajo, en este se basan en el factor de seguridad de las paletas del agitador y del eje con respecto a un factor de seguridad teórico de operación. Con base en lo anterior, se propone realizar la determinación de esfuerzos de manera gráfica, permitiendo ver los puntos débiles de los agitadores de proximidad; además de manejar una escala que permita calcular el daño sobre el material empleado para construir los agitadores 



METODOLOGÍA

En este trabajo se desarrollan simulaciones de agitadores de proximidad implementados en la industria. Se propusieron cuatro casos de estudio en donde se utilizaba un tanque de operación ideal para poder dimensionar y diseñar los agitadores propuestos. La geometría del tanque y los agitadores se realizó utilizando el software SolidWorks. Dentro del SolidWorks se tiene la herramienta de simulación donde se pueden realizar análisis estáticos, estudios de frecuencia, análisis de fatiga, térmico, entre otros, para el análisis se utilizaron análisis estáticos, considerando las partes que se mantienen estáticas en el espacio y representando el movimiento de los agitadores tan real como nos permitió el software. Las velocidades a las que se sometieron los agitadores fueron propuestas según se aplicaban los agitadores en la producción de alginatos manejando velocidades de 30, 50 y 75 rpm para cada agitador. Se realizó un mallado para cada agitador para poder tener resultados por sección o partícula del agitador y no por componente o pieza completa. En todos los casos los tiempos de simulación fueron mínimos, sin embargo se repitieron múltiples veces para obtener resultados comparables entre sí. 


CONCLUSIONES

El agitador que presentó más deformaciones fue el agitador Paravisc, debido a que al final de cada simulación este se destruyeron los 2 ejes verticales que lo componen, además de que las hélices sufrían una mayor tensión. El agitador que menos deformaciones tuvo fue el Doble Ribbon, esto porque se doblaron mínimamente los ejes que soportan las hélices que tiene. El acero AISI 316 puede emplearse en agitadores de proximidad debido a que en agitaciones entre 30 y 75 rpm resiste sin deformarse permanentemente Comparando los resultados obtenidos con lo consultado, este análisis permite ver gráficamente el comportamiento que puede tener el agitador y comparar dicho comportamiento frente a un factor de seguridad de operación.
Marcelo Hernandez Bartolome, Instituto Tecnológico de Chilpancingo
Asesor: Mg. Dennis Martínez Duque, Universidad Cooperativa de Colombia

GOBIERNO DE DATOS PARA LA EDUCACIóN DE CALIDAD EN NIVEL SUPERIOR.


GOBIERNO DE DATOS PARA LA EDUCACIóN DE CALIDAD EN NIVEL SUPERIOR.

Marcelo Hernandez Bartolome, Instituto Tecnológico de Chilpancingo. Asesor: Mg. Dennis Martínez Duque, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

¿Cuáles son las prácticas y estrategias efectivas del gobierno de datos que pueden contribuir a fortalecer el aseguramiento de calidad en las instituciones de educación superior? 



METODOLOGÍA

En la estancia en línea del programa delfín en la Universidad Cooperativa de Colombia, se ha realizado una investigación sobre el gobierno de datos, que es, cómo lo podemos aplicar, para qué sirve en aspectos educativos y la importancia del mismo basándonossobre la educación en instituciones de nivel superior. Hablamos sobre plataformas de bases de datos bibliográficos y revistas científicas como como Scopus y Mendeley. Se llevó a cabo el desarrollo de un diagrama entidad relación, en el cual implementamos el funcionamiento de la Universidad, sus sedes y las actividades que se realizan dentro de la misma, esto se desarrolló con la finalidad de poder entender cómo se gestionan los datos y que las actividades de acuerdo al gobierno de datos el cual es de suma importancia en la educación superior ya que nos ayudara a mejorar la toma de decisiones, el seguimiento y rendimiento estudiantil y sus actividades, la transparencia y responsabilidad tanto de la institución como de los estudiantes con ello llevar a tener una mejor optimización de recursos y poder aprovechar al máximo cada aspecto educativo a nivel superior desde el gobierno hasta la parte final que son los estudiantes. En las reuniones que se han llevado a cabo, se han tocado temas referentes al tema del proyecto, se ha explicado el uso de algunas herramientas para subir archivos leídos y/o consultados para realizar la investigación. Con ello la creación de una cuenta en mendeley para crear un dataseet con los archivos vistos. y subir los mismos a la plataforma, se investigó en diferentes archivos acerca del tema para entenderlo mejor.


CONCLUSIONES

La investigación realizada resalta la investigación sobre el gobierno de datos y su aplicación práctica en el ámbito de la educación superior para la Universidad Cooperativa de Colombia, También la utilidad de herramientas tecnológicas y la promoción de la transparencia y la mejora del rendimiento estudiantil como resultados clave de la implementación exitosa del gobierno de datos en una institución educativa. En base a la investigación mencionada sobre el gobierno de Datos, se desarrollo un diagrama que muestra el resultado obtenido después de analizar documentos relacionados a la Universidad (UCC), se pudo observar y analizar que el gobierno de datos ejerce la autoridad y control, con la planificación y aplicación, de los datos activos. Para ello se incluyen organismos y normas para los métodos de toma de decisiones, este punto llevo a desarrollar el diagrama donde se visualizó la estructura de la universidad y las áreas que tienen a su cargo otros departamentos, lo cual es importante para llevar un buen control y seguir las normas que se apliquen para la toma de decisiones. Evidencia de diagrama ER https://lucid.app/documents/view/bd4ddc9f-4ffe-46a8-9ebb-f2b8ed296018 Se aprendió bastante y se conocieron nuevas plataformas para trabajar con archivos o información confiable y evitar información errónea o no verídica.
Mares Alfonso Isidro Emmanuel, Universidad Veracruzana
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

DISEÑO E IMPLEMENTACIÓN DE UN BIOFILTRO PERCOLADOR A ESCALA LABORATORIO CON SISTEMAS DE MONITOREO EN TIEMPO REAL PARA LA ELIMINACIÓN DE CONCENTRACIONES ELEVADAS DE H2S


DISEÑO E IMPLEMENTACIÓN DE UN BIOFILTRO PERCOLADOR A ESCALA LABORATORIO CON SISTEMAS DE MONITOREO EN TIEMPO REAL PARA LA ELIMINACIÓN DE CONCENTRACIONES ELEVADAS DE H2S

Mares Alfonso Isidro Emmanuel, Universidad Veracruzana. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las emisiones de gases contaminantes por parte del sector industrial son de relevancia debido a que se dispersan en el aire ambiente afectando su calidad y la salud de las poblaciones que se encuentran circundantes a estas industrias, tal es el caso del ácido sulfhídrico (H2S), mismo que se dispersa en gases emitidos por la industria petrolera, de alimentos, tratamiento de aguas y otras industrias en las que se produzca un proceso degradación de materia orgánica.   En México existe la NOM-137-SEMARNAT-2013 que establece el control de emisiones de compuestos de azufre, misma que obliga principalmente a la industria petrolera a el tratamiento de las emisiones de gas amargo (mezcla de H2S, CO2 y N2) y gas ácido (mezcla de H2S y CO2); sin embargo, esta misma norma establece el uso de un sistema de oxidación térmica.   El uso de la oxidación térmica como método de tratamiento de efluentes de gases contaminados representa desventajas ambientales y de costos para las empresas emisoras de gas amargo y gas ácido, razón por la que se propone el uso de métodos biológicos.



METODOLOGÍA

Durante la realización del proyecto se utilizó una columna de vidrio que consta de tres partes, el cabezal superior que cumple con la función de salida de gas tratado y entrada de agua para irrigación, la columna de empaquetamiento que contiene el medio filtrante, y el cabezal inferior de salida de agua residual y entrada de gas contaminado; esta columna de vidrio se alimentó  con una síntesis de H2S inyectada por un compresor a una presión de 0.986 atmósfera a un caudal de 10 litros por minuto, con un caudal de salida aproximado a 6 litros por minuto, y por medio del cálculo se intuye un tiempo de retención de 30 segundos. El diseño del reactor utilizado se propuso por medio de una revisión bibliográfica en donde se buscaba obtener una estimación de las dimensiones ideales para desarrollar la propuesta de un modelo de biofiltro, esta revisión bibliográfica tuvo una mayor referencia respecto a el libro Biorreactores para el Tratamiento de Gases Contaminados de Kennes & Veiga, 2001; que específica una serie de ecuaciones de las que se obtiene el  tiempo de retención, la carga superficial y la carga volumétrica; a partir de estas ecuaciones se aproximan las dimensiones del material disponible en el laboratorio. El biofiltro percolador lleva acabo su proceso de tratamiento a través de la columna del material empaquetado, dicho empaque está compuesto una mezcla de composta y lodos activados; la composta funciona como un biocatalizador que provee nutrientes a los lodos activados los cuales contienen un amplio consorcio bacteriano que por medio de sus procesos metabólicos llevan acabo una oxidación bioquímica del ácido sulfhídrico reduciendo la concentración de la emisión contaminante; al ser un material que tiende a la compactación se adicionó a la mezcla gomas de poliuretano, aumentando el espacio poroso y aligerando el peso de la columna. La propuesta de soporte orgánico surgió a partir de una comparativa de varios artículos que utilizaron distintos soportes para la biopelícula de microorganismos de manera que se garantizara que tuvieran un crecimiento ideal y estable; se optó por usar composta debido a sus propiedades fisicoquímicas con un porcentaje de porosidad de 86% y una relación Carbono/Nitrógeno de 20 unidades. El consorcio de microorganismos se obtuvo por medio del muestreo de lodos activados de la planta de tratamiento de aguas residuales del Colegio de México COLMEX, los lodos se mantuvieron en un sistema de aeración y alimentados por 5 gramos de sacarosa y una pastilla de nutrientes (20 gramos)[1] por cada 10 litros de lodos por día. Al instalar la columna del biofiltro se requirió realizar una medición de flujos volumétricos de entrada y salida, para así poder recabar información sobre los tiempos de retención de gas dentro del sistema, puesto que si existe una reducción del flujo volumétrico, tendríamos como resultado una serie de caídas de presión que significa una reducción del espacio poroso dentro del empaquetamiento del biofiltro. Se produjo Ácido Sulfhídrico (H2S)  a partir de la reacción exotérmica e instantánea de Ácido Clorhídrico (HCl) y Sulfuro de Sodio (Na2S), la estequiometría de la reacción en función de Sulfuro de Sodio para producir H2S es 1:1   Al utilizar volúmenes variables se busca obtener distintas concentraciones del gas ácido en partes por millón (ppm) esto con el fin de realizar la adaptación de los lodos activados al H2S, esta adaptación tuvo como objetivo que el consorcio de microorganismos presente en los lodos activados pudiera adaptarse al contaminante y al estar expuestos a una mayor concentración estos puedan procesar el contaminante por medio de sus vías metabólicas; la dosis de contaminante suministrada a los lodos activados fue de 10 ppm a 10 litros por minuto. El monitoreo de concentración del contaminante modelo se realizó con un sensor específico de H2S siendo el MQ-136, se utilizó un Arduino nano apoyado de un código que contiene una curva de calibración; a partir de los datos proporcionados por el fabricante del sensor, aunado a esto se realizaron varias reacciones de síntesis para la obtención de distintas concentraciones en partes por millón (ppm) para validar la curva de calibración ya codificada en el programa de Arduino. [1] Cada pastilla tiene una composición de 25% de Nitrógeno, 12% de Fósforo, 7% de Potasio y 0.1% de Hierro, Zinc y Azufre de cada elemento.  


CONCLUSIONES

En conclusión, se logró llevar a cabo la gran parte de las actividades experimentales del proyecto trabajado durante el Verano Delfín, sin embargo, no se alcanzó el objetivo de verificar la eficiencia del biofiltro percolador, debido a que aún se encuentra en una etapa inicial de operación, además del retraso generado por la necesidad de adaptar el consorcio de microorganismos al contaminante a tratar; por otra parte, se realizó un estudio bastante extenso de la eficiencia de otras opciones de tratamiento de tipo biológico en efluentes gaseosos, así como la comparativa teórica entre los tratamientos de características físicas y químicas.
Mares Hernández Orlando, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero

GEO SKETCHER TURTLE: ROBOT DIDáCTICO PARA DIBUJAR TRAZOS GEOMéTRICOS


GEO SKETCHER TURTLE: ROBOT DIDáCTICO PARA DIBUJAR TRAZOS GEOMéTRICOS

Barrera Reyes Angel, Instituto Tecnológico de Chilpancingo. Mares Hernández Orlando, Instituto Tecnológico de Chilpancingo. Morales Renteria Areli, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

El aprendizaje de la programación en niños enfrenta diversos problemas en la actualidad como la falta de recursos adecuados, principalmente computadoras y personal capacitado. Además, los enfoques teóricos de enseñanza en lugar de enfoques prácticos, dificulta el proceso de aprendizaje. Otro problema es que la curva de aprendizaje inicial y la falta de continuidad en los planes de estudio también representan desafíos significativos. A pesar de estos obstáculos, se reconoce el valor de la programación como una habilidad relevante y se están realizando esfuerzos para mejorar la enseñanza en este campo. Como propuestas de solución a esta dificultad, se diseñan y desarrollan robots o mecanismos robóticos didácticos para hacer el aprendizaje más dinámico, lúdico y atractivo para los estudiantes. En este sentido, en la Facultad de Matemáticas de la UAGro se desarrolla un prototipo denominado Geo Sketcher Turtle, el cual consiste en un robot zoomórfico basado en una tortuga para la enseñanza-aprendizaje de temas básicos de geometría, tales como reconocimientos de polígonos, lados, ángulos, entre otros. Este robot está orientado a niños de preescolar y proporciona una interfaz sencilla y amigable mediante botones de control para su manipulación y uso.



METODOLOGÍA

En la fase de diseño, se creó la arquitectura del sistema de la tortuga robótica. Esto incluye el rediseño de la estructura física, la selección de los componentes electrónicos necesarios, el diseño de circuitos, el diseño la programación y de la presentación. Basándonos en el prototipo inicial, con la ayuda de la plataforma Tinkercad se diseñó al circuito para integrar una placa Arduino NANO EVERY con un microcontrolador L293D, que a su vez se conectó a los botones de control y los motores DC usando resistencias y jumpers. Utilizamos Arduino IDE con lenguaje C para desarrollar el programa del robot y se utilizó la Placa Arduino UNO para hacer pruebas de código por su facilidad de manejo, definimos a los pines del 2 al 5 como pines de entrada y del 8 al 11 como pines de salida, así mismo, se establecieron los puertos 13 y 12 para los motores. Los pines mencionados se conectaron a los pines correspondientes del microcontrolador L293D, el cual sirve para el control y dirección de motores DC, en este caso utilizamos modulación por ancho de pulso (PWM). Los botones de control serían el de avanzar, retroceder, girar a la izquierda y a la derecha. Por último, se incluye un botón para limpiar la memoria de forma que se puedan recibir nuevas instrucciones, de no presionarse, el robot repetiría la última secuencia grabada. Para el caparazón se utilizó una jícara <Material natural usado comúnmente como bandeja para uso doméstico>. La idea de utilizar este material fue usar materiales ecológicos y amigables con el medio ambiente, de esta manera pudimos ahorrar material y energía al no tener que imprimir esta pieza.  La base y cabeza de la tortuga fueron diseñadas para encajar con el tamaño del caparazón y para que el robot tuviera un espacio para las llantas y un plumón, los botones constaron de cuatro flechas para cada movimiento, el botón de encendido/ejecutar instrucciones y el de eliminar secuencia, el tamaño de la muesca se basó en el tamaño de los Pulsadores Switch 12x12x7. Para el control del servomotor se ideó un mecanismo que consistía en una palanca para empujar el plumón hacia arriba o hacia abajo dependiendo del movimiento del motor utilizando un soporte que se acopló a la base de la tortuga. La base, la cabeza, el soporte del servomotor y los botones, se modelaron con Blender y posteriormente se imprimieron utilizando el programa Cura para la impresora 3D Anet A8 plus, dichas piezas fueron pulidas, pintadas y ensambladas para adaptarse al diseño de la presentación de la tortuga. El circuito se pasó a la placa Arduino Nano Every y fue soldado con estaño para adaptar el tamaño del circuito al espacio que nos proporcionó la jícara y por último se atornillaron el resto de componentes.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos básicos para desarrollar un robot didáctico para niños, aplicando tecnología educativa basado en el aprendizaje STEM. Aprendimos más acerca de las funciones que tiene la placa  Arduino junto con el lenguaje C, la programación del microcontrolador L293D para el control de motores de corriente directa, la administración de datos y el cómputo físico para el desarrollo de sistemas más complejos dado que fomenta el aprendizaje práctico y estimula el pensamiento crítico, la creatividad y la resolución de problemas en los estudiantes, mientras los prepara para enfrentar los desafíos de un mundo cada vez más tecnológico, así mismo, aprendimos sobre modelado e impresoras 3D para obtener los componentes o figuras de nuestra necesidad.
Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez

PROYECTO_INVESTIGACIóN_CISCO


PROYECTO_INVESTIGACIóN_CISCO

González Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán. León González Jorge Eduardo, Instituto Tecnológico Superior de Apatzingán. Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán. Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

la configuracion de antenas es un problemas para muchas personas por el hecho de que muchas veces los han instalado de forma erronea en algunos hogares o lugares publicos. esto pasa porque en los sitios donde han sido instalados no son lo correctos, ya que muchas veces se tiene que en el lugar instalado tienen muchas interferencias. Entonces aqui mostaremos unos metodos los cuales nos ayudaran a poder instalar  de forma seguro una antena o router de red.



METODOLOGÍA

a continuacion se mostrara como configurar un protocolo llamado EIGRP: Para poder habilitar el proceso de EIGRP, se utiliza el comando de configuración global **router eigrp **, donde **asn** corresponde al número del sistema autónomo. El valor de ASN es de 16 bits, por lo que puede ir de 1 a 65535: Para nuestro caso, el ASN que utilizaremos será 10. Si uno de los routers posee un sistema autónomo diferente a 10, estos routers nunca harán vecindad Ahora que se tiene configurada la instancia de EIGRP, se deben habilitar las interfaces para que trabajen con este protocolo. Esto se realiza a través del comando network.  si está habilitado el terminal monitor en la línea donde estamos conectados (vty o consola). Para poder ver las redes que saben los routers, se usa el comando show ip route, pero si queremos ver las redes aprendidas por EIGRP, se le agrega eigrp al final del comando. En la tabla de enrutamiento, las rede que son aprendidas por EIGRP se les asigna la letra D, pero, ¿Por qué no es la letra E? Eso se debe a que cuando salió EIGRP, estaba el protocolo EGP vigente, por lo tanto, este usaba la E,  Como se puede ver, R1 y R2 conocen las redes 172.16.1.0/24 y 172.16.2.0/24 solamente usando el comando network 172.16.0.0 (por falta de imagenes ya que no pueden poner en este apartado, no se es muy explisitiva la explicacion de esta metodologia)


CONCLUSIONES

Con esta investigación esperamos que se pueda informar tanto a nosotros como a la gente sobre la instalación de sistemas de redes Cisco, principalmente antenas, la serie de procesos que se deben llevar a cabo, metodologías para plantear la instalación y cotización de los productos necesarios y la configuración de la misma, así poder garantizar una serie de instrucciones sencillas para permitir a la gente instalar sus propias antenas y satisfacer las necesidades del usuario. Logramos adquirir conocimientos que nos serán de utilidad al momento de ejercerlos en una situación de la vida real, la investigación se centra en la instalación de sistemas de redes, antenas, y computo de redes en general, la información fue proporcionada por Cisco y otros medios como libros acerca de redes, se espera poder ejercer estos conocimientos de manera sabia y responsable. Aprendimos principalmente la teoria basica de los componentes de una red, los equipos que utilizaremos y los protocolos que podremos seguir al realzar una red general.
Marin Marin Juan Felipe, Fundación Universitaria Comfamiliar Risaralda
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO ACTUAL DE LA BIG DATA EN CULTIVOS AGROECOLÓGICOS APLICADO AL AGUACATE


ESTADO ACTUAL DE LA BIG DATA EN CULTIVOS AGROECOLÓGICOS APLICADO AL AGUACATE

Jurado Lopez Mateo, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Marin Marin Juan Felipe, Fundación Universitaria Comfamiliar Risaralda. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, gracias al avance tecnológico, se han abierto diversas oportunidades para mejorar la sostenibilidad y eficiencia en diferentes áreas, incluida la agricultura. La implementación del Big Data se destaca como un recurso valioso que brinda nuevas posibilidades para promover una agricultura más sostenible. sin embargo, lamentablemente, actualmente hay escasa información disponible que describa el panorama actual y como se podría mejorar la optimización de la información en la producción sostenible del aguacate. Por consiguiente, durante la estancia de verano, se ha incluido la recopilación de artículos que respalden la idea de que el uso de esta tecnología conlleva a mejoras significativas en la sostenibilidad y eficiencia de cultivos.



METODOLOGÍA

La metodología se basa en una investigación previa exhaustiva de tendencias actuales en estudios relevantes. Se lleva a cabo una búsqueda exhaustiva en bases de datos electrónicos confiables, utilizando términos específicos relacionados con agroecología, Big Data y cultivos de aguacate. Toda la información recolectada se clasifica según los objetivos, período de publicación y nivel de contribución de cada texto. Posteriormente, se realiza un análisis integral que identifica las ventajas y oportunidades que el Big Data ofrece en la agroecología, centrándose en los cultivos de aguacate. Finalmente, se construye un documento tipo "Estado del arte" que sintetiza las tendencias y avances en el área de estudio. Esta metodología garantiza una investigación rigurosa respaldada por la evidencia científica más actualizada y contribuye al avance en el uso del Big Data en la agricultura sostenible.


CONCLUSIONES

La investigación sobre el uso del Big Data en la agricultura agroecológica presenta un análisis exhaustivo, enfocándose en la eficiencia y producción de alimentos. Se destaca la importancia de la agricultura de precisión con tecnologías avanzadas para recopilar datos y tomar decisiones fundamentales en el proceso agrícola. A pesar de los avances en el uso de tecnologías avanzadas en la agricultura, la conectividad rural en Colombia sigue siendo un desafío que dificulta el acceso a datos informativos relacionados con la agricultura. Estudios previos revelan aplicaciones del Big Data en la agricultura, como el análisis de la huella de asfalto en cultivos de maíz y la imputación de datos en modelos hidrológicos. Se destaca un estudio sobre la idoneidad del cultivo del aguacate Hass en Colombia mediante análisis de decisión basado en información geográfica, así como la implementación de aplicaciones informáticas en la industria agrícola del aguacate en México. La investigación resalta el potencial del Big Data para revolucionar la agricultura sostenible, garantizando la seguridad alimentaria y la conservación del medio ambiente. La metodología empleada es rigurosa y confiable, basada en una revisión exhaustiva de la literatura científica actualizada. La conectividad rural sigue siendo un desafío que requiere ser abordado para una implementación más efectiva de soluciones basadas en datos en el sector agrícola. iSoftStone lidera una iniciativa innovadora en China para transformar la agricultura tradicional hacia un sistema más sostenible y eficiente mediante tecnologías avanzadas. En Argentina, la implementación del Big Data en la agricultura ofrece beneficios significativos para mejorar la gestión y toma de decisiones en la cadena de valor agrícola.
Marin Saenz Josue, Instituto Tecnológico de Zitácuaro
Asesor: Mtra. Claudia Teresa González Ramírez, Instituto Tecnológico de Zitácuaro

CLASIFICACIóN DE PATRONES EN LA DETECCIóN Y DECODIFICACIóN DE SEñALES CEREBRALES PARA EL CONTROL DE DISPOSITIVOS DE SISTEMAS DE CONTROL EMOTIV


CLASIFICACIóN DE PATRONES EN LA DETECCIóN Y DECODIFICACIóN DE SEñALES CEREBRALES PARA EL CONTROL DE DISPOSITIVOS DE SISTEMAS DE CONTROL EMOTIV

Marin Saenz Josue, Instituto Tecnológico de Zitácuaro. Asesor: Mtra. Claudia Teresa González Ramírez, Instituto Tecnológico de Zitácuaro



PLANTEAMIENTO DEL PROBLEMA

El control neuronal a través de diademas ha emergido como una tecnología prometedora con aplicaciones potenciales en diversas áreas, desde la medicina y rehabilitación hasta la interacción con dispositivos y sistemas tecnológicos. En particular, la diadema EMOTIV ha ganado atención debido a su capacidad para capturar señales cerebrales y traducirlas en comandos y acciones, lo que abre un mundo de posibilidades en términos de interacción mente-máquina. Sin embargo, a pesar de los avances y el potencial de estas diademas, todavía existen desafíos significativos que deben abordarse para lograr un control neuronal preciso, confiable y efectivo. El presente proyecto se enfocó en entender, analizar y mejorar las diademas de control neuronal, con énfasis en la diadema EMOTIV. A través de un enfoque sistemático y una serie de actividades, se identificaron las siguientes problemáticas:  La variedad de diademas utilizadas para el control neuronal plantea el desafío de establecer criterios de clasificación claros y precisos. La falta de una taxonomía estandarizada dificulta la comparación y evaluación objetiva de las diferentes tecnologías disponibles. El campo del control neuronal es dinámico y en constante evolución. La falta de información actualizada y completa en el estado del arte limita la comprensión integral de las capacidades y limitaciones de las diademas existentes, restringiendo así la toma de decisiones informadas en futuros desarrollos.  Aunque la diadema EMOTIV ha mostrado avances significativos en la traducción de señales cerebrales a comandos, persisten desafíos relacionados con la precisión y la estabilidad del control. La detección de patrones cerebrales y su interpretación efectiva en acciones aún requieren mejoras para garantizar una experiencia de usuario más fluida y confiable.



METODOLOGÍA

La siguiente metodologia es descriptiva debido a que se enfoca en describir, analizar y comprender las características, funcionalidades y rendimiento de las diademas de control neuronal. A continuacion se describe los siguientes puntos:  Definición de criterios de clasificación: Realizar una revisión exhaustiva de la literatura científica y tecnológica relacionada con las diademas de control neuronal. Identificar características clave que puedan utilizarse para clasificar las diademas en función de su funcionamiento, tecnología de detección cerebral, precisión y aplicaciones. Investigación y recopilación de información: Realizar una búsqueda sistemática de fuentes académicas y técnicas actualizadas que proporcionen información relevante sobre las diademas utilizadas en el control neuronal. Recopilar datos sobre el estado del arte, avances recientes y tecnologías emergentes en el campo. Establecimiento de un sistema de puntuación: Diseñar un sistema de puntuación que permita evaluar y comparar el rendimiento de diferentes diademas en función de los criterios de clasificación definidos previamente. Establecer una escala de valoración que refleje la importancia de cada criterio para el control neuronal efectivo. Análisis de resultados: Utilizar el sistema de puntuación para analizar los datos recopilados y evaluar el rendimiento de las diademas en función de los criterios definidos. Identificar patrones y tendencias que ayuden a comprender las fortalezas y debilidades de las diferentes diademas. Implementación de mejoras y depuración: Realizar pruebas prácticas con las mejoras propuestas en la diadema EMOTIV, evaluando su rendimiento en situaciones reales. Identificar y abordar problemas y errores detectados en el proceso de pruebas, llevando a cabo mejoras y depuraciones según sea necesario. Documentación de resultados: Registrar y documentar todos los procedimientos llevados a cabo durante el desarrollo y las pruebas. Mantener un registro detallado de los casos de prueba utilizados, los resultados obtenidos y cualquier otra información relevante. Validación y comparación: Comparar los resultados de la diadema EMOTIV mejorada con otras diademas existentes en términos de precisión, rendimiento y aplicaciones. Validar la efectividad de las mejoras propuestas y su impacto en el control neuronal. Presentación de conclusiones:


CONCLUSIONES

El desarrollo de diademas para el control neuronal, especialmente la diadema EMOTIV, ha demostrado un gran potencial en diversas aplicaciones, desde la medicina y rehabilitación hasta la interacción con dispositivos tecnológicos. A través de la metodología descriptiva propuesta, se ha avanzado significativamente en la comprensión de estas tecnologías y en la identificación de áreas de mejora clave. Los resultados obtenidos hasta ahora han permitido clasificar los tipos de diademas utilizadas en el control neuronal y definir criterios de clasificación relevantes. Además, se ha realizado una exhaustiva investigación sobre el estado del arte en el campo del control neuronal, proporcionando información valiosa sobre las tecnologías existentes y los avances recientes. La propuesta de mejora para la diadema EMOTIV, incluyendo la implementación de electrodos húmedos, ha abierto nuevas perspectivas para mejorar su rendimiento y precisión. Sin embargo, los resultados prácticos y las pruebas aún están pendientes, y es fundamental validar la efectividad de estas mejoras en escenarios reales. Aunque la metodología ha arrojado resultados prometedores, aún quedan aspectos por abordar y por obtener en futuras etapas del proyecto. La implementación de las mejoras propuestas y la realización de pruebas prácticas con los casos de prueba diseñados serán cruciales para evaluar la eficacia de las diademas en situaciones reales y comparar su rendimiento con otras tecnologías existentes.
Marín Zavala Gabriel de Jesús, Universidad Autónoma de Sinaloa
Asesor: Dr. Francisco Javier Peralta Castillo, Universidad Autónoma de Baja California

RELACIóN DE LA INGENIERíA CIVIL CON EL OBJETIVO DEL DESARROLLO SUSTENTABLE N° 11 DE LA AGENDA 2030


RELACIóN DE LA INGENIERíA CIVIL CON EL OBJETIVO DEL DESARROLLO SUSTENTABLE N° 11 DE LA AGENDA 2030

Marín Zavala Gabriel de Jesús, Universidad Autónoma de Sinaloa. Asesor: Dr. Francisco Javier Peralta Castillo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Uno de los desafíos que existe entre la relación de la ingeniería civil y el ODS 11 son los materiales de construcción utilizados en el desarrollo de infraestructuras y edificaciones. Aunque exista una creciente conciencia sobre la importancia de la construcción sostenible, todavía hay obstáculos en cuanto al uso de materiales adecuados y que sean eco-amigables que contribuyan a la consecución de ciudades y comunidades sostenibles. Muchos de los materiales de construcción tradicionales tienen un alto impacto ambiental debido a la extracción, producción y transporte. La utilización masiva de recursos naturales no renovables y la generación de grandes cantidades de residuos de construcción   y demolición contribuyen a la degradación ambiental y al cambio climático. Aunque ha habido avances en la investigación y desarrollo de materiales sostenibles, todavía hay una escasez de opciones viables y económicamente accesibles para su implementación en gran escala. La falta de materiales alternativos y ecológicos puede limitar la capacidad de la ingeniería civil para construir de manera más sostenible. En general, los materiales de construcción en relación con el ODS 11 se centran en el alto impacto ambiental de los materiales convencionales, la falta de opciones sostenibles, la resistencia al cambio, las regulaciones limitantes, la preocupación por la calidad y durabilidad, y la disponibilidad y costo de los materiales sostenibles. Supera estos desafíos es esencial para lograr una construcción más sostenible y avanzar hacia ciudades y comunidades que sean verdaderamente resilientes y respetuosas con el medio ambiente.



METODOLOGÍA

El objetivo de esta investigación es explorar las percepciones y experiencias de profesionales de la ingeniería civil y otros actores clave involucrados en el desarrollo urbano sostenible y la implementación del ODS 11 e proyectos de construcción. Se busca comprender los desafíos, oportunidades y enfoques para lograr una construcción más sostenible en el contexto del ODS 11. Como también transcribir y analizar artículos utilizando el análisis de contenido para identificar patrones y temas clave. Con este método se permitirá obtener perspectivas valiosas de profesionales de la ingeniería civil para mejorar la relación con el ODS 11 y promover prácticas más sostenibles en la construcción de ciudades y comunidades.


CONCLUSIONES

La implementación efectiva del ODS 11 en la ingeniería civil requiere abordar los desafíos asociados con los materiales de construcción y adoptar enfoques más sostenibles en la planificación, diseño y ejecución de proyectos urbanos. La investigación cualitativa propuesta permitirá obtener perspectivas valiosas de profesionales de la ingeniería civil y contribuir a promover prácticas más sostenibles en la construcción de ciudades y comunidades alineadas con el ODS 11.
Marmolejo Sandoval Estefanía, Instituto Tecnológico de Tepic
Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar

PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER


PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER

Dominguez Herrera Denilson de Jesus, Instituto Tecnológico de Tepic. Duran Sanchez Juan Manuel, Instituto Tecnológico de Tepic. Marmolejo Sandoval Estefanía, Instituto Tecnológico de Tepic. Montoya Valdez Edwin Ramón, Instituto Tecnológico de Tepic. Pacheco Rosales Victor Manuel, Instituto Tecnológico de Tepic. Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

En la era digital, las redes sociales se han convertido en un espacio de interacción y expresión para millones de personas en todo el mundo. Sin embargo, junto con la libertad de comunicación y la facilidad de compartir ideas, también ha surgido un lado oscuro marcado por el anonimato y la impunidad. Específicamente, las redes sociales, con políticas menos restrictivas, como Twitter, han demostrado ser un terreno fértil para la propagación de mensajes ofensivos y discriminatorios, especialmente hacia la comunidad LGBTQ. La comunidad LGBTQ ha luchado históricamente por la igualdad de derechos y el reconocimiento de su identidad y orientación sexual en muchas sociedades. A pesar de los avances en los últimos años, persisten actitudes intolerantes y homofóbicas que encuentran su refugio en el entorno virtual. Las personas con prejuicios hacia esta comunidad suelen utilizar un lenguaje común caracterizado por palabras ofensivas y despectivas para expresar su discriminación y hostilidad. El impacto social y emocional del discurso de odio dirigido a personas LGBTQ es considerable. La exposición constante a mensajes discriminatorios puede provocar un daño emocional significativo, reforzar la invisibilidad y estigmatización de la comunidad y, en casos extremos, contribuir a la pérdida de autoestima y calidad de vida de las personas afectadas. Por lo tanto, es crucial implementar medidas efectivas para salvaguardar la integridad y el bienestar de la comunidad LGBTQ y de todos los usuarios de las redes sociales.  



METODOLOGÍA

1.- Descripción de los datos El conjunto de datos de PAN 2021 para perfilar a quienes difunden discurso de odio en Twitter se compone de 200 tweets por autor en formato XML, cada uno con un identificador de autor único. Este conjunto de datos incluye textos en español e inglés. 2.- Integración Se utilizan modelos de incrustación de sílabas fonéticas y fonemas para la transformación de caracteres fonéticos, entrenados con los corpus CESSESP para español y BROWN para inglés. Se extraen frases de estos corpus para generar vectores de palabras. Luego se extraen sílabas de cada palabra del vector y se transforman en su representación fonética IPA mediante la función transliterate de Epitran. Para las incrustaciones de fonemas, se realiza la representación fonética IPA de cada carácter de la palabra utilizando la función trans_list de Epitran. En cuanto a las características léxicas, el sentimiento inicial del mensaje se determina mediante SenticNet 5, que analiza expresiones de varias palabras relacionadas con conceptos emocionales. Se determinan otras características léxicas siguiendo métodos descritos en otras fuentes. 3.- Transformación de datos En este proceso, se concatenan los tweets de cada usuario para generar un único documento por perfil. Luego se limpian los textos, sustituyendo hashtags, menciones, URLs y emojis por las palabras "hashtag", "mention", "URL" y "emoji" respectivamente. Se eliminan caracteres especiales, signos de puntuación (excepto punto y coma), paréntesis y números. Luego se identifican y cuentan palabras globalmente reetiquetadas. Finalmente, el conjunto de datos se divide en un 70% para entrenamiento y un 30% para pruebas. 4.- Extracción de Caracteristicas Esta fase se enfoca en la extracción de características léxicas y fonéticas. La extracción de características léxicas involucra el análisis del uso de palabras, hashtags, menciones, URLs, emojis, la polaridad, el uso frecuente de partes del discurso y palabras odiosas. Por otro lado, la extracción de características fonéticas se divide en tres tareas: sílabas fonéticas, frecuencias fonéticas y fonemas. En relación a las sílabas fonéticas, se carga en memoria las sílabas fonéticas entrenadas. Luego, se extraen las frases de cada mensaje y las palabras de cada frase. A continuación, se obtienen las sílabas de cada palabra y se codifican en IPA. Usando el modelo de sílabas fonéticas incrustadas, se obtiene el vector de características de cada sílaba. Finalmente, se promedian los vectores de características en un único vector. 5.- Ajustes En la fase de configuración, se ajustan los parámetros de hardware de la máquina, como procesadores e hilos, y se pueden configurar diferentes escenarios para el uso de clasificadores. El sistema puede ajustarse para almacenar vectores de palabras y clasificadores. Durante todos los experimentos, se utilizó el 70% de los datos para el entrenamiento y el 30% restante para las pruebas. Basándose en trabajos previos realizados en el PAN, se examinaron varios clasificadores como la Regresión Logística (LR), Bosques Aleatorios (RF), Árbol de Decisión (DT), Bagging (BG), Gradient Boosting (GB) y AdaBoost (AB).      


CONCLUSIONES

En conclusión, este proyecto de investigación se centró en abordar el problema de la homofobia y el discurso de odio hacia la comunidad LGBT+ en las redes sociales, particularmente en Twitter. La detección automática de perfiles que propagan mensajes ofensivos es una tarea crucial para promover un entorno en línea más inclusivo y seguro. Para lograr este objetivo, se emplearon técnicas de procesamiento del lenguaje natural y aprendizaje automático, como el uso de características léxicas y fonéticas específicas. Estas técnicas permitieron analizar y recopilar una muestra representativa de mensajes con contenido homofóbico y entrenar un modelo capaz de identificar con una efectividad del 70% si un mensaje es homofóbico o no. Sin embargo, al ser un trabajo extenso aún no se cuenta con los modelos completamente entrenados, y por lo tanto no se puede mostrar un resultado enteramente certero por el momento. Pero es importante resaltar que estos hallazgos pueden ser de gran utilidad para las plataformas de redes sociales y la comunidad en general, ya que permiten identificar y enfrentar de manera más eficiente los discursos de odio en línea.  
Márquez Álvarez Luis Humberto, Universidad de Guadalajara
Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla

INTELIGENCIA ARTIFICIAL PARA EL APOYO A PERSONAS CON ALZHEIMER


INTELIGENCIA ARTIFICIAL PARA EL APOYO A PERSONAS CON ALZHEIMER

Cervantes Medina Tivisay Nazareth, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Márquez Álvarez Luis Humberto, Universidad de Guadalajara. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El Alzheimer es una enfermedad neurodegenerativa progresiva la cual afecta principalmente a las funciones cognitivas, la memoria, el comportamiento y las habilidades sociales de los adultos mayores. Se caracteriza por cambios en el cerebro que derivan en depósitos de ciertas proteínas, la cual con el tiempo empeora. [1]Esta fue descrita por primera vez por el neurólogo alemán Alois Alzheimer en 1906, quien examinó el cerebro de una paciente que mostraba pérdida de memoria, desorientación y cambios de personalidad. Desde entonces, esta se convertido en una de las principales causas de demencia en adultos mayores en todo el mundo. Actualmente, según [2] solo “en EE. UU., unos 6,5 millones de personas de 65 años o más viven con enfermedad de Alzheimer. Entre ellos, más del 70 % tiene 75 años o más. De los casi 55 millones de personas con demencia en todo el mundo, se estima que entre el 60 % y el 70 % tiene la enfermedad de Alzheimer.” Esta enfermedad no solo afecta a los adultos mayores, ya que los familiares de la persona que la padece tambien estará afecta, y representa una carga significativa al momento de los cuidados especiales que requiere. Por ende, se han buscado soluciones o ayudas de los medios con lo que contamos hoy en día. Los síntomas que presenta esta enfermedad, como lo es la confusión, la desorientación y la pérdida de memoria, dificultan la realización de tareas cotidianas, la comunicación efectiva y la independencia de quienes lo padecen y de las personas que lo rodean. Si bien hasta el momento no existe una cura conocida para esta enfermedad, diferentes estudios han demostrado que el apoyo temprano y adecuado puede mejorar la calidad de vida de las personas afectadas y retrasar el avance de los síntomas, teniendo así una mejor calidad de vida. [1] [3] Este trastorno lleva años presentes en nuestras vidas por ello diferentes estudios han trabajado en brindar solución a los problemas que conlleva padecerla. Por lo que recientemente han optado por el uso de la inteligencia artificial ya que esta ofrece nuevas oportunidades para desarrollar soluciones innovadoras que apoyen a las personas con Alzheimer, a su familia y cuidadores. Mediante la aplicación de técnicas de IA, es posible crear sistemas inteligentes capaces de analizar, comprender los patrones y cambios en el comportamiento, facilitar la comunicación, proporcionar recordatorios y adaptar el entorno para brindar asistencia personalizada. [4]



METODOLOGÍA

Para la elaboración de nuestro prototipo fue necesario la elaboración de las siguientes etapas: Análisis de Requisitos: En esta etapa, se realizó una revisión exhaustiva de las necesidades y requerimientos del prototipo. Gracias a la exhaustiva revisión bibliográfica de la colaboración con expertos en Alzheimer, cuidadores y personas afectadas por la enfermedad para entender sus necesidades específicas y los desafíos que enfrentan en su vida diaria. Se definieron los objetivos del prototipo, las funcionalidades necesarias y los casos de uso que se abordarán. Adaptación del Turtlebot3: Se tomo como base el prototipo de Turtlebot3 y se realizaron las modificaciones tanto en su diseño físico como en su programación para adaptarlo a las necesidades del proyecto. Para ello se incorporaron dos cámaras frontales para la detección y seguimiento del paciente. Además, se ajustó las limitaciones de perímetro y velocidad de desplazamiento del robot para asegurar una distancia de seguimiento segura de 3 metros. Desarrollo del Sistema de Programación: Se implemento el sistema de programación del robot utilizando técnicas de Inteligencia Artificial y visión por computadora. Para ello se utilizaron algoritmos de detección y seguimiento de objetos para mantener el enfoque en el paciente mientras se mueve dentro de su hogar. Se desarrollo un mecanismo de alerta para notificar al cuidador si el paciente se encuentra fuera de la casa o perímetro o si ocurre alguna situación inusual. Integración de la Interfaz de Usuario: Se diseño una interfaz de usuario amigable y accesible, adecuada para personas con Alzheimer y cuidadores. La interfaz permitirá establecer parámetros de funcionamiento, como la distancia de seguimiento, activar o desactivar alertas y brindar información relevante sobre el estado y ubicación del paciente. Entrenamiento del Modelo de IA: Se procedió a recopilar y etiquetar un conjunto de datos adecuado para el entrenamiento de los algoritmos de detección y seguimiento. Para esto se utilizarán técnicas de aprendizaje automático y Deep Learning para entrenar modelos que sean capaces de identificar y rastrear al paciente de manera eficiente. Pruebas y Validación: Se llevaron a cabo pruebas exhaustivas del prototipo en un entorno controlado y con pacientes reales. Se evaluará la precisión del seguimiento, la efectividad de las alertas y la facilidad de uso de la interfaz de usuario y se recopilarán comentarios y retroalimentación de los usuarios para realizar mejoras en el diseño y la funcionalidad del prototipo. Optimización y Mejoras: En función de los resultados de las pruebas y la retroalimentación recibida, se realizarán ajustes y mejoras en el sistema. Se trabajará en la optimización de la eficiencia y precisión del prototipo, así como en la implementación de medidas adicionales de seguridad y privacidad para proteger la información del paciente.


CONCLUSIONES

El desarrollo del prototipo expuesto anteriormente representa una iniciativa innovadora y prometedora para mejorar la calidad de vida de las personas afectadas por esta enfermedad neurodegenerativa. A través de la aplicación de técnicas de IA y la adaptación de un robot Turtlebot3, se pretende proporcionar asistencia y seguimiento personalizado a los pacientes, así como brindar tranquilidad a sus cuidadores y familiares. Es importante destacar que, hasta el momento, la investigación se encuentra en la fase teórica y aún no ha sido implementado en forma de prototipo funcional. Sin embargo, la base teórica sentada en este documento proporciona una sólida fundamentación para el desarrollo futuro del prototipo.  
Marquez Cayetano Ruth, Instituto Tecnológico de Chilpancingo
Asesor: M.C. Víctor Manuel Jacobo Adán, Instituto Tecnológico de Iguala

PáGINA WEB C.B.T.I.S. NO. 56


PáGINA WEB C.B.T.I.S. NO. 56

Cruz Moctezuma Ricardo Leonel, Instituto Tecnológico de Chilpancingo. Marquez Cayetano Ruth, Instituto Tecnológico de Chilpancingo. Xinol Sanchez Victor Manuel, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Víctor Manuel Jacobo Adán, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La institución educativa C.B.T.i.s. No. 56 en Iguala de la Independencia, Guerrero, enfrenta el desafío de contar con una página web desactualizada y no adaptativa a diferentes dispositivos, lo que dificulta el acceso y la experiencia de los usuarios. Además, carece de un sistema de gestión de contenidos que permita administrar dinámicamente los distintos apartados de la página, como:  Departamentos de servicios escolares, docentes y vinculación,  Oficinas de becas y construyeT,  Anuncios del inicio, Enlaces importantes,  Promoción institucional y la opción de Transparencia.  Esta situación ocasiona dificultades para proporcionar información actualizada y relevante a la comunidad educativa y al público en general. El proyecto aborda la necesidad de actualizar y hacer adaptable la página web a diferentes dispositivos, así como implementar un sistema de gestión de contenidos que permita una administración dinámica de los diferentes apartados. Es fundamental establecer roles de administradores y editores para garantizar una gestión eficiente y segura de los usuarios y contenidos. También se debe establecer criterios claros para el formato y tamaño de las imágenes que se podrán subir a los apartados, así como definir los criterios del formato y calidad de los videos.   



METODOLOGÍA

El presente plan de trabajo tiene como objetivo principal modificar la página web del C.B.T.i.s. No. 56, ubicado en Iguala de la Independencia, Guerrero, con el fin de actualizarla y hacerla adaptativa a diferentes dispositivos. Además, se busca incluir módulos que permitan administrar dinámicamente los contenidos de diferentes apartados de la página. Para lograrlo, se utilizará el modelo de desarrollo ágil RAD (Rapid Application Development), que permitirá un enfoque iterativo e incremental, garantizando la participación activa de los usuarios y una entrega temprana de funcionalidades. A continuación se especifican las fases:  Fase 1: Modelado de la gestión Actividades: Identificar los objetos relevantes para la página web de la institución, como departamentos, oficinas y secciones. Documentar los procesos de gestión actuales e identificar áreas de mejora. Reunión con los responsables de la institución para entender los requisitos de gestión y los flujos de información. Fase 2: Modelado de datos Actividades: Definir las características de cada objeto, como los datos que se deben almacenar y los vínculos entre ellos. Obtener la aprobación del modelo de datos por parte de la autoridad máxima de la institución. Fase 3 : Modelado de procesos Actividades: Diseñar una propuesta de diseño actualizado y adaptativo para la página web, asegurando que se cumplan los requisitos de los diferentes dispositivos y reflejando la identidad visual de la institución. Crear prototipos interactivos o wireframes que muestren cómo se verán los diferentes apartados y módulos con el gestor de contenido integrado.   Fase 4 y 5 : Generación de aplicaciones y pruebas y entrega.  Actividades 4: Desarrollar los componentes necesarios para la gestión de usuarios, roles y permisos. Implementar el gestor de contenido para cada una de las secciones especificadas. Integrar los componentes desarrollados en la página web existente. Actividades 5: Realizar pruebas exhaustivas de todos los componentes y asegurar su correcto funcionamiento. Preparar una documentación detallada que explique los pasos necesarios para administrar y actualizar el contenido de la página web. Entregar la versión final de la página web actualizada y adaptativa. Manual del software diseñado, con el objetivo de que los participantes puedan utilizarlo de forma correcta y eficiente.


CONCLUSIONES

Durante el desarrollo del proyecto de modificación y actualización de la página web del C.B.T.i.s. No. 56, se ha logrado un avance significativo en la resolución de la problemática planteada. La implementación de la metodología de Desarrollo Rápido de Aplicaciones (RAD) ha permitido un enfoque ágil y eficiente, lo que ha facilitado la entrega temprana de funcionalidades y la participación activa de los usuarios en el proceso de desarrollo.  El proyecto ha sido un éxito en la solución de la problemática inicial, y se espera que la nueva página web actualizada y adaptativa mejore significativamente la visibilidad del C.B.T.i.s. No. 56 en línea, brindando una experiencia de usuario más satisfactoria y facilitando la comunicación de información relevante a la comunidad educativa y al público en general. El equipo de desarrollo ha adquirido valiosos conocimientos y experiencias en el desarrollo de sistemas de software administrativo, así como en el trabajo en equipo, lo que representa un enriquecimiento profesional para cada uno de sus miembros.  
Márquez Santos Emmanuel, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

OBJETIVOS DEL DESARROLLO SUSTENTABLE 2030 EN LA PLANEACIóN DE DESARROLLO MUNICIPAL; ALTAMIRA, TAMAULIPAS


OBJETIVOS DEL DESARROLLO SUSTENTABLE 2030 EN LA PLANEACIóN DE DESARROLLO MUNICIPAL; ALTAMIRA, TAMAULIPAS

Márquez Santos Emmanuel, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En el año 2015 en la Cumbre Mundial para el Desarrollo Sostenible los estados miembros de la ONU aprobaron la Agenda 2030 para el desarrollo Sostenible donde se establecieron 17 objetivos, 169 metas y una declaración política. Dado que quedan menos de diez años para alcanzar los Objetivos de Desarrollo Sostenible, en la Cumbre sobre los ODS celebrada en septiembre de 2019, los líderes mundiales solicitaron un decenio de acción y resultados en favor del desarrollo sostenible, y prometieron movilizar la financiación, mejorar la aplicación a nivel nacional y reforzar las instituciones para lograr los Objetivos en la fecha prevista, el año 2030, sin dejar a nadie atrás. Numerosos líderes y organizaciones de la sociedad civil han exigido también que sea un año de gran activismo para acelerar el progreso con respecto a los Objetivos de Desarrollo Sostenible, y han instado a los líderes mundiales a intensificar las iniciativas para llegar a las personas más rezagadas, apoyar la acción y la innovación a nivel local, fortalecer las instituciones y los sistemas de datos, reequilibrar la relación entre las personas y la naturaleza, y obtener más financiación en favor del desarrollo sostenible. La Agenda 2030 de México, es una hoja de ruta que pone un horizonte en común con el fin de orientar acciones multisectoriales a favor de las personas, la preservación del planeta, la prosperidad económica en disminución de desigualdades, así como fomentar la paz y las alianzas. Para lograr todas estas metas se les indico a los mandatarios gubernamentales incluirlos en sus Planes de Desarrollo Estatales y Municipales.



METODOLOGÍA

En este trabajo de investigación se analizo el plan de Desarrollo Municipal de Altamira, donde estudiaremos uno de los tres ejes que plantea el gobierno municipal el cual es el Eje 2. Bienestar para todos, el cual se enfoca en 4 objetivos de los 17 de la agenda. En este trabajo nos enfocaremos principalmente en el objetivo 6 Agua Limpia y Saneamiento. Entrando al tema del objetivo 6 de agua limpia y saneamiento se hizo un análisis ates de empezar la administración 2021-2024 el cual el reporte quedo de la siguiente manera: Comprendemos muy bien la molestia e indignación de los altamirenses ante la indolencia de pasadas administraciones municipales que saquearon la COMAPA dejando una deuda de poco más de 128 millones de pesos y en condiciones deplorables la infraestructura destinada a la prestación de los servicios de agua potable, drenaje y alcantarillado. Como muestra de la molestia ciudadana, solo un 36% de los usuarios estaba al corriente con el pago, el resto, 64%, presentaba impuntualidad o de plano, no pagaban el servicio. La red hidráulica de poco más de 975 km presenta fugas, obsolescencia y deterioro en algunos tramos, baja presión en otros; además, solo se encuentran en operación 4 de 15 puntos de macro medición y de un total de 106, 847 tomas de agua totales, solo 47, 487 (44.44%) tienen medidor en operación, 4,262 presentan fallas en el medidor y poco más de la mitad, 55,098 tomas (51.57%) no tienen medidor; asimismo, la infraestructura de saneamiento de poco más de 910 km se apoya en 45 cárcamos de bombeo, de los cuales, 20 se recibieron fuera de servicio, lo que ocasionó brotes de aguas negras a lo largo y ancho de la zona urbana; en tanto que, de las dos plantas destinadas al tratamiento de aguas residuales, la de Cuauhtémoc tiene alrededor de año y medio sin funcionar y la de Estación Colonias poco menos de un año. El mal estado de la red de saneamiento contribuyó en acentuar el imperdonable daño ecológico por la contaminación de la Laguna de Champayán y la exclusión de las familias altamirenses que habitan en 14 comunidades de la zona rural que no cuentan con servicios de agua potable ni drenaje (Lomas del Real, Aquiles Serdán, Las Margaritas, Mariano Matamoros, Agua de Castilla, Santa Juana, Vuelta de Yeguas, Las 3 B, Las Prietas, El Plátano, San Carlitos, Graneros del Sur, Francisco Villa y San Antonio) y 4 comunidades de la zona urbana: Los Fresnos, Cervantes, El Contadero y Nuevo Madero (esta última cuenta parcialmente con servicio de drenaje) quienes viven en situación de pobreza, rezago y marginación.   El organizmo encargado de controlar el tema del agua es COMAPA Altamira. Comisión Municipal de Agua Potable y Alcantarillado del Municipio de Altamira, Tamaulipas Organismo Público Descentralizado de la Administración Pública Municipal con personalidad jurídica y patrimonio propios, creado para la prestación de los servicios públicos de agua potable, drenaje, alcantarillado, tratamiento y disposición de las aguas residuales en el Municipio de Altamira, Tamaulipas conforme a su Decreto de Creación No. 344 de fecha 10 de Julio de 2003. Actualmente en una entrevista que se realizo con autoridades de COMAPA Altamira se nos dijo que en el tema de eficiencia se ha estado avanzando ya que actualmente el 90% de la población cuenta con el servicio de dicho vital líquido. Actualmente se cuenta con 4 plantas potabilizadoras funcionando con lo que se puede proveer la cantidad de 250 L/habitante/día, 2 plantas de tratamiento de aguas residuales y 1 que esta en proceso de activación. Nos comentan que actualmente la población altamirense esta contenta con el servicio que se esta dando. Otro de los proyectos que se esta realizando, atendiendo al cuidado del agua es la obra de desazolve de la laguna de Champayan el cual se tiene contemplado limpiar 50 hectáreas de las cuales 15 hectáreas ya están completadas. 


CONCLUSIONES

Leyendo el plan de desarrollo municipal pudimos ver que el gobierno de Altamira está comprometido con la aportación de su granito de arena por el cumplimiento de la Agenda 2030. Así que podemos decir que hasta el momento el plan de desarrollo municipal esta dando sus frutos. Sobre todo al abordar de manera directa programas y acciones acorde al objetivo No.6 de agua Limpia y Saneamiento, en lo que respecta al saneamiento - dragado de la laguna del Champayán, la cual brindará y se acrecentará en vaso de captación de agua dulce para la dotación y servicio de manera actual y a futuro de la población beneficiada en el municipio de Altamira para todos los Sectores Productivos que lo Integran, como Ventana de México al mundo desde el punto de Vista Urbano - Industrial , petroquímico  y Portuario Industrial.
Marrugo Arias Sheily, Fundación Universitaria Tecnológico Comfenalco
Asesor: M.C. Beatriz Espinosa Aquino, Benemérita Universidad Autónoma de Puebla

VALORIZACIóN DE LOS RSU EN EL MUNICIPIO DE MARIA LA BAJA-BOLíVAR, COLOMBIA


VALORIZACIóN DE LOS RSU EN EL MUNICIPIO DE MARIA LA BAJA-BOLíVAR, COLOMBIA

Marrugo Arias Sheily, Fundación Universitaria Tecnológico Comfenalco. Asesor: M.C. Beatriz Espinosa Aquino, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En maría la baja, Bolívar se ha llegado a identificar que cada día que avanza las problemáticas ambientales causadas por el mal uso de los residuos sólidos son más notoria unas de las consecuencias que produce el mal uso de los residuos sólidos al medio ambiente entre la más común tenemos al deterioro de la descomposición de residuos sólidos que produce malos olores adicionalmente un liquido llamado lixiviado este liquido en cuerpos de aguas puede causar daños en los cuerpos de agua. Una de las consecuencias más común, es el deterioro de los paisajes de algunas zonas o también de algunos ecosistemas, esto ha generado que las personas no visiten con más frecuencias esos lugares, ya que la desvalorización y el deterioro de algunos lugares han hecho que la economía del municipio ha bajado, es importante recalcar que afecta la salud de los habitantes, ecosistemas y animales causando enfermedades a corto y largo plazo. El mal uso de los residuos solidos no solo contamina el suelo, contaminación de aire y agua esto ocasiona muchas consecuencias que nos afecta a nivel ambiental muy elevado y si lo vemos desde otra perspectiva se puede observar también económica, sanitaria y social.  A continuación, se enumerará las problemáticas negativas causadas por el mal uso de los residuos sólidos que afecta en los diferentes aspectos a las personas.



METODOLOGÍA

¿COMO PUEDO AYUDAR A LA DISMINUCIÓN DEL MAL USO DE LOS RESIDUOS SÓLIDOS EN MARIA LA BAJA?    Como persona puedo ayudar a la disminución del mal uso de los residuos sólidos en maría la baja de algunas maneras: primero no arrojar ningún residuo en el piso, la segunda desde mi hogar clasificar los residuos sólidos y seleccionar lo que pueda reciclar como, por ejemplo: cartones, papel, comida en descomposición se puede utilizar para hacer abono e incentivar a mi familia que lo haga eso será mi contribución como persona. Mi contribución como estudiante de ingeniería ambiental es aplicar mis conocimientos para contribuir al mejoramiento ambiental en el municipio haciendo todo lo posible para mejorar, por ejemplo: En el barrio donde yo vivo ayudo a tener en cuenta que residuos se puede reciclar y como se puede clasificar  En el colegio donde me gradué doy charlas ambientales a los niños para que tengan conocimientos o incentivarlos ayudar a cuidar el medio ambiente Mi proyecto de vida a largo plazo será realizar un proyecto para mi comunidad con el fin de ayudar a mejorar esa problemática  


CONCLUSIONES

Después analizar la problemática a profundidad y realizar una investigación a nivel alto nos percatamos que en maría la baja, Bolívar no se tiene las leyes ambientales, por esta razón las problemáticas cada día que avanza se incrementa más. Los habitantes que viven en el municipio no aplican las leyes, hacen acciones que afecta de forma a corto y largo plazo a la contaminación que afectara tanto la salud de los habitantes, como a los animales y cuerpos de aguas, una de las acciones que pude investigar es que en maría no hay recolector de residuos y los habitantes acumulan los residuos solidos al final del patio de sus casas y otros habitantes prefieren mandar a votar sus residuos sólidos a un terreno baldío pero de alguna de las dos formas sigue habiendo la problema pues el liquido lixiviado se encuentra presente, el gobierno no hace campañas para el mejoramiento de esta problemáticas. Sin embargo, si vamos caminando por las calles se evidencia muchos residuos sólidos en las esquinas y en las calles.  A continuación explicare unas posibles para minimizar la problemática de los residuos sólidos lo principal seria que aplicaran las leyes ambientales, gestionaran un recolector de residuos para que los habitantes no tuvieran que escoger entre alternativas que contribuyen al daño ambiental, también se dieran charlas ambiental  en los colegios y a la comunidad es una gran opción para ayudar al mejoramiento y no se vea tanta contaminación adicionalmente a eso poner un centro de reciclaje donde se identifique a las personas que pueden llevar los residuos hasta este centro. 
Martin del Campo Gutiérrez Itzel, Universidad de Guadalajara
Asesor: Mg. Rodrigo López V., Universidad Santo Tomás

ESTUDIO DE PRóTESIS HíBRIDA DENTAL: MODELADO 3D Y SIMULACIóN COMPUTACIONAL MEDIANTE ANSYS


ESTUDIO DE PRóTESIS HíBRIDA DENTAL: MODELADO 3D Y SIMULACIóN COMPUTACIONAL MEDIANTE ANSYS

Martin del Campo Gutiérrez Itzel, Universidad de Guadalajara. Navarro Plascencia Valeria, Universidad de Guadalajara. Asesor: Mg. Rodrigo López V., Universidad Santo Tomás



PLANTEAMIENTO DEL PROBLEMA

La restauración oral mediante prótesis dentales es esencial para mejorar la calidad de vida de personas que han perdido dientes. Las prótesis híbridas dentales, que combinan implantes y prótesis fijas, ofrecen una solución efectiva y estética. Sin embargo, su eficacia depende de la interacción precisa entre los componentes y los tejidos orales. En este contexto, la biomecánica computacional surge como una herramienta valiosa para optimizar y evaluar el diseño de estas prótesis. El éxito de estas prótesis depende de su capacidad para soportar las fuerzas y tensiones generadas durante el movimiento y las actividades diarias, asegurando una función óptima y evitando posibles complicaciones a largo plazo. El modelado tridimensional de prótesis mediante CAD ofrece una herramienta valiosa para diseñar y representar con precisión estos dispositivos médicos. Sin embargo, es esencial complementar este enfoque con una evaluación biomecánica detallada para comprender cómo las prótesis se comportan en un entorno realista y dinámico. El software ANSYS, con sus capacidades de análisis por elementos finitos, brinda la oportunidad de realizar una evaluación biomecánica avanzada. Por lo tanto, es necesario llevar a cabo un estudio completo que integre el modelado tridimensional mediante CAD y la evaluación biomecánica mediante ANSYS para analizar el rendimiento y comportamiento de una prótesis híbrida en condiciones realistas.



METODOLOGÍA

Investigación sobre Prótesis Híbridas Dentales: Se llevó a cabo una investigación exhaustiva sobre prótesis híbridas dentales, incluyendo materiales utilizados, beneficios y aplicaciones clínicas. Se recopiló información relevante de fuentes científicas y técnicas. Adquisición de la Caja Dental y Mandíbula: Se obtuvo una caja dental de un especialista y una mandíbula previamente impresa en 3D para ser utilizadas en el estudio. Escaneo 3D de la Caja Dental: Se utilizó un escáner 3D y el software Artec Studio para obtener una representación digital tridimensional precisa de la caja dental. Perfeccionamiento del Modelo con SpaceClaim: Mediante el software, se perfeccionó el modelo 3D de la caja dental utilizando las facetas y eliminando imperfecciones para convertirlo en un sólido. Adición de la Barra de Fijación: Se incorporó la barra de fijación, que consta de cuatro implantes, al modelo ensamblado de la caja dental y la mandíbula. Aprendizaje del Software ANSYS: Se adquirieron conocimientos en el uso del software ANSYS a través de tutoriales y material proporcionado por la página oficial del software. Asignación de Materiales: Se asignaron los materiales correspondientes a cada componente del modelo, incluyendo titanio, resina, hueso trabecular, hueso cortical y cobalto-cromo. Ajuste de Contactos y Supresión de Elementos Innecesarios: Se aseguró que cada contacto entre los componentes fuera adecuadamente definido en el modelo y se suprimieron los elementos innecesarios para la correcta realización del análisis. Generación de la Malla: Se generó una malla automática utilizando el programa ANSYS para discretizar el modelo y prepararlo para la simulación computacional. Aplicación de Cargas y Simulación: Se aplicaron las cargas adecuadas en la dirección requerida para obtener resultados de la simulación computacional utilizando ANSYS. Se llevaron a cabo análisis de elementos finitos para evaluar el comportamiento mecánico del modelo de prótesis híbrida dental bajo diferentes condiciones de carga.


CONCLUSIONES

La combinación de estas dos técnicas ha proporcionado una visión multidisciplinaria del comportamiento de la prótesis híbrida, lo que es esencial para asegurar la seguridad y eficacia del dispositivo.  El uso del modelado tridimensional mediante CAD permitió diseñar y representar con precisión la prótesis híbrida, lo que facilitó la comprensión de su geometría y características. Esto es fundamental para garantizar la adaptabilidad del dispositivo, ya que cada prótesis debe ser personalizada según las necesidades específicas del paciente. La evaluación biomecánica mediante ANSYS ha sido un aspecto crucial en esta investigación. Al simular y analizar la interacción de la prótesis híbrida con el tejido óseo circundante bajo diferentes condiciones de carga, se han podido determinar las tensiones y deformaciones en áreas específicas de la prótesis y el hueso. Estos datos han revelado puntos críticos que podrían estar sometidos a estrés excesivo, lo que ha permitido identificar áreas de mejora en el diseño y evitar potenciales problemas de rendimiento y durabilidad.
Martinez Arias Dario, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dra. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

MODELO DE SIMULACIóN EN SIMIO DEL PROCESO DE FABRICACIóN DE CINTURONES EN UNA EMPRESA UBICADA EN MEXICO


MODELO DE SIMULACIóN EN SIMIO DEL PROCESO DE FABRICACIóN DE CINTURONES EN UNA EMPRESA UBICADA EN MEXICO

Martinez Arias Dario, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dra. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

La simulación es una técnica muy utilizada cuando se trata de conocer el comportamiento de sistemas, sean de producción o de servicios, sin necesidad de alterar ninguna de sus características sino a través de la modelación de ellos.  Ejemplos de aplicaciones de simulación en el sector productivo hay muchos, se mencionan tres de ellos: Tan et al., (2019) simularon el proceso de termoformado que sirvió de ayuda para que ingenieros y diseñadores comprendieran el proveco siendo capaces de predecir defectos potenciales y optimizar el diseño de piezas con la garantía de que se cumple con los requisitos de calidad específicados. Por su parte, Gupta et al., (2017) realizó una simulación similar en procesos de corte para comprende la deformación del material, el corte y distribución de fuerzas y tensiones involucradas en el proceso; finalmente, Li et al., (2023) realizaron un estudio de simulación de la fabricación de materiales compuestos, involucrando varios métodos como la fabricación de laminados, la infusión de resina, el moldeo por compresión, el moldeo por inyección, entre otros.  En el trabajo realizado durante la estacia Delfín se realizó la modelación del proceso de fabricación de cinturones en una pequeña fábrica ubicada en el Estado de México, el objetivo fue conocer el proceso, identificar cuellos de botella y sugerir posibles escenarios de mejora.



METODOLOGÍA

Para la realización del proyecto se siguió la metodología propuesta por Law y Kelton (2010), que consiste de 10 pasos: Formulación del problema: Consiste en delimitar el problema, definir claramente el o los objetivos, definir el criterio para comparar, indicar el número de gente e indicar costo involucrado Recolección de datos y diseño del modelo conceptual: comprende la identificación de parámetros de entrada y salida del sistema, diseño de instrumentos de recolección de datos, toma de datos, tratamiento estadístico de datos, elaboración del diagrama de flujo de proceso (modelo conceptual).. Verificación del modelo: consiste en analizar el modelo con personas familiarizadas con la operación del sistema. Es el proceso de demostración de que el modelo trabaja como se intentó. Construcción del programa: es la traducción de modelo conceptual al lenguaje de programación del simulador a utilizar para procesarlo en la computadora y obtener los resultados deseados. Pruebas piloto: consiste en realizar corridas del modelo para comprobar la ejecución correcta, además de obtener información necesaria para el siguiente paso. Validación del modelo: a través de la prueba t-pareada se determinada si el modelo de simulación es o no representativo del sistema real. Corrida del modelo: consiste en la ejecución del número de replicaciones determinas en el paso anterior. Análisis de resultados: es la obtención de información sobre las medidas de desempeño del sistema a través del modelo de simulación. Documentación e implementación de resultados:  etapa final de un estudio de simulación en la que se realiza la simulación de escenarios de mejora y en su caso se implementa en que mejore resultados.


CONCLUSIONES

Durante la estancia técnica se cubrieron los primeros cuatro pasos de la metodología, esto en consecuencia del tiempo que no permite la conclusión de todos los pasos. Paso 1: El problema en la fábrica de cinturones de cuero se enfoca en analizar el impacto ambiental y ético asociado con la producción, consumo y desecho de cinturones fabricados con cuero, un material derivado de la piel de animales.  Paso 2:  Dentro de los parámetros de entrada de este sistema se identificaron los siguientes: Cantidad de cuero: corresponde a la cantidad de cuero destinada para la jornada laboral del día. Tipo y calidad del cuero: La especificación del tipo de cuero a utilizar, ya sea cuero genuino, sintético o reciclado, y la calidad del cuero. Para la obtención de datos del sistema se diseñaron instrumentos de recolección y se procedió a la toma de datos, obteniendo información sobre: Cantidad y calidad del cuero utilizado: Registrar la cantidad de cuero adquirido y utilizado en la fabricación de cinturones, así como la calidad del cuero (tipo, grosor, acabado, etc.). Eficiencia del proceso: Recopilar datos para evaluar la eficiencia del proceso, como el número de cinturones producidos por hora o por día, y analizar posibles cuellos de botella o áreas de mejora. Posterior a la toma de datos se procedió a la creación de las bases de datos correspondientes y posteriormente se procedión al tratamiento estadístico de ellas, utiilizando el software Stat::Fit para la realización de pruebas de bondad de ajuste. Paso 3 Se procedió a elaborar el diagrama de flujo del proceso teniendo los siguientes pasos: Almacen Diseño de modelo Se traza hoja de talla de cuero y alma en tallas de extra, grande, mediano y chica Corte mecanico Pegar alma con cuero Sacar tallas de laminas de vista sintetica Pegar laminas de tiras sinteticas con el alma y cuero Aplastar en maquina de rodillo Recortar en maquina de rodillo con navajas especiales Perforacion y corte de punta Pintado Gravado de talla Pulido y retoque final Costura de canto Quema de hilo restante y retoque Evillado y embolsado por docena Embolsado de 6 docenas por bolsa Paso 4 Se procedió a la traducción del diagrama de flujo a lenguaje de simulación, en este caso del simulador SIMIO, quedando de la siguiente manera Materia prima = entidades Trabajadores = recursos (workers) Departamentos o áreas de trabajo = servers Inicio del proceso = source Fin del proceso = sink Rutas de movimiento = paths Durante el taller, se adquirieron conocimientos sobre cómo programar en este simulador. Sin embargo, no se logró avanzar más allá de esta etapa durante la estancia. Es importante considerar que el conocimiento adquirido puede ser útil para futuros proyectos o desarrollos en el ámbito del modelado de sistemas y simulación utilizando SIMIO.  
Martinez Barrales Eunice, Benemérita Universidad Autónoma de Puebla
Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.


GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.

López Hernández Eloy, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Barrales Eunice, Benemérita Universidad Autónoma de Puebla. Martinez Eulogio David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Perez Mujica Carlos Herbey, Instituto Tecnológico de Acapulco. Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

El procesamiento de Datos integrado al Modelo CIM en motores eléctricos desarrolla un trabajo muy importante para el desarrollo de las medianas industrias, la función principal de este modelo es prevenir con anticipación una posible falla o daño. Esta investigación tuvo como objetivo principal la gestión del mantenimiento integrado al modelo CIM con inteligencia artificial para la optimización del equipamiento postcosecha en el Atlántico.



METODOLOGÍA

En cuanto a la metodología utilizamos una metodología mixta. Esta metodología cuenta con un diseño experimental que se utiliza para obtener mediciones de variables que sirven para establecer un comportamiento, corroborar o descartar alguna idea puesta en mente. Para esta parte se tomaron en cuenta 2 factores internos: la temperatura y vibración. Para diseñar este modelo se creó un programa en el lenguaje de Python que se complementa con la lectura de una Base de Datos con diferentes registros para comenzar a entrenar la red neuronal que será la base principal de identificación de los motores a tratar. Para el enfoque cuantitativo, se creó una Base de Datos que tuvo como base el diseño de un Modelo Entidad Relación que está conformado por 6 tablas: admins, captura_motor, datos_tecnico, datos_usuario, empresas e info_motor. Durante el diseño del frontend, para facilitar la interacción directa de los usuarios se creó un sitio que esta conformado por 7 vistas: index (pagina principal), inicio_de_sesión, menú_usuario, alta_empresas, alta_motores, alta_usuarios y dashboard. Inicialmente para comenzar con las pruebas se crearon 3 usuarios: administrador_general, técnico y cliente. Para mostrar de forma grafica la síntesis del enfoque de la formación que el SENA comparte con sus aprendices, se utilizó un logotipo que pretende ser un elemento motivador sobre la formación profesional de los futuros aprendices dentro del medio social que engloba la búsqueda permanente de nuevos horizontes y caminos, enfocándolos hacia el futuro de iniciativa e innovación. Este logo está formado por la silueta de un motor con las iniciales de las letras M e I mayúsculas que en conjunto significan el nombre de la empresa Motors Insight. Conforme a los colores se trabajó el fondo de color verde oliva de código hexadecimal #39A900 que se asocia con la naturaleza del medio ambiente la cual refleja y transmite una sensación de calma, tranquilidad. Para el contorno manejamos el color blanco que está asociado con la seriedad y la transparencia, las cuales complementándose transmiten confianza. Para el backend se realizó un programa ejecutable que se cargaría al sistema de la Raspberry que tiene como funcionamiento realizar la lectura de ID del motor que será monitoreado, enviando a la Base de Datos en el servidor de MySQL Para la última etapa se creó un formulario de apoyo al usuario en el que se le permita la elección del modelo de motor a inspeccionar. Una vez completado el formulario en automático se le mostrará un dashboard en donde se podrá visualizar con ayuda de una gráfica circular el estado actual de la temperatura y vibración del motor que se inspecciona, en esta parte se desarrolló la metodología cualitativa por medio de una clasificación que consiste en 3 tipos de estados identificados con un color especifico.


CONCLUSIONES

Se concluyo con el funcionamiento del sistema que nos va a permitir obtener los datos necesarios para realizar el trabajo de análisis y almacenamiento de datos que se obtendrán de los sensores de temperatura y vibración. Una vez realizado el análisis comparativo entre el grupo amplio de muestra de resultados, se le permite al sistema desarrollado, realizar una selección del estado actual del motor, para el entrenamiento de la red neuronal de IA, se requiere de una BD con la información que permita esta aprenda, sobre los resultados arrojados por las pruebas realizadas en diferentes situaciones del motor. Al ser un proyecto en desarrollo, se esperan mejoras para la parte de diseño del prototipo e impresión en 3D, para realizar las pruebas necesarias y corregir posibles errores.
Martínez Canales Hugo Uriel, Instituto Tecnológico de Pachuca
Asesor: Dr. Eddisson Hernández Hernández, Universidad Nacional de Ingeniería

BLOQUES ESTRUCTURALES DE CONCRETO CELULAR


BLOQUES ESTRUCTURALES DE CONCRETO CELULAR

Martínez Canales Hugo Uriel, Instituto Tecnológico de Pachuca. Meneses Meneses Analy, Instituto Tecnológico de Pachuca. Asesor: Dr. Eddisson Hernández Hernández, Universidad Nacional de Ingeniería



PLANTEAMIENTO DEL PROBLEMA

En Nicaragua, como varios otros países, en los últimos años se ha registrado un aumento en el costo de materiales de construcción, tales como cemento, arena, acero, entre otros (INID, 2022) situación que ha traído consigo el surgimiento de sistemas constructivos alternativos más asequibles. De igual manera, las temperaturas tan variables y extremas que se experimentan hoy en día, producto del cambio climático (Grupo Intergubernamental de Expertos sobre el Cambio Climático, 2019), demandan que se diseñen y construyan espacios altamente aislantes que puedan retener el calor en épocas de frío y brinden frescura en los días de calor; materiales que puedan ser empleados en cualquier región del planeta, ya sea fría o cálida, donde se requiera de esta propiedad para lograr un confort higrotérmico para sus usuarios (CORFO, 2016).   En este contexto, surgió el concreto celular hace más de 70 años, que es un concreto aligerado mediante la incorporación de aire o gases que generan una serie de vacíos en su estructura interna para así reducir su densidad. Al ser un material poroso, tiene una menor resistencia a la compresión que el concreto convencional, pero una mayor capacidad aislante tanto térmica como acústica (Nensok et al., 2021); debido a que las burbujas de aire contenidas en su interior absorben las ondas sonoras y retardan la transferencia térmica entre dos medios con un gradiente de temperatura entre ellos (CORFO, 2016). La inclusión de dichas burbujas se hace al agregar un agente aerante a la mezcla de concreto mediante procesos mecánicos o químicos.   Debido a sus características físicas, en algunos estudios se ha propuesto como material para la elaboración de bloques (Ramírez Crescencio et al., 2020), los cuales, si bien facilitan la construcción por su bajo peso, no cumplen con las normativas que demandan los bloques estructurales, limitando su uso a la elaboración de elementos decorativos o cerramiento de espacios.   El objetivo de este trabajo es desarrollar una mezcla de concreto celular con agregados ligeros (piedra pómez) o fibras (polietileno) para obtener un concreto celular de baja densidad, evaluando sus propiedades físico-mecánicas, mismas que, fueron comparadas con lo establecido en la norma NTON 12 008-09 para bloques estructurales tipo II (NTON, 2011), con el propósito de determinar su uso en la elaboración de bloques de concreto celular.



METODOLOGÍA

Primeramente, se revisaron diversos artículos científicos y trabajos de grado para conocer los conceptos básicos acerca del concreto celular y el diseño de mezclas de concreto   Se formularon 6 mezclas de concreto celular, algunas de las cuales incluyeron agregados ligeros o fibras.  Se emplearon los siguientes materiales: cemento hidráulico Portland gris de uso general (GU) marca CEMEX, cal hidratada, arena de río de granulometría fina, arena de la Mina Mostatepe, piedra pómez de 3/8, agua de la toma municipal, espuma generada a partir de Texapon N70, aditivo SikaFluid líquido fluidificante/plastificante tipo F, fibra de polietileno de mecate plástico cortado en secciones máximas de 4mm de longitud. La caracterización de los agregados se realizó de acuerdo con las normas ASTM C29, ASTM C33, ASTM C70, ASTM C127, ASTM C128 y ASTM C566 (ASTM, 2003).   Las primeras 3 mezclas fueron mezclas preliminares con las cuales se realizaron ensayos de Velocidad de Pulso Ultrasónico (VPU) y resistencia a la compresión a los 28 días. Estas pruebas se realizaron por medio de un aparato de pulso ultrasónico marca Controls modelo 58-E4800 con transductores de 54KHz, gel y una prensa hidráulica marca ELE International modelo Accu-Tek 250 con capacidad de 10,000PSI en el laboratorio de materiales del RUPAP de la Universidad Nacional de Ingeniería. Estos procedimientos se realizaron según lo indicado en las normas ASTM C597 y ASTM C39 (ASTM, 2003). A partir de los resultados obtenidos se procedió a reformular las mezclas dando lugar a las 3 mezclas mejoradas, las cuales se sometieron al mismo procedimiento de resistencia a la compresión y se determinó la densidad aparente, porcentaje de vacíos y porcentaje de absorción siguiendo la norma ASTM C642-97 (ASTM, 1997). Adicionalmente, se realizaron ensayos de espectroscopía por IR de acuerdo a la norma ASTM E1252-98 (ASTM, 2013), para identificar los  productos de hidratación del cemento.   Finalmente se evaluaron y compararon los resultados en función de valores clave como son porosidad, densidad y resistencia mecánica.


CONCLUSIONES

Se determinaron las propiedades físico-mecánicas de un bloque de concreto celular fabricado a partir de 2 de los diseños de mezclas mejoradas (M4 y M6), que cumplen con la resistencia mínima requerida establecida por la norma NTON 12 008-09 (NTON, 2011) para ser considerado como un bloque estructural tipo II. Por su parte, la mezcla M5 por su baja densidad y alto grado de absorción, a pesar de no cumplir con la resistencia mecánica estructural, puede ser empleada para la fabricación de paneles aislantes de concreto celular. Asimismo, se considera que las propiedades aislantes de todas las mezclas trabajadas, tanto acústica como térmicamente, son mayores que el concreto convencional, esto debido a su grado de porosidad. Se concluye que la aplicación de cualquiera de los bloques/paneles antes mencionados es recomendable en zonas secas debido a que por su alto porcentaje de absorción, podría disminuir la vida de los mismos en zonas húmedas. Por su parte la mezcla M6 es una buena opción técnica, para su uso en construcciones en zonas donde los choques térmicos son comunes. Su mayor resistencia mecánica está relacionada con la incorporación de fibra y mayor contenido de material cementante.
Martinez Clavel Isael Josafat, Universidad Autónoma del Estado de México
Asesor: Mtro. Joel Rodríguez Rodríguez, Universidad Tecnológica de Nayarit

MODELO DE GENERACIóN DE ENERGíA ELéCTRICA POR MICROHIDRáULICA, APLICADO EN LA LOCALIDAD DE SANTA CRUZ DE MIRAMAR. MODELO DE OBRA CIVIL EN CONCRETO PARA INSTALAR GENERADOR MICRO HIDRáULICO.


MODELO DE GENERACIóN DE ENERGíA ELéCTRICA POR MICROHIDRáULICA, APLICADO EN LA LOCALIDAD DE SANTA CRUZ DE MIRAMAR. MODELO DE OBRA CIVIL EN CONCRETO PARA INSTALAR GENERADOR MICRO HIDRáULICO.

Martinez Clavel Isael Josafat, Universidad Autónoma del Estado de México. Asesor: Mtro. Joel Rodríguez Rodríguez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

En la investigación realizada durante el verano 2023 se buscó explorar varias alternativas para explotar un arroyo perenne llamado El naranjo ubicado en la localidad de Santa Cruz de Miramar, San Blas y aprovechar su energía mecánica para hacer mover un generador eléctrico y proveer energía eléctrica a una empacadora de yaka cercana. Esta actividad pertenece a los esfuerzos de la UT para apoyar la transición energética hacia fuentes renovables, que es uno de los objetivos de la Agenda 2030. La instalación de una pequeña central hidroeléctrica generaría electricidad de manera continua todo el tiempo y bajo condiciones climáticas poco favorables con en tormentas o ventiscas. Además, la instalación de este tipo de turbinas serviría como caso para poder replicar el mismo proceso en otros arroyos dentro de Nayarit. Se trabajo en dos propuestas de obra civil que estuvieran adecuadas para poder instalar una turbina tipo tornillo de Arquímedes.  La zona de instalación fue cerca de un dique que los habitantes locales colocaron hace años ya que ahí se encontraban condiciones de terreno óptimas para la instalación de este tipo de turbinas. Además, se contempló que los cables de suministro de energía eléctrica que pasaban por ahi servirían como punto de conexión a la red. Para poder hacer las proyecciones adecuadas de la obra se estudió las características técnicas de la turbina y se fue a la zona en dos ocasiones. Además, se usó varios programas de computadora que ayudara evaluar características del terreno y el modelado de las estructuras a construir.



METODOLOGÍA

Para poder llevar la tarea de obra civil primero se siguió un cronograma de actividades que permitiera llegar a los objetivos planteados al inicio de la investigación. Lo primero que se hizo fue hacer una capacitación con programas con los que se podría obtener la información necesaria. Dichos programas fueron: Google Earth Pro:  Con este programa se obtuvo información topográfica de la zona. Su herramienta para el relieve permitió obtener un valor aproximado de la altura en puntos de interés para evaluar pendientes, longitudes he identificar elementos que son difíciles de apreciar en con las imágenes satelitales. Además se confía en esta herramienta ya que la base de datos con que se obtiene provienen de fuentes de confianza como son SIO, NOAA, NGA, GEBCO, Terrametrics  y Copernicus. Adicionalmente con este software se obtuvo fotografías históricas de la zona que permitieron evaluar el comportamiento del rio durante distintos periodos. QGIS Desktop 3.32.1: Con esta herramienta se generaron los mapas de contorno que luego fueron exportados a Google Earth Pro para tener mas claro la distribución de niveles en el terreno. Se realizaron dos procedimientos con el: el primero consistió en extraer de Google Earth una serie de puntos con sus coordenadas de la zona geográfica que rodeaba la zona para luego asignarles el valor de la altura en una pagina web y luego se generó un contorno. AutoCAD2024: Con este software se trabajo en colaboración con otros compañeros involucrados en el mismos para el intercambio de modelos de turbinas y propuestas de diseño de obras. Microsoft Office Vicio Project 2007: Este es un programa de organización en donde se planearon las actividades de investigación y de campo y llegar a cumplir mejor los objetivos. Por otro lado, se usaron páginas web para obtener información geográfica y legal respecto a los aprovechamientos del arroyo y los permisos expedidos vigentes. Estos son: USGS: Una página perteneciente al gobierno estadounidense con el que se consiguió información geográfica adicional a la de Google Earth para producir mapas nivel con mayor detalle. Base de datos de la REPDA: Pagina perteneciente al gobierno mexicano donde se pueden consultar los permisos expedidos por el gobierno para el aprovechamiento séase de una persona moral o física de los recursos hídricos del país. El objetivo de buscar en esta base de datos era encontrar a quien corresponde un canal aledaño al arroyo y encontrar que vigencia tenia y que tipo de permiso tenía junto a todas sus restricciones. LocRepda v.2021: Es un mapa interactivo perteneciente a la CONAGUA que muestra de forma grafica información sobre los acuíferos, cuencas, permisos, entre otras cosas sobre todo el país. Es la forma más rápida de encontrar información referente al arroyo donde se planea instalar la turbina. Aparte de la investigación en computadora tambien se organizaron reuniones con dos organizaciones importantes que favorecerían la puesta en marcha del proyecto. Estas fueron la misma CONAGUA y la CMIC. Ambas se mostraron abiertas a colaborar con nosotros y apoyarnos con asesoramiento y contactos. Además, se organizaron dos visitas de campo para conocer de primera mano la condición actual del arroyo y tener medidas más certeras.


CONCLUSIONES

Durante la estancia de la estancia delfín 2023 en la UT, Nayarit se condujo una investigación en torno a la instalación de una pequeña turbina hidráulica en un arroyo de aledaño a la comunidad de Santa Cruz de Miramar. Se debió acudir al arroyo para generar propuestas realizables de la infraestructura necesaria para su instalación. Los diseños finales obedecen a la información que se pudo recopilar tanto de fuentes de datos abiertas, como de las visitas de campo y de la información accesible de los fabricantes de estas turbinas. Se demostró que la obra civil necesaria para este tipo de turbinas está conformada por estructuras simples y se puede hacer grandes ahorros si se hacen ciertas simplificaciones como el de no revestir de concreto más de lo necesario. Sin embargo, ahora que se tiene el apoyo de la CMIC y los contactos de los fabricantes de turbinas se puede trabajar en conjunto con ellos para que la turbina genera la potencia deseada.  Además, se identificó el nivel del arroyo como una variable de suma importancia ya que en las dos visitas de campo se observaron dos condiciones opuestas del arroyo en un periodo de tiempo corto. Para ello se aconseja hacer inspección con un dron antes y después de una lluvia, y si es posible encontrar alguna manera de monitorear el nivel del caudal a distancia.
Martinez Espinosa Carlos Humberto, Universidad de Guadalajara
Asesor: Dr. Luis Enrique Colmenares Guillen, Benemérita Universidad Autónoma de Puebla

APROXIMACIóN MODELO MATEMáTICO PARA MéTODO NO INVASIVO DE MONITORIZACIóN DE GLUCOSA


APROXIMACIóN MODELO MATEMáTICO PARA MéTODO NO INVASIVO DE MONITORIZACIóN DE GLUCOSA

Martinez Espinosa Carlos Humberto, Universidad de Guadalajara. Asesor: Dr. Luis Enrique Colmenares Guillen, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Durante la primera semana se realizó una investigación del panorama de la diabetes, a nivel mundial y nacional (México), esto para poder tomar consciencia de lo importante que es el comenzar a desarrollar nuevos métodos y tecnologías que ayuden a mejorar el control de este padecimiento. En la semana dos se indagó en los distintos modelos matemáticos que se han desarrollado a lo largo de los años, el uso de estos modelos matemáticos se ha implementado desde hace mas de medio siglo para intentar explicar la fisiología y los diversos factores que influyen en los pacientes con diabetes. La mayoría de los modelos usados en diabetelogía están basados en los modelos matematicos de Ackerman y lineal de Bergman, aunque en los últimos años han surgido muchos más. No existe ningún modelo definitivo, pues hay muchos factores que influyen. Para la tercera semana, se hizo una revisión de distintas patentes y dispositivos que han surgido para la monitorización no invasiva de la glucosa. En el desarrollo de la cuarta semana se indagó en todos los tipos de monitorización no invasiva de glucosa que existen, haciendo especial énfasis en el sensor de respuesta galvánica de la piel (galvanic skin response, GSR, en inglés), para poder relacionar todos los panoramas con el sensor que se está implementando por el investigador a cargo. La semana 5 se trabajó en la investigación de modelos matemáticos que se hayan implementado en métodos no invasivos, desafortunadamente no se encontraron resultados y se hizo la revisión de más modelos matemáticos basados en métodos invasivos y su posible aplicación en el sensor GSR.



METODOLOGÍA

Para la realización de este proyecto de investigación se realizaron búsquedas bibliográficas en fuentes como: la pagina oficial de la International Diabetes Federation, PubMed, IEEE, Science Direct, European Patent Office, etc. En su mayoría se recopilaron publicaciones con una publicación no mayor a 5 años, pero también se tomaron en cuenta algunos artículos que tenían un mayor tiempo de publicación. Los términos que más se usaron fueron: Mathematical Model, Diabetes, Galvanic Skin Response y Sensor GSR.


CONCLUSIONES

Durante la semana 6 y 7 se hizo revisión e intento de aplicación del método de Welch, el cual es una manera de calcular la densidad espectral de potencia, que permitiría ver el comportamiento de las señales (en este caso del sensor GSR) y de esta manera poder ver los cambios en las señales de resistencia y conductancia de los pacientes. Con esto se esperaría a futuro poder entrenar una herramienta de machine learning que con apoyo de la implementación de un modelo matemático pueda reconocer los cambios en los picos de la señal GSR y ayudar a mejorar la monitorización de los pacientes con diabetes
Martínez Espinosa Miguel Ángel, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara

INTERNET DE LAS COSAS EN EL áMBITO EDUCATIVO (IOT)


INTERNET DE LAS COSAS EN EL áMBITO EDUCATIVO (IOT)

Martínez Espinosa Miguel Ángel, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

A medida que el internet de las cosas (IoT) continúa creciendo e integrándose más en nuestras vidas, la pregunta es cómo puede beneficiar realmente a la educación. Si bien se han realizado algunos esfuerzos para implementar IoT en entornos educativos, todavía hay una falta de conocimiento del correcto uso actual, su impacto en estudiantes y docentes , y los desafíos que enfrenta el conocimiento relacionado con su implementación.  



METODOLOGÍA

El Internet de las cosas (IoT) en entornos educativos se ha convertido en una herramienta valiosa para transformar la enseñanza y el aprendizaje. El uso de dispositivos y tecnologías conectadas a Internet ofrece una amplia gama de beneficios para estudiantes y profesores, pero también presenta desafíos que deben ser abordados. Con el avance tecnológico, los estudiantes deben adquirir habilidades digitales y de pensamiento crítico para tener éxito en el mundo laboral y la sociedad moderna. Las herramientas de IoT fomentan una mayor interacción en el aula y motivan a los estudiantes a aprender de manera más activa y participativa. Dispositivos como libros electrónicos, tabletas, sensores y la realidad virtual y aumentada, pueden ser utilizados para monitoreo en aspectos como la comprensión de patrones de aprendizaje de sus estudiantes. La implementación de un sistema IoT educativo presenta todo un reto, combinado con los costos de diversos dispositivos, conectividad de red y creación de una plataforma para soportarlo; sin embargo, destaca también la necesidad de formar a sus profesores y personal en el uso de dicho sistema. Puede ayudar a promover la inclusión educativa al proporcionar recursos y tecnologías accesibles para estudiantes con discapacidades, adaptando el entorno de aprendizaje a sus necesidades específicas.  


CONCLUSIONES

En conclusión, IoT en entornos educativos es una poderosa herramienta que permite una enseñanza más personalizada e interactiva. A pesar de los desafíos, los beneficios de mejorar el aprendizaje y la enseñanza hacen que valga la pena, siempre y cuando se aborden adecuadamente las cuestiones de seguridad, privacidad y capacitación. Esta investigación nos permite encontrar nuevos hechos sobre el correcto uso de la IoT en educación, los dispositivos IoT son una necesidad en el aula, ya que favorecen de manera significativa el aprendizaje.  La implementación adecuada de IoT en la educación tiene el potencial de mejorar la experiencia de aprendizaje de los estudiantes. Permite que los estudiantes participen en experiencias prácticas y concretas. Los resultados de la investigación proporcionaron una visión clara de las aplicaciones efectivas del IoT en el ámbito educativo y sus beneficios.  
Martinez Eulogio David, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.


GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.

López Hernández Eloy, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Barrales Eunice, Benemérita Universidad Autónoma de Puebla. Martinez Eulogio David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Perez Mujica Carlos Herbey, Instituto Tecnológico de Acapulco. Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

El procesamiento de Datos integrado al Modelo CIM en motores eléctricos desarrolla un trabajo muy importante para el desarrollo de las medianas industrias, la función principal de este modelo es prevenir con anticipación una posible falla o daño. Esta investigación tuvo como objetivo principal la gestión del mantenimiento integrado al modelo CIM con inteligencia artificial para la optimización del equipamiento postcosecha en el Atlántico.



METODOLOGÍA

En cuanto a la metodología utilizamos una metodología mixta. Esta metodología cuenta con un diseño experimental que se utiliza para obtener mediciones de variables que sirven para establecer un comportamiento, corroborar o descartar alguna idea puesta en mente. Para esta parte se tomaron en cuenta 2 factores internos: la temperatura y vibración. Para diseñar este modelo se creó un programa en el lenguaje de Python que se complementa con la lectura de una Base de Datos con diferentes registros para comenzar a entrenar la red neuronal que será la base principal de identificación de los motores a tratar. Para el enfoque cuantitativo, se creó una Base de Datos que tuvo como base el diseño de un Modelo Entidad Relación que está conformado por 6 tablas: admins, captura_motor, datos_tecnico, datos_usuario, empresas e info_motor. Durante el diseño del frontend, para facilitar la interacción directa de los usuarios se creó un sitio que esta conformado por 7 vistas: index (pagina principal), inicio_de_sesión, menú_usuario, alta_empresas, alta_motores, alta_usuarios y dashboard. Inicialmente para comenzar con las pruebas se crearon 3 usuarios: administrador_general, técnico y cliente. Para mostrar de forma grafica la síntesis del enfoque de la formación que el SENA comparte con sus aprendices, se utilizó un logotipo que pretende ser un elemento motivador sobre la formación profesional de los futuros aprendices dentro del medio social que engloba la búsqueda permanente de nuevos horizontes y caminos, enfocándolos hacia el futuro de iniciativa e innovación. Este logo está formado por la silueta de un motor con las iniciales de las letras M e I mayúsculas que en conjunto significan el nombre de la empresa Motors Insight. Conforme a los colores se trabajó el fondo de color verde oliva de código hexadecimal #39A900 que se asocia con la naturaleza del medio ambiente la cual refleja y transmite una sensación de calma, tranquilidad. Para el contorno manejamos el color blanco que está asociado con la seriedad y la transparencia, las cuales complementándose transmiten confianza. Para el backend se realizó un programa ejecutable que se cargaría al sistema de la Raspberry que tiene como funcionamiento realizar la lectura de ID del motor que será monitoreado, enviando a la Base de Datos en el servidor de MySQL Para la última etapa se creó un formulario de apoyo al usuario en el que se le permita la elección del modelo de motor a inspeccionar. Una vez completado el formulario en automático se le mostrará un dashboard en donde se podrá visualizar con ayuda de una gráfica circular el estado actual de la temperatura y vibración del motor que se inspecciona, en esta parte se desarrolló la metodología cualitativa por medio de una clasificación que consiste en 3 tipos de estados identificados con un color especifico.


CONCLUSIONES

Se concluyo con el funcionamiento del sistema que nos va a permitir obtener los datos necesarios para realizar el trabajo de análisis y almacenamiento de datos que se obtendrán de los sensores de temperatura y vibración. Una vez realizado el análisis comparativo entre el grupo amplio de muestra de resultados, se le permite al sistema desarrollado, realizar una selección del estado actual del motor, para el entrenamiento de la red neuronal de IA, se requiere de una BD con la información que permita esta aprenda, sobre los resultados arrojados por las pruebas realizadas en diferentes situaciones del motor. Al ser un proyecto en desarrollo, se esperan mejoras para la parte de diseño del prototipo e impresión en 3D, para realizar las pruebas necesarias y corregir posibles errores.
Martínez Flores Alexis, Instituto Tecnológico de Pachuca
Asesor: Dra. Anabel Rosas Gallo, Universidad Tecnológica de Huejotzingo

INTEGRACIóN DE CADENA PRODUCTIVA, DE VALOR Y SUMINISTRO SOBRE EL PROCESO DE MAíZ BABY CORN


INTEGRACIóN DE CADENA PRODUCTIVA, DE VALOR Y SUMINISTRO SOBRE EL PROCESO DE MAíZ BABY CORN

Martínez Flores Alexis, Instituto Tecnológico de Pachuca. Asesor: Dra. Anabel Rosas Gallo, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

En la región de Huejotzingo, Puebla, se busca una manera de expandir las oportunidades de desarrollo económico y la generación de nuevos empleos utilizando los recursos que se encuentran disponibles en el área, de manera que estos se encuentren disponibles para los trabajadores obreros y produzcan un valor distintivo para la población local y mejoren su calidad de vida. Con el maíz Baby Corn como producto a comercializar se busca una manera efectiva de explotar este alimento, tomando en cuenta que lo que se desea producir es un encurtido de mazorcas Baby Corn, del que se deben conocer los procesos productivos por los cuales se puede obtener este producto y los medios con los que hacer este disponible para el mercado en general.



METODOLOGÍA

Mediante la investigación referenciada en medios físicos y digitales se llevó a cabo la documentación que describe de manera detallada como se realizó la toma de decisiones que establecen como resultado final la elaboración de una propuesta de un plano representativo de una planta de procesamiento de maíz Baby Corn. Posteriormente se diseñó en el software de modelado virtual AutoCAD un diseño bidimensional que establece una optativa de organización de presenta la forma de operar de una planta de producción, luego se continuó con la explicación de las misma y las partes que le componen. Finalmente se realizó la elaboración de diagramas de flujo descriptivos que señalen de manera concisa como operará la planta de producción, destacando su cadena de producción, su cadena de suministro y su cadena de valor. Se determino el presupuesto que podría requerir el proyecto en la escala planteada, junto con el plazo de tiempo que podría requerir el obtener el retorno de la inversión inicial y se documentaron los resultados alcanzados durante la investigación.


CONCLUSIONES

Mediante la presente investigación se ha logrado producir una propuesta de planta productiva que contempla la capacidad productiva de maíz Baby Corn, ofreciendo una propuesta de plano con base en las instalaciones que posee la Universidad Tecnológica de Huejotzingo, dando pie a una propuesta de organización de planta y gestión al igual que de operación productiva empleando una cadena productiva organizada. Se estableció una propuesta de cadena de suministro que pretende instaurar una secuencia lineal de pasos a seguir para el correcto abastecimiento de la planta de producción y a su vez la distribución de los productos a los sectores de comercio. Se ha calculado un presupuesto con base en una propuesta de cadena de valor que de realizarse este proyecto de manera práctica sería un material de referencia para la consideración de costos de adquisición de materia prima, maquinaria y mobiliario. Dada la complejidad y el alcance del proyecto, es necesario que se le dé seguimiento en el futuro con otros trabajos orientados a cubrir aquellos campos que no fueron tocados en este.
Martínez Galván Homero, Instituto Tecnológico de Matamoros
Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango

MODELO DE SISTEMA DE RIEGO POR GOTEO PARA INVERNADEROS PRODUCTORES DE HONGOS SETAS DE HUAUCHINANGO PUEBLA.


MODELO DE SISTEMA DE RIEGO POR GOTEO PARA INVERNADEROS PRODUCTORES DE HONGOS SETAS DE HUAUCHINANGO PUEBLA.

Hinojosa Limas Sasha Michelle, Instituto Tecnológico de Matamoros. Martínez Galván Homero, Instituto Tecnológico de Matamoros. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El cultivo del hongo seta ha tenido un desarrollo rápido, este tipo de hongo merece atención especial debido a la diversidad de residuos orgánicos con los que es capaz de crecer., tomando en cuenta la creciente necesidad de cultivo de hongos se genera la presente investigación que tiene como objetivo principal diseñar un sistema de riego como una alternativa de inversión rentable en el municipio de Huauchinango Puebla. El desarrollo de esta investigación busca automatizar el sistema de riego por goteo mediante un programador controlando el caudal del agua y el tiempo para humedecer el suelo del invernadero. Este sistema de riego por goteo consiste en una secuencia de tubos colocados internamente dentro del invernadero con goteros que se sujetan dentro de orificios y que distribuyen equitativamente el agua (Sistema gota a gota), se busca que el agua se riegue en la superficie total del invernadero por un tiempo determinado apoyando el proceso de un controlador de tiempo trayendo consigo que la humedad se mantenga durante las 24 horas del día aportando el medio adecuado para el cultivo de hongos setas.



METODOLOGÍA

Se implementó un sistema de riego por goteo, este sistema se diseñó con los requerimientos hídricos adecuados bajo un control automático en el cierre y apertura de las válvulas de campo. El uso principal está orientado para mantener la humedad requerida y evitar que el suelo se inunde. Para la construcción se procedió a tomar las medidas del invernadero las dimensiones con las que cuenta son: 6 m de largo x 5 m de ancho teniendo estas medidas se calculó el desnivel registrando dimensiones de 3 m de alto x 8 m de largo; con las medidas el desnivel se realizaron diversos cálculos. Basándonos en el teorema de Pitágoras se determinó la longitud de la hipotenusa de nuestro triángulo rectángulo que representa el desnivel del costado del invernadero, posterior al cálculo del desnivel continuamos con la selección del material para la fabricación del sistema, una vez seleccionado el material determinamos la velocidad del agua en la tubería teniendo en cuenta que trabajara bajo presión se procede a seleccionar el coeficiente de interacción en la tabla de Hazen-Williams, obteniendo un valor de 145. Una vez que se realizaron los cálculos teóricos, procedemos a determinar el cálculo del caudal, este cálculo requiere en primera instancia determinar la temperatura promedio y la humedad relativa de la zona, por lo cual realizamos la consulta del estadístico ambiental, indicando que la temperatura promedio asciende a 26.5° C y la humedad relativa a 81.5 °C, posteriormente se realiza el cálculo del caudal, obteniendo una resultante de 22.51 m3/s. Continuando con los cálculos de consumo de agua determinamos que el cálculo de consumo de agua es del 17.87%, procedemos a calcular el número de goteros necesarios para instalar la línea de riego, teniendo en cuenta que se requieren 5 líneas de riego se solicita la instalación de 42 goteros en posición triangular, ahorabien, para calcular la correcta distribución de goteros por cada línea de riego, dividimos el total de goteros entre el total de líneas asignando 8 goteros para las líneas 1, 3, 5 y 9 goteros para las líneas 2,4. Es conveniente hacer mención que las líneas que contengan 9 goteros se posicionan a una distancia entre cada gotero de 0.66 m, mientras que las líneas con 8 goteros están posicionadas a una distancia de 0.75 m. Considerando los cálculos anteriores procedemos a establecer y diseñar en software especializado los elementos y materiales que conforman el Sistema de riego por goteo, estos son: Depósito de agua, Programador de riego, Filtro para sistema de riego, Manguera, Gotero regulable, Llave para manguera, Codo para manguera, T para manguera. Como es notorio es indispensable la fabricación de la base para la colocación del sistema de riego externa, teniendo en cuenta esta necesidad se determina la adquisición de los siguientes materiales de construcción: Cemento, varilla, block, alambre quemado, anillos, grava y arena, para finalizar se realiza el costeo para la adquisición de los elementos y materiales necesarios para la implementación del Sistema de riego y este costeo representan una inversión total de $ 17, 437.00.


CONCLUSIONES

Durante el desarrollo de este proyecto denominado como Modelo de sistema de riego por goteo para invernaderos productores de hongos setas de Huauchinango Puebla, se llevaron a cabo las siguientes actividades:  Recopilación de información del cultivo de Hongos seta, Determinar las características y particularidades de riego del cultivo, Análisis estadístico de condiciones ambientales de la zona, Cálculo de desnivel, Cálculo de velocidad del agua, Cálculo del caudal, Cálculo de consumo de agua, Cálculo de número de goteros, Distribución de goteros, Selección de materiales, Costeo de materiales, Presentación de propuesta; estas actividades contribuyeron notablemente en primera instancia a la generación del primer modelo de riego por goteo para invernaderos de hogos setas en la zona, así también para la generación del diseño en software especializado y la propuesta de costeo para aplicaciones futuras, este proyecto contribuye directamente al ODS 12: "Garantizar modalidades de consumo y producción sostenibles", en razón de que fomentara el riego de los cultivos de hongos setas en tiempo y forma., para incrementar la productividad del cultivo y generar mayor interés para ser instalado en traspatios, viveros e invernaderos de la Sierra Norte del Estado de Puebla. En conclusión, durante el desarrollo del proyecto adquirimos conocimientos de distintos softwares de diseño, los cuales fueron el soporte técnico para la realización del proyecto de igual manera ampliamos nuestros conocimientos en el desarrollo de cálculos de diferentes índoles, mejorando notablemente nuestra perspectiva en el ámbito de la investigación e impulsando nuestra visión universitaria para culminar nuestra carrera.
Martínez García Briseyda Paulina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Rafael Wilfredo Rojas Bujaico, Universidad Nacional de Huancavelica

FACTORES DE RIESGO DE LA INTELIGENCIA ARTIFICIAL QUE INFLUYEN EN EL DESEMPEÑO ACADÉMICO DE LOS ESTUDIANTES


FACTORES DE RIESGO DE LA INTELIGENCIA ARTIFICIAL QUE INFLUYEN EN EL DESEMPEÑO ACADÉMICO DE LOS ESTUDIANTES

Martínez García Briseyda Paulina, Instituto Tecnológico de Estudios Superiores de Zamora. Pérez Aguíñiga Celeste Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Rafael Wilfredo Rojas Bujaico, Universidad Nacional de Huancavelica



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema Problema General ¿De qué manera los factores de la inteligencia artificial influyen con el desempeño académico? Problemas específicos ¿De qué manera la confianza a las herramientas de la Inteligencia Artificial influye en el desempeño académico? ¿De qué manera le veracidad de resultados de las herramientas de la inteligencia artificial influyen en el desempeño académico? Objetivos Objetivo General Correlacionar los factores de la inteligencia artificial con el desempeño académico. Objetivos específicos Asociar la confianza a las herramientas de la Inteligencia Artificial influye en el desempeño académico. Asociar la veracidad de resultados de las herramientas de la Inteligencia Artificial influye en el desempeño académico.



METODOLOGÍA

El tipo de investigación, según Ciro (2010) es tecnológica, debido a la forma de realizar la investigación en beneficio de la sociedad sobre el uso adecuado de las herramientas de la IA,  Supo and Zacarías (2020) es los tipos de investigación, sobre el nivel de investigación, Supo and Zacarías (2020) establece que el relacional se da entre dos variables de estudio que antes de establecer relación causal, nacen éstas, por lo que, la investigación trata de encontrar relación entre los factores de riesgo de la IA y el desempeño académico de los estudiantes, el método de investigación, Hernández Sampieri et al. (2018) menciona que análisis-síntesis corresponde a la división de las partes y la unión de ellas conllevando al todo, esta investigación se orientó a ello en el momento de identificar los factores de riesgo que van a influir en el desempeño académico, finalmente, para el diseño de investigación nuevamente se tuvo en cuenta a Supo and Zacarías (2020) quienes menciona que la investigación transversal se basa en la aplicación de una encuesta en un momento determinado conllevando su análisis a muestras independientes, ello relacionada a nuestra investigación connota que solamente se aplicó el instrumento en el instante en donde se quiso saber sobre la confianza que los estudiantes tienen a las herramientas de la IA. Para la investigación se ha elaborado 20 preguntas (ver Anexo) con respecto al uso de las herramientas de la IA con la finalidad de encontrar el grado de dependencia y perjuicio en el desarrollo académico; las siguientes tablas muestran los resultados de las encuestas realizadas a 46 estudiantes de los cuales 23 estudiantes son de sexo femenino y las edades promedian de 22 años con una desviación estándar de 3 años y varianza de 8.5, estos estudiantes pertenecen al Instituto Tecnológico de Estudios Superiores de Zamora Y que pertenecen a los semestres de octavo y noveno.


CONCLUSIONES

En la encuesta a 46 estudiantes, 28 de ellos no están de acuerdo con que el chat GPT sea beneficioso para los estudiantes. Además, una parte considerable de la población opina que el uso de la Inteligencia Artificial en actividades escolares dificulta el desarrollo crítico y creativo, mientras que otra parte se muestra indiferente. En relación al grado de independencia, 12 de los 46 encuestados están en desacuerdo, y respecto a la influencia en habilidades sociales, 15 de 42 encuestados consideran que tiene un efecto negativo. La encuesta también revela que el uso de herramientas de IA lleva a la pereza al evitar investigar adecuadamente, lo que contribuye a la desconexión emocional en el proceso de aprendizaje, confiando ciegamente en los resultados de la IA y disminuyendo la retención de información. Con respecto a la pregunta 01, la mayoría muestra un alto nivel de conocimiento sobre el Chat GPT. Sin embargo, en las preguntas 17 y 18, la mayoría de los encuestados muestran indiferencia hacia el desarrollo de trabajos de investigación y tareas asignadas por los docentes.  Las opiniones sobre el uso de la Inteligencia Artificial en el ámbito educativo son diversas y se encuentran en diferentes puntos intermedios. Mientras que un grupo significativo de estudiantes reconoce el beneficio de la IA para el aprendizaje, otro grupo destaca que su uso puede dificultar el desarrollo crítico y creativo. Asimismo, algunos consideran que la IA puede generar dependencia, afectar habilidades sociales y propiciar la pereza en el proceso de aprendizaje. Otros mencionan que el uso de la IA puede limitar la exploración de diferentes enfoques y soluciones. También existe una neutralidad generalizada respecto a la confiabilidad de la IA como fuente de investigación y sobre si los estudiantes estarían en desventaja sin acceso a la tecnología de IA. Además, se plantean preocupaciones sobre la manipulación y desinformación que pueden surgir al confiar ciegamente en las IA. En conclusión, las opiniones sobre la IA en la educación reflejan una amplia gama de perspectivas y desafíos a considerar en su integración adecuada en el proceso de aprendizaje.
Martínez García Daniela, Universidad de Guadalajara
Asesor: Dra. Lorena Garcia Uriostegui, Universidad de Guadalajara

REAPROVECHAMIENTO DEL RESIDUO BAGAZO DE AGAVE EN BIO-PRODUCTOS FUNCIONALES EN APLICACIONES BIOMéDICAS


REAPROVECHAMIENTO DEL RESIDUO BAGAZO DE AGAVE EN BIO-PRODUCTOS FUNCIONALES EN APLICACIONES BIOMéDICAS

Hernández Moreno Mario Andrés, Universidad Autónoma de Manizales. Martínez García Daniela, Universidad de Guadalajara. Asesor: Dra. Lorena Garcia Uriostegui, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La contaminación agroindustrial es un creciente problema en la industria del tequila en México. Anualmente se desechan alrededor de 1500 millones de toneladas de bagazo de agave y vinazas (CRT, México 2023). Estos desechos, compuestos por celulosa, hemicelulosa y lignina, poseen un valor significativo para diversas aplicaciones industriales. Se ha demostrado el potencial de reutilización de estos componentes en biomateriales nano y micrométricos con aplicaciones biomédicas, para tratar enfermedades humanas. La ciencia busca aprovechar su disponibilidad y bajo costo para producir bioenergía, bioquímicos, productos biodegradables, biofertilizantes y tratar aguas residuales. Es esencial abordar esta problemática y buscar soluciones sostenibles que beneficien a la sociedad y el medio ambiente. Durante la estancia, se investigó y trabajó en el diseño de biomateriales estructurados con potencial uso en aplicaciones biomédicas para tratar enfermedades humanas, utilizando estos componentes naturales.



METODOLOGÍA

En la Universidad de Guadalajara se participó en el proceso de extracción y tratamiento de la hemicelulosa de acuerdo a la metodología de Arellano L. (2018). La primera etapa consiste en la deslignificación del bagazo para la obtención de holocelulosa la cual se compone de hemicelulosas y celulosa. Para ello, se llevó a cabo la ejecución del método Wise (1946). Los compuestos utilizados fueron el bagazo libre de extraíbles, clorito de sodio (NaClO2), ácido acético (CH3COOH), agua destilada e hidróxido de sodio (NaOH). Se obtiene una precipitación dónde la fracción sólida es la holocelulosa y la fracción líquida es lignina y otros desechos. Finalmente, se filtra, se enjuaga y se deja secar a temperatura ambiente la holocelulosa. La segunda etapa se enfoca en separar la celulosa de la hemicelulosa. Para ello se realizó una extracción alcalina usando KOH al 15% p/v. Esto permite crear una precipitación en donde la fracción sólida es la celulosa y en la fracción líquida se encuentra la hemicelulosa. Posteriormente se filtra para separar la celulosa y se deja secar a temperatura ambiente.  Durante la tercera etapa se obtiene la hemicelulosa. Primeramente, la fracción líquida obtenida en la etapa anterior se refrigera y se prepara una solución de etanol y HCl concentrado que también debe ser enfriado. Se prepara una tina de agua y hielo donde se introduce el matraz con la fracción líquida y se somete a agitación. Poco a poco se le añade la solución de HCl hasta alcanzar un pH de 5.5; de esta manera se obtiene una mezcla de hemicelulosa, cloruro de potasio y agua que, al agregarle etanol y acetona, favorece la precipitación de la hemicelulosa y de la sal. Esta solución se separó en recipientes que pasaron a una centrífuga a velocidad de 4000 rpm durante 20 minutos para acelerar el proceso de precipitación. Se decanta cada recipiente y el resultado es la mezcla de la hemicelulosa y la sal cuya consistencia es blanda y de coloración blanca. Esta mezcla se junta y se secan con ayuda de un liofilizador que emplea agua para disolver la sal aún presente en la muestra y nitrógeno líquido para congelar la solución. Se genera un proceso de sublimación para obtener hemicelulosa limpia y lista como materia prima para su aplicación en la sintetización de biomateriales como nanopartículas e hidrogeles. En ciencia de materiales e ingeniería biomédica, se combinan polímeros naturales, como hemicelulosas, con nanopartículas de sílice mesoporosas para mejorar la biodisponibilidad de medicamentos. Las sílices actúan como matrices para liberar terapéuticos de forma controlada, mientras que los polímeros naturales ajustan sus propiedades. Esto favorece tratamientos efectivos en medicina regenerativa y liberación de fármacos. Durante la estancia, exploramos la preparación de estas nanopartículas para impulsar este desarrollo bionatural. Para la síntesis de las nanopartículas mesoporosas se empleó el método de microondas de Garcia, R (2001) y al compararse con otros métodos, se observó una mejor morfología en las nanopartículas en sus poros; también se vio reducido 12 veces el tiempo de síntesis. La síntesis se realizó por el método sol-gel para la obtención de hidrogeles. Los materiales fueron ácido clorhídrico 1.6M como catalizador, Pluronic P123 como surfactante, trimetilbenceno que nos ayuda a la morfología de las nanopartículas y los poros, fluoruro de amonio para el crecimiento de las nanopartículas y Tetraetilortosilicato (TEOS) como iniciador. Nuestra solución fue de 50 mL de HCl 1.6M y 1.3713 g de Pluronic P123. Se agitaron a 40ºC hasta observar que el surfactante se disolviera. Posteriormente, se agregaron 5.13 mL de trimetilbenceno y se agregaron lentamente 2.7 mL de TEOS con una jeringa. Se dejó la solución agitando por 1 hora a 40ºC. Finalmente, se introdujo la solución al microondas por 30 minutos en total. El primer intervalo de 15 minutos se irradió a 50ºC y 200W y el segundo a 80ºC y 100W. Esta irradiación de microondas nos ayudó a madurar y consolidar las nanopartículas y sus poros para llevarlas al horno para secar el solvente y obtener las nanopartículas sólidas.


CONCLUSIONES

La experiencia DELFÍN en el laboratorio fue enriquecedora, aplicamos teoría a la práctica, valoramos la tecnología ecológica y descubrimos el potencial transformador de la ciencia. La industria tequilera genera más desechos cada año, como el bagazo de agave. Afortunadamente, estos desechos tienen valor para mejorar la salud humana, desde tratar enfermedades como el cáncer hasta sintetizar biomateriales complejos. Esta investigación tiene amplias aplicaciones científicas y beneficia al medio ambiente y al ser humano. Busca maximizar los recursos naturales y promover el desarrollo sostenible para un bien común entre la humanidad y la naturaleza.
Martínez García María del Rocío, Universidad Veracruzana
Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional

ANáLISIS DE CINéTICA DE SECADO DE PAPAYA SIN TRATAMIENTO Y CON TRAMIENTO DE INMERSIóN DE HIDRóXIDO DE CALCIO Y DESHIDRATACIóN OSMóTICA EN UN SECADOR HíBRIDO SOLAR-ELéCTRICO


ANáLISIS DE CINéTICA DE SECADO DE PAPAYA SIN TRATAMIENTO Y CON TRAMIENTO DE INMERSIóN DE HIDRóXIDO DE CALCIO Y DESHIDRATACIóN OSMóTICA EN UN SECADOR HíBRIDO SOLAR-ELéCTRICO

Martínez García María del Rocío, Universidad Veracruzana. Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La papaya es una fruta tropical muy consumida debido a su sabor exótico y sus beneficios nutricionales. Sin embargo, la papaya es altamente perecedera y su vida útil es limitada, lo que conduce a un desperdicio significativo de la fruta. Para contrarrestar este problema, se han utilizado diferentes métodos de procesamiento y conservación, siendo el secado una de las técnicas más comunes para prolongar la vida útil de la papaya. El uso de secadores hibridos, que combinan energia solar y electrica, ha surgido como una alternativa prometedora para mejorar el proceso de secado de papaya. Además, se ha observado que la inmersión previa en soluciones de calcio y la deshidratación osmótica pueden mejorar las características sensoriales y nutricionales de la fruta seca. En este proyecto se evaluó la cinética de secado de la papaya Maradol en un secador por convección híbrido eléctrico-solar, en algunos de los casos experimentales la papaya que fue deshidratada se sometió a un tratamiento de inmersión por calcio y deshidratación osmótica en azúcar



METODOLOGÍA

Se trabajó con muestras de cubos de papaya (Carica papaya L.) variedad Maradol de 8 mm por lado. La papaya se encontraba en etapa de madurez 4 considerando como base de selección el color de la cascara. Se realizaron 3 casos experimentales de secado de papaya sin tratamiento. Con los parámetros de 63°C suramte un tiempo de secado de 7 horas. Estos consistieron en introducir charolas con masa de muestra fresca en el secador y tomar el peso de esta cada 5 minutos durante las 3 primeras horas del proceso, después de este tiempo, la medición de peso se hizo cada 30 minutos hasta obtener un peso constante.  Finalizado cada proceso de secado se hizieron calculos de pérdida de agua con respecto al tiempo, determinación del contenido de humedad, masa de agua, y así posteriormente realizar gráficas de la cinpetica de secado.  Por otro lado se hizo un secado de papaya con tratamiento para obtener una comparativa.  Para este caso, se observó el secado de papaya con tratamiento INCa y DO y sin tratamiento con secado solar. Se colocaron dentro del secador 4 charolas con un total de 2452 g de muestra húmeda y 2 charolas con un total de 177 g de muestra con tratamiento de inmersión de Ca(OH)2 (grado técnico) durante 60 minutos a 25° C con una concentración de 1 g de Ca(OH)2/100 ml de agua. La deshidratación osmótica consistió en un jarabe de azúcar proporcional a 60° BRIX a 50° C durante 60 minutos. La temperatura inicial fue de 43.7° C aproximadamente, con una variación de 10°C por arriba y por debajo de la temperatura inicial. El periodo de secado se dio en 10 horas. En este estudio se obtuvieron datos de temperatura de entrada y salida en el colector solar, así como, la temperatura del secador, temperatura ambiente, irradiación solar, velocidad del aire y humedad relativa con el adquisidor de datos DAQ 970A. Se realizaron gráficas sobre el comportamiento de la temperatura del secador respecto a la irradiación solar, se determinó contenido de humedad tanto para la muestra de papaya sin tratamiento y con tratamiento. Se hizo comparativa de la perdida de agua entre los dos tipos de muestras en estudio y calculó la masa de agua.


CONCLUSIONES

Tras llevar a cabo el análisis de cinética de secado de papaya con tratamiento de inmersión con hidróxido de calcio y deshidratación osmótica en un secador híbrido eléctrico-solar durante mi residencia de verano de investigación, se han obtenido conclusiones significativas que destacan la viabilidad y el potencial de esta tecnología en el procesamiento de alimentos. 1. Eficiencia energética y sostenibilidad: El secador híbrido eléctrico-solar demostró ser una solución eficiente y sostenible para el proceso de secado de papaya. La combinación de energía eléctrica y solar permitió un uso más racional de los recursos y una disminución significativa en la huella de carbono en comparación con secadores convencionales. 2. Mejora en la calidad del producto final: El tratamiento de inmersión con hidróxido de calcio y la deshidratación osmótica contribuyeron a preservar la calidad de la papaya durante el proceso de secado. Se observó una menor pérdida de nutrientes y propiedades sensoriales en comparación con el secado convencional. 3. Aumento en la vida útil del producto: El secado en el secador híbrido eléctrico-solar con tratamiento de inmersión y deshidratación osmótica resultó en una mayor vida útil del producto final. La combinación de técnicas permitió una mejor estabilidad microbiológica y una reducción significativa en el riesgo de deterioro prematuro. 4. Reducción del tiempo de secado: La aplicación del tratamiento de inmersión con hidróxido de calcio y deshidratación osmótica aceleró el proceso de secado en comparación con el secado convencional. Esto podría tener un impacto positivo en la industria alimentaria al aumentar la eficiencia y reducir los costos operativos. 5. Potencial para aplicaciones comerciales: Los resultados de esta investigación sugieren que el secador híbrido eléctrico-solar con tratamiento de inmersión y deshidratación osmótica podría ser una opción viable para la industria de procesamiento de alimentos. Su capacidad para producir productos de alta calidad y mantener su valor nutricional abre oportunidades comerciales prometedoras. En cnclusión, el presente trabajo de investigación proporciona evidencia sólida de que el uso del secador híbrido eléctrico-solar con tratamiento de inmersión con hidróxido de calcio y deshidratación osmótica es una alternativa prometedora y sustentable para el secado de papaya. Los resultados obtenidos respaldan la viabilidad de esta tecnología en la industria alimentaria y abren la puerta a futuras investigaciones y aplicaciones comerciales en el campo del procesamiento de alimentos.
Martínez Godínez Miguel Ángel, Universidad Autónoma de Guerrero
Asesor: Dr. Oscar Luis Sanchez Flores, Benemérita Universidad Autónoma de Puebla

EVALUACIóN EXPOST DE EFECTOS ECONóMICOS DE UN SISTEMA DE TRANSPORTE PúBLICO MASIVO TIPO BRT. CASO LíNEA 1 DE PUEBLA.


EVALUACIóN EXPOST DE EFECTOS ECONóMICOS DE UN SISTEMA DE TRANSPORTE PúBLICO MASIVO TIPO BRT. CASO LíNEA 1 DE PUEBLA.

Martínez Godínez Miguel Ángel, Universidad Autónoma de Guerrero. Asesor: Dr. Oscar Luis Sanchez Flores, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los servicios públicos como lo es el sistema de transporte tipo "BRT"de la ciudad metropolitana de Puebla de Zaragoza, tienen efectos visibles y que recaen en ciertas áreas como económicas, sociales y ambientales, estos efectos pueden ser positivos o negativos y son causados por el buen o mal funcionamiento de dicho servicio. El sistema de transporte público juega un papel crucial en la economía y el desarrollo de la ciudad. Uno de los aspectos fundamentales es su efecto sobre el empleo. Si bien se espera que un sistema de transporte tipo BRT mejore la movilidad y la accesibilidad, para poder evaluar su influencia en el empleo. Para este caso de estudio se evaluará bajo una metodología ex post el impacto que ha generado la línea 1 del metrobus de la ruta Tlaxcalancingo-Chachapa en cuestiones del empleo, este estudio se realizará en dos zonas específicamente previa mente seleccionadas de la estación TLAXCALANCINGO a la estación LAS ÁNIMAS del punto denominado EL TRIÁNGULO, y  de la estación LA ROSA a la estación de la base CHACHAPA. 



METODOLOGÍA

  La recopilación de la información para este proyecto de investigación se hizo bajo la metodología ex post en este caso de un sistema de transporte BRT (Bus Rapid Transit) la cual consiste en hacer un análisis de la eficacia y funcionalidad del sistema de transporte, este se realiza después de que el sistema ha sido implementado y ha estado operando durante un período no tan prolongado, pero si significativo. Dicho de otra forma, es una evaluación retrospectiva que busca analizar y medir los resultados y el rendimiento del sistema de transporte BRT de la ciudad metropolitana de Puebla de Zaragoza debido a que ya ha sido utilizada por la ciudadanía y ha estado funcionando de manera ordinaria desde su periodo de habilitación. Esta metodología nos va a permitir examinar y evaluar si este tipo de transporte(BRT)ha logrado sus objetivos iniciales, identificar áreas de éxito y oportunidades de mejora, y recopilar datos para tomar decisiones concisas sobre futuras mejoras al sistema. Este tipo de metodología puede tener varias etapas, pero para este caso de estudio utilizaremos solo una que será la clave para poder evaluar el funcionamiento, control, eficacia y el impacto que tuvo este servicio de transporte tipo BRT sobre el empleo en la ciudad de Puebla de Zaragoza: Dicha etapa es la recopilación de datos. Haciendo uso de la plataforma del INEGI-DENUE descargamos las bases de datos de las unidades económicas de los años 2010,2015,2022 respectivamente ya que este es nuestro lapso de tiempo el cual vamos a analizar. Teniendo completada la base de datos procedemos  a realizar las comparativas de los datos es decir para determinar que unidades económicas se mantienen hasta la fecha y cuales son nuevas .  Después realizaremos trabajo de campo el cual consistirá en la aplicación de encuestas en las unidades económicas de las zonas específicamente seleccionadas del trayecto de la línea 1 de la ruta Tlaxcalancingo-Chachapa ,esto se hizo tomando en cuenta los porcentajes mayores de acorde a los sectores de mayor afluencia .Una vez teniendo esos datos procedemos a realizar las estadísticas descriptivas para poder dar las concluiones finales.


CONCLUSIONES

Con lo que podemos conlcuir que la linea 1 de la Ruta Tlaxcalancingo-Chachapa no ha tenido gran  impacto alguno sobre las unidades económicas que se encuenyran en su trazo ,pero si les da la facilidda y accesibilidxad a los empleados de dichos locales,por lo quer podemos decir que la habilitación del serivicio de la ruta 1 ha tenido una eficacia regular ,ya que permite la movilidad y la conexión de diferentes sectores.
Martínez González Aradei, Instituto Tecnológico de Morelia
Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia

PRACTICA DE LA SOLDADURA SMAG Y GMAW


PRACTICA DE LA SOLDADURA SMAG Y GMAW

Ayala Pérez Rosa Elia, Instituto Tecnológico de Morelia. García Cruz Brenda, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernández Salinas Gerardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez González Aradei, Instituto Tecnológico de Morelia. Pérez Padilla Maria Mercedes, Instituto Tecnológico de Morelia. Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La soldadura es un proceso fundamental en la fabricación y construcción de estructuras de acero utilizadas en diversos sectores industriales, como la construcción, la industria automotriz, la fabricación de maquinaria pesada, entre otras. Dos de los métodos de soldadura más comunes y ampliamente utilizados son la Soldadura por Arco de Metal con Gas (GMAW) y la Soldadura por Arco de Metal Protegido (SMAW). El proceso de soldadura GMAW, también conocido como soldadura MIG (Metal Inert Gas), utiliza un arco eléctrico entre un electrodo continuo de alambre y la pieza de trabajo, mientras que un gas inerte protege la soldadura del contacto con el aire. Por otro lado, la soldadura SMAW, también conocida como soldadura con electrodo revestido o soldadura al arco, emplea un electrodo recubierto que proporciona el metal fundido y crea un gas protector. El objetivo de esta práctica fue proporcionar una evaluación comparativa exhaustiva entre la soldadura GMAW y la soldadura SMAW, basada en teoría y prácticas para determinar cuál de los dos métodos es más adecuado para aplicaciones específicas en la industria de la construcción y fabricación de estructuras de acero. Una vez practicado los dos tipos de soldadura, podremos tener claro las diferencias y similitudes entre GMAW y SMAW, se podrán tomar decisiones informadas para mejorar la calidad y eficiencia de las soldaduras en el futuro.



METODOLOGÍA

GMAW Para este tipo de soldadura se utiliza un alambre sólido (hilo-electrodo) , la composición química del alambre debe ser muy similar a la de la placa donde se va a soldar, una de las diferencias que se percataron con el SMAW es que en este se forma una pequeña escoria en el cordón, más sin embargo en el de GMAW no sucede esto, por el gas protector, el gas base que se utiliza es argón (Ar), y en este proceso se pueden agregar a parte de este gas otros diferentes, la principal función del gas de protección es servir de barrera para el aire atmosférico, y tener un acabado de cordón sin poros y sobre todo muy estético.  Este proceso consiste en una fuente de energía que tiene generalmente una salida de voltaje constante regulable entre 15 y 50 voltios, una torcha, el recipiente fuente de gas y el alimentador de alambre, la cual es usada en conjunto con un sistema alimentador de alambre con velocidad regulable, que va desde 1 a 20 metros por minuto. Ahora bien, funciona de la siguiente manera; Un generador proporciona una potencia eléctrica que crea un arco eléctrico entre el hilo-electrodo (metal de aporte) y la pieza que se va a soldar, provocando un calor de gran intensidad. Esto permite la fusión de las piezas metálicas que se van a unir y del metal de aporte. A parte, maneja tres diferentes modos de transferencia, cada uno trabaja con diferente presión y voltaje. Globular En esta transferencia el diámetro de las gotas aumenta siendo iguales o hasta mayores que el diámetro del alambre este tipo de transferencia ocurre en la zona de transición cuando los niveles de amperaje y voltaje se encuentran entre el punto de cortocircuito y spray ocasionando en la mayoría de los casos un alto nivel de inestabilidad no es utilizado en la mayoría de las aplicaciones, la fase globular se genera en una corriente entre 200 o 250 amperios   Corto Circuito Esta transferencia se genera cuando el alambre toca la placaahí se genera el cortocircuito y ahí se comienza a desprender el material, el corto circuito es el modo de transferencia que menor calor aporta presenta, se genera entre 150 y 200 amperios   Spray Esta transferencia se genera en altos niveles de amperaje, se utiliza principalmente en superficies horizontales y planas, al utilizar voltajes altos se obtienen cordones de soldadura gruesos, este proceso presenta un arco estable y libre de salpicaduras. SMAW La soldadura SMAW es un proceso en el cual la fusión del metal se produce debido al calor generado por un arco eléctrico que se crea entre el extremo de un electrodo y el metal base al que se va a unir. El material de aportación, es decir, el que se obtiene del cambio sólido a líquido del electrodo se da en forma de gotas pequeñas. Equipo El equipo necesario para realizar una soldadura SMAW consta de cinco elementos: Fuente de energía Pinza porta electrodos Electrodo revestido Conexión a masa Cables de soldeo Aplicaciones La SMAW es la soldadura por arco más utilizada debido a que es aplicable a una diversidad de materiales y a que es requerida en industrias de sectores diferentes. Acerca de los materiales, la SMAW es útil para unir aceros (al carbono, altamente inoxidables y de baja aleación), fundiciones y metales no férreos (aluminio, cobre, níquel y sus aleaciones).  La SMAW puede utilizarse con corriente alterna o continua. La elección de una u otra depende del electrodo elegido, de la fuente de corriente disponible y del material base. Sobre los sectores industriales, la soldadura por arco con electrodo revestido tiene aplicación en todos aquellos en los que se involucre la construcción de calderas, esferas de almacenamiento, gasoductos, oleoductos, puentes, recipientes a presión, refinerías y tanques.


CONCLUSIONES

GMAW. Después de haber empleado distinto parámetros operativos, mezclas de gases, técnicas  de soldeo y modos de transferencia de metal de aporte, se pudo corroborar la gran versatilidad del proceso para ser empleado en una gran gama de materiales y espesores.  Lo anterior permite generar un ahorro significativo  en tiempos de manufactura y por ende en costos de fabricación SMAW. Con el uso de distintos tipos de electrodo en distintas posiciones de soldeo, se pudo entender que la habilidad de soldar es crítica para la correcta ejecución del proceso y asegurar la sanidad de las uniones realizadas. A pesar de ser un proceso manual, de un relativo bajo rendimiento y que no es automatizable, es ampliamente usado porque, con soldadores certificados, permite realizar uniones en sitios de trabajo incomodos e  inhóspitos debido a la sencillez del equipo y consumibles empleados  
Martínez Guzmán Jesús Florencio, Instituto Tecnológico de Toluca
Asesor: Dra. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit

MOBILE LEARNING


MOBILE LEARNING

Martínez Guzmán Jesús Florencio, Instituto Tecnológico de Toluca. Asesor: Dra. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

El mobile learning, o aprendizaje móvil, surge como resultado de la convergencia entre la educación y la tecnología móvil. Esta modalidad de aprendizaje aprovecha las características de movilidad, portabilidad y conectividad de los dispositivos móviles para facilitar el acceso a la información y los recursos educativos en cualquier momento y lugar. En México, de acuerdo con un estudio realizado por la universidad autónoma Metropolitana existe la necesidad de mejorar y enriquecer los estados del país debido a que uno de los mayores problemas es la desigualdad en la distribución de los recursos tecnológicos, así mismo se concluyó que existe deficiencia en muchos docentes de las instituciones de México, que carecen de conocimientos y habilidades para aprovechar las herramientas para complementar el aprendizaje.



METODOLOGÍA

Para realizar este proyecto se utilizó la metodología SCRUM, realizando 3 sprints en el cual se asignaron actividades que se plasmaron en el backlog del proyecto. Por sprint se realizaron las siguientes actividades. Primer Sprint 1.            Introducción al análisis de datos. 2.            Pruebas de viabilidad de uso del software Python. 3.            Definición de variables a utilizar. Segundo Sprint. 1.            Análisis de datos seleccionados. 2.            Correlacionar datos seleccionados con E-learning y M-Learning. 3.            Realizar gráficos de la información obtenida. Tercer Sprint 1.            Selección de gráficos a utilizar. 2.            Edición de gráficos.


CONCLUSIONES

Resultados A través del análisis realizado a la base de datos ReNIUTyP, se detectaron aspectos que los docentes de las universidades tecnológicas y politécnicas implementaron para impartir clases en línea, así como problemáticas, propuestas de solución y estrategias de mejora. El primer aspecto identificado fueron las problemáticas principales que los docentes encontraron al momento de dar sus clases, estas se pueden clasificar en problemáticas que los incluyen directamente y otras que son provocadas por los alumnos. Los docentes optaron por el uso de herramientas síncronas y asíncronas para sus sesiones y poder llevar un mejor registro del aprendizaje adquirido por sus alumnos, dentro de esto, se pudo observar que los docentes preferían utilizar una herramienta de videoconferencia para impartir clase y una herramienta asíncrona para impartir clase. Después de implementar y aprender el uso de tecnologías educativas, los docentes subieron el índice de aprendizaje de sus alumnos, con alrededor del 80% de los maestros cumpliendo sus objetivos. Conclusiones La influencia del mobile learning en la práctica docente ha sido significativa. Esta herramienta ha transformado la forma en que los docentes diseñan y ofrecen sus clases, ya que les permite crear y compartir contenidos interactivos, presentaciones multimedia, videos educativos y actividades de aprendizaje adaptadas a las necesidades individuales de los estudiantes. Además, el mobile learning fomenta la colaboración y la participación de los alumnos, brindando la posibilidad de realizar actividades grupales y de intercambio de información en tiempo real. Asimismo, al ser una tecnología familiar para los estudiantes, el uso de dispositivos móviles en el aula genera un mayor interés y motivación por el aprendizaje, lo que se traduce en mejores resultados académicos.
Martinez Lopez Yadira Yaimara, Instituto Tecnológico de Morelia
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

EFECTO DE UN RECUBRIMIENTO CON NANOPARTÍCULAS MESOPOROSAS DE ÓXIDO DE SILICIO Y PLATA APLICADO EN ACERO AL CARBONO EXPUESTO EN AGUA DE MAR NATURAL


EFECTO DE UN RECUBRIMIENTO CON NANOPARTÍCULAS MESOPOROSAS DE ÓXIDO DE SILICIO Y PLATA APLICADO EN ACERO AL CARBONO EXPUESTO EN AGUA DE MAR NATURAL

Martinez Lopez Yadira Yaimara, Instituto Tecnológico de Morelia. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

La corrosión puede definirse como la degradación de un metal o aleación metálica debido al efecto de agentes oxidantes, este fenómeno no solo repercute en el ámbito económico, también la salud humana, la seguridad y la tecnología. Esto es debido a que todo metal muestra una tendencia inherente a reaccionar con el medio ambiente para volver a su forma nativa. El ambiente marino representa un entorno hostil para las estructuras metálicas debido a la variación de parámetros como oxígeno disuelto, temperatura, salinidad, pH, velocidad del agua de mar, etcétera. Debido a que la corrosión es altamente agresiva, es importante investigar los mecanismos de corrosión de los materiales en el ambiente marino, así como los métodos de prevención.



METODOLOGÍA

I. Determinación de la matriz experimental: Para el desarrollo del estudio se emplearán técnicas electroquímicas y de caracterización de superficie en las muestras de acero al carbono 1045. Una parte del total de las probetas de acero fungirán como electrodos de trabajo y otra parte serán empleados en estudios gravimétricos. Las muestras de acero al carbono se dividierón en tres grupos: Acero sin recubrimiento (ASR) Acero con recubrimiento (ACR) (nanopartículas de SiO2) Acero con recubrimiento modificado (ACRM) (nanopartículas de SiO2 y Ag) Se agruparon las muestras con el objetivo de evaluar el efecto de las nanopartículas de óxido de silicio y plata mediante un estudio comparativo con muestras sin recubrimiento. Los tiempos de exposición de las muestras en agua de mar serán de 15, 30, 90, 180 y 365 días. Las pruebas electroquimicas para los electrodos se realizarán posteriormente ya que se deben someter a la inmersion en el mar, sin embargo para ese periodo yo ya no estare colaborando con el investigador, sin embargo hago mencion ya que apoye en el proceso de manufactura de los mismos. II. Preparación de las probetas de acero al carbono Para la preparación de probetas primero se cortaron probetas cilíndricas de 1.905 cm (3/4 plg) de diámetro de acero al carbono 1045.  Se separaron las muestras que fungirán como electrodos de trabajo de las que se utilizarán para estudios gravimétricos las cuales se perforaron en su circunferencia mediante el uso de un taladro fresador, este procedimiento se realizó con el fin de poder sujetar las muestras durante la inmersión. III. Síntesis de nanopartículas mesoporosas de SiO2 MCM-41 Las nanopartículas de óxido de silicio mesoporosas se sintetizaron y funcionalizaron con HDTMS. IV. Preparación de superficie de las probetas Las muestras se sometierón a un proceso de lijado a diferentes grados (50, 120, 220, 400 y 600), se empleará agua para evitar la acumulación de material entre los granos de la lija. La finalidad del lijado será para quitar las imperfecciones de la muestra. Se limpio la superficie del metal con acetona y después se enjuago con agua destilada, se procedio con el secado y pesado mediante una balanza analítica. Por último, las muestras que se utilizarán para ensayos gravimétricos se sujetarán a un enrejado metálico en serie con cordel grado 60 a una distancia considerable para indicar el término de exposición. V. Embebido de las probetas Se empleo resina epóxica y se utilizarón como recipientes tubos de PVC de 2.54 cm (1 plg) de diámetro y 2 cm de largo, las probetas fuerón colocadas en el interior del recipiente, con un cable haciendo conexión con una de sus caras. Se vació la resina lentamente para evitar la formación de burbujas, se dejará reposar por 24 horas. Por último, se comprobo la existencia de continuidad eléctrica mediante un voltímetro. VI. Síntesis de recubrimiento La síntesis de este recubrimiento se llevó a cabo por el método sol-gel utilizando como precursor el alcoxisilano MTES mediante un método previamente reportado con algunas variaciones. Para MTES, metanol e hidróxido de amonio (NH4OH) se añadirán 7M a un vial de polipropileno en una relación molar de 2:19,1:4,31 respectivamente, para dar un volumen total de 5 ml. La mezcla se agitó durante 2 min en un agitador vortex y se dejará reposar hasta su uso. Este tipo de recubrimiento se denominará MTES.  VII. Caracterización electroquímica Todas las pruebas electroquímicas se llevarán a cabo a temperatura ambiente controlada (25 °C). Se utilizará una celda electroquímica convencional de tres electrodos con un electrodo de calomelanos saturado (ECS) como electrodo de referencia, una barra de grafito como electrodo auxiliar y las muestras de acero al carbono (ASR, ACR y ACRM) como electrodos de trabajo. VIII. Análisis de superficie Se utilizará la microscopía electrónica de barrido (MEB) para caracterizar las superficies de fractura, circuitos integrados, productos de corrosión y otras superficies rugosas, especialmente cuando se realice un microanálisis elemental de pequeñas características en el material que se desea estudiar. Se empleará la técnica de difracción de rayos X (DRX) que es utilizada para identificar la composición de las diferentes fases cristalinas de productos de corrosión que se generan en una muestra en particular, y además proporciona información sobre el estado físico de la muestra, tamaño de grano, así como la perfección de su estructura cristalina. La espectroscopía de fotoelectrones de rayos X (ERFX) en superficies puede proporcionar información cualitativa y cuantitativa de todos los elementos presentes, excepto H y He. Con aplicaciones más sofisticadas de la técnica se puede obtener información detallada de la química, organización y morfología de la superficie.


CONCLUSIONES

En el presente estudio se observará el comportamiento del recubrimiento basado en silicio adicionado con nanopartículas metálicas (SiO2 y Ag) aplicado sobre muestras de acero al carbono 1045; se espera que el recubrimiento de silicio adicionado con nanopartículas de SiO2 y Ag retarde la corrosión sobre el acero debido a las propiedades inhibidoras de las nanopartículas y la hidrofobicidad del recubrimiento
Martinez Martinez Eva Yamile, Instituto Tecnológico de Matamoros
Asesor: Dr. Harvey Andrés Milquez Sanabria, Fundación Universidad de América

DIGESTIóN ANAEROBIA EN DOS FASES DE RESIDUOS AGROINDUSTRIALES


DIGESTIóN ANAEROBIA EN DOS FASES DE RESIDUOS AGROINDUSTRIALES

Martinez Martinez Eva Yamile, Instituto Tecnológico de Matamoros. Asesor: Dr. Harvey Andrés Milquez Sanabria, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

El metano es un gas que puede ser utilizado como fuente de energía renovable útil como biocombustible. Los biorreactores ofrecen una prometedora solución para la producción sostenible de metano, ya que pueden utilizar diferentes materiales orgánicos, como residuos agrícolas o agroindustriales, para su producción. Sin embargo, el rendimiento y la eficiencia de estos sistemas son cruciales para que el proceso sea económicamente viable y ambientalmente sostenible. El principal problema a abordar este proyecto es como mejorar la producción de metano en los biorreactores utilizando distintas estrategias y optimizando las condiciones de operación, además de investigar y evaluar nuevas fuentes de alimento para los microorganismos productores de metano.



METODOLOGÍA

Se tiene dos reactores tipo UASB con una capacidad de 2 litros llamados Harvey 1 y Harvey 2 respectivamente, ambos compuestos de una entrada inferior para la alimentación a través la cual se introduce el sustrato. Así como una entrada superior de salida de biogás, una bomba de circulación que nos ayuda a evitar que los fluidos se estanquen y a la vez mantener una distribución homogénea de nutrientes y oxígeno. Se adiciono una manguera para el control de la temperatura la cual está conectada a una bomba hidráulica y sumergida en un baño maría a una temperatura de 45° C. El biorreactor cuenta con diversas válvulas para tener un control en diferentes aspectos del proceso. El biorreactor cuenta con gasómetro el cual en la zona inferior se encuentra una cantidad significativa de agua la cual actúa como sello hidráulico, impidiendo que le biogás se libere al ambiente, cuando el biogás producido en el biorreactor entra en el gasómetro, asciende a través del agua, empujando el líquido hacia arriba, acumulando el biogás en la parte superior del gasómetro. Ambos gasómetros al igual que los biorreactores cuentan con sus respectivas entradas y salidas de biogás y un colector de vapor de agua. Se establecieron parámetros críticos para el monitoreo, como lo son la temperatura, pH, presión, flujo de alimentación y salida, alcalinidad, concentración de producto (AGV), tasa de carga orgánica (TCO), análisis de gases (H2, CH4, CO2, H2S), volumen de biogás producido, medición de DQO. Durante un transcurso de 7 semanas se estuvo llevando a cabo el mantenimiento y monitore de ambos biorreactores, analizando los gases mediante un medidor portátil de concentración de gases. Se reviso la concentración de producto titulando con ácido acético a 0.01 M muestras obtenidas de ambos reactores, teniendo como margen el pH inicial, pH a 5 y a 4.4, teniendo en cuenta el volumen de Ácido Acético agregado para llegar a cada pH. Se tomo la temperatura de cada muestra obtenida diaria con un termómetro digital. Se alimento y se sustrajo un aproximado de 150 ml para la medición de DQO y AGV. Una vez por semana se realizó la medición de DQO, añadiendo 1 ml de ftalato (el cual nos determina porcentaje de error) a un tubo con solución para medir DQO, se hizo lo mismo para el alimento y las muestras de ambos reactores. Acto consiguiente se midió el DQO de cada solución en un Spectroquant. El DQO nos ayuda a determinar la cantidad de oxígeno consumido en la oxidación química de la materia orgánica presente en la muestra. En el transcurso de la estancia también se llevó a cabo una extensa investigación en la literatura sobre técnicas y estrategias para mejorar la producción de metano en los biorreactores. Se examinaron diferentes sustratos y procesos de pretratamiento para mejorar la biodisponibilidad de materia orgánica. Los datos recopilados durante las siete semanas fueron analizados mediante técnicas estadísticas y herramientas de análisis de datos. Se compararon los resultados obtenidos en ambos biorreactores y se identificaron diversas estrategias para mejorar el rendimiento en la producción de metano. Como producto entregable fue la elaboración de un manual de operación para los reactores, en el que se mencionan los fundamentos básicos de la digestión anaerobia, el biogás, biorreactores, características de los biorreactores, alimentación, procedimientos diarios y periódicos de operación y control, etcétera.


CONCLUSIONES

Durante la estancia de este verano científico logre adquirir una experiencia enriquecedora y gratificante, permitiéndome adquirir valiosas habilidades de investigación y desarrollo experimental. El trabajo realizado en los biorreactores para la producción de metano me ha brindado una comprensión mas profunda de los desafíos y oportunidades que existen en el campo de la energía renovable. Espero que la información presentada contribuya al avance de la ciencia y la tecnología en la producción sostenible de metano y la promoción de fuentes de energía mas limpias y respetuosas con el medio ambiente.
Martinez Martinezz Mariana, Instituto Tecnológico de Pachuca
Asesor: Mg. Blanca Judith Cristancho Pabon, Universidad de Pamplona

ENERGíAS ALTERNATIVAS Y CALIDAD DE LA ENERGíA ELéCTRICA


ENERGíAS ALTERNATIVAS Y CALIDAD DE LA ENERGíA ELéCTRICA

Díaz Durango Carmen Daniela, Universidad Tecnológica De Bolívar. Martinez Martinezz Mariana, Instituto Tecnológico de Pachuca. Asesor: Mg. Blanca Judith Cristancho Pabon, Universidad de Pamplona



PLANTEAMIENTO DEL PROBLEMA

La certificación de equipos garantiza a los consumidores que los productos cumplen con altos estándares de calidad y rendimiento, reduciendo así el riesgo de fallos y problemas a lo largo de la vida útil del sistema solar. En Colombia, la certificación de equipos solares es un requisito legal para acceder a incentivos, subsidios y programas de apoyo gubernamental relacionados con la energía solar. También es fundamental para cumplir con los requisitos de instalación establecidos por las compañías eléctricas y las normativas de construcción. La mayor problemática que se presentan en este tipo de trastornos es la certificación de cada uno de los componentes del sistema, así como el funcionamiento y el mantenimiento que integra cada sistema fotovoltaico. 



METODOLOGÍA

La metodología del proyecto constó de varias fases para el estudio de los sistemas fotovoltaicos instalados en los edificios Jorge Eliécer Gaitán y Virgilio Barco Vargas. En la primera fase, se identificaron y reconocieron los componentes de los sistemas fotovoltaicos. Para ello, se llevó a cabo una inspección de los paneles solares y de los cuartos eléctricos de ambos edificios. Posteriormente, se procedió a verificar la información técnica de los sistemas fotovoltaicos mediante la revisión de los contratos correspondientes. En esta parte, se examinó si los elementos establecidos en el contrato fueron los mismos que se instalaron. Esta información se recopiló durante semanas y se capturó en una hoja de cálculo (Excel). Algunos equipos, como los paneles, el inversor, el transformador y los gabinetes, se les añadió un plan de mantenimiento. A partir de la información obtenida, se realizaron los planos del sistema, dentro de los cuales se incluyen los diagramas unifilares, la puesta a tierra, la ubicación, los riesgos eléctricos, entre otras cosas. En esta fase, se tuvieron en cuenta las conexiones, la instalación y las características de los equipos para evaluar posibles fallas y consecuencias de los sistemas. A partir de lo anterior, establecieron precauciones y prevenciones en algunos casos. Ambos sistemas se modelaron y simularon en el programa PVsyst, teniendo en cuenta las características del edificio, de los equipos y del medio ambiente. Con esto, buscamos conocer el rendimiento del sistema en diversas condiciones. A continuación, se procedió a armar las memorias de cálculo para cada sistema. En esta etapa, se diseñaron y realizaron los cálculos y análisis requeridos por la RETIE, buscando garantizar que los equipos instalados cumplan con la normatividad y sean seguros. Además, se tuvo en cuenta la capacidad del sistema, cuánto de esto consume el edificio y cuánto puede ser inyectado a la red. Finalmente, se concluyó la recolección de todos los archivos, estableciendo las observaciones y adecuaciones que se deben hacer en ambos sistemas para lograr la certificación. En general para llevar a cabo el trámite de certificación, se aplicaron técnicas de investigación para recabar información sobre los diferentes fabricantes y modelos de paneles solares instalados, se evaluaron aspectos como la disponibilidad de conexión de los generadores, el cálculo y diseño del sistema fotovoltaico.


CONCLUSIONES

Al finalizar el proyecto, se realizó una exhaustiva revisión de los sistemas instalados en ambos edificios con el objetivo de obtener la certificación necesaria para garantizar su calidad y conformidad con los estándares requeridos. Sin embargo, se identificaron ciertas deficiencias y problemas en ambas instalaciones que impidieron obtener la certificación de conformidad RETIE en su estado actual. En el caso del edificio Virgilio Barco Vargas, bajo el contrato N° 2064, se encontraron varios aspectos que requerían atención. Se descubrió que una canaleta no tenía el certificado de conformidad RETIE, lo que representa un incumplimiento importante de las normas de seguridad. Además, se detectaron empalmes en algunos cables y las protecciones DC estaban conectadas incorrectamente, lo que podría afectar el rendimiento y la seguridad del sistema. Un aspecto preocupante fue la falta de información sobre el lugar de la puesta a tierra del sistema y sus especificaciones, lo que es fundamental para garantizar una operación segura y eficiente. Por otro lado, en el edificio Jorge Eliecer Gaitán, bajo el contrato N° 2077, también se encontraron problemas que requerían atención inmediata para obtener la certificación. Se detectó que el tablero de protecciones estaba desconectado, y en su lugar, se utilizaron protecciones de un sistema anterior, lo cual es una práctica inadecuada y poco segura. Además, se carecía de información detallada sobre las características de algunos equipos, lo que dificulta la evaluación de su conformidad con las normas. Asimismo, se constató que el certificado de conformidad RETIE de los paneles solares había vencido, lo que representa un riesgo y una limitación para la certificación general del sistema. Al igual que en el otro edificio, la falta de información sobre la puesta a tierra también fue un inconveniente en este caso. A pesar de las problemáticas identificadas en ambos edificios, el informe concluyó que era factible realizar las adecuaciones sugeridas en la documentación entregada a la universidad. Estas modificaciones son fundamentales para que en el futuro se pueda obtener la legalización y certificación de los sistemas solares. Se recomendó llevar a cabo este proceso durante el presente año para mantener la certificación de conformidad RETIE válida en algunos componentes, y así asegurar la calidad y seguridad de las instalaciones. En resumen, el proyecto de certificación de paneles solares en los edificios Virgilio Barco Vargas y Jorge Eliecer Gaitán reveló deficiencias que impidieron la obtención de la certificación en las condiciones actuales de ambos sistemas. Sin embargo, con las adecuaciones sugeridas y la revisión de todos los aspectos relevantes, es posible alcanzar en el futuro la legalización y certificación de las instalaciones, garantizando así un sistema de energía solar confiable, seguro y eficiente para ambos edificios de la Universidad de Pamplona, Norte de Santander, Colombia.
Martinez Mejia Carlos Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Barsimeo González Panzo, Instituto Tecnológico Superior de Ciudad Serdán

FACTORES QUE INFLUYEN EN LA COMPETITIVIDAD DE PYMES DEL SECTOR COMERCIAL EN LA REGIóN DE CHALCHICOMULA DE SESMA.


FACTORES QUE INFLUYEN EN LA COMPETITIVIDAD DE PYMES DEL SECTOR COMERCIAL EN LA REGIóN DE CHALCHICOMULA DE SESMA.

Martinez Mejia Carlos Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Peña Mauricio Agustin, Instituto Tecnológico de Morelia. Asesor: Mtro. Barsimeo González Panzo, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

En México, la pequeña y mediana empresa (Pyme), representan más del 99% de las empresas establecidas, generan 52 % del Producto Interno Bruto (PIB) y dan trabajo a más del 72% del total del personal empleado (IMCO, 2019). Las Pymes en la nueva economía que se caracteriza por la globalización de los mercados, una mayor oferta que demanda más y mejores productos, cada vez esos clientes son más exigentes, el análisis del aseguramiento de la calidad, el aprovisionamiento, la planeación estratégica, el marketing, la contabilidad y finanzas, deben de ser consideradas como fuente de ventaja competitiva. Las Pymes tienen según Singh, Garg and Deshmukh (2008) los siguientes limitadores en estos mercados globalizados: Escasez de recursos Planitud de la estructura empresarial Falta de conocimientos técnicos Escasez de innovación Aparición de pérdidas de conocimiento El interés que tiene por tal motivo está investigación es avanzar en el conocimiento de los factores clave para la realización de un modelo que mejore la competitiva en las Pymes de acuerdo con el contexto de la región de Ciudad Serdán. De esta manera las Pymes que los identifiquen correctamente, se considera que tendrán la capacidad de implementar dentro de su organización un sistema más competitivo de acuerdo con la región, con el fin de poder realizar innovaciones, crear nuevas y sostenibles ventajas competitivas. La investigación tiene un enfoque cuantitativo ya que pretende realizar una recolección de datos y comprobar, unos supuestos con un análisis transversal utilizando el método deductivo con la técnica para la recolección de datos de la encuesta estructurada con una escala de Likert, el estudio está diseñado en dos etapas, la primera que es el diagnostico de una muestra de las Pymes de la región de Ciudad Serdán, la segunda etapa será el diseño de un método que busque el incremento de la competitividad de las Pymes conforme al contexto y las variables antes mencionadas.



METODOLOGÍA

La investigación tiene un enfoque cuantitativo derivado que pretendió describir, explicar y predecir los fenómenos investigados, buscando regularidades y relaciones causales entre los elementos, variables. Esto significa que la meta principal es la prueba de hipótesis y la formulación y demostración de teorías (Hernández-Sampieri & Mendoza, 2008). El tipo de estudio fue observacional, debido a que se buscó identificar los factores que influyen en la competitividad de las PYMEs en el sector comercial, es transcendental aclarar que el tipo de interferencia solo describe el fenómeno en disposición de dichos factores. Es retrospectivo parcial, ya que se cuenta con información acerca de los factores que determinan la competitividad, a través de la revisión de la literatura. Al mismo tiempo es de tipo descriptivo, debido a que se tiene una sola población, las Pymes de la región de Chalchicomula de Sesma, y se pretende describir en función de dichos factores.


CONCLUSIONES

Durante el verano de investigación, se llevó a cabo un proyecto conjunto para determinar los factores que influyen en la competitividad de las Pymes en la región de Chalchicomula de Sesma. La investigación se basó en el análisis de dos variables fundamentales: la competitividad y las ventas, consideradas esenciales para el desarrollo de cualquier empresa, sin importar su tamaño. El proceso de investigación comenzó con una revisión exhaustiva de la literatura, lo que proporcionó una base sólida para la elaboración de una encuesta estructurada con una escala de Likert, como menciona Bertram, (2008, como se citó en Matas, A, 2018) las llamadas escalas Likert son instrumentos psicométricos donde el encuestado debe indicar su acuerdo o desacuerdo sobre una afirmación, ítem o reactivo, lo que se realiza a través de una escala ordenada y unidimensional. (p. 39) Aplicando un cuestionario como menciona García, F, (2006), un cuestionario es un proceso estructurado de recogida de información a través de la cumplimentación de una serie de preguntas. (p.2), compuesto inicialmente por 42 ítems que medían distintos aspectos de la competitividad y ventas se aplicó a 11 pymes de Chalchicomula de Sesma, elegidas por conveniencia, con el fin de validar la fiabilidad del instrumento. Al analizar la fiabilidad de los datos obtenidos con el software estadístico SPSS, se obtuvieron resultados de alfa Cronbach de 0.522 en la primera validación, debido a esto se realizaron modificaciones al instrumento eliminando y cambiando algunos ítems que no estaban arrojando los resultados esperados. El instrumento fue reducido a 33 ítems después de un proceso de depuración con base a los resultados obtenidos; nuevamente se aplicó un muestreo por conveniencia a 11 pyme diferentes de la región consiguiendo así que en la segunda validación donde se obtuvo un Alfa de Cronbach a 0.712. Durante la recolección de datos, se observó que algunas Pymes mostraron resistencia al cambio, mientras que la mayoría se mostraron amables y dispuestas a participar en el estudio. Sin embargo, se enfrentaron dificultades debido a la disponibilidad de tiempo para responder las preguntas, Aunado a lo anterior, otra dificultad que se encontró durante el estudio fue que los ítems estaban dirigidos a dueños o gerentes los cuales la mayoría de las veces no se encontraban en el establecimiento o no estaban disponibles para contestar, por lo que, la mayoría de las respuestas provinieron de empleados que no conocían a detalle el funcionamiento interno de la Pyme. En consecuencia, se optó por modificar los ítems para adaptarse a esta situación. Se llegó a la conclusión de que el tiempo reducido que se tuvo para realizar las encuestas, influyo en los resultados obtenidos; Si bien el proceso de recolección de datos presentó algunos desafíos, el estudio proporcionó un aprendizaje significativo y valiosas observaciones que ayudarán en el seguimiento de esta investigación. Se destaca la importancia de seguir trabajando en la mejora del instrumento de recolección de datos y la necesidad de ampliar el tamaño de la muestra para obtener resultados más confiables y representativos.
Martínez Miguel José Raúl, Instituto Tecnológico de Ciudad Altamirano
Asesor: Esp. Carlos Alberto Bernal Beltran, Instituto Tecnológico de Ciudad Altamirano

INNOVATECNM


INNOVATECNM

Martínez Miguel José Raúl, Instituto Tecnológico de Ciudad Altamirano. Asesor: Esp. Carlos Alberto Bernal Beltran, Instituto Tecnológico de Ciudad Altamirano



PLANTEAMIENTO DEL PROBLEMA

La novedad del proyecto radica en la implementación de un sistema de monitoreo y control basado en IoT para la medición en tiempo real de la calidad y cantidad del agua en la reproducción y crianza de peces, para obtener datos precisos y confiables que permitan analizar y mejorar el rendimiento de la producción de peces en términos de calidad y cantidad del agua, optimizando así los procesos y reduciendo costos.



METODOLOGÍA

Atender la problemática del sector acuícola en cuanto a la calidad y cantidad del agua en la reproducción, crianza de peces. La sobrepoblación de peces en los estanques y la acumulación de desechos orgánicos pueden provocar una disminución en la calidad del agua, lo que afecta el crecimiento y la salud de los peces, aumentando así la mortalidad y disminuyendo la producción.


CONCLUSIONES

Atender la problemática del sector acuícola en cuanto a la calidad y cantidad del agua en la reproducción, crianza de peces. La sobrepoblación de peces en los estanques y la acumulación de desechos orgánicos pueden provocar una disminución en la calidad del agua, lo que afecta el crecimiento y la salud de los peces, aumentando así la mortalidad y disminuyendo la producción.
Martinez Muñoz Yeray Valdimir, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia

INTERFAZ WEB PARA CONSULTA DE TARIFAS DE CONSUMO ELéCTRICO.


INTERFAZ WEB PARA CONSULTA DE TARIFAS DE CONSUMO ELéCTRICO.

Martinez Muñoz Yeray Valdimir, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Partimos del problema de que muchos usuarios desconocen cómo realizar una lectura precisa de su consumo eléctrico y calcular correctamente el monto a pagar. Además, aquellos que cuentan con sistemas de generación eléctrica renovable también enfrentan dificultades para saber cuánta energía han generado. Esto se debe en gran parte a que los medidores convencionales no proporcionan suficiente información al usuario final, lo que puede generar desconfianza y falta de transparencia en el sistema. Para abordar esta situación, es fundamental implementar soluciones como el módulo "Smart Pi 3.0", una extensión para las Raspberry Pi, que permitirá obtener datos precisos de voltaje, amperaje y watt para un cálculo más preciso del consumo eléctrico y, en consecuencia, una mayor conciencia sobre el ahorro energético. Además, el desarrollo de una interfaz web amigable facilitará a los usuarios acceder a la información que necesiten en tiempo real, promoviendo así un uso más responsable y consciente de la energía. Con estas medidas, esperamos brindar una solución práctica y transparente que empodere a los usuarios en el control de su consumo eléctrico y fomente el uso sostenible de los recursos energéticos.



METODOLOGÍA

1. Objetivo El objetivo de esta investigación fue desarrollar un medidor inteligente utilizando un Raspberry Pi y el módulo Smart Pi 3.0. Se buscaba lograr la instalación del sistema Smart Pi en la Raspberry Pi y permitir el acceso remoto a la página web del medidor para visualizar y registrar el consumo eléctrico. Además, se pretendía extraer los datos del servidor de medición del consumo eléctrico y analizarlos para su mejor comprensión.   2. Instalación de Smart Pi en Raspberry Pi Para la instalación de Smart Pi en la Raspberry Pi 4 Modelo B, se llevaron a cabo los siguientes pasos: 2.1. Descarga de la imagen de Smart Pi: Se accedió a la página oficial de Smart Pi 3.0 y se descargó la imagen del instalador con los paquetes adecuados para reconocer la placa Smart Pi 3.0 Handbuch.   2.2. Flasheo de la imagen: Se utilizó el software BalenaEtcher para flashear la imagen en la tarjeta SD. Luego, se insertó la tarjeta SD en la Raspberry Pi para iniciar el proceso de instalación.   2.3. Instalación de paquetería: Durante el proceso de instalación, se identificó un problema al no detectar la placa Smart Pi 3.0 Handbuch, lo que impidió la instalación de la paquetería de Smart Pi en el primer intento. Sin embargo, en el segundo intento con la Raspberry Pi 3 Modelo B y la placa conectada, la paquetería se instaló correctamente.   2.4. Sistema operativo sin interfaz gráfica: Se notó que la imagen descargada tenía una versión de Raspberry Lite OS (64-bit) que carecía de interfaz gráfica, lo que limitó la visualización de datos de consumo eléctrico.   3. Acceso remoto al sistema Para permitir el acceso remoto a la página web del medidor, se evaluaron diferentes métodos:   3.1. Configuración de puerto de reenvío: Se intentó configurar el reenvío de puertos en el router para permitir el acceso remoto. Sin embargo, dado que el acceso al router principal no era posible, esta opción no se pudo implementar.   3.2. Compra de dominio y hosting: Se consideró la posibilidad de adquirir un dominio y hosting para acceder de forma remota, pero debido a restricciones de configuración en el modem principal, esta opción también fue descartada.   3.3. Túnel reverso con AWS: Se optó por utilizar un túnel reverso con AWS (Amazon Web Services) mediante una máquina virtual en la nube. Se creó una instancia en AWS y se configuraron las reglas de seguridad para permitir el acceso a los puertos necesarios. A través del túnel reverso, se logró acceder de forma remota a la página web del medidor y visualizar los datos de consumo eléctrico.   4. Extracción y análisis de datos Para la extracción de datos, se utilizó Python para realizar solicitudes a la API del servidor de medición del consumo eléctrico y obtener los datos en formato JSON. Luego, se llevó a cabo un proceso de limpieza y análisis de los datos para una mejor comprensión.   5. Análisis de resultados A pesar de los desafíos encontrados durante la instalación y el acceso remoto, se logró implementar Smart Pi en la Raspberry Pi 4 Modelo B y acceder de forma remota a la página web del medidor. El uso del túnel reverso con AWS resultó ser una solución viable para permitir el acceso remoto de manera efectiva. Además, la extracción y análisis de datos mediante Python facilitó la obtención de información valiosa sobre el consumo eléctrico registrado. No obstante, se reconoce la necesidad de mejorar la estabilidad del túnel reverso y explorar otras alternativas para el acceso remoto en futuros desarrollos.


CONCLUSIONES

Se realizó un proyecto para desarrollar un medidor inteligente utilizando un Raspberry Pi con el módulo Smart Pi 3.0. Se logró con éxito uno de los objetivos principales, que era implementar el módulo de medición del consumo eléctrico utilizando la Raspberry Pi 4 Modelo B. Aunque se configuró el sistema únicamente a través de la terminal del sistema, este funciona adecuadamente y registra los valores de consumo eléctrico deseados.   Sin embargo, no se pudo cumplir el resultado esperado de crear una interfaz gráfica en forma de página web para facilitar la solicitud de datos por parte del usuario. La investigación requerida para comprender el funcionamiento del módulo de consumo eléctrico generó demoras que obstaculizaron la consecución de este objetivo principal.   A pesar de este contratiempo, el proyecto logró alcanzar otros objetivos secundarios, lo que permite seguir avanzando en futuras mejoras. Se encontró una forma de realizar la extracción y análisis de datos generados por el medidor, lo que facilitará su interpretación y futuras implementaciones en la interfaz web planificada.
Martinez Ortega Elizabeth, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

VEHíCULOS AéREOS NO TRIPULADOS


VEHíCULOS AéREOS NO TRIPULADOS

Martinez Ortega Elizabeth, Instituto Tecnológico Superior de Huauchinango. Padilla Marquez Karina, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los Vehículos Aéreos no tripulados (UAV, por sus siglas en inglés) son aeronaves que operan sin tripulación humana a bordo y son controlados remotamente por un piloto o de manera autónoma a través de sistemas de navegación y algoritmos inteligentes. Estos dispositivos también son conocidos como drones.  El control y posicionamiento de un dron es la problemática que se abarca en este verano de investigación, este problema surge debido a la naturaleza compleja y dinámica de estas aeronaves no tripuladas. Algunos problemas comunes en el control y posicionamiento de un dron son la estabilidad y control, ya que los drones son sistemas inestables y requieren controladores precisos para mantener una posición estable y lograr movimientos precisos. Por eso, en el verano de investigación se busca implementar una ley de control y posición en los drones que ayude a mitigar los problemas ya mencionados. 



METODOLOGÍA

La ley de control y posición para un dron fue realizada en Simulink el cual es una herramienta de simulación y modelado basada en bloques, desarrollada por MathWorks, que es parte del software MATLAB. Simulink proporciona una interfaz gráfica de usuario lo que permite construir modelos de sistemas dinámicos y sistemas de control utilizando bloques funcionales que representan diferentes componentes y comportamientos del sistema. Los bloques se conectan entre sí para formar un diagrama de bloques que representa la estructura y las relaciones del sistema.   El diseño de esta ley implicó seguir una metodología sistemática para diseñar, simular y ajustar los controladores necesarios. A continuación, describimos el proceso general que se siguió para poder realizar el trabajo:  1. El primer paso que seguimos para la elaboración de este trabajo fue hacer una revisión del estado del arte, posterior a esto entender el funcionamiento de un dron y la realización de un análisis del sistema dinámico del dron.  2. Definir un modelo matemático que represente el sistema dinámico y las características del dron estas características que incluye aspectos como la masa, momentos de inercia, torques, ángulos (roll, pich y yaw), coeficientes de empuje y arrastre, errores de seguimiento y velocidad angular, los cuales fueron proporcionados por un artículo de investigación.  3. Después se continuo con la comprensión de las ecuaciones que se necesitan utilizar para poder hacer la ley de control y posición, utilizándose las que se muestran a continuación  Dinámica del movimiento traslacional.  Dinámica del movimiento de rotación.  Movimiento de rotación a partir de las ecuaciones de Euler.  Finalmente, se realizaron pruebas y ajustes, pruebas de la simulación para verificar el comportamiento del control, orientación y el posicionamiento del dron. Así como también observar el comportamiento en diferentes situaciones y ajustar los parámetros para mejorar su desempeño y cumplir con los requerimientos establecidos.  Con estos pasos, pudimos diseñar y simular un sistema de control y posicionamiento para un dron en Simulink MATLAB, lo que nos permitió mejorar habilidades en el campo del control de sistemas dinámicos y la simulación de vuelo.


CONCLUSIONES

El proceso de diseñar y crear una ley de control y posicionamiento de un dron simulado en Simulink ha sido una experiencia enriquecedora. En este verano de investigación, se adquirieron conocimientos y habilidades fundamentales en el control de sistemas dinámicos y la simulación de vuelo de drones.  En conclusión, la creación de una ley de control y posicionamiento de un dron en Simulink ha sido una valiosa oportunidad para adentrarse en el mundo del control de sistemas dinámicos y la simulación de vuelo. Los conocimientos obtenidos en este proyecto tienen un alto potencial para contribuir al desarrollo de tecnologías avanzadas en el campo de los drones y aplicaciones similares, permitiendo enfrentar con confianza los retos futuros en la industria de la aviación no tripulada.  
Martínez Patiño Jessica, Instituto Tecnológico de Toluca
Asesor: Esp. Camilo Ernesto Perez Camerano, Corporación Politécnico de la Costa Atlántica

USO DE LAS TIC’S COMO HERRAMIENTA PARA MINIMIZAR LOS RIESGOS LOGíSTICOS EN LAS AGENCIAS DE CARGA INTERNACIONAL EN COLOMBIA


USO DE LAS TIC’S COMO HERRAMIENTA PARA MINIMIZAR LOS RIESGOS LOGíSTICOS EN LAS AGENCIAS DE CARGA INTERNACIONAL EN COLOMBIA

Martínez Patiño Jessica, Instituto Tecnológico de Toluca. Asesor: Esp. Camilo Ernesto Perez Camerano, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Las agencias de carga internacional son una parte importante para el comercio exterior, debido a que su existencia es clave para el transporte de carga alrededor del mundo, requieren de una planeación adecuada y bien estructurada dentro de la cadena de suministro, la cual se puede ver afectada debido a ciertos riesgos que pueden existir en las cuatro líneas del área logística que abarcan la recepción, preparación, transporte de pedidos y satisfacción de cliente. En Latinoamérica, es muy común encontrarse con estos riesgos logísticos, destacando a la inseguridad dentro del transporte de carga, generando fuertes pérdidas económicas y disminución en la competitividad frente a otras empresas. Las empresas dedicadas al transporte de carga han estado en continua búsqueda de la solución para la reducción de riesgos, sin embargo, han tenido que incrementar su estructura de costos y afectar a su rentabilidad. Este tipo de problemas producen efectos indirectos como el incumplimiento con embarques programados, aumento el inventario, aumento en costo del seguro, pérdida de reputación frente a los posibles clientes, pérdida de ventas y hasta reducción en la competitividad. Las áreas de transporte y la logística han tenido que adaptarse a este nuevo mundo de innovación y tecnología, utilizando elementos tecnológicos que ayudan a la mejora del servicio trayendo muchos beneficios con su uso, las nuevas tecnologías, ayudan a que las empresas sean cada vez más competitivas. Tomando en cuenta lo anterior, posterior a realizar un análisis del impacto de los posibles riesgos logísticos que pueden existir en las agencias de carga internacional, se realizó una propuesta de aplicación móvil que ayude a dar solución a lo antes planteado.



METODOLOGÍA

Se realizó una comparación de las agencias de carga más populares dentro de Latinoamérica, y se realizó un análisis de las fortalezas que tiene cada una de ellas, asimismo, el proceso que llevan y el software que utilizan. Por otro lado, se realizó una búsqueda de los riesgos que podían presentarse dentro de la cadena de suministro, sin embargo, después de estar en continua investigación de los posibles riesgos, se llegó a la conclusión de que no es fácil que las empresas muestren sus debilidades frente a sus competidores y a sus clientes, pues se verían afectadas sus ventas y disminuiría su posición frente a otras empresas. La única forma de adquirir la información fue a través de artículos que hablan acerca de los riesgos logísticos que pueden existir en las agencias de carga en Latinoamérica, debido a que fueron anunciados con la policía de sus ciudades o fueron parte de una noticia que fue conocida por muchas personas. Al conocer cómo es que las agencias de carga internacional trabajan y posterior a aprender de los riesgos logísticos, se realizó una comparación del software que cada una de las empresas maneja. Se realizó una evaluación y análisis de cómo pueden mejorar los sistemas ya existentes y si es que realmente tienen los mecanismos adecuados para la minimización de riesgos logísticos, se observó que la mayoría de las empresas no utilizan algún software propio, si no que hacen uso de lo ya existente, adquiriendo software de terceros, que, aunque sí resuelve cuestiones logísticas, aún no se llega al punto de validar que se puede dar solución a la minimización de riesgos. Para la creación de la aplicación móvil se necesitan diversos requisitos, los cuáles hasta este punto de la investigación, no se pueden alcanzar, debido a que no es segura su aplicación, por lo tanto, se realiza únicamente una propuesta, la cual muestra en sí cómo podría ser utilizada y las funciones que tiene. Para la propuesta se utilizó el software Uizard que brinda las herramientas necesarias para crear mockups (cascarones de aplicaciones) y que muestra en tiempo real la funcionabilidad de la aplicación. Se crearon las interfaces adecuadas, basadas en lo ya existente y agregando ciertos elementos que pueden llegar a ser la solución para la minimización de los posibles riesgos dentro del transporte de carga de mercancías, esperando que sea de utilidad para tratar de buscar una salida a la inseguridad que se puede presentar durante el transporte de carga.


CONCLUSIONES

Durante los días de investigación fue posible adquirir nuevos conocimientos relacionados con la logística y el comercio internacional, los cuales están fuera del área de estudio de la ingeniería y los sistemas computacionales, pero que sin duda son de suma importancia en el contexto actual, asimismo fue posible alcanzar a comprender cómo la tecnología cada día se tiene que ir superando y cómo es que muchas áreas de trabajo han tenido que dar solución a problemas a través de la tecnología, automatizando procesos y reduciendo riesgos humanos.
Martínez Pérez Yedzy Itzel, Instituto Tecnológico de Matamoros
Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa

ANáLISIS DE LA NORMATIVIDAD AMBIENTAL EN EL MARCO HíDRICO DE MéXICO-COLOMBIA.


ANáLISIS DE LA NORMATIVIDAD AMBIENTAL EN EL MARCO HíDRICO DE MéXICO-COLOMBIA.

Martínez Pérez Yedzy Itzel, Instituto Tecnológico de Matamoros. Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

     El agua es un aspecto con mayor impacto ambiental a nivel internacional. En México, un 10% de su población no cuentan con agua potable (INEGI, 2020); mientras en Colombia un 25% de su población se encuentra en la misma situación. El agua se puede utilizar tanto para el dominio público como dominio privado; sin embargo, ante la problemática de escasez, desertificación y mal aprovechamiento del recurso hídrico, cada nación implementa leyes y normativas para lograr un balance económico y conservación del agua, con el objetivo principal de reducir el impacto ambiental significativo. Aunque se decreten, se estima que aún hay dificultad para el cumplimiento total de la normatividad ambiental, considerando que en ambos países hay variedad y similitudes en cuanto a sus problemáticas ambientales.



METODOLOGÍA

     Se pretende obtener, a través de una investigación cualitativa, una descripción comparativa de leyes y normas nacionales en materia de agua en cada país con el fin de analizar el uso, aprovechamiento y preservación de su calidad que se requiere en ambos territorios nacionales. Con base en una investigación sistemática, el enfoque será la determinación de cumplimiento de las características que se requieren para la gestión integral del agua, tomando como referencia la Ley General del Equilibrio Ecológico y Protección al Ambiente (LGEEPA) y la Ley General Ambiental de Colombia (Ley 99 de 1993) en materia de agua.      Con este proyecto, se comprobará las estrategias de cada país para cumplir con el Objetivo 6. Agua limpia y saneamiento en los Objetivos de Desarrollo Sostenible (ODS), a través de una metodología de búsqueda de información en artículos científicos y dando lectura a cada normatividad en materia de agua para analizar y evaluar las técnicas ambientales en cada país.


CONCLUSIONES

     Al finalizar esta investigación, se percata que en México existe una amplia normatividad para la gestión integral del agua en sus tres niveles de gobierno, mientras en Colombia toda su normatividad refiere al orden nacional aplicándose a través del orden regional independiente de las características de la problemática ambiental que se pueda presentar en cada municipio. Aunque se decreten leyes a través de las dependencias de gobierno, se estima que aún hay dificultad para el cumplimiento total de la normatividad ambiental en materia de agua, considerando que en ambos países hay variedad y similitudes en cuanto a sus problemáticas ambientales.      Cada país busca favorecer el uso eficiente del agua y prevenir la contaminación de esta, cumpliendo con sus avances de llevar a cabo el ODS agua limpia y saneamiento a través del mismo control de análisis físicos y químicos para el tratamiento y medición de las características del agua.      Se destaca que ambos países buscan administrar y preservar sus aguas nacionales generando una cultura contribuyente al cumplimiento de las leyes en materia de agua, participando en convenios y/o tratados internacionales como puede observarse en el Acuerdo de París, Foros Sociales en México, Cumbre Internacional Río de Janeiro y entre más; para concluir, ambos países cumplen con la creación de normatividad para la solución a los impactos ambientales que afectan a nuestro recurso hídrico, solo falta la concientización, tanto a la sociedad como a la industria, para el cumplimiento de ellas.
Martinez Piña Demetrio Francisco, Universidad Tecnológica de Huejotzingo
Asesor: Mtra. Maria Gabriela Pérez Ramos, Universidad Tecnológica de Huejotzingo

PROCESO DE INGENIERÍA INVERSA PARA EL MOTOR DIDACTICO MINDBLOWN: IMPRESIÓN 3D


PROCESO DE INGENIERÍA INVERSA PARA EL MOTOR DIDACTICO MINDBLOWN: IMPRESIÓN 3D

Aguilar Marin Daniel, Universidad Tecnológica de Huejotzingo. Beristain Rueda Gonzalo, Universidad Tecnológica de Huejotzingo. Martinez Piña Demetrio Francisco, Universidad Tecnológica de Huejotzingo. Asesor: Mtra. Maria Gabriela Pérez Ramos, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

El trabajo a describe el proceso de ingeniería inversa para el diseño y desarrollo de motor didáctico Mindblown. Cabe destacar que es un proyecto que se presenta en tres etapas: Escaneo, digitalización e impresión. De tal manera que el alcance puede estar limitado a presentar solo una de ellas. Se presentan los objetivos del trabajo de investigación, en el marco teórico un acercamiento a la importancia del proceso de ingeniería inversa, la metodología que se plantea del proceso de impresión del prototipo didáctico Mindblown. Planteamiento del problema La Universidad Tecnológica de Huejotzingo (UTH), se encuentra en una zona industrial, que demanda estudiantes con las competencias de Innovación y mejora de procesos, por lo que en la carrera de Procesos Industriales estudiantes se desarrollan competencias para satisfacer las necesidades de la Industria Automotriz. Entre ellas optimizar los tiempos de desarrollo de productos, por lo que el diseño y desarrollo de prototipos rápidos a través del proceso de ingeniería inversa permite reducir costos de investigación. De tal manera que es necesario que los prototipos cumplan con especificaciones de calidad, de allí la importancia de sistematizar el proceso desde el escaneo, digitalización e impresión en 3D. La pregunta de investigación es:¿Qué factores aseguran el proceso de impresión?   Objetivo general Describir el proceso de impresión en 3D, de partes de motor didáctico MindBlown. Objetivos específicos Proceso para imprimir piezas de motor en 3D: Configuración del archivo de Impresión en 3D Calibrar impresora e imprimir   Alcances El alcance del trabajo describe únicamente el proceso de impresión en 3D  



METODOLOGÍA

Marco teórico La ingeniería inversa es un modo eficaz de crear diseños digitales a partir de una pieza física y puede ser una valiosa herramienta de creación de prototipos, junto con tecnologías como el escaneo 3D y la impresión 3D. Los escáneres miden objetos complejos con mucha rapidez, y pueden acelerar tu proceso de trabajo de diseño de forma considerable cuando hay referencias reales involucradas. Con la capacidad de capturar y modificar formas físicas, puedes diseñas piezas impresas en 3D que encajen perfectamente en productos de todo tipo. Para crear un modelo 3D del objeto, el objeto debe medirse utilizando tecnologías de escaneo 3D (CMM, escáneres láser, digitalizadores de luz estructurada). Una vez realizada la operación de escaneado, es posible reconstruir el modelo 3D utilizando 3D CAD, CAM, CAE u otro software. (Guañuna Zamora Stefano Danilo Guañuna Zamora Stefano Danilo, 2022) De acuerdo con la página de Formlabs describe el proceso de ingeniería inversa en 7 pasos Preparar el objeto para el escaneo Realiza el escaneo 3D del objeto Refina la malla Importa la malla en el software CAD Extrae las superficies importantes Integra los nuevos objetos Imprime en 3D el nuevo diseño (Formlabs, 2023)   Metodología del proceso de impresión de piezas de motor en 3D A continuación, se describe el proceso general para la impresión de las piezas del motor 3D Configuración del archivo de Impresión en 3D Abrir Software Ultimaker Cura Seleccionar archivo que anteriormente digitalizado y rediseñado Simular vista previa a impresión Configurar la pieza a imprimir (relleno, velocidad de impresión, base, temperatura de boquilla y base, porcentaje de relleno Guardar en archivo .gcode Copiar archivo a memoria SD Introducir SD a impresora SeeMeCNC   Calibrar Impresora e imprimir objeto Precalentar impresora con temperatura seleccionada en el software Seleccionar pieza copiada en dispositivo SD Imprimir objeto


CONCLUSIONES

La ingeniería inversa es un método de solución y de aprendizaje, ya que debe estudiar y analizar un objeto para entender cada uno de los componentes que lo conforman, de tal manera que se den soluciones a posibles fallas, se pueda mejorar o empezar de cero. Tal es el caso del motor MINDBLOWN, del cual al inicio se tenía el alcance re realizar completo el modelo, sin embrago a lo largo del proceso se identificaron factores a considerar en cada una de las etapas, por lo que se decidió solo hacer el proceso de: Bloque de 4 cilindros, pistones con bielas, árbol de elevas y Carter Durante el proceso de impresión de las piezas del motor MINDBLOWN se identificaron factores a controlar en cada una de las etapas, en la impresión es necesario calibrar siempre la maquina para que se impriman las piezas de forma correcta, también verificar siempre que el archivo este en formato (.gcode) En la impresión se obtuvieron las piezas con una alta resistencia a esfuerzos, pero las piezas tienen un poco de variación en las dimensioes de las piezas, pero no afectan el funcionamiento Finalmente se realizaron las pruebas de ensamble con las piezas originales, identificando algunos factores a controlar, como lo son las dimensiones y la configuración del archivo para imprimir, el tipo de filamento y pigmentación.
Martinez Ramirez Ramon Leonardo, Universidad Vizcaya de las Américas
Asesor: Mtra. Nora Evelia Rios Silva, Instituto Tecnológico de Colima

PROTOTIPO DE REALIDAD VIRTUAL DE ESPACIO ARQUITECTóNICO Y URBANO


PROTOTIPO DE REALIDAD VIRTUAL DE ESPACIO ARQUITECTóNICO Y URBANO

Martinez Ramirez Ramon Leonardo, Universidad Vizcaya de las Américas. Martínez Zamora Adriana Montserrat, Universidad Vizcaya de las Américas. Moreno Jiménez Karely Jacqueline, Instituto Tecnológico de Colima. Asesor: Mtra. Nora Evelia Rios Silva, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos siglos, ha surgido un desafío apasionante: lograr que las máquinas desarrollen una inteligencia tan cercana a la humana; este desafío ha influido en las ramas de la construcción, por lo tanto, la importancia de la tecnología contribuye a la simplificación y agilización de las actividades cotidianas, especialmente en la Arquitectura, ya que apoya a los profesionistas a crear proyectos que sean tanto eficientes como óptimos, que se adapten mejor a cada entorno y necesidad. Es por ello que, el conocimiento de la arquitectura y la ciudad a través del diseño virtual y la recreación de espacios a escala utilizando video mappings y maquetas virtuales tridimensionales, apreciando el desarrollo cultural y social así como la infraestructura de la ciudad conurbada Colima-Villa de Álvarez, influyó para la realización de este proyecto de investigación. En este primer acercamiento, se planteó conocer las instalaciones del Tecnológico Nacional de México, Campus Colima, que al ser un punto de referencia en la comunidad  como una de las instituciones que forman estudiantes a nivel superior, contribuye en el desarrollo social de Colima. La Arquitectura virtual es, por tanto, un campo creativo e innovador que permite explorar las posibilidades de la tecnología digital para generar experiencias espaciales únicas y significativas, ambientes que surgen mediante la creación de experiencias sensoriales para los usuarios, en consecuencia, se comparte y difunde fuera del estado de Colima a través de este medio, sin necesidad de estar en el sitio, y por ende, el conocimiento que ahí mismo se plasme se de con mayor proyección, incluso pensando para una futura emergencia sanitaria, y así, de esta manera, los usuarios se sumergen en un ambiente aparentemente realista. Bajo esta primicia, se formulará una propuesta de realidad virtual, misma que consta de varias etapas: PRIMERA ETAPA: La elaboración de maquetas virtuales de edificaciones icónicas del estado de Colima. SEGUNDA ETAPA:  Posteriormente a través de dichas maquetas, se tendrán acceso a video mappings, así como fichas técnicas del lugar. Y en un futuro próximo, la difusión de la información, siendo esta misma una vía distinta de comunicar aspectos relevantes sociales y culturales que dan identidad a la comunidad colimense, asimismo llegar a considerar diversas regiones del país o del mundo.



METODOLOGÍA

Como parte del proceso, se realizó una revisión exhaustiva de la literatura y las experiencias existentes sobre la aplicación de la realidad virtual al ámbito arquitectónico, así como el análisis de los softwares y proyectos que se han desarrollado con fines educativos y de divulgación de la información. El objetivo fue identificar las ventajas, limitaciones y desafíos de esta tecnología emergente, así como las buenas prácticas y recomendaciones para su implementación efectiva. Posteriormente se realizaron levantamientos fotográficos, de igual forma se llevaron a cabo acciones con las que fue complementaria la memoria fotográfica; mediante levantamientos de medidas precisas realizados por medio del uso de aplicaciones especializadas en medición. Estas acciones permitieron obtener datos exhaustivos acerca de las alturas y características específicas de las diversas edificaciones estudiadas. Con esta valiosa información recopilada, se procedió con el proceso de modelado tridimensional, donde se empleó el programa REVIT como principal herramienta. Además, se contó con la colaboración de planos arquitectónicos generados en el programa AutoCAD, los cuales proporcionaron una base sólida y confiable para la creación del modelo tridimensional de cada edificación. Como logro significativo alcanzado durante esta fase inicial del proyecto, se pudo culminar exitosamente el proceso de modelado tridimensional de un total de 19 edificaciones distintas, representando un arduo esfuerzo de investigación, recolección de datos y visualización en el entorno arquitectónico. Cada una de estas edificaciones fue modelada con un enfoque minucioso y meticuloso, garantizando una representación virtual de alta fidelidad y con un cierto toque de realismo.


CONCLUSIONES

Como conclusión en este informe se describe el proceso y los hallazgos de la primera etapa de un estudio de investigación que busca examinar las potencialidades de las tecnologías digitales para proporcionar una nueva manera de conocer lugares lejanos sin moverse de casa. Se empleó la realidad virtual y los modelos tridimensionales para generar experiencias envolventes y verosímiles para los usuarios, que les facilitaran observar los pormenores y el entorno de los lugares recorridos. Por lo cual con la aportación de esta tecnología ha avanzado mucho en los últimos años, permitiendo crear experiencias virtuales cada vez más realistas e inmersivas. Estas experiencias pueden ser una forma de explorar el mundo, sus maravillas y su arquitectura, sin salir de casa. Sin embargo, también tienen un impacto social y ambiental, que puede ser positivo o negativo según el uso que se les dé. Por ejemplo, pueden fomentar el interés por otras culturas y el respeto por la diversidad, pero también pueden generar aislamiento y desinterés por la realidad. Por lo tanto, es importante usar estas tecnologías con responsabilidad y criterio, aprovechando sus beneficios y evitando sus riesgos.  El turismo virtual es una modalidad que permite a las personas visitar lugares remotos o inaccesibles sin salir de su casa, utilizando dispositivos electrónicos y software especializados. Una de las formas más innovadoras de realizar este tipo de turismo es mediante la creación de modelos tridimensionales de edificios emblemáticos o representativos de ciertas zonas urbanas, que se pueden explorar con detalle y realismo. Estos modelos se elaboran con software especializados que permiten capturar las formas, texturas, colores y dimensiones de las construcciones, así como recrear los efectos de luz y sombra, el clima y el ambiente sonoro. De esta manera, se ofrece al usuario una experiencia inmersiva y educativa, que le permite conocer la historia, la cultura y la arquitectura de diferentes lugares del mundo, sin necesidad de viajar físicamente.
Martinez Ricardo Jesus, Universidad Mexiquense del Bicentenario
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

RECURSOS EDUCATIVOS ABIERTOS (REA)


RECURSOS EDUCATIVOS ABIERTOS (REA)

Martinez Ricardo Jesus, Universidad Mexiquense del Bicentenario. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La educacion es un tema de suma importancia y la accesibilidad que se tiene a los recurzos educativos juega un papel de suma importancia para su complemento y eficaz desarrollo. Los recurzos educativos Abiertos (REA)  han surgido como material de aprendizaje o de enseñanza que se encuentra en dominio público o que se ha creado bajo una licencia abierta como las Licencias Creative Commons o la Licencia Pública General GNU y que permite el acceso sin coste, el uso, la adaptación y distribución sin ninguna restricción o con restricciones limitadas. El objetivo de esta investigacion es analizar los usos y ventajas de los Recursos Educativos Abiertos. (REA)  evaluando sus efectividad. 



METODOLOGÍA

El recurso abierto educativo tiene como finalidad el que las personas puedan conocer mas acerca de un tema en especifico de manera facil de interpretar que es desarrollada durante la estancia virtual, el tema principal es sobre el lenguaje HTML, CSS y JS para el uso de paginas web. 


CONCLUSIONES

El desarrollo del tema implementado en un REA es de gran utilidad ya que permite crear un recurso abierto con gran disponibilidad de manera gratuita a cualquier internauta ayudando a la par a comprender un tema en especifico. 
Martinez Ruiz Valentina, Universidad Autónoma de Occidente
Asesor: Dr. Osvaldo Eric Ramírez Bravo, Benemérita Universidad Autónoma de Puebla

PROPUESTA DE UNA HERRAMIENTA QUE FOMENTE LA REDUCCIóN DEL TRáFICO DE FAUNA SILVESTRE EN AMéRICA LATINA.


PROPUESTA DE UNA HERRAMIENTA QUE FOMENTE LA REDUCCIóN DEL TRáFICO DE FAUNA SILVESTRE EN AMéRICA LATINA.

Martinez Ruiz Valentina, Universidad Autónoma de Occidente. Asesor: Dr. Osvaldo Eric Ramírez Bravo, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los países latinoamericanos son altamente biodiversos por sus variadas ubicaciones geográficas y procesos biogeológicos. Esto los hace lugares llenos de fauna silvestre solicitada para ser comercializada a otros continentes e incluso, para redes de comercio local. Esto convierte al tráfico de fauna silvestre una problemática a nivel mundial, que tiene grandes implicaciones ecosistémicas. El objetivo de esta investigación consiste en proponer una herramienta que fomente la reducción del tráfico y crianza de animales silvestres en América Latina.



METODOLOGÍA

Todo esto por medio de la metodología de Design Thinking que comprende las etapas de: empatía, definición, ideación, prototipado y testeo.


CONCLUSIONES

Los resultados de esta investigación mostraron que el público objetivo serían jóvenes entre los 15 y los 20 años de edad y la herramienta propuesta debería ser un juego digital que fuera fácil de usar, accesible, eficiente, sostenible, coherente, adaptable y con una retroalimentación clara. Se concluyó que la herramienta propuesta fomenta la construcción del conocimiento relacionado con la afectación ecosistémica por la comercialización de fauna silvestre en el mundo, sin embargo, requiere de diversos cambios que favorezcan el aprendizaje de la información. 
Martinez Sanchez Jorge Luis, Universidad Autónoma de Occidente
Asesor: M.C. Angel González Navarrete, Universidad Autónoma de Occidente

ROBOTICA EDUCATIVA


ROBOTICA EDUCATIVA

Martinez Sanchez Jorge Luis, Universidad Autónoma de Occidente. Prado Bretado Jose Isaac, Universidad Autónoma de Occidente. Asesor: M.C. Angel González Navarrete, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La apertura de nuevas tecnologías y la llegada de nuevas empresas a la ciudad de Mazatlán dan la oportunidad de preparar a estudiantes y darles a conocer las herramientas tecnológicas, la robótica es una de ellas, ha ido tomando mas fuerza y actualmente son pocas las escuelas de nivel básico que tengan un adentramiento a la robótica. Es por eso que este proyecto de robótica educativa contemplado en tres fases, conoce, usa y desarrolla donde alumnos de secundaria podrán familiarizarse poco a poco en el conocimiento de la robótica.



METODOLOGÍA

En este proyecto se desarrolla un plan de trabajo de un taller de robótica aplicada en el nivel secundaria básica. A cada uno de los compañeros del proyecto se le asigna el tema principal en el cual desarrollarán contenido para este club, el cual se divide de la siguiente forma: Primer grado: Conoce. Segundo grado: Usa. Tercer grado: Desarrolla. Estas ramas principales tienen subdivisiones que se desarrollarán a partir de cada una, es decir, dentro de cada tema principal, ya viene asignado los subtemas a desarrollar, indicados por el investigador a cargo, de la cual se representa de la siguiente forma: Conoce: Conocimientos básicos de electricidad. Conocimientos fundamentales de la electrónica. Circuitos básicos de electrónica. Instrumentos y herramientas. Construcción de circuitos. Usa: Teoría y práctica de los robots de I-Robo. Teoría y práctica de los robots de Robo robo. Desarrolla: Introducción a Arduino. Construcción de circuitos básicos con Arduino. Prototipos desarrollados con Arduino.   Para el desarrollo de este plan de trabajo se utilizarán diferentes plataformas, softwares, páginas web, libros, documentos, artículos de investigación, etc. La primera fase es la investigación y recopilación de datos para la creación de contenido del cual entra la segunda fase donde se utilizarán softwares y programas como PowerPoint, Photoshop, Tinkercad, entre otros más para el desarrollo de clases en donde se busca que sea dinámica y balanceada con la teoría y práctica. Como última fase, al término de los contenidos este se subirá un sitio web donde se encontrará cada uno de los contenidos.


CONCLUSIONES

Gracias al contenido investigado y plasmado en las diferentes sesiones de clases para que los alumnos puedan tomar, podremos dejar plantado el conocimiento básico de la robótica, para que en un futuro el alumno pueda enfocarse en una carrera técnica y/o universitaria dirigida a la robótica para así poder entrar a un campo laboral nuevo en la ciudad con demasiada oportunidad de crecimiento.
Martinez Suarez Dorelys Esthefany, Universidad Libre
Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa

RECONOCIMIENTO AUTOMáTICO DE EMOCIONES EN PERSONAS CON AUTISMO


RECONOCIMIENTO AUTOMáTICO DE EMOCIONES EN PERSONAS CON AUTISMO

Iturbide Mendoza Guadalupe, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Suarez Dorelys Esthefany, Universidad Libre. Valencia Valdez Maricela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El autismo es un desorden del neurodesarrollo que afecta las habilidades sociales y comunicativas. Gracias a la contribución de la tecnología en el área de la salud, hoy en día se cuenta con herramientas apropiadas para el diagnóstico, intervención y tratamiento de esta condición. El reconocimiento de emociones se ha convertido en un campo de estudio creciente y relevante, especialmente para tratar trastornos del espectro autista (TEA). Hoy por hoy, los datos capturados a través de sensores y demás dispositivos pueden ser procesados y analizados a través de software especializados, y a partir de la implementación de técnicas de machine learning se puede determinar cuál es el algoritmo más apropiado para reconocer una emoción, cuáles son los sensores más adecuados o cuál es la manera más conveniente para capturar los datos requeridos en personas con condición de autismo. Finalidad: reconocer emociones de manera automática y poder minimizar la brecha comunicativa que afecta a individuos con autismo y la comunidad que los rodea. El objetivo general del proyecto consiste en desarrollar un sistema que permita reconocer automáticamente las emociones en personas con autismo mediante el uso de técnicas de inteligencia artificial.



METODOLOGÍA

Se ha trabajado bajo la estructura top breakdown structure, la cual desarrolla cada etapa de manera jerárquica desde lo más global a lo más específico. A continuación, se detallarán las tareas, fases y objetivos planteados: Tarea 1. Analizar el estado del arte en el reconocimiento automático de emociones de personas con autismo. Esta tarea se encargará de revisar e identificar cuáles son los sensores y métodos utilizados en el reconocimiento de emociones en personas con autismo. Actividades:                 • Realizar una revisión bibliográfica sobre los sensores utilizados en el reconocimiento de emociones en personas con autismo.                 • Identificar cuáles son los métodos empleados en el reconocimiento de emociones en personas con autismo.                 • Identificar cuáles son las emociones de las personas con autismo que son objeto de estudio para estos fines.                 • Identificar cuáles son los desafíos más sobresalientes del reconocimiento de emociones en personas con autismo. Tarea 2. Obtención de bases de datos. Esta tarea se encargará de revisar los datasets existentes en el reconocimiento de emociones en personas con autismo. Revisar los datasets existentes usados para entrenar algoritmos de machine learning en el reconocimiento de emociones en personas con autismo, identificando sus características, limitaciones y precisión. Actividades:                 • Buscar datasets existentes enfocados al reconocimiento de emociones de personas con autismo.                 • Analizar los datasets seleccionados.                 • Definir un estudio metodológico para la captura de datos en personas con y sin autismo.                 • Solicitar permisos éticos para la creación de datasets. Resultados esperados: Un artículo comparativo de datasets para el reconocimiento de emociones en personas con autismo.


CONCLUSIONES

Realizamos una revisión sistemática de los datasets para inteligencia artificial enfocados al reconocimiento de emociones y reconocimiento de emociones en personas autistas a través de distintos medios como imágenes y audio. Para ello, realizamos una búsqueda en bases de datos como Kaggle y Google Datasets Search.  En total recopilamos un total de 22 datasets relevantes para el proyecto. Esta revisión permitirá establecer una base sólida para el desarrollo del proyecto de investigación.   También extrajimos artículos de las bases de datos de Scopus, Web Of Science, IEEE, entre otras, en los cuales se han estudiado o utilizan los datasets recopilados previamente. En total recopilamos 162 artículos relevantes para el proyecto.  Por último, revisamos los artículos recopilados, los analizamos y extrajimos los algoritmos de inteligencia artificial que se utilizaron en cada uno de los proyectos estudiados.  El acceso a datasets y artículos relevantes será fundamental para el desarrollo y validación de los algoritmos de inteligencia artificial del proyecto.  Como resultado entregamos una matriz de revisión de datasets en la cual se encuentran los datasets estudiados, los artículos en los que han aplicado estos datasets y toda la información relevante de estos. 
Martínez Tapia Pablo, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Miguel Angel Cerro Ramirez, Instituto Politécnico Nacional

DESARROLLO DE UNA CELDA DE ELECTROLISIS


DESARROLLO DE UNA CELDA DE ELECTROLISIS

Martínez Tapia Pablo, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Miguel Angel Cerro Ramirez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El escenario global actual plantea la necesidad de un recurso energético alternativo a los combustibles fósiles debido a la degradación ambiental asociada al uso de estos combustibles utilizados en la conversión de energía, debido a la expulsión de gases de invernadero a la atmosfera. Para reducir la emisión de gases contaminante producidos por la quema de combustibles fósiles es necesario encontrar una alternativa a estos, el hidrogeno al ser un combustible que tienen una energía de densidad gravimétrica de entre 2.5-3 veces la de los combustibles fósiles es uno de las alternativas más viables. El hidrogeno actualmente es producido de varios recursos incluyendo los combustibles fósiles, el gas natural, electrolisis del agua y algunos procesos biológicos como la biomasa. La producción de hidrogeno por medio de la electrolisis es un proceso que se considera que su impacto negativo ambiental es nulo si se suministra energía de una fuente renovable para llevar a cabo el proceso. Existen tres tipos de tecnologías para realizar el proceso de electrolisis; la AEL es uno de los prospectos más factibles para producir hidrogeno por medio del rompimiento de la molécula del agua debido a su tiempo de vida alto y a su bajo costo de mantenimiento comparado con la PEMEL. Una celda de AEL consta básicamente de un electrolito, dos electrodos en donde se lleva a cabo la reacción electroquímica y una membrana aniónica para separar el oxigeno del hidrogeno. Estos tipos de dispositivos tienen una eficiencia del 70 %, para que esos dispositivos sean competitivos para la producción de energía la eficiencia tiene que mejorar. Debido a que la electrólisis es un fenómeno de superficie, las principales resistencias en el sistema se llevan a cabo en los electrodos (ánodo y cátodo). Uno de los factores principales es la electrocatálisis del material (Composición química del electrodo) y otro es por el estado mecánico de la superficie del material (Topología, recubrimientos, esfuerzos residuales, etc.). Por tal motivo el desarrollo de una celda de electrolisis experimental que sea capaz de analizar el comportamiento electroquímico con respecto al comportamiento mecánico de los electrodos sometidos a esfuerzo es importante para analizar como se ven afectas las curvas de rendimiento si de un electrolizador si los electrodos son sometidos a un esfuerzo determinado, esto ayudara a poder plantear un proceso de manufactura de los electrodos que permita mejorar el rendimiento de las celdas electroquímicas alcalinas industriales.



METODOLOGÍA

El diseño de la celda de electrolisis se realizó en un software de dibujo asistido por computadora en donde se pudieron observar los cortas y las perforaciones que tendría la celda y de esta manera poder empezar a realizar la parte mecánica dentro del laboratorio de manufactura en donde se ocuparon algunas maquinas industriales para la realización de la celda de electrolisis. Las maquinas que se ocuparon fueron las siguientes: torno industrial, fresadora y un taladro de banco; de la misma manera también se requirieron instrumentos de medición como lo fue un vernier y una cinta métrica; el material principal del cual fue hecha la celda consto de un plástico cilíndrico para ingeniería. Lo primero que se realizo fue el cortar los tres troces del plástico de ingeniería que se ocuparían, dos fueron cortados a aproximadamente dos pulgas y media, y uno a una pulgada y media. Posteriormente con el torno se empezó a realizar el proceso de careo en cada una de las caras de las piezas que fueron recortadas; posteriormente a cada una se le fue dando el diseño correspondiente como lo marcaba el dibujo realizado, los orificios y ranuras necesarias para el desarrollo de la celda electrolítica. Después de ya haber tenido cada una de las piezas se procedió con una propuesta de ensamble para observar que estas compaginen y queden exactamente a medida para evitar fuga de electrolito al momento de realizar las pruebas de electrolisis; se detallaron cada una de las imperfecciones que tenían las piezas con ayuda del torno y de la fresa. Después de ya haber realizado cada una de las correcciones y detalles estéticos de la celda electrolítica, se realizó una nueva presentación de la celda ensamblado las piezas y con ayuda del taladro de banco se realizaron 6 orificios correspondientes los cuales servirán para sujetar con presión las tres piezas ya empalmadas, y con tornillos con cabeza hexagonal, tuercas y rondanas hacer el ajuste y evitar todo tipo de fuja y que sellado. En la pieza media de la celda en donde de manera interna se encuentra el espacio en donde se llevará a cabo la electrólisis se realizó un orificio de lado a lado en donde con ayuda de unos tubitos de acero inoxidable, manguera y una bomba va a estar rotando de manera constante el electrolito. Ya para al termino de la celda como un método de mantener un mejor sellado en cada uno de los lugares donde se ensambla cada pieza, con neopreno se realizaron a cada una de las medidas correspondientes un empaque en cada una de las uniones para evitar fugas y quede mejor sellado. Al ya tener terminada la celda, antes de hacer las pruebas de electrolisis se opto por realizar una prueba para verificar que no drene agua al conectar la bomba y que el agua este circulando correctamente y de manera constante, al ver que todo estaba en perfecto funcionamiento se realizaron las primeras pruebas de electrolisis poniendo el electrodo por el centro de la celda empezando a inyectar pequeñas cantidades de corrientes (Ampers), dado a que no se contaba con una fuente de poder adecuada no fue posible inyectar la cantidad de corriente necesaria para poder observar las curvas de rendimiento de la celda electrolítica.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos del proceso de electrolisis, y ponerlo en practica con una celda de pruebas de electrolisis, para observar la eficacia de este mismo por medio de las curvas que se debieron de haber obtenido. Y de esta manera obtener uno de los objetivos principales que se quiere llegar con la electrolisis el cual es obtener una mayor eficacia, sin embargo, como no se pudo contar con el equipo necesario para realizar las pruebas correspondientes no se pudo obtener la eficacia de rendimiento de la celda electrolítica. Se espera que al realizar las diferentes pruebas de corriente y de tensión se obtenga una eficacia aceptable y una buena generación de hidrogeno (H).
Martinez Valle Alvaro Junior, Corporación Politécnico de la Costa Atlántica
Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro

SISTEMA PARA EL CONTROL DE MOVIMIENTOS Y TRAYECTORIAS DE UN ROBOT DELTA 580, MEDIANTE TARJETA PROGRAMABLE ESP32 S3 Y MOTORES A PASOS.


SISTEMA PARA EL CONTROL DE MOVIMIENTOS Y TRAYECTORIAS DE UN ROBOT DELTA 580, MEDIANTE TARJETA PROGRAMABLE ESP32 S3 Y MOTORES A PASOS.

Martinez Valle Alvaro Junior, Corporación Politécnico de la Costa Atlántica. Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Los elementos tecnológicos que cada vez más se emplean son los robots, debido a la alta producción y agilidad que hallamos cada vez más en diferentes campos de la tecnología como lo es el sector industrial, el cual se pueden adaptar a diversos campos de trabajo. Sin embargo, los costos para adquirir un robot de este tipo son altos, y para algunas personas e inclusive empresas resulta muy difícil poder obtener este tipo de tecnología. Los robots manipuladores se pueden clasificar de acuerdo a su estructura: serie, paralelo e híbridos; este trabajo se orienta a los robots manipuladores paralelos tipo delta o plano, ya que pueden ser esférico y espacial. Hoy en día los robots paralelos tipo delta han tenido gran impacto, ya que pueden manipular objetos muy pesados a una velocidad de operación rápida, además de esto también tienen una mejor precisión y repetitividad.



METODOLOGÍA

En este trabajo se utiliza un robot paralelo tipo Delta de tres grados de libertad, que se caracteriza por tener alta rigidez, ya que está conformado por tres juntas motorizados distribuidas de manera simétrica.   El robot delta consta de dos plataformas: la fija, en la cual se ubican los actuadores que para este tipo de robot consisten en motores, colocados a la misma distancia del centro O en los puntos 1, 2 y 3 y la plataforma móvil que porta el efector del robot, ubicada adecuadamente en el centro del triángulo. Las dos plataformas están unidas entre sí por tres cadenas cinemáticas fuertemente acopladas por uniones esféricas por lo cual consta primeramente de un eslabón conectado a los motores este a su vez conecta a un eslabón paralelogramo y posteriormente a la plataforma móvil del efector final. Una vez concluida la parte de la investigación documental del robot delta 580, se da comienzo a la investigación y comprensión de las ecuaciones de la cinemática inversa y directa, para lograr obtener coordenadas polares mediante coordenadas rectangulares o viceversa.   Concluida la parte de la investigación, se da comienzo al levantamiento de requerimientos siendo nuestra primera etapa en el desarrollo de software, por lo que se desea desarrollar un sistema, donde se introducen coordenadas, bien sea de tipo polar o rectangular, cual sea el que se introduzca de estos dos tipos de coordenadas uno es el contrario del otro, siendo que si se introducen al sistema una coordenada polar debe de ser convertido en una coordenada rectangular mediante la ecuación de la cinemática directa, después de la obtención de alguna de las coordenadas el sistema enviara la información a él cerebro, que en este caso es controlado con la placa ESP32 S3, siendo el encargado de controlar y manipular los motores del robot delta, mediante la información recibida del sistema, con la cual las coordenadas de los ángulos de cada motor, los motores se moverán en el ángulo que se estableció, o si la información son coordenadas rectangulares se moverá la plataforma móvil del robot delta, aunque cualquier coordenada enviada al cerebro nunca superara los límites de que tiene el robot, ya el sistema debe de ser capaz de identificar cuando las coordenadas están excediendo los límites del robot delta.   Al inicio de la programación de la placa se realizó una investigación sobre cuál sería la más adecuada para este tipo de trabajo, obteniendo el puesto la placa de la tecnología Espressif la ESP32 S3; Que en su núcleo, se encuentra un SoC ESP32 S3, se puede apagar la CPU. Primeramente la ESP32 S3, se utilizó para controlar servomotores y verificar la efectividad y la potencia que refleja comparándola con otras placas de desarrollo, como la Arduino Mega 2560, por lo que la placa ESP32 S3 supera en características y procesamiento a toda placa Arduino; debido a su CPU Xtensa LX7 de 32 bits que funciona hasta los 240 MHz, un coprocesador de bajo consumo que funciona para supervisar constantemente los periféricos en busca de cambios o cruce de umbrales, su tamaño, la memoria flash de 16 Mb que es de alta potencia para ser un SoC, una Spram de hasta 8 Mb , el bajo consumo de energía que tiene al realizar trabajos, la eficaz respuesta de la placa, la cantidad de pines y puertos tecnológicos que porta, los módulos tanto WI-FI como Bluetooth, entre otras tecnologías que se tienen en la placa. Todo ello para posteriormente probarla y proceder a su ensamblaje como tal en el robot Delta.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos de los diferentes tipos de robot delta, uso, diseño, información sobre placas tecnológicas de desarrollo y su impulso en la industria, obteniendo como la mejor tecnología para el trabajo requerido la placa de tecnología Espressif, ESP32 de la familia S3, adecuando y haciendo diversos trabajos y modificaciones para que se pueda ejecutar lo que le ordenemos al cerebro como tal, a partir de las diversas investigaciones tomadas como antecedentes y estado del arte, de igual forma se realizó un entendimiento de las ecuaciones de entrada y salida, mediante las técnicas de cinemática inversa y directa para la obtención de los parámetros en coordenadas rectangulares a coordenadas polares y viceversa, debido a la proyección del proyecto aún está en etapa intermedia, el cual debe de ser un sistema que mediante la introducción de coordenadas cartesianas(plataforma móvil) o angulares(motores) aplicado ya sea a la cinemática directa o inversa, se debe obtener la coordenadas cartesianas de la plataforma móvil o ángulos de los motores, para después de que el sistema haya podido obtener las coordenadas deseadas, tendrá que enviarse las instrucciones de estos valores a la placa de desarrollo ESP32 S3, el cual deberá ser capaz de llegar a las coordenadas obtenidas si estas, no sobrepasas los límites del robot delta 580.
Martínez Vázquez Enrique, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla

AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR


AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR

Aguilar Arias Ubaldo, Universidad Autónoma de Sinaloa. Aguilar Chávez Mauricio, Instituto Tecnológico de La Piedad. Alvarado Moreno Juan Antonio, Universidad Autónoma de Sinaloa. Martínez Vázquez Enrique, Benemérita Universidad Autónoma de Puebla. Pérez Chávez Diana Lizette, Instituto Tecnológico de Colima. Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas de la sociedad actual es el cambio climático el cual es el principal causante de que las temperaturas se eleven año con año, así mismo el aumento de sequías, fuertes tormentas y más riesgos para la salud.  El principal problema que se detectó al momento de pensar en nuestra sociedad fue el no saber con exactitud las condiciones en las que se encuentra un lugar en específico, es de suma importancia conocer estos datos para prevenir posibles problemas de salud que se puedan presentar, tales como insolación, golpes de calor, o problemas de salud al estar en entornos húmedos. Para la realización de este proyecto se obtendrán los parámetros de temperatura, humedad y luminosidad y se utilizará una cámara para monitorear en tiempo de real el entorno, cabe destacar que cada uno de los parámetros se muestra en una interfaz.



METODOLOGÍA

Para el accionamiento de los motores, controlar su sentido de giro y velocidad se usan componentes electrónicos conocidos como puentes H. En base a una investigación hecha en libros y otras fuentes, es que se llegó a la conclusión de colocar un puente H para controlar 2 motores, esta decisión se genera debido a que si se conectan todos los motores a un solo puente H, este se dañara, ya que los motores pueden consumir hasta 5 A de corriente eléctrica. Además, la energía utilizada para alimentar los motores y todos los componentes electrónicos del prototipo se obtiene  a través de un panel solar y a su vez, almacena energía en una batería recargable de 12V. Cada motor puede funcionar con un voltaje máximo de 7 VDC, es por ello que se opta por usar reguladores de tensión y con ello obtener los 7 VDC. Por otra parte, se tiene la limitante de que los reguladores de tensión funcionan en un rango de 0-3 A, por lo cual se usará un regulador para alimentar cada puente H para que los motores tengan un rango de consumo de corriente de 0 a 1.5 A como máximo. Con este arreglo entre los reguladores y los puentes H se evita que los componentes electrónicos mencionados se dañen por el consumo excesivo de corriente.  En la programación, para la integración del sistema embebido, se analizan las diferentes opciones disponibles en el laboratorio, como el ESP32, el Arduino nano, un Raspberry pi, entre otros. El Raspberry Pi se utiliza como primeras pruebas para determinar sus limitaciones y diferencias comparado al ESP32. Durante el periodo de investigación y programación, el Raspberry pi se descarta, por lo tanto se sustituye por un ESP32 por sus capacidades de WiFi y la fácil manipulación de este, por lo que se da como tarea experimentar y comprobar los diferentes sensores que serán posteriormente utilizados para el sensado de variables del automóvil, de modo de este pueda tomar lecturas precisas y sin problemas.  El siguiente trabajo de programación es la determinación de qué software o aplicación será utilizada para el monitoreo y control a distancia del automóvil. A partir de es paso, la programación se realiza en diferentes interfaces, de las cuales se buscaba lo siguiente: Comunicación WiFi entre la interfaz y el automóvil. Permitir manipular tanto entradas, como salidas y una cámara web, con un número grande de variables accionadas vía inalámbrica. Lectura de los sensores y con una estética visualmente agradable para el usuario. Activación a distancia de los motores para lograr el movimiento adecuado. Visualización de la cámara implementada, logrando obtener imagen del entorno del automóvil. Interfaz visualmente cómoda, sencilla y que todos los integrantes del proyecto pudieran manejar sin instalación de softwares. En base a los requisitos se programa en Visual Studio para la creación de una interfaz en lenguaje C#, descartando algunas opciones como página web ip, MyAppInventor, y todas las páginas de nubes IoT por ser limitadas en cuanto lo que se puede hacer sin una suscripción.  Con las primeras pruebas de algunas interfaces, se empiezan las pruebas para la interacción entre el usuario y el automóvil, donde se realizan primeros ajustes tanto en la potencia como en la programación.  Una vez concluida la programación del software y el sistema embebido, la potencia y la estructura general el automóvil es sacado a diferentes entornos para hacer las pruebas. Finalmente se realiza el esquema eléctrico con todas las partes involucradas en el automóvil.


CONCLUSIONES

Con el prototipo desarrollado es posible realizar el reconocimiento y sensado de terrenos sin la necesidad de que el ser humano esté presente en ellos, para así observar el cambio de clima en lugares específicos. Para obtener dichos resultados se empezó con la observación de los componentes que se necesitan para obtener una idea central del proyecto; contando con que la base del proyecto, es que este pueda sensar en cualquier parte de las instalaciones de la BUAP y a su vez pueda ser cargado por un panel solar una vez que este no sea utilizado.  Una vez contada con la idea general para la realización del automóvil se llevaron a cabo diferentes investigaciones para poder obtener el resultado final y así poder comprobar que por medio de la ESP32 se puede realizar la conexión de la red interna que se encuentra en este con la red de la BUAP, otro de los objetivos es que se muestran los datos correspondientes de los sensores en la interfaz realizada y que por medio del panel se cargue la batería que cuenta el automóvil. En resumen podemos decir que los objetivos planteados se realizaron con éxito a excepción de la conexión de la ESP con la red de la BUAP debido a la inestabilidad de este y que la ESP32 no se vuelve a reconectar, sino que se tiene que volver a cargar por medio de la laptop, es por ello que con este trabajo se pueden ir realizando modificaciones, al iguala eu implementar más cosas en este, ya que es muy versátil.
Martínez Venancio Sarahí, Universidad Mexiquense del Bicentenario
Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México

IDENTIFICACIóN DE PALABRAS DE VIOLENCIA A LA MUJER MEDIANTE PLN, EN EL LIBRO “ALGúN AMOR QUE NO MATE”


IDENTIFICACIóN DE PALABRAS DE VIOLENCIA A LA MUJER MEDIANTE PLN, EN EL LIBRO “ALGúN AMOR QUE NO MATE”

Martínez Venancio Sarahí, Universidad Mexiquense del Bicentenario. Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Según la ONU en México en el año 2018, al menos 6 de cada 10 mujeres mexicanas ha enfrentado un incidente de violencia; 41.3% de las mujeres ha sido víctima de violencia sexual y, en su forma más extrema, 9 mujeres son asesinadas al día. La violencia contra las mujeres y las niñas es una de las violaciones de los derechos humanos más graves, extendidas, arraigadas y toleradas en el mundo. Las mujeres y las niñas sufren diversos tipos de violencia en todos los ámbitos de su vida y bajo múltiples manifestaciones: en el hogar, en el espacio público, en la escuela, en el trabajo, en el ciberespacio, en la comunidad, en la política, en las instituciones, entre otros. (ONU Mujeres México, 2018) Es necesario mencionar, que muchas adolescentes de 12 a 18 años, desconocen y suelen confundir las muestras de cariño, con agresiones físicas, debido a la desinformación y falta de confianza hacia sus familiares, ocasiona que estos actos de violencia sobre ellas no sean detectados a tiempo, llevándolas a un estado de depresión, pérdida de autoestima y sentimientos de culpa: durante el ciclo de la violencia que sufren, la mentalidad de creer que el ser maltrata es su responsabilidad y depende de su propia forma de comportarse, las hace vulnerables y víctimas de una situación que al paso del tiempo puede detonar en situación que atenten contra su vida.



METODOLOGÍA

Para el desarrollo de las técnicas y métodos de procesamiento de textos se hizo uso de pequeños fragmentos del libro Algún amor que no mate, con el fin de identificar las palabras de violencia dentro de este. Si bien el PLN es un conjunto de instrucciones que un sistema recibe en un lenguaje de programación dado, que permita comunicarse con un humano, tomando en cuenta diversas aplicaciones, una de ellas es la extracción de información. Es así como se inicia el proceso con el lenguaje de programación Python haciendo uso de Google colab para ejecutar las líneas de código. Como primera instancia se hizo una limpieza del texto, es decir se eliminó ruido, stop Word y convertir todo el texto a minúsculas, Después se tiene que realizar el proceso de lematizado la cual consiste en convertir las palabras en su forma base y cambiar de femenino a masculino, así mismo se implementa la segunda técnica que es stemming, esta consiste en obtener su raíz de las palabras. son importantes estas técnicas para procesar de una manera más sencilla las palabras. Por consiguiente, se crea un diccionario con las palabras que se van a identificar en el texto como humillar, golpear, morir, ignorar, despreciar, entre otras. Por último, se compara el texto con cada palabra que está dentro del diccionario, de esta manera si se encuentra alguna palabra se identifica y cambia por la palabra violencia.


CONCLUSIONES

En cuanto a la experimentación realizada en el presente trabajo de investigación, se puede concluir que, gracias a la inteligencia artificial, se puede solventar un problema relevante hoy en día en diferentes estados. Referente a la detección de violencia en mujeres en textos se puede implementar en áreas donde exista más situaciones de violencia, y llevarlo en conjunto con autoridades encargadas alte este problema social.  Por último, las áreas de aplicación del análisis de sentimientos, los avances en el procesamiento del lenguaje natural y el aprendizaje automático seguirán creciendo, con el fin de mejorar y coadyuvar a problemas sociales.
Martínez Zamora Adriana Montserrat, Universidad Vizcaya de las Américas
Asesor: Mtra. Nora Evelia Rios Silva, Instituto Tecnológico de Colima

PROTOTIPO DE REALIDAD VIRTUAL DE ESPACIO ARQUITECTóNICO Y URBANO


PROTOTIPO DE REALIDAD VIRTUAL DE ESPACIO ARQUITECTóNICO Y URBANO

Martinez Ramirez Ramon Leonardo, Universidad Vizcaya de las Américas. Martínez Zamora Adriana Montserrat, Universidad Vizcaya de las Américas. Moreno Jiménez Karely Jacqueline, Instituto Tecnológico de Colima. Asesor: Mtra. Nora Evelia Rios Silva, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos siglos, ha surgido un desafío apasionante: lograr que las máquinas desarrollen una inteligencia tan cercana a la humana; este desafío ha influido en las ramas de la construcción, por lo tanto, la importancia de la tecnología contribuye a la simplificación y agilización de las actividades cotidianas, especialmente en la Arquitectura, ya que apoya a los profesionistas a crear proyectos que sean tanto eficientes como óptimos, que se adapten mejor a cada entorno y necesidad. Es por ello que, el conocimiento de la arquitectura y la ciudad a través del diseño virtual y la recreación de espacios a escala utilizando video mappings y maquetas virtuales tridimensionales, apreciando el desarrollo cultural y social así como la infraestructura de la ciudad conurbada Colima-Villa de Álvarez, influyó para la realización de este proyecto de investigación. En este primer acercamiento, se planteó conocer las instalaciones del Tecnológico Nacional de México, Campus Colima, que al ser un punto de referencia en la comunidad  como una de las instituciones que forman estudiantes a nivel superior, contribuye en el desarrollo social de Colima. La Arquitectura virtual es, por tanto, un campo creativo e innovador que permite explorar las posibilidades de la tecnología digital para generar experiencias espaciales únicas y significativas, ambientes que surgen mediante la creación de experiencias sensoriales para los usuarios, en consecuencia, se comparte y difunde fuera del estado de Colima a través de este medio, sin necesidad de estar en el sitio, y por ende, el conocimiento que ahí mismo se plasme se de con mayor proyección, incluso pensando para una futura emergencia sanitaria, y así, de esta manera, los usuarios se sumergen en un ambiente aparentemente realista. Bajo esta primicia, se formulará una propuesta de realidad virtual, misma que consta de varias etapas: PRIMERA ETAPA: La elaboración de maquetas virtuales de edificaciones icónicas del estado de Colima. SEGUNDA ETAPA:  Posteriormente a través de dichas maquetas, se tendrán acceso a video mappings, así como fichas técnicas del lugar. Y en un futuro próximo, la difusión de la información, siendo esta misma una vía distinta de comunicar aspectos relevantes sociales y culturales que dan identidad a la comunidad colimense, asimismo llegar a considerar diversas regiones del país o del mundo.



METODOLOGÍA

Como parte del proceso, se realizó una revisión exhaustiva de la literatura y las experiencias existentes sobre la aplicación de la realidad virtual al ámbito arquitectónico, así como el análisis de los softwares y proyectos que se han desarrollado con fines educativos y de divulgación de la información. El objetivo fue identificar las ventajas, limitaciones y desafíos de esta tecnología emergente, así como las buenas prácticas y recomendaciones para su implementación efectiva. Posteriormente se realizaron levantamientos fotográficos, de igual forma se llevaron a cabo acciones con las que fue complementaria la memoria fotográfica; mediante levantamientos de medidas precisas realizados por medio del uso de aplicaciones especializadas en medición. Estas acciones permitieron obtener datos exhaustivos acerca de las alturas y características específicas de las diversas edificaciones estudiadas. Con esta valiosa información recopilada, se procedió con el proceso de modelado tridimensional, donde se empleó el programa REVIT como principal herramienta. Además, se contó con la colaboración de planos arquitectónicos generados en el programa AutoCAD, los cuales proporcionaron una base sólida y confiable para la creación del modelo tridimensional de cada edificación. Como logro significativo alcanzado durante esta fase inicial del proyecto, se pudo culminar exitosamente el proceso de modelado tridimensional de un total de 19 edificaciones distintas, representando un arduo esfuerzo de investigación, recolección de datos y visualización en el entorno arquitectónico. Cada una de estas edificaciones fue modelada con un enfoque minucioso y meticuloso, garantizando una representación virtual de alta fidelidad y con un cierto toque de realismo.


CONCLUSIONES

Como conclusión en este informe se describe el proceso y los hallazgos de la primera etapa de un estudio de investigación que busca examinar las potencialidades de las tecnologías digitales para proporcionar una nueva manera de conocer lugares lejanos sin moverse de casa. Se empleó la realidad virtual y los modelos tridimensionales para generar experiencias envolventes y verosímiles para los usuarios, que les facilitaran observar los pormenores y el entorno de los lugares recorridos. Por lo cual con la aportación de esta tecnología ha avanzado mucho en los últimos años, permitiendo crear experiencias virtuales cada vez más realistas e inmersivas. Estas experiencias pueden ser una forma de explorar el mundo, sus maravillas y su arquitectura, sin salir de casa. Sin embargo, también tienen un impacto social y ambiental, que puede ser positivo o negativo según el uso que se les dé. Por ejemplo, pueden fomentar el interés por otras culturas y el respeto por la diversidad, pero también pueden generar aislamiento y desinterés por la realidad. Por lo tanto, es importante usar estas tecnologías con responsabilidad y criterio, aprovechando sus beneficios y evitando sus riesgos.  El turismo virtual es una modalidad que permite a las personas visitar lugares remotos o inaccesibles sin salir de su casa, utilizando dispositivos electrónicos y software especializados. Una de las formas más innovadoras de realizar este tipo de turismo es mediante la creación de modelos tridimensionales de edificios emblemáticos o representativos de ciertas zonas urbanas, que se pueden explorar con detalle y realismo. Estos modelos se elaboran con software especializados que permiten capturar las formas, texturas, colores y dimensiones de las construcciones, así como recrear los efectos de luz y sombra, el clima y el ambiente sonoro. De esta manera, se ofrece al usuario una experiencia inmersiva y educativa, que le permite conocer la historia, la cultura y la arquitectura de diferentes lugares del mundo, sin necesidad de viajar físicamente.
Martínez Zárate Andres, Instituto Tecnológico de La Piedad
Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN


DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN

García Espinoza Cecilia Janeth, Instituto Tecnológico de La Piedad. Hernández Pérez Jorge Daniel, Instituto Tecnológico de La Piedad. Martínez Zárate Andres, Instituto Tecnológico de La Piedad. Ortiz Leon Jorge, Instituto Tecnológico de La Piedad. Rodriguez Martinez Ivette Jocelyn, Instituto Tecnológico de La Piedad. Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las heladerías ofrecen a sus clientes la opción de personalizar sus helados con diversas combinaciones de ingredientes, lo que resulta en una experiencia gastronómica más satisfactoria. Sin embargo, la gestión manual de las opciones disponibles puede llevar a errores en la facturación, tiempos de espera prolongados y una experiencia del cliente poco organizada. El desafío radica en la implementación de un sistema en la Heladeria WOW que permita a los clientes seleccionar y combinar de manera intuitiva los elementos que desean agregar a sus helados, incluyendo frutas, salsas y toppings, garantizando que el proceso sea rápido, preciso y eficiente



METODOLOGÍA

La metodología empleada para este tipo de proyecto fue necesaria una combinacion de cuantitativa para el desarrollo del sistema, como el análisis de los datos relacionados con la facturación y los pedidos y junto con cualitativa para el diseño de la interfaz de usuario y en la obtención de la retroalimentación de los usuarios, realizando entrevistas o encuestas a los clientes para comprender su experiencia y opinión sobre la usabilidad del sistema, la facilidad de personalización, y su satisfacción general con la opción de seleccionar diferentes ingredientes para sus helados.


CONCLUSIONES

De la presente investigación y el desarrollo del sistema de personalización de helados con registro y facturación ha sido un proceso enriquecedor y exitoso que ha permitido satisfacer las necesidades y preferencias de nuestros clientes de manera eficiente y personalizada. A través de la combinación de una metodología ágil que nos brindó flexibilidad y adaptabilidad, así como la utilización de enfoques cuantitativos y cualitativos en la investigación, logramos alcanzar los objetivos establecidos y brindar una experiencia única a nuestros usuarios.La implementación de una interfaz de usuario amigable y accesible ha permitido que nuestros clientes puedan seleccionar con facilidad los componentes de sus helados
Matías Cruz Diego Omar, Instituto Politécnico Nacional
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

IMPLEMENTACIóN DE LA RESOLUCIóN DE LA ECUACIóN DE BURGERS UTILIZANDO PROGRAMACIóN CUDA EN PYTHON


IMPLEMENTACIóN DE LA RESOLUCIóN DE LA ECUACIóN DE BURGERS UTILIZANDO PROGRAMACIóN CUDA EN PYTHON

Hernandez Lucio Ibrahim Abraham, Instituto Politécnico Nacional. Matías Cruz Diego Omar, Instituto Politécnico Nacional. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema: Implementación de la resolución de la ecuación de Burgers utilizando programación CUDA en Python. La ecuación de Burgers es una ecuación en derivadas parciales no lineal que surge en diversos campos de la física y la ingeniería, como la dinámica de fluidos, el transporte de partículas y la propagación de ondas. Su forma unidimensional es: du/dt + u du/dx = v d2u/dx2 Donde u es la función de velocidad del fluido en el dominio unidimensional x y tiempo ν es el coeficiente de viscosidad cinemática.   El objetivo principal de este proyecto es desarrollar una solución eficiente para resolver la ecuación de Burgers utilizando la arquitectura de cómputo paralelo de GPU proporcionada por CUDA en Python. Esta aproximación paralela permitirá acelerar significativamente los cálculos y abordar problemas con dominios espaciales y condiciones iniciales complejas.   Este proyecto se centrará en la resolución numérica de la ecuación de Burgers en su forma unidimensional utilizando la arquitectura CUDA en Python. El alcance incluirá la implementación del algoritmo de diferencias finitas para discretizar la ecuación y la utilización de las bibliotecas y herramientas apropiadas para la programación CUDA. Además, se realizarán pruebas y análisis de rendimiento para evaluar la eficacia de la solución paralela.   El proyecto no abordará la resolución de problemas multidimensionales o aspectos más avanzados de la dinámica de fluidos. Además, cualquier investigación adicional sobre técnicas avanzadas de optimización quedaría fuera del alcance actual del proyecto  



METODOLOGÍA

Metodología   1. Acceso y comprensión del entorno de servidores del CITEDI Se realizó el acceso por puenteo a los servidores del CITEDI para aprovechar su poder computacional. Se buscó entender su funcionamiento y configuración para garantizar un uso efectivo de los recursos disponibles.   2. Estudio de la ecuación de calor y su relación con la ecuación de Burgers**: Se recibió una explicación general sobre la ecuación de calor, la cual es una ecuación en derivadas parciales más simple que la ecuación de Burgers pero comparte similitudes en su naturaleza. Se comprendieron los conceptos clave de la ecuación de calor como un primer paso para abordar la ecuación de Burgers más compleja.   3.Implementación de la ecuación de calor en Python y Jupyter    Se procedió a implementar la resolución numérica de la ecuación de calor utilizando el lenguaje de programación Python, con un enfoque en el uso del entorno Jupyter Notebook. A pesar de la falta de experiencia previa con Python, se llevaron a cabo los primeros acercamientos para comprender cómo programar y resolver ecuaciones en este entorno.   4. Graficación de la solución en Python y exploración de Paraview      Se aprendió a graficar la solución de la ecuación de calor usando Python y Jupyter para visualizar los resultados obtenidos. Sin embargo, se identificó la herramienta Paraview como una opción más conveniente y sencilla para generar visualizaciones gráficas, lo que motivó a considerar el cambio de enfoque hacia Python para la resolución y Paraview para la visualización.   5. Adquisición de conocimientos sobre Paraview    Se destinó tiempo para aprender el funcionamiento y uso de Paraview, una herramienta especializada en visualización científica y gráficos 3D. Se estudiaron sus capacidades y se buscaron ejemplos y tutoriales que facilitaran el proceso de programación y visualización con Paraview.   6. Ajuste del enfoque de trabajo: Python para resolución, Paraview para visualización    Dado que Python se estaba utilizando para la resolución numérica de la ecuación de Burgers, se tomó la decisión de mantener este enfoque para el proceso de cálculo y utilizar Paraview como herramienta principal para la visualización y análisis de los resultados obtenidos. Se ajustó el plan de trabajo para combinar ambas herramientas de manera efectiva.   7. Desarrollo de la resolución de la ecuación de Burgers en Python     Para abordar la resolución numérica, es necesario discretizar la ecuación de Burgers utilizando diferencias finitas. Esto implica aproximar las derivadas parciales de la ecuación con diferencias finitas, lo que transforma la ecuación en un conjunto de ecuaciones algebraicas que podemos resolver numéricamente con Python   8. Implementación de paraview      Una vez que hemos desarrollado la implementación de la ecuación de Burgers en Python y obtenido las soluciones numéricas, podemos conectarla a ParaView para visualizar y analizar los resultados de una manera más interactiva y gráfica. para esto los vamos a guardar los datos obtenidos en Python en un formato que Paraview pueda leer en este caso usaremos VTK   9. Visualización de los datos en Paraview       Abrimos Paraview y cargamos el archivo que contiene los datos de nuestras simulaciones y configuramos las especificaciones para poder visualizar nuestra simulación  


CONCLUSIONES

CONCLUSIONES   Durante la estancia de nuestro verano logramos adquirir conocimientos que requerimos en un futuro como por ejemplo conectarnos a un servidor lambda o tener conocimiento acerca de lo que es el cómputo paralelo, pero más específicamente aprendimos acerca del lenguaje de programación Python su sintaxis y varios ejemplos de este sin embargo solo aprendimos una pequeña parte de lo que se puede hacer con las herramientas ya mencionadas de hecho no se logró obtener correctamente la visualización en Paraview ya que este es algo complejo. pero con los trabajos de muestra que nos enseñó el profesor en nuestra estancia nos damos una idea de como tendría     que ser en la visualización en Paraview  
Mauro Ramírez Violeta, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dra. Petra Baldivia Noyola, Universidad Autónoma de Guerrero

USO DE HERRAMIENTAS PARA LA CREACIóN DE VIDEOJUEGOS


USO DE HERRAMIENTAS PARA LA CREACIóN DE VIDEOJUEGOS

Mauro Ramírez Violeta, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dra. Petra Baldivia Noyola, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen muchos desafíos para los estudiantes de nivel superior cuando se habla de la creación de videojuegos. Por ello se buscan maneras de adquirir conocimientos utilizando herramientas  y programas que nos permitan lograr los objetivos  a los que se desean llegar. Nosotros como estudiantes buscamos trabajar a base de metodologías que nos permitan generar todo el conocimiento posible y de calidad, por eso, una de las más viables es la metodología CAR. Durante el verano de investigación se tomarán cursos para adentrarse al mundo de los videojuegos, pero sobre todo para estar en contexto con el desarrollo de los mismos, trabajar con diferentes programas y herramientas de las cuales se tiene poco o nulo conocimiento y que más adelante nos sean de gran ayuda para participar en proyectos basados en videojuegos.



METODOLOGÍA

La técnica CAR (Cooperativas, Activas y Reflexivas) es un modelo de aprendizaje que se vuelve significativo y personal, el propósito es lograr que una persona aprenda haciendo, con actividades que lo involucran y que lo hace responsable de su propio aprendizaje, tener en cuenta los retos por superar en el proceso y no solo centrándose en los resultados a los que se quieren llegar. Para esto el alumno debe involucrarse, interactuar y participar, no solo recibir información, siendo una persona activa, buscando profundizar sus conocimientos y generando ideas. Para empezar a poner en práctica la metodología CAR durante el verano de investigación fue tomar los cursos que se ofertaron en el diplomado para desarrollar videojuegos que fueron: Fundamentos de Scrum. Diseño gráfico. Diseño de personajes en 2D. Creación de videojuego en 2D con Unity Creación de videojuego en JavaScript, HTML y CSS. Fundamentos de Scrum En fundamentos de Scrum se abordó la historia del surgimiento del marco de trabajo, así como algunas definiciones, los procesos  y las fases del proceso para llegar a los entregables. Diseño Gráfico En diseño gráfico se dieron los fundamentos básicos sobre la teoría del color, la psicología de color, el círculo cromático, el entorno de trabajo de Photoshop y el uso adecuando de este programa para diseñar logotipos y la edición de imágenes con las herramientas que ofrece. Diseño de personajes en 2D Para el diseño de personajes en 2D se dieron a conocer los conceptos básicos para aprender a trabajar con aseprite un software en el cual se pueden realizar animaciones y dibujos simétricos, con una interfaz sencilla de herramientas intuitivas y fáciles de usar. Creación de videojuego 2D En el curso de la creación de videojuego 2D se trabajó con Unity,  se dieron a conocer las bases para poder trabajar con ese programa, así como las funciones del entorno de trabajo para crear el videojuego con todos los requerimientos básicos de los usuarios, este videojuego se basó en el lenguaje de programación C#. Creación de videojuego en JavaScript, HTML y CSS Las personas que impartieron este curso también dieron a conocer los conceptos básicos sobre JavaScript, HTML y CSS. Y el videojuego creado fue un buscaminas en donde se trabajaron en conjunto estos lenguajes para el diseño y las funcionalidades del juego.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos teóricos y prácticos de cada uno de los cursos de los que se impartieron para ponerlos en práctica cada que se pretenda trabajar en un proyecto para la creación de videojuegos en dos dimensiones, crear personajes, así como darles vida dentro del entorno en el que se trabaja como lo es Unity. Y trabajar también en desarrollo de software con HTML, CSS, y JavaScript.  Se logro el bjetivo principal que fue conocer programas  y lenguajes de programación  como C#  para poder darle vida a los personajes dentro de los escenario creados en Unity, así como las herramientas necesarias para el diseño de estos mismos. En cada uno de los cursos  adquirí el conocimiento que realmente se esperaba aprender, sé cómo se trabaja en Unity, crear escenarios, agregar música, animaciones, efectos de sonido y cómo se programa para darle vida a un personaje en C#. Al igual que con el buscaminas, para poder mejorarlo con el tiempo, cambiar el diseño y las funcionalidades, hacerlo más dinámico, etc.
Medellin Calderon Alfredo Enrique, Universidad Autónoma de Tamaulipas
Asesor: Dr. José Hugo Barrón Zambrano, Universidad Autónoma de Tamaulipas

PROTOTIPO DE VEHíCULO AUTóNOMO UTILIZANDO KIT EDUCATIVO DE ROBOTICA


PROTOTIPO DE VEHíCULO AUTóNOMO UTILIZANDO KIT EDUCATIVO DE ROBOTICA

Escobedo Rocha Ramon Alejandro, Universidad Autónoma de Tamaulipas. Medellin Calderon Alfredo Enrique, Universidad Autónoma de Tamaulipas. Asesor: Dr. José Hugo Barrón Zambrano, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Este proyecto utiliza como base el funcionamiento de vehículos autonomos, realizando sus funciones con kits educativos, los cuales son accesibles para todo el publico y permite que se empiece a trabajar en problematicas con soluciones limitadas por los kits, pero a la vez funcionando como prototipos a mejorar y funcionando como proyectos a futuro. Este vehículo trata de localizarce en un plano, teniendo como ubicación cualquier punto del mapa de manera aleatoria, a su vez, simula la recolección de pasajeros y simula la entrega de los mismos en puntos especificos, dependiendo la etiqueta del pasajero.



METODOLOGÍA

En referencia al hardware se hará uso del kit educativo de LEGO Mindstorms EV3, utilizando MicroPython para la programación de nuestros dispositivos, con la implementación de dos bricks para nuestro robot, comunicados por Bluetooth mediante los métodos del módulo. El primer brick funciona como servidor y cuenta con los siguientes dispositivos En cuanto a sensores: 3 sensores de color. 1 sensor infrarrojo. En cuanto a actuadores: 3 servomotores grandes. 1 servomotor mediano. El segundo brick funciona como cliente y cuenta con los siguientes dispositivos. En cuanto a sensores: 1 sensor infrarrojo. 1 sensor de color. 1 sensor ultrasónico No cuenta con actuadores. Lo primero que se realizo es buscar la forma de ubicar el vehículo, el cual utiliza los sensores de colores para detectar dentro del plano los colores que tienen como objetivo simular paredes, asi como los colores que simulan puertas de entrada, al igual que el color que simula el lugar donde se encuentran los pasajeros a recoger. Utilizando esto, el robot se ubica haciendo uso de giros dependiendo el color que detecta. Para la recolección del pasajero, utiliza los sensores de color para avanzar de forma recta, asi como sensores infrarrojos para detectar el pasajero, los cuales estan ubicados a cierta altura, ya que dependiendo el tamaño del pasajero se clasifica como niño u adulto. Una vez que obtiene al pasajero, con un sensor de color que tiene en la parte frontal, detecta el color del pasajero, el cual le indica el lugar a donde se debe de llevar dependiendo su clasificación. Para realizar la entrega del pasajero, se realiza una matriz la cual cuenta con la ubicación actual del vehículo y se actualiza conforme recorre la ruta calculada al lugar del mapa. De la misma forma utiliza una matriz para regresar al punto de recoleccion de pasajeros.


CONCLUSIONES

En cuanto a los resultados que se obtuvieron, hasta el momento, el vehículo es capaz de ubicarse iniciando en un lugar aleatorio del plano, asi como tambien es capaz de recolectar y reconocer el tipo de pasajero. La parte de la entrega del pasajero, aun se esta trabajando, para realizar la matriz y la forma de actualizar la ubicacion al ir recorriendo el plano y cambiando de posición en la matriz.
Medina Castillo Jorge Alejandro, Instituto Tecnológico de Matamoros
Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango

ACONDICIONAMIENTO DE SUELO Y CABINA DE SANITIZACIóN PARA PRODUCCIóN DE HONGOS SETA


ACONDICIONAMIENTO DE SUELO Y CABINA DE SANITIZACIóN PARA PRODUCCIóN DE HONGOS SETA

Medina Castillo Jorge Alejandro, Instituto Tecnológico de Matamoros. Valdez Peña Francisco Oraldo, Instituto Tecnológico de Matamoros. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a datos oficiales, México Produce 5 especies de hongo: champiñón, portobello, seta, hongo blanco y shiikate, y ocupa el primer lugar en producción en América Latina, su producción se ha duplicado en los últimos años como consecuencia de la difusión y a la capacitación para preparar a pequeños productores y la proliferación de pequeñas empresas. Algunas de sus ventajas son que: Su cultivo no es difícil, la inversión requerida es mínima, no requiere de gran infraestructura, su precio es accesible al consumidor y tiene un sabor delicioso, además de ser un cultivo de reconversión ecológica. Para cultivar el hongo seta es necesario ser muy cuidadoso y prestar atención al realizar cada paso en el proceso de cultivo, aunque resulta ser sencillo cultivarlos. Se realizó el cultivo y cosecha de hongos seta en el Instituto Tecnológico Superior de Huauchinango, en 2022-2023, sin embargo, las condiciones del invernadero ubicado en la institución, así como diversas afectaciones externas, trajeron consigo que la cosecha disminuyera, registrando una perdida final del 25% del cultivo, por lo cual es indispensable la generación de ambientes idóneos para alcanzar las metas de productividad propuestas y no generar desperdicios agrícolas.



METODOLOGÍA

Para buscar solucionar el problema planteado en el primer capítulo, se generan diversas mejoras, tanto en la infraestructura como en el método de siembra y cultivo de hongos seta en el invernadero (Incubación y cultivo) del Instituto Tecnológico Superior de Huauchinango (ITSH). Estas mejoras las desarrollamos tomando en cuenta principios de Lean Manufacturing.  Dentro de los principales problemas que identificamos en la producción, se detectó la intervención de agentes externos en las bolsas de producción, posiblemente Trichoderma el cual se identifica por tener un comportamiento saprófito o parásito, considerando esta intervención se deduce que pudo ingresar por medio de la proliferación de esporas. Tomando en cuenta esta causa, optamos por crear un sistema para controlar cualquier agente que acceda al invernadero, tomando como base las 5´S, para de esta manera estandarizar y regular el método de acceso al invernadero físico. Nuestra alternativa propuesta es el diseño e implementación de una cabina de desinfección, la cual dividimos en dos estaciones o secciones para alcanzar un mayor control de los agentes que acceden al invernadero. Así también, mediante un proceso de investigación teórica y de visitas a invernaderos locales nos percatamos de la importancia de mantener niveles óptimos de humedad dentro del invernadero, siendo importante tener una superficie (suelo) constantemente húmeda, por lo cual es necesario el posicionamiento de piso con superficie constante. Actualmente el invernadero dispone de suelo acondicionado con tezontle, detectando una visible área de mejora basada en cambiar la superficie del suelo por un piso de concreto, sin embargo, posterior a diversos análisis de costos de materiales, durabilidad y efectividad de absorción determinamos cementar la superficie total del invernadero mediante la construcción de paneles de concreto de dos diversas dimensiones, la primera categoría de paneles se caracteriza por: 22 placas de 0.91 x 0.92 x 0.08 metros, la segunda categoría consiste en 10 placas de 0.91 x 0.82 x 0.08 metros, cabe mencionar que 8 de esas placas se utilizarán para la cápsula de esterilización y las 2 restantes se colocaran en la cabina de desinfección. Ahora bien, para controlar la existencia y expansión de esporas se generó una guía para el cultivo, que incluye la metodología para pasteurización, siembra, incubación, cultivo y cosecha de la producción de hongos seta, esta guía se realizó tomando en cuenta aspectos relevantes sobre la inocuidad para el cultivo de este producto, así también se tomaron en cuenta las características de los hongos setas, las propiedades y las condiciones ambientales para propiciar el óptimo crecimiento.


CONCLUSIONES

La presente investigación permitió la generación de conocimiento significativo orientado al correcto cultivo de hongos setas, se consideraron diversas variables cuantitativas y cualitativas, la cuales quedaron plasmadas en la guía de cultivo, de igual manera se diseñó y simulo en software especializado la propuesta de adecuación de suelo del invernadero, teniendo en cuenta la eliminación de fuentes que originan la entrada de esporas a la cápsula de incubación y cultivo de los hongos setas, por otro lado de manera personal adquirimos nuevos conocimientos relacionados con el diseño en software, así también al generar diversas propuestas de mejora observamos un alto impacto en el invernadero, mismo que traerá consigo elevar el índice de productividad actual de hongos setas en la Sierra Norte del Estado de Puebla.
Medina Díaz Brian de Jesús, Universidad de Colima
Asesor: Dra. Gloria Ivone Dávila Pulido, Universidad Autónoma de Coahuila

EXTRACCIóN DE PLATA DE UN RESIDUO TIPO JAROSITA


EXTRACCIóN DE PLATA DE UN RESIDUO TIPO JAROSITA

Medina Díaz Brian de Jesús, Universidad de Colima. Asesor: Dra. Gloria Ivone Dávila Pulido, Universidad Autónoma de Coahuila



PLANTEAMIENTO DEL PROBLEMA

El proceso de precipitación de jarosita ha sido el método más utilizado en México durante al menos cinco décadas como técnica de purificación para remover el hierro en solución del proceso hidrometalúrgico de zinc, generando alrededor de 430 toneladas diarias de este compuesto. Sin embargo, este proceso presenta varios problemas significativos que requieren un tratamiento eficaz. El primer problema identificado está relacionado con la pérdida de cantidades importantes de plata (Ag), plomo (Pb), zinc (Zn) y cobre (Cu) durante la precipitación de jarosita. Estos elementos se incorporan en la estructura del compuesto, lo que resulta en una disminución significativa de su recuperación. Dado que la ley de plata se estima entre 150 y 350 g/t, ésta podría ser aprovechada como fuente alternativa de ingresos para la industria. Asimismo, se han realizado estudios sobre la descomposición de la jarosita con la finalidad de convertir este residuo en una especie más estable como hematita o magnetita y extraer los metales preciosos mediante procesos alternativos que representen un menor impacto ambiental que la cianuración. Además de la pérdida de metales valiosos, las jarositas industriales también se convierten en una problemática ambiental, ya que estos compuestos pueden contener elementos como cadmio (Cd), cromo (Cr), arsénico (As), entre otros. Estos elementos están regulados por la Norma 157 de SEMARNAT en México debido a su toxicidad. La liberación inadecuada de estos elementos tóxicos puede provocar la contaminación del suelo, el agua y el aire, lo que puede representar un riesgo para la fauna y flora local, así como para las comunidades cercanas a los sitios de disposición de estos residuos. 



METODOLOGÍA

Con el fin de homogeneizar las muestras se realizó un bulk mediante el método de cuarteo con los residuos tipo jarosita provenientes de una planta hidrometalúrgica de zinc en México. Previo a la elaboración de bulk, las muestras fueron disgregadas con la ayuda de un pulverizador con disco para posteriormente, formar lotes de 240 gramos con los que se realizaron las respectivas pruebas experimentales y análisis químico. Para la elaboración del análisis químico fue necesaria una digestión ácida de la muestra, la cual se efectuó por duplicado y se utilizó ácido clorhídrico (i.e., HCl) con una pureza del 36.5% y ácido nítrico (i.e., HNO3) al 98.5%. Además de la digestión ácida se prepararon estándares para cada uno de los elementos partícipes del análisis cuantitativo: Ag, Pb, Fe, Cu y Zn. Una vez realizada la digestión ácida y la preparación de estándares se comenzó con el análisis químico mediante espectroscopía de absorción atómica de llama (EAA). Posteriormente, se llevó a cabo la descomposición alcalina de la jarosita. Las condiciones establecidas para dicho proceso son las siguientes: pH 11, 60 °C, 12.3 % de sólidos, agitación mecánica de 350 rpm, de 4 a 4.5 horas de duración e hidróxido de sodio (NaOH) como agente alcalinizante. Cabe resaltar que tanto la duración del proceso como el porcentaje de sólidos adecuado se determinó mediante la elaboración de tres pruebas preliminares con las mismas condiciones de pH, temperatura y agitación.  La lixiviación de la jarosita previamente descompuesta se llevó a cabo utilizando dos diferentes agentes lixiviantes: NaCN y KSCN. Asimismo, las pruebas de lixiviación se realizaron adicionando 1.5 el valor estequiométrico requerido en gramos para la formación del complejo de plata. En el caso de la cianuración, se llevó a cabo una prueba con 1200 ppm de CN¯ (valor en exceso) y el agente oxidante fue el oxígeno atmosférico. Para la lixiviación con KSCN se adicionó hipoclorito de calcio (i.e., Ca(OCl)2) para lograr una concentración de 1700 ppm de OCl¯ como agente oxidante. Todas las pruebas se realizaron a pH 10.9, 25 °C, 350 rpm y 40% de sólidos. Primeramente, se adicionaron 100 mL de agua desionizada al reactor y se reguló el pH con NaOH 2M. Posteriormente, se añadieron 66 gramos de jarosita descompuesta y se reguló nuevamente el pH. Una vez estabilizado el pH, la agitación y la temperatura se añadieron las cantidades designadas de agente lixiviante y oxidante. Cada determinado tiempo se tomaron muestras de 3.5 mL y se medía el potencial de oxidación y reducción (ORP), además, se repuso el volumen extraído con agua desionizada. Asimismo, las muestras se aforaron a 10 mL y se determinó la concentración de Ag para cada muestra mediante EAA.


CONCLUSIONES

Durante el transcurso de la investigación se logró un aprendizaje e implementación de diversas técnicas que permitieron el desarrollo de habilidades de laboratorio. De los procesos experimentales se concluye lo siguiente: La descomposición del residuo jarosítico se logró de manera exitosa, alcanzando un porcentaje de descomposición superior al 90% para las 8 pruebas realizadas. La ley de Ag del residuo jarosítico fue de 150.6 g/t y presento un contenido de Fe, Zn, Pb y Cu de 9.2 %, 3.7 %, 1.2 % y 0.15 % respectivamente. La ley de Ag de la jarosita descompuesta fue de 170.5 g/t y presento un contenido de Fe, Zn, Pb y Cu de 15.2 %, 4.7 %, 1.4 % y 0.2 % respectivamente. De acuerdo con los resultados de las pruebas de lixiviación, se alcanzó solo el 5 % de extracción de plata con ambos agentes lixiviantes. Asimismo, el ORP durante las pruebas de lixiviación indica un potencial mayoritariamente oxidante. No se sabe con certeza cuál fue el factor causante de la baja extracción de plata, sin embargo, no deben subestimarse los resultados obtenidos pues representan un avance importante en la investigación.
Medina Díaz Grecia, Universidad Autónoma de Sinaloa
Asesor: Dra. Kelsey Alejandra Ramírez Gutiérrez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

EXTRACCIóN ROBUSTA DE IDENTIFICADORES


EXTRACCIóN ROBUSTA DE IDENTIFICADORES

Medina Díaz Grecia, Universidad Autónoma de Sinaloa. Asesor: Dra. Kelsey Alejandra Ramírez Gutiérrez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Nos encontramos en la era digital, la cual avanza continuamente todos los días. Desde desarrollos para áreas como los negocios, vuelos espaciales, seguridad, etc. Una que ha llamado la atención en los últimos años, es el área automotriz, que ha utilizado la inteligencia artificial para que sus autos puedan realizar ciertas acciones sin la ayuda de un humano. Aquí es donde entra este proyecto, Extracción Robusta de Identificadores, donde se explora la posibilidad del uso de Hashes Perceptuales para la extracción de un identificador que sea robusto antes cambios que pueden ser causadas por condiciones ambientales, en otras palabras, es la creación de un programa uniendo el Machine Learning y Hashes Perceptuales para reconocer y clasificar las señales de tránsitos ante la presencia de cambios, como ejemplo, iluminaciones, perspectiva, etc.



METODOLOGÍA

Se conocen tres Hashes, que son A-Hash, D-Hash y P-Hash. Donde cada uno tiene sus pasos, pero seleccionaremos uno para enfocarnos en el proyecto, como se sabe, son las primeras etapas para conocer el funcionamiento y desempeño que pude llegar a tener. Se creará un código donde se implemente un hash con sus etapas como son el preprocesamiento, la extracción de características y la cuantificación y así obtener el vector resultante de nuestra imagen, que recordemos, será una señal de tránsito. Por consiguiente, aplicaremos esto a diferentes señales para obtener así datos para el entrenamiento de nuestro clasificador. Estos datos o vectores de características tendrán que tener etiquetas que las distingan de las demás, para que en el momento que se realicen las pruebas con el modelo supervisado llamado SVM (Support Vector Machines) puedan guardarse con sus respectivas etiquetas y saber que señal de tránsito es.


CONCLUSIONES

Se espera como resultado un algoritmo robusto a posibles cambios de iluminación y perspectivas durante la conducción, que estos dañan la percepción de nuestro entorno, por lo tanto, la percepción de las imágenes, aunque no sean visiblemente nítidas por grandes lluvias, por poca iluminación en las noches, etc. Que el programa pueda identificar y clasificar correctamente la señal de tránsito mediante vectores de características que son generados por hashes perceptuales. 
Medina Guerrero Manuel Fernando, Universidad de Guadalajara
Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco

ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA


ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. González Ascencio Osvaldo Isay, Universidad de Guadalajara. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Quintero García Oliver Israel, Universidad de Guadalajara. Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

El dengue transmitido por los mosquitos Aedes aegypti y Aedes albopictus es un problema de salud crítico en las zonas tropicales de nuestro país. Sin embargo, incluso en áreas urbanas con un clima cálido y subhúmedo, como la zona metropolitana de Guadalajara, existe un riesgo considerable, especialmente durante el verano. Aunque los casos registrados en Jalisco son relativamente pocos, alrededor de 150 confirmados por año en promedio, es importante considerar que la mayoría de los casos pueden no ser diagnosticados, ya que otras regiones del país con clima similar y menor densidad poblacional informan y registran más casos anualmente. Entre la información necesaria a la hora de atacar esta problemática, está la estimación de densidad poblacional de los mosquitos y riesgos de transmisión. Ésta se realiza haciendo uso de ovitrampas distribuidas estratégicamente en zonas críticas de la región, utilizadas para recolectar huevos de vectores de dengue (Ae. aegypti y Ae. albopictus). Las ovitrampas utilizadas en el área metropolitana de Guadalajara consisten en dispositivos hechos de un bote plástico de color negro de 1 L. de capacidad, el cual es llenado a partes de volumen y recubierto sobre el borde de agua con una papeleta de pellón o papel filtro. Uno de los problemas presentes en el uso de este método de monitoreo del dengue es la falta de practicidad y fiabilidad en el conteo manual de los huevos de Ae. aegypti y Ae. albopictus en ovitrampas por parte del personal del Departamento de Dirección del Programa de Enfermedades Transmitidas por Vectores del Gobierno de Jalisco. Para abordar esta situación, es necesario digitalizar el proceso de conteo de huevos, que actualmente se realiza de forma manual por el personal gubernamental. Además, es importante analizar la información procesada para determinar la precisión del conteo de huevos en contraste con los datos públicos. El conteo manual de los huevos no solo se ve afectado por la salud visual del personal a largo plazo, si no que también presenta una fiabilidad altamente variable debido a la fatiga visual que se produce en la concentración de la vista en puntos específicos como lo demanda el conteo que realiza el personal. Al abordar el siguiente problema, también se podría reducir el margen de error en el conteo de huevos en un considerable porcentaje.



METODOLOGÍA

Con base al análisis situacional previo, realizado en base a los reportes emitidos por la Secretaría de Salud de Jalisco, en el cual se conoció el proceso de vigilancia y monitoreo de las ovitrampas instaladas en la zona, se ha detectado la necesidad de vigilar y cuantificar la cantidad de huevecillos producidos por el mosquito Aedes Aegypti y Aedes Albopictus transmisor de la enfermedad del dengue. El hecho de cuantificar los huevecillos captados en las ovitrampas le proporciona al sector salud información para determinar las estrategias a implementar para combatir la proliferación de dicho mosquito. Sin embargo, se percibe que este proceso de vigilancia y cuantificación se realiza de forma manual, por lo cual sería importante realizarlo con base a tecnologías emergentes que coadyuven en esta tarea para aumentar la optimización del tiempo y los niveles de confianza en el conteo y monitoreo. Se ha tomado como punto de partida el hecho de que, para una computadora, las imágenes no son más que una matriz de información donde se almacena el valor del píxel en que se encuentra sobre una pantalla. Cada uno de dichos píxeles se identifica por sus coordenadas y el nivel de intensidad con el que se visualiza. En las imágenes en blanco y negro dicho nivel de intensidad es un valor en el rango 0 - 255, siendo 0 la oscuridad absoluta y 255 la máxima luminosidad. Entre medias estaría toda la escala de grises. En las imágenes en color cada píxel se compone de tres valores, correspondientes a la intensidad de los tres colores primarios: rojo, verde y azul. De tal manera que para el desarrollo del proyecto, se han aplicado los aportes conceptuales de los diversos autores consultados así como las cuatro fases ya mencionadas: adquisición, preprocesamiento, determinación de objetos y análisis de imágenes del mundo real.


CONCLUSIONES

Una de las técnicas empleadas para el procesamiento de la imagen fue la binarización. Esta técnica tiene como función principal convertir la imagen en escala de grises a una imagen binaria, donde los píxeles se representan con valores de blanco o negro. La binarización permite que la computadora perciba la imagen de manera más efectiva, se simplifica la complejidad de la imagen y se resaltan los contornos y características distintivas. A través de la binarización es posible distinguir los contornos de la imagen y los objetos que contienen, de esta manera podemos identificar los huevos en el pellón, para reducir la cantidad de falsos positivos basándonos en un análisis previo de los rangos en los que se encuentran los tamaños de los huevos. De esta manera, el algoritmo puede realizar un conteo preciso de la cantidad de huevos presentes en el pellón. El avance de este algoritmo de conteo, que emplea técnicas de visión artificial, representa una alternativa considerablemente más precisa y eficiente en comparación con los métodos actuales que el personal de la Secretaría de Salud de Jalisco utiliza para contar manualmente los huevecillos presentes en el pellón. Además del ahorro de tiempo, el enfoque de visión artificial muestra un mayor grado de consistencia y fidelidad en los datos obtenidos. Al eliminar el factor subjetivo asociado con el conteo manual, se minimizan las posibles discrepancias y errores humanos, asegurando resultados más precisos y confiables en el análisis. En conclusión, los resultados de esta investigación respaldan la superioridad del enfoque de visión artificial en términos de ahorro de tiempo, eficiencia y precisión en el conteo de huevecillos. Esta tecnología promete ser una herramienta valiosa para mejorar la calidad y efectividad de los procesos de conteo en diversas aplicaciones, incluida la labor del personal de la Jurisdicción Sanitaria en el monitoreo de huevecillos y otras tareas relacionadas.
Medina López Bizmark, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

BALANCE TÉRMICO DE LOS MATERIALES EN LA CONSTRUCCIÓN COMO MITIGACION DEL EFECTO ISLAS DE CALOR.


BALANCE TÉRMICO DE LOS MATERIALES EN LA CONSTRUCCIÓN COMO MITIGACION DEL EFECTO ISLAS DE CALOR.

Medina López Bizmark, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La isla de calor urbano es un problema que se ha ido incrementando a principios del siglo XX, la energía eléctrica, consumo de carbono y petróleo fueron los principales factores que ayudaron a tal incremento. De acuerdo a INEGI (2023) fueron 129 millones de personas, tres millones más que la población resultante del Censo de Población y Vivienda 2020 (126 millones), y casi 17 millones más que la observada en 2010. Por otro lado las ciudades generan trastornos climáticos debido a las inversiones térmicas. Las variaciones térmicas que ocurren durante el día y la noche generan poco confort y comodidad para el ser humano, el uso adecuado de los materiales y su comportamiento en cuanto al clima característico de la zona son factores a considerar para generar un ambiente agradable. Se pretende analizar el comportamiento de los materiales de construcción con el fin de generar un ambiente agradable para sus habitantes.



METODOLOGÍA

Se pretende hacer una revisión de literatura (5 tesis de años de publicación entre 2020 y 2023. 4 artículos publicados en el 2023 publicadas en México, Colombia, Perú y Venezuela) para analizar los materiales más utilizados en la construcción, uno de lo primero factores es el color de los materiales. Los colores que más absorben calor son el negro con un 98%, gris con 90%, verde 79%, azul obscuro con un 77%, por otro lado los colores que menos absorben calor: Blanco con 20%, Amarillo claro 28%, perla 28%, marfil 28%, blanco hielo 33% y  azul claro 35%. La comparativa de propiedades que se hace a continuación es acerca de los materiales con mayor termicidad en los últimos años. Las paredes de tierra echas con adobe son capaces de mantener la humedad relativa en el interior del ambiente entre un 40-70%. Esto lo convierte en un material con buenas propiedades térmicas y agradables para el ambiente. El ferocemente es una forma de hormigón reforzado quedando como materia alternativo para la construcción de viviendas teniendo buen aislamiento térmico y resistencia a la abrasión, buen aislamiento acústico, buena resistencia ante agentes mecánicos, buena resistencia al agrietamiento, facilidad de construcción y reparación no necesita prácticamente mantenimiento, bajo costo. La Quincha, es un sistema constructivo tradicional, que tiene antecedentes de utilización desde épocas remotas. Tiene grandes propiedades térmicas y acústicas; no se enciende; Con las técnicas actuales, es altamente resistente a las cargas sísmicas; es completamente reciclable. Tiene una huella de carbono 12 veces menor que la producción de un bloque de hormigón similar, entre otras cualidades.


CONCLUSIONES

La investigación contribuirá a realizar otros trabajos relacionados con el mismo tema, porque los resultados que se consigan ayudarán con un apoyo teórico a partir de la información secundaria recabada en la bibliografía académica. El tema de islas de calor urbana es de gran importancia en los últimos años, esto ha generado gran controversia en si es recomendable seguir construyendo con cemento o regresar a los antiguos métodos de construcción con tierra. En esta investigación se observa que la quincha, adobe y ferocemente son materiales térmicos que ayudaran a reducir el impacto ambiental y a mejorar las condiciones habitacionales en zonas de climas extremos por su gran capacidad térmica.
Medina Magaña Lizeth, Instituto Tecnológico Superior de Puruándiro
Asesor: Mg. Diego Andrés Aguirre Cardona, Universidad Católica de Oriente

ACOMPAñAMIENTO A LOS PROCESOS INVETSIGATIVOS DEL CONSULTORIO SUSTENTABLE EN LA UNIVERSIDAD CATOLICA DE ORIENTE.


ACOMPAñAMIENTO A LOS PROCESOS INVETSIGATIVOS DEL CONSULTORIO SUSTENTABLE EN LA UNIVERSIDAD CATOLICA DE ORIENTE.

Medina Magaña Lizeth, Instituto Tecnológico Superior de Puruándiro. Asesor: Mg. Diego Andrés Aguirre Cardona, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

Según el Concepto económico del Oriente Antioqueño de Colombia publicado en el año 2019, más del 99% del parque empresarial en el Oriente Antioqueño está conformado por micro, pequeñas y medianas empresas. La mayoría de estas empresas, no cuentan con los recursos económicos para la realización de diagnósticos empresariales los cuales puedan mostrar las condiciones de operación actual que puedan sugerir planes de acción para la optimización de recursos y generación de residuos, y ser cada vez más amigables con el medio ambiente. Ante la actual situación, provocada por la presencia del COVID19 en este país, las empresas se han visto seriamente afectadas por las contingencias tomadas por las autoridades ambientales y los gobiernos municipales y nacional con el fin de frenar la propagación de la enfermedad. Es ahora entonces, cuándo los procesos productivos deben potenciar las acciones para alcanzar altas eficiencias en sus procesos de tal forma que situaciones como la ya antes mencionada, no impacten de manera tan abrupta el buen funcionamiento de ella. Las causas encontradas por las que las MiPymes no cuentan con la suficiente información para las mediciones de parámetros importantes en sus procesos son básicamente las bajas exigencias normativas, el costo de la utilización de equipos especializados, necesarios para las mediciones y el bajo apoyo y motivación de las entidades ambientales y gubernamentales con la búsqueda de la eficiencia y productividad. Estas situaciones generan en las empresas altos costos de operación los cuales, en condiciones como las actuales, llevan a la empresa en pocos meses de inactividad o actividad anormal, a estados cercanos a banca rota o a liquidaciones de personal. Por esta razón, y desde la Facultad de Ingenierías de la Universidad Católica de Oriente, se propone realizar análisis de Sustentabilidad en los procesos productivos de las micro, pequeñas y medianas empresas del Oriente Antioqueño de Colombia, dando apoyo a aquellas organizaciones que no cuentan con los conocimientos, equipos, y recursos para que puedan trazar y conocer sus líneas base en temas relacionados con el consumo de recursos en sus procesos productivos y la generación de productos gaseosos, líquidos y sólidos. El conocimiento de estas generaciones genera en la organización el suficiente conocimiento para la correcta implementación de planes de acción que puedan mitigarlos y buscar la productividad y la eficiencia productiva.



METODOLOGÍA

1. Identificación y realización de cada una de las operaciones o actividades del proceso productivo y análisis desde el punto de vista másico y energético. 2. Realización del diagrama de flujo del proceso productivo. 3. Obtener el total conocimiento e información de las líneas base en temas energéticos, generación de gases, residuos. Siendo el punto de partida para la planeación e implementación de planes de acción. 4. Determinación de alternativas o rutas con las cuales se trazan planes de acción.


CONCLUSIONES

Con los resultadosesperados, se busca una mejora y reciclar lo maximo posible de residuos de los productos que se fabrican dentro de las MyPIMES visitadas en el Oriente Antioqueño de Colombia, y hacer una mejora al medio ambiente ya que esto es uno de los principales objetivos dentro del consultorio sustentable. Ademas de dar apoyo a aquellas organizaciones que no cuentan con los conocimientos, equipos, y recursos para que puedan trazar y conocer sus líneas base en temas relacionados con el consumo de recursos en sus procesos productivos.
Medina Mancera Carlos Enrique, Instituto Tecnológico Superior de Uruapan
Asesor: Esp. Carlos Alberto Bernal Beltran, Instituto Tecnológico de Ciudad Altamirano

DISEñO, SIMULACIóN Y PROTOTIPADO IOT SOBRE EL CONSUMO ENERGéTICO EN HOGARES EN MéXICO


DISEñO, SIMULACIóN Y PROTOTIPADO IOT SOBRE EL CONSUMO ENERGéTICO EN HOGARES EN MéXICO

Medina Mancera Carlos Enrique, Instituto Tecnológico Superior de Uruapan. Asesor: Esp. Carlos Alberto Bernal Beltran, Instituto Tecnológico de Ciudad Altamirano



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el consumo energético en hogares y lugares de trabajo es una preocupación creciente debido al aumento de la población y el uso de dispositivos electrónicos y electrodomésticos. En México, la falta de monitoreo efectivo del consumo energético y la falta de conciencia sobre el uso eficiente conducen a un consumo excesivo y desperdicio innecesario. La falta de información detallada de esta dificulta la identificación de áreas de mejora y la adopción de prácticas más sostenibles y tecnologías eficientes.



METODOLOGÍA

Como primeros pasos se descargaron softwares de diseño y simulación de circuitos eléctricos para manejar más fácil de forma digital los componentes con los que se iba a trabajar, cabe resaltar que no todos los softwares cuentan con la mayoría de los componentes cargados de manera predeterminada, se tienen que seguir una serie de pasos que dependiendo el programa llegan a ser más extensos y difíciles de descargar esos componentes por lo que los predilectos a usar para este proyecto fueron Fritzing y EasyEDA. Después pasamos a instalar los ítems correspondientes para poder visualizar el modelo especifico y correcto con el que se contaba, se hizo desde sitios Web autorizados y foros de especialistas tanto de Fritzing y EasyEDA. Una vez teniendo las herramientas de diseño y simulación completas en nuestro ordenador faltaba decidir cual microcontrolador se usaría teniendo como opciones la tarjeta de desarrollo Esp32 y Arduino UNO, donde por medio de una comparación rigurosa y por cuestión de costos y tiempo se optó por la Esp32 ya que esta contaba con la comunicación Wi-Fi o Bluettoth, sin necesidad de adquirir otros módulos como lo hubiera sido con Arduino. Posteriormente se realizaron consultas de los módulos con los que se contaba en casa, para comprobar que fueran del todo compatibles con la tarjeta de desarrollo Esp32, y asimismo dar cavidad a tener un desarrollo de diseño y simulación exitoso. La idea era lograr una forma de un monitoreo inteligente sobre el consumo energético de los aparatos eléctricos de cualquier lugar donde se desee, se trabajaron con componentes como un sensor de voltaje de CA ZMPT101B, un Sensor de corriente CA no invasivo SCT-013-030, una Pantalla LCD de 20x4 con I2C, resistencias, capacitores, cables, protoboards y por supuesto las cargas con las que se harían las mediciones. La comunicación y programación se hizo gracias al IDE de Arduino se tuvieron que descargar librerías extras para poder lograrla ya que utiliza Wi-Fi y lo que queremos es proyectar la información a distancia y al mismo tiempo en la pantalla LCD. Estas fueron descargadas desde el sitio web llamado GITHUB. Para lograr hacer la comunicación a distancia se analizaron varias plataformas con las que podíamos trabajar, pero por cuestiones de accesibilidad, compatibilidad y configuración activa es que se seleccionó la plataforma Web BLINK.  Blynk es una plataforma centrada en la facilidad del uso y la creación de prototipos con una interfaz amigable que incluso guarda una línea del tiempo dependiendo el proyecto y tiene más formas de almacenamiento de datos como guardar los registros que se obtengan desde 1 hora hasta 6 meses, pero lo negativo es que se necesita obtener una versión premium para estas configuraciones. Una ventaja más es que nos proporciona BLINK es la de una aplicación móvil que se puede personalizar para controlar y monitorear tus dispositivos ESP32, así que es un monitoreo mediante PC y App móvil al mismo tiempo. Automatizando el proceso de seguimiento del consumo de electricidad y convertirlo en una experiencia más ágil, midiendo el voltaje, la corriente, la potencia y la energía total consumida. Las lecturas se enviarán a la aplicación BLYNK mostrándose en un tablero accesible desde cualquier ubicación. Donde también en caso de cortes de energía, los datos del medidor se almacenarán en la EEPROM de la ESP32, y esto es lo que garantiza las lecturas continuas. 


CONCLUSIONES

Durante la estancia, se comprendió que la falta de monitoreo del consumo energético en los hogares de México representa un desafío importante para lograr una gestión energética eficiente, y que es necesario aumentar la conciencia sobre el uso responsable de la energía, Es fundamental implementar estrategias que promuevan el monitoreo efectivo y accesible de esto para abordar estas problemáticas y avanzar hacia una sociedad más sostenible. El medidor energético IoT con Esp32 representa una solución tecnológica prometedora para la gestión eficiente del consumo de energía eléctrica. Durante este proceso se ha demostrado la viabilidad y utilidad de esta solución solamente con pruebas simples de iluminaria, pero brindando datos precisos y accesibles en tiempo real, lo que permite una toma de decisiones informada y consciente sobre el uso de la energía de los dispositivos que usamos y que sin duda alguna tiene muchas áreas de oportunidad a desarrollar para las mediciones de más aparatos que usamos diariamente ya sea en el trabajo o en el hogar no cerrando las puertas a seguir mejorándolo.
Medina Mondragon Martin, Instituto Tecnológico de Matamoros
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

ANáLISIS MECáNICO DE UNA TORRE DE MATERIAL COMPUESTO EN UN AEROGENERADOR DE PEQUEñA CAPACIDAD 30KW


ANáLISIS MECáNICO DE UNA TORRE DE MATERIAL COMPUESTO EN UN AEROGENERADOR DE PEQUEñA CAPACIDAD 30KW

Medina Mondragon Martin, Instituto Tecnológico de Matamoros. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA El fallo en un material es la ruptura de un objeto o material, ya sea de metal, plástico, etc. Debido a diversos factores que afectan a la resistencia, la estabilidad y la composición química de la estructura. Las razones de los fallos pueden ser múltiples, por ejemplo, corrosión, fatiga o desgaste, entre otras causas. El fallo mecánico en los materiales ha sido algo que ha afectado en la industria y en la ingeniería por muchísimos años, ya que es un factor para tomar en cuenta a la hora del diseño y construcción de muchos materiales para diversas aplicaciones como lo son la industria automotriz, aeronáutica y eólica, etc. A partir de lo anteriormente mencionado, nuestro interés será enfocado en la aplicación de los materiales compuestos reforzados con fibras en aerogeneradores de pequeña capacidad 30Kw, utilizando como base los resultados encontrados en la literatura sobre simulaciones de esfuerzos en torres de aerogeneradores. Lo que se desea realizar a partir de la información encontrada en la literatura es colocarla en un programa de análisis por elemento finito, para analizar y estudiar simulaciones mecánicas de compresión y flexión.



METODOLOGÍA

METODOLOGIA La búsqueda de información a través de la literatura, nos permitió comprender como funcionan los materiales compuestos y como estos se utilizan en diferentes partes de los aerogeneradores. Referente a las piezas del programa de simulaciones de elemento finito, se comenzó a trabajar con piezas y ensambles sencillos escalando en su complejidad también agregando ciertas investigaciones fundamentales en la aplicación de los materiales compuestos en los aerogeneradores. Llegados a un punto de haber trabajado con los materiales compuestos y los aerogeneradores se decidió el trabajar con la torre de un aerogenerador de pequeña capacidad, con las dimensiones especificadas a continuación: Torre de aerogenerador de Acero A36: Una altura de 18 metros, con un espesor de 12mm y un diámetro de 1.3 metros. Posteriormente, se utilizó una geometría similar de la torre, pero ahora de un material compuesto reforzado con fibra de carbono: Con una configuración de laminado [0/90/+45/-45/-45/+45/90/0] de 40 capas con un espesor de 12.16mm, una altura de 18 metros y un diámetro de 1.3 metros. Buscando que ambas torres tengan una geometría similar para la comparación de resultados a la hora de realizar la simulación de elementos finitos las cuales fueron: Una fuerza de compresión a partir del peso de la góndola de 34.33kN que se sitúa en la parte superior de la torre. Una fuerza de empuje de 21,719 N simulando condiciones climatológicas controladas tomando en cuenta que en el caso de que el viento sea 50km/h por metro cuadrado.


CONCLUSIONES

CONCLUSIONES Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para posteriormente finalizar con resultados de desempeño mecánico sobre dos torres con geometrías similares, pero de diferentes materiales. Los resultados a compresión mostraron que el factor de seguridad en el caso de la torre de fibra de carbono es superior a la torre de acero, ya que en la torre con fibra de carbono de obtuvo un factor de seguridad de 261.76 y para el caso de la torre de acero se obtuvo un factor de seguridad de 230. Con respecto a los desplazamientos máximos en la condición de flexión (fuerza del viento), la torre de fibra de carbono tuvo un desplazamiento superior en comparación con la torre de acero, ya que en la torre de fibra de carbono se obtuvo un desplazamiento de 13.95 mm y en la torre de acero se obtuvo un desplazamiento de 6.49mm. Estos resultados permiten comprender que la fibra de carbono es un buen candidato para la fabricación en torres de aerogeneradores de pequeña capacidad. Además, la fibra de carbono es un material más ligero en comparación con el acero, por lo tanto, será más fácil transportar la torre desde su lugar de fabricación hasta el lugar de instalación.  
Medina Montañez Alejandro, Instituto Tecnológico de Morelia
Asesor: Mg. Johan David Ñañez Zuleta, Servicio Nacional de Aprendizaje SENA - Regional Risaralda

DESARROLLO DE UNA PICO CENTRAL HIDROELéCTRICA PARA LA GENERACIóN DE ENERGíA EN ZONAS CON ALTO POTENCIAL HIDRO CINéTICO


DESARROLLO DE UNA PICO CENTRAL HIDROELéCTRICA PARA LA GENERACIóN DE ENERGíA EN ZONAS CON ALTO POTENCIAL HIDRO CINéTICO

Lorenzo Nicolas Pedro, Instituto Tecnológico de Reynosa. Medina Montañez Alejandro, Instituto Tecnológico de Morelia. Asesor: Mg. Johan David Ñañez Zuleta, Servicio Nacional de Aprendizaje SENA - Regional Risaralda



PLANTEAMIENTO DEL PROBLEMA

Las fuentes de energía renovable han cobrado una creciente importancia en la búsqueda de soluciones sostenibles para la demanda global de energía. Dentro de estas fuentes, la energía hidroeléctrica ha sido históricamente una de las más utilizadas y eficientes en términos de generación de electricidad. La creciente preocupación por el cambio climático y la necesidad de reducir las emisiones de gases de efecto invernadero han impulsado la búsqueda de fuentes de energía renovable que sean eficientes y, al mismo tiempo, tengan un bajo impacto ambiental. En este contexto, las pico centrales hidroeléctricas han surgido como una potencial alternativa prometedora debido a su capacidad para aprovechar el potencial hidrocinético de ríos y corrientes de menor caudal. Las pico centrales hidroeléctricas tienen la capacidad de operar en armonía con los ecosistemas fluviales existentes, minimizando la alteración de los hábitats acuáticos y la degradación del entorno natural. A diferencia de las grandes represas, que pueden causar cambios significativos en la geomorfología de los ríos y en la biodiversidad acuática, las pico centrales hidroeléctricas pueden ser diseñadas para causar un impacto ambiental mucho más limitado. Al proporcionar una fuente constante de energía renovable, las pico centrales hidroeléctricas pueden contribuir a la reducción de las emisiones de gases de efecto invernadero al reemplazar las fuentes de energía basadas en combustibles fósiles. Las pico centrales hidroeléctricas pueden aprovechar los flujos de agua locales, lo que reduce la necesidad de transporte y distribución de combustibles fósiles.



METODOLOGÍA

En la fase inicial del proyecto, se procedió a la selección del tipo de turbina más apropiado para transferir tanto la potencia como el torque al generador en la pico central hidroeléctrica. Entre diversas alternativas de diseño y fabricación, como las turbinas Francis, Kaplan y Darrieus, se tomó la decisión de emplear una turbina de múltiples palas. Esta elección se fundamentó en la eficiencia demostrada, además de su relativa facilidad de instalación y menor costo. Para el desarrollo del primer prototipo, la turbina fue diseñada utilizando software de diseño asistido por computadora (CAD) de Solid Works y posteriormente se materializó mediante impresión en 3D. Cabe destacar que cada una de las tres palas de esta turbina presenta una curvatura singular que potencionaliza su eficiencia.  En la fase subsiguiente, se procedió con el desarrollo de los componentes tanto mecánicos como eléctricos. En términos generales, se construyó una estructura de soporte diseñada para mantener y estabilizar todos los elementos mecánicos, que incluyen la turbina de múltiples palas, un sistema de arrastre compuesto por dos discos y dos piñones de bicicleta. Este sistema de arrastre es esencial para la transmisión efectiva del torque desde las palas de la turbina al generador eléctrico de corriente continua con imán permanente. Además de estas características, la configuración mecánica incorpora un sistema innovador de flotabilidad, asegurando la adecuada flotación y estabilidad de la pico central hidroeléctrica en su entorno acuático. En lo que respecta a los componentes eléctricos, se diseñaron sistemas para la medición de voltaje, corriente y potencia eléctrica mediante diversos sensores, así como para el registro de las revoluciones por minuto proporcionadas por el sistema, utilizando un sensor de efecto Hall. En la fase posterior del proyecto, el prototipo de laboratorio fue validado en condiciones de operación en ambiente de trabajo real. Los resultados obtenidos en esta etapa arrojaron valores positivos, con un voltaje de salida oscilando entre 7 y 8 voltios, una potencia que varía entre 25 y 30 vatios, y una producción energética de 18 a 21.6 kilovatios por mes. En la última fase de desarrollo, se realizó una ampliación del tamaño del primer prototipo, aproximadamente al doble de sus dimensiones originales, con el propósito de incrementar tanto el voltaje como la potencia y energía generada por el sistema. Este paso persigue maximizar la capacidad de generación eléctrica de la pico central hidroeléctrica, con miras a obtener un rendimiento óptimo en términos de producción energética y eficiencia.


CONCLUSIONES

En resumen, la turbina de tipo multipala ha demostrado el mejor desempeño en las pruebas de laboratorio y se alinea de manera óptima con los objetivos del proyecto. Cabe destacar la originalidad de los diseños de álabes curvos y del sistema de flotabilidad, que, a pesar de la escasa documentación disponible, han demostrado ser elementos innovadores clave en la optimización del sistema. La siguiente fase del proyecto involucrará pruebas en condiciones reales utilizando un prototipo a escala. Estas pruebas proporcionarán información esencial para validar nuestras conclusiones y recopilar datos valiosos para futuras implementaciones y mejoras. Este proyecto sigue desempeñando un papel importante en la evolución de tecnologías de energía sostenible y eficiente.
Medina Peña Mauricio Agustin, Instituto Tecnológico de Morelia
Asesor: Mtro. Barsimeo González Panzo, Instituto Tecnológico Superior de Ciudad Serdán

FACTORES QUE INFLUYEN EN LA COMPETITIVIDAD DE PYMES DEL SECTOR COMERCIAL EN LA REGIóN DE CHALCHICOMULA DE SESMA.


FACTORES QUE INFLUYEN EN LA COMPETITIVIDAD DE PYMES DEL SECTOR COMERCIAL EN LA REGIóN DE CHALCHICOMULA DE SESMA.

Martinez Mejia Carlos Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Medina Peña Mauricio Agustin, Instituto Tecnológico de Morelia. Asesor: Mtro. Barsimeo González Panzo, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

En México, la pequeña y mediana empresa (Pyme), representan más del 99% de las empresas establecidas, generan 52 % del Producto Interno Bruto (PIB) y dan trabajo a más del 72% del total del personal empleado (IMCO, 2019). Las Pymes en la nueva economía que se caracteriza por la globalización de los mercados, una mayor oferta que demanda más y mejores productos, cada vez esos clientes son más exigentes, el análisis del aseguramiento de la calidad, el aprovisionamiento, la planeación estratégica, el marketing, la contabilidad y finanzas, deben de ser consideradas como fuente de ventaja competitiva. Las Pymes tienen según Singh, Garg and Deshmukh (2008) los siguientes limitadores en estos mercados globalizados: Escasez de recursos Planitud de la estructura empresarial Falta de conocimientos técnicos Escasez de innovación Aparición de pérdidas de conocimiento El interés que tiene por tal motivo está investigación es avanzar en el conocimiento de los factores clave para la realización de un modelo que mejore la competitiva en las Pymes de acuerdo con el contexto de la región de Ciudad Serdán. De esta manera las Pymes que los identifiquen correctamente, se considera que tendrán la capacidad de implementar dentro de su organización un sistema más competitivo de acuerdo con la región, con el fin de poder realizar innovaciones, crear nuevas y sostenibles ventajas competitivas. La investigación tiene un enfoque cuantitativo ya que pretende realizar una recolección de datos y comprobar, unos supuestos con un análisis transversal utilizando el método deductivo con la técnica para la recolección de datos de la encuesta estructurada con una escala de Likert, el estudio está diseñado en dos etapas, la primera que es el diagnostico de una muestra de las Pymes de la región de Ciudad Serdán, la segunda etapa será el diseño de un método que busque el incremento de la competitividad de las Pymes conforme al contexto y las variables antes mencionadas.



METODOLOGÍA

La investigación tiene un enfoque cuantitativo derivado que pretendió describir, explicar y predecir los fenómenos investigados, buscando regularidades y relaciones causales entre los elementos, variables. Esto significa que la meta principal es la prueba de hipótesis y la formulación y demostración de teorías (Hernández-Sampieri & Mendoza, 2008). El tipo de estudio fue observacional, debido a que se buscó identificar los factores que influyen en la competitividad de las PYMEs en el sector comercial, es transcendental aclarar que el tipo de interferencia solo describe el fenómeno en disposición de dichos factores. Es retrospectivo parcial, ya que se cuenta con información acerca de los factores que determinan la competitividad, a través de la revisión de la literatura. Al mismo tiempo es de tipo descriptivo, debido a que se tiene una sola población, las Pymes de la región de Chalchicomula de Sesma, y se pretende describir en función de dichos factores.


CONCLUSIONES

Durante el verano de investigación, se llevó a cabo un proyecto conjunto para determinar los factores que influyen en la competitividad de las Pymes en la región de Chalchicomula de Sesma. La investigación se basó en el análisis de dos variables fundamentales: la competitividad y las ventas, consideradas esenciales para el desarrollo de cualquier empresa, sin importar su tamaño. El proceso de investigación comenzó con una revisión exhaustiva de la literatura, lo que proporcionó una base sólida para la elaboración de una encuesta estructurada con una escala de Likert, como menciona Bertram, (2008, como se citó en Matas, A, 2018) las llamadas escalas Likert son instrumentos psicométricos donde el encuestado debe indicar su acuerdo o desacuerdo sobre una afirmación, ítem o reactivo, lo que se realiza a través de una escala ordenada y unidimensional. (p. 39) Aplicando un cuestionario como menciona García, F, (2006), un cuestionario es un proceso estructurado de recogida de información a través de la cumplimentación de una serie de preguntas. (p.2), compuesto inicialmente por 42 ítems que medían distintos aspectos de la competitividad y ventas se aplicó a 11 pymes de Chalchicomula de Sesma, elegidas por conveniencia, con el fin de validar la fiabilidad del instrumento. Al analizar la fiabilidad de los datos obtenidos con el software estadístico SPSS, se obtuvieron resultados de alfa Cronbach de 0.522 en la primera validación, debido a esto se realizaron modificaciones al instrumento eliminando y cambiando algunos ítems que no estaban arrojando los resultados esperados. El instrumento fue reducido a 33 ítems después de un proceso de depuración con base a los resultados obtenidos; nuevamente se aplicó un muestreo por conveniencia a 11 pyme diferentes de la región consiguiendo así que en la segunda validación donde se obtuvo un Alfa de Cronbach a 0.712. Durante la recolección de datos, se observó que algunas Pymes mostraron resistencia al cambio, mientras que la mayoría se mostraron amables y dispuestas a participar en el estudio. Sin embargo, se enfrentaron dificultades debido a la disponibilidad de tiempo para responder las preguntas, Aunado a lo anterior, otra dificultad que se encontró durante el estudio fue que los ítems estaban dirigidos a dueños o gerentes los cuales la mayoría de las veces no se encontraban en el establecimiento o no estaban disponibles para contestar, por lo que, la mayoría de las respuestas provinieron de empleados que no conocían a detalle el funcionamiento interno de la Pyme. En consecuencia, se optó por modificar los ítems para adaptarse a esta situación. Se llegó a la conclusión de que el tiempo reducido que se tuvo para realizar las encuestas, influyo en los resultados obtenidos; Si bien el proceso de recolección de datos presentó algunos desafíos, el estudio proporcionó un aprendizaje significativo y valiosas observaciones que ayudarán en el seguimiento de esta investigación. Se destaca la importancia de seguir trabajando en la mejora del instrumento de recolección de datos y la necesidad de ampliar el tamaño de la muestra para obtener resultados más confiables y representativos.
Medina Rodríguez Sebastián Jazael, Instituto Tecnológico de Tepic
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS


FRAMING: HERRAMIENTA PARA EL ANáLISIS DE NOTICIAS

de Robles Ramírez Miguel Israel, Instituto Tecnológico de Tepic. Gutiérrez Delgado Valeria Dinora, Instituto Tecnológico de Tepic. López Ramos Víctor Daniel, Instituto Tecnológico de Tepic. Medina Rodríguez Sebastián Jazael, Instituto Tecnológico de Tepic. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El "Framing" se refiere a la manera en que los medios de comunicación, a través de sus elecciones lingüísticas y visuales, dan forma a la cobertura de eventos y situaciones específicas. Varias disciplinas contribuyeron en la conformación de lo que hoy se conoce como teoría del Framing: la psicología, la sociología, los estudios sobre los movimientos sociales y la comunicación, por mencionar las áreas más sobresalientes. Al seleccionar ciertas palabras, imágenes o enfoques para presentar una noticia, los medios pueden influir en cómo las personas entienden y reaccionan a esa información. El problema planteado en la investigación es cómo se puede utilizar el "Framing" como una herramienta analítica para examinar cómo los medios de comunicación presentan las noticias y cómo esto afecta la percepción del público. Al abordar este problema de investigación, se busca comprender mejor cómo el "Framing" puede ser una herramienta útil para analizar y desentrañar los mecanismos detrás de la presentación de las noticias, y cómo esto afecta la comprensión del público sobre los acontecimientos y temas importantes en la sociedad. Además, este enfoque también puede tener implicaciones para la ética periodística y el papel de los medios de comunicación en la formación de opiniones y actitudes en la sociedad. 



METODOLOGÍA

Para lograrlo, se desarrolló una metodología que consistió en dos pasos fundamentales. Primero, se creó un conjunto de palabras o términos que representan los diferentes marcos temáticos que podrían estar presentes en los artículos de noticias. Este conjunto de palabras se conoce como "vocabulario de marcos temáticos". Se elaboró una lista de tópicos en el que se especifica a detalle cómo se evalúa cada criterio de la noticia, como tal la temática del estudio, cuyas opciones de encuadre son las siguientes:   1 = Economic, 2 = Capacity and resources, 3 = Morality, 4 = Fairness and equality, 5 = Legality, constitutionality and jurisprudence, 6 = Policy prescription and evaluation, 7= Crime and punishment, 8 = Security and defense, 9 = Health and safety, 10 = Quality of life, 11 = Cultural identity, 12 = Public opinión, 13 = Political, 14 = External regulation and reputation, 15 = Other. También se tomaron en cuenta tópicos de tonos en el que esté la noticia, cuyas opciones son las siguientes: Tono Neutral, Tono Positivo, Tono Negativo. Por otro lado, se debía especificar Autor, Fecha y Titulo (siempre y cuando la página de donde fue extraída la noticia contara con estos parámetros), por último, es necesario especificar el tópico general en el que se basaba la noticia. Cada noticia debe ser etiquetada mínimo 2 veces para que exista una mejor coherencia al especificar cada tópico.  Luego, se aplicaron diversas técnicas de clasificación, las cuales permitieron etiquetar automáticamente los marcos temáticos en los artículos de noticias basándose en el vocabulario creado previamente. Estas técnicas de clasificación mostraron resultados prometedores, ya que indicaron la posibilidad de mejorar el rendimiento general del sistema de predicción. 


CONCLUSIONES

Durante la estancia de verano, en su mayoría las noticias que fueron analizadas se enfocan en la observación de situaciones reales en casos concretos, tienen un enfoque más práctico y menos teórico. Nos permitió comprender como los medios de comunicación influyen en la percepción y la interpretación de la información por parte del público. Al desarrollar esta habilidad, podemos ser más conscientes de cómo la información es presentada y, en última instancia, tomar decisiones más informadas y responsables. En esta investigación, se aplicaron lenguajes de programación como Python, técnicas de procesamiento de lenguaje natural y algoritmos de inteligencia artificial para entrenar una herramienta llamada Label Box (la cual es completamente gratuita y sencilla de entender) la cual nos ayudó para analizar noticias basada en el concepto de "Framing". Python proporcionó una plataforma flexible y eficiente para manipular y analizar grandes conjuntos de datos de noticias, mientras que las técnicas de procesamiento de lenguaje natural permitieron extraer y comprender la información textual de manera automatizada. La inteligencia artificial se utilizó para entrenar modelos capaces de identificar patrones de "Framing" en las noticias y clasificar los diferentes marcos utilizados. El resultado de la investigación se materializó en una exposición y resumen sobre el entrenamiento del "Framing" desarrollado y su aplicación en el análisis de noticias. La exposición incluyó ejemplos prácticos de noticias analizadas, mostrando cómo la herramienta identificó y categorizó los marcos utilizados por los medios. Además, se presentaron gráficos y visualizaciones para ilustrar las tendencias de "Framing" y su distribución en las noticias. El resumen proporcionó una síntesis de los hallazgos clave, destacando la importancia de esta herramienta para comprender cómo los medios influyen en la percepción pública sobre temas importantes.
Medina Tepox Brenda, Universidad Popular Autónoma del Estado de Puebla
Asesor: Mg. Aline Isabel Melo Henríquez, Servicio Nacional de Aprendizaje SENA - Regional Magdalena

ELABORACIóN DE MADERA PLáSTICA A PARTIR DE PLáSTICO RECICLADO Y FIBRA VEGETAL DE LA PLANTA DEL BANANO


ELABORACIóN DE MADERA PLáSTICA A PARTIR DE PLáSTICO RECICLADO Y FIBRA VEGETAL DE LA PLANTA DEL BANANO

Medina Tepox Brenda, Universidad Popular Autónoma del Estado de Puebla. Asesor: Mg. Aline Isabel Melo Henríquez, Servicio Nacional de Aprendizaje SENA - Regional Magdalena



PLANTEAMIENTO DEL PROBLEMA

Ante la gran versatilidad de los plásticos estos han estado fuertemente implicados en el área alimenticia, ya que permiten la conservación, almacenamiento y transporte de estos. Al tener esta función, los plásticos suelen ser de un solo uso, es decir, en cuanto el alimento ha llegado a nuestras casas o ha sido consumido, este se desecha. Lamentablemente, la cultura de reutilización y reciclaje no ha sido empleada exitosamente en muchos países, provocando la contaminación de suelos y distintos cuerpos de agua. De acuerdo con la Procuraduría Federal del Consumidor, debido a la pandemia por COVID-19 estamos enfrentando una crisis mundial de contaminación por plásticos. No solo cubrebocas y guantes, también empaques de plástico de comida y otros productos agravan la problemática llevando los plásticos a regiones remotas como el ártico y al fondo de los océanos.



METODOLOGÍA

Se realizó una investigación bibliográfica exhaustiva en la que se planteó el panorama que enfrenta México ante la problemática de la contaminación por plásticos de un solo uso, en esta, se descubrió que en México, de acuerdo con una investigación realizada por la ONU y la Secretaría de Medio Ambiente y Recursos Naturales, un mexicano consume aproximadamente 66 kilogramos de plástico al año; si esta cifra se multiplica por la cantidad de habitantes, esto nos da una consumo de plásticos al año de 8 mil 507.4 millones de kilos en todo el país. Además, se descubrió que esta contaminación ha afectado a zonas industriales como lo es Puebla, en donde se encuentra uno de los ríos más contaminados de México, llamado Río Atoyac, en este río se han encontrado 900 ± 346.12 piezas por kilogramo de sedimento y en su mayoría corresponde a microplásticos en forma de fibras, fragmentos y películas plásticas, también conocidos como flims. Lamentablemente, también han sido afectadas las áreas naturales protegidas (ANPs) de México, en donde gracias a un estudio realizado por Greenpeace México se detectaron un equivalente a 2 piezas/km2 flotando en la superficie y 3500 piezas/km2 en el fondo de arrecifales cerca del Golfo de México y del Mar Caribe.  Entre los plásticos más comunes que se encontraron en estos ecosistemas fueron los plásticos de un solo uso, como son las bolsas de plástico (LDPE), tapas (HDPE), botellas (PET o HDPE), contenedores de unicel (PS), y fragmentos de plásticos diversos. Además de esto, se descubrió que el uso de la fibra vegetal extraída de la planta del plátano era una alternativa viable, puesto que México cerró el año 2021 con una producción total de 2 millones 469 mil toneladas de plátano, siendo los estados de Chiapas, Tabasco y Veracruz los mayores productores de esta fruta, de acuerdo con una investigación realizada por el Servicio de información Agroalimentaria y Pesquera (SIAP). Cabe destacar que gracias al aumento de producción de plátano que ha tenido México, este se ha posicionado en el lugar 12 desde 2017 por detrás de países como Ecuador, Guatemala, Colombia y Costa Rica. Para la elaboración de los bloques que permitirán la obtención de probetas que serán utilizadas para las distintas pruebas de resistencia, tensión y flexión para determinar o recomendar un uso de nuestro producto, se realizó lo siguiente: Recolección de la fibra vegetal de la planta del banano  Se recolectó una planta de banano procedente de los cultivos encontrados dentro de la institución educativa SENA Centro Acuícola Agroindustrial (CAAG). Medición y pesado de la fibra vegetal de la planta del banano Se realizó la medición de la planta del banano completa, tanto ancho (17 cm) como largo (66.5 cm). Así mismo se hizo el pesado de la planta completa (5.50 kg). Separación de las distintas capas de la fibra vegetal de la planta del banano En este paso se separaron las distintas capas que tiene la planta del banano, esto con el objetivo de eliminar de manera natural cierta cantidad de agua que contiene la fibra, además de facilitar el trabajo al momento de la deshidratación.  Deshidratación de la fibra vegetal  Se procedió a deshidratar la planta del banano a una temperatura de 35°C con una duración de 8 horas.   Reducción de tamaño de los plásticos reciclados recolectados Se realizó la trituración manual de las botellas plásticas (PET) recolectadas en el centro de formación SENA magdalena (CAAG). La trituración se hizo con ayuda de cutter y tijeras, quitando y separando manualmente las etiquetas y tapas presentes en este tipo de productos.  Desinfección del plástico reciclado previamente triturado  Una vez que se redujo el tamaño del PET a dimensiones promedio de entre 2 a 6 cm se procedió a realizar la desinfección mediante agua y detergente líquido. Trituración de la fibra vegetal de la planta del banano deshidratada  Ya que obtuvimos la fibra vegetal completamente deshidratada procedemos a la trituración de la misma, ya que esto permitirá la correcta emulsión con el plástico. Este paso fue realizado con una máquina trituradora presente en la institución educativa SENA magdalena (CAAG).  


CONCLUSIONES

Durante esta estancia de verano se logró adquirir conocimientos teóricos acerca del panorama global del problema de los plásticos, específicamente de Colombia y México, así como el aprovechamiento de distintos residuos orgánicos abundantes de las regiones estudiadas, con el objetivo de lograr que el producto final sea aún más atractivo y sustentable. Ante el objetivo planteado que se tiene del producto final, (como lo es la utilización en construcciones) se necesitan múltiples pruebas mecánicas realizadas tanto por ingenieros como por maquinaria especializada, por lo que los resultados no pueden ser aún presentados, así como una conclusión certera de la mejor aplicación para el material obtenido.  
Mejia Berrio Adrian Jesus, Universidad de Pamplona
Asesor: Mg. Fredy Cuervo Lara, Universidad Cooperativa de Colombia

ADAPTACIóN DE CICLORRUTA A LA ESTRUCTURA VIAL DEL MUNICIPIO DE PAMPLONA (N. DE S). CIRCUITO SEDES UNIPAMPLONA.


ADAPTACIóN DE CICLORRUTA A LA ESTRUCTURA VIAL DEL MUNICIPIO DE PAMPLONA (N. DE S). CIRCUITO SEDES UNIPAMPLONA.

Mejia Berrio Adrian Jesus, Universidad de Pamplona. Asesor: Mg. Fredy Cuervo Lara, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Este proyecto surge como respuesta a varias problemáticas y condiciones actuales de transporte y seguridad en la movilidad entre el campus principal y sus sedes. La ubicación de estos lugares en una zona donde el espacio de los transeúntes es compartido por vehículos de transporte público y particulares genera situaciones de alto riesgo. Los andenes existentes en la zona no cumplen con las especificaciones de diseño mínimas necesarias para garantizar un nivel de servicio óptimo y seguro para los peatones. Esta situación se agrava aún más en momentos de alta demanda de movilidad, como en las horas pico o durante eventos importantes en el campus. Además, las señalizaciones actuales en la zona son insuficientes para orientar a los conductores y garantizar la seguridad de todos los usuarios de la vía.



METODOLOGÍA

Se considera una investigación de campo de tipo descriptiva y exploratoria, enfocada en dar servicio de carácter social. Tiene como principales beneficiarios y muestra a la población estudiantil de la Universidad de Pamplona (que con apoyo de la alcaldía y la dirección administrativa de la universidad) se beneficiarán de obras físicas y programas de sensibilización y concientización tendientes a mejorar y consolidar el verdadero potencial que puede tener una bicicleta como medio de transporte alternativo. Se propone una metodología que consta de: Diagnóstico de campo para el análisis de la situación actual en materia de movilidad de transporte de bicicleta en el municipio de Pamplona. Realización de estudios de campo para cuantificar parámetros en bici usuarios (volúmenes de bicicleta, velocidades de recorrido, estudio de comportamiento de bici usuarios). Identificación de los puntos clave de la posible ubicación de la ciclovía. Estudio de las velocidades en los recorridos para calcular los factores que limitan el flujo continuo en la ciclovía. Encuesta a potenciales usuarios. Se realizó un muestreo estratificado, con una muestra representativa de 150 posibles usuarios, del que se obtuvo información respecto a cantidad de viajes, disposición de uso con la ciclorruta y recomendaciones. Elaboración de escalas de calidad y nivel de servicio para la toma de decisiones. Identificación de la línea de transporte para conectar la ciclorruta del municipio. Diseño de un circuito de la ciclorruta para la ciudad de Pamplona (de norte a sur).


CONCLUSIONES

Por medio de una encuesta se realizó el estudio en el que se logró conocer las necesidades de viajes al día por usuario, donde se conoció que de la muestra total el 8% de los usuarios realiza un viaje al día entre sedes, que aproximadamente el 63% de los encuestados hace dos viajes y el 29% hace tres viajes o más. También se logró conocer la disposición de los usuarios al uso de la ciclorruta, así como sus consideraciones respecto a la seguridad, rapidez en los traslados y comodidad a través del circuito propuesto. Es de considerar que los usuarios ofrecieron en general una respuesta positiva a la propuesta, con lo que se justifica el desarrollo del proyecto. Gracias a los estudios y diagnósticos de campo se logró identificar que, al trazar el circuito por vías de un solo sentido, los anchos de carriles son adecuados para la adaptación de la ciclorruta, sin embargo, es considerable el volumen de vehículos parqueados a lo largo del circuito, por lo que se hace necesario la presencia de los entes gubernamentales reguladores, esperando con esto que se implementen medidas que permitan liberar espacio de calzada desaprovechado. La implementación de un sistema de movilidad sostenible tiene el potencial de mejorar la calidad de vida en nuestras ciudades al reducir la contaminación, disminuir el tráfico y promover la salud y el bienestar. Esto implica utilizar de manera eficiente el espacio urbano y reducir la dependencia de combustibles fósiles. Para lograr un futuro sostenible, es necesario seguir desarrollando infraestructuras y promover una cultura de movilidad sostenible. La ejecución del proyecto, según la concepción presentada, permitirá la puesta en marcha de un proceso de planeación, mediante la realización de investigaciones específicas en el contexto de los estudios de transporte urbano, involucrando otros medios de transporte.
Mejía Lozada Izael, Instituto Tecnológico de Pachuca
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

IMPLEMENTACIóN DE PLATAFORMA WEB PARA PROMOVER ATRACTIVOS TURíSTICOS DEL MUNICIPIO DE ELOTA EN EL ESTADO DE SINALOA


IMPLEMENTACIóN DE PLATAFORMA WEB PARA PROMOVER ATRACTIVOS TURíSTICOS DEL MUNICIPIO DE ELOTA EN EL ESTADO DE SINALOA

Diaz Rivera Asaf, Tecnológico de Estudios Superiores de Jocotitlán. Enrique Becerril Jennifer, Tecnológico de Estudios Superiores de Jocotitlán. Hermenegildo Adrián Berenice, Tecnológico de Estudios Superiores de Jocotitlán. Mejía Lozada Izael, Instituto Tecnológico de Pachuca. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

El municipio de Elota, ubicado en el estado de Sinaloa, se enfrenta a desafíos significativos a pesar del constante crecimiento del turismo en la región. Aunque este sector ha experimentado un aumento, Elota aún no ha logrado posicionarse como uno de los destinos más reconocidos y visitados en el área turística que abarca la región. Esta falta de reconocimiento se debe en gran parte a la popularidad dominante de Mazatlán, que se considera el principal lugar para visitar en Sinaloa. En consecuencia, los municipios vecinos, incluido Elota, se han visto relegados a una baja actividad turística. Es importante destacar que Elota cuenta con lugares únicos, como el monumento de la Cruz del perdón, la Playa Ceuta, entre otros, que lo distinguen y lo convierten en un destino especial. Considerando lo anterior, surge una necesidad apremiante de resaltar tanto Elota como otras áreas turísticas en la región. Esto no solo ayudaría a incrementar el número de visitantes, sino que también permitiría un mayor crecimiento en las comunidades locales, mejorando aspectos económicos, sociales y culturales. Es esencial que se promueva la diversificación turística y se ponga en relieve la singularidad de Elota y sus maravillas, para que los turistas puedan explorar y disfrutar de todas las ofertas que la región de Sinaloa tiene para ofrecer más allá de Mazatlán. En consecuencia, permitirá la apertura de grandes oportunidades para el desarrollo integral de las comunidades locales, fomentando un turismo más equitativo y sostenible en toda la región.



METODOLOGÍA

Durante el desarrollo del sitio web turístico, se utilizó una metodología basada en prototipos que comprende ocho fases. Este enfoque permite generar versiones preliminares del sitio y obtener comentarios del cliente de forma iterativa, asegurando que el sitio cumpla con sus requisitos y expectativas. Además, el proyecto fue llevado a cabo de manera colaborativa con alumnos del ámbito turístico, quienes proporcionaron el material informativo para el sitio web. En el primer paso se identificó el problema que enfrenta el municipio de Elota para posicionarse como destino turístico a causa de la popularidad de Mazatlán en la región. Esto ha llevado a una actividad turística limitada en Elota y otros municipios cercanos, a pesar de contar con atractivos lugares. Es esencial promover el reconocimiento de Elota mediante un sitio web, lo que no solo aumentaría el número de visitantes, sino también beneficiaría a las comunidades locales en aspectos económicos, sociales y culturales. Después de identificar el problema, se elaboraron una serie de requerimientos con el propósito de impulsar el reconocimiento del municipio mediante la creación de un sitio web interactivo que motive a los turistas a visitarlo. Para lograr esto, el sitio web debe contar con un diseño atractivo que incluya una experiencia de visita virtual mediante representaciones de imágenes 360 y modelos 3D de los principales lugares de interés turístico. Se procedió a la construcción del prototipo, que comprendió dos etapas. En la primera etapa, se diseñó el sitio web utilizando el framework Figma para establecer su estructura y seleccionar las herramientas necesarias. Se eligió Vue.js para la interfaz y A-Frame para las escenas 3D con modelos creados en Blender de los lugares turísticos. En la segunda etapa, se inició la construcción del sitio web siguiendo el diseño previo, utilizando las herramientas mencionadas. El prototipo del sitio web entra en una etapa de evaluación, en la cual se verifica que el sitio cumpla con los requerimientos establecidos. Después de completar la evaluación, se lleva a cabo un análisis del feedback proporcionado por el cliente, con el fin de identificar posibles áreas de mejora y determinar la incorporación de nuevas funcionalidades, en caso de ser necesario. Tras la evaluación, en las etapas de modificación y pruebas se llevó a cabo un análisis e implementación de las posibles funcionalidades que podrían agregarse al sitio web, siempre y cuando fueran necesarias. En caso de no añadir nuevas funcionalidades se efectuaron mejoras al prototipo en las diferentes áreas que conforman el sitio web. Las mejoras se centraron en aspectos gráficos, como el modelado de estructuras, texturas y escalas, así como en depurar la información presentada en cada sección del sitio. Además, se trabajó en la optimización de objetos y videos dentro del entorno del sitio web. En todas las fases del desarrollo del sitio web, se registró detalladamente el proceso utilizado para crear cada uno de los elementos que conforman el sitio. Esto se hizo con el propósito de contar con información precisa y clara sobre el proceso seguido, lo que será de gran utilidad en las etapas posteriores del desarrollo. Finalmente, se dio por concluido el desarrollo del sitio web, asegurándose de que cumpliera con todos los requerimientos establecidos desde el inicio y verificando que estuviera libre de errores.  Una vez hecho esto a futuro se buscará que el sitio web sea alojado en un servidor público o privado para que los usuarios puedan acceder a este desde cualquier dispositivo con conexión a internet.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos en desarrollo web y realidad virtual, utilizando frameworks como Vue.js y A-Frame para diseñar un sitio web turístico que promueva la actividad turística del municipio de Elota, Sinaloa. El sitio ofrece una experiencia interactiva de visita virtual con imágenes 360 y modelos 3D de lugares de interés. Se utilizó una estructura de página de tipo SPA para cargar elementos sin recargar la página, también se implementaron herramientas adicionales para mejorar la carga de elementos, especialmente los modelos 3D, con planes de futuras mejoras. El desarrollo del sitio alcanzo un 80%, con planes para agregar una sección de administración y una sección de reseñas sobre el municipio.
Mejía Medina Malinche, Instituto Politécnico Nacional
Asesor: Dr. Jaime Aguilar .zambrano, Pontificia Universidad Javeriana

SISTEMA INCENTIVO RESPIRATORIO PARA FISIOTERAPIA REMOTA DE PACIENTES CON SECUELA COVID-19


SISTEMA INCENTIVO RESPIRATORIO PARA FISIOTERAPIA REMOTA DE PACIENTES CON SECUELA COVID-19

Dominguez Olmedo Arturo, Instituto Tecnológico de Pachuca. Gómez Correa Edith Alejandra, Universidad de Guadalajara. Mejía Medina Malinche, Instituto Politécnico Nacional. Navarro Torres Andres, Universidad de Guadalajara. Asesor: Dr. Jaime Aguilar .zambrano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

En un contexto postpandemia donde el 12% de las personas afectadas por el virus COVID-19 necesitaría terapia respiratoria nos encontramos con que el dispositivo más utilizado, el Triflo, tenía limitaciones tanto para el fisioterapeuta, aportando poca información sobre el progreso, como para el paciente, despertando poco interés y convirtiendo la rehabilitación en un proceso tedioso y poco atractivo. Identificando esta problemática se llegó a la pregunta ¿de qué forma puede mejorarse este sistema? ¿cómo sería un dispositivo diseñado pensando en el paciente y el fisioterapeuta? UBICU es un sistema incentivo respiratorio para fisioterapia remota para pacientes con secuelas de COVID-19, aunque es útil en la rehabilitación de otras patologías respiratorias. El sistema busca la reexpansión pulmonar mediante la medición del volumen inspirado durante la respiración, incentivado por un videojuego interactivo. El proyecto, liderado por el Dr. Jaime Aguilar Zambrano, se conforma de un equipo interdisciplinario de ingenieros en sistemas, ingenieros electrónicos, ingenieros biomédicos, diseñadores industriales, diseñadores gráficos, y fisioterapeutas, estos últimos de vital importancia en las pruebas clínicas realizadas.



METODOLOGÍA

Después de años de desarrollo, actualmente el proyecto de encuentra en una etapa de pruebas finales, que incluyen un estudio clínico y el licenciamiento para su producción y venta. A pesar de esto, seguían existiendo áreas de mejora, tales como el acople y envolvente del dispositivo, el enriquecimiento de este mediante la inclusión de variables como saturación de oxígeno, así como proveer una opción de monitoreo con videojuego atractivo para el paciente, además de buscar ampliar su uso mediante un sistema de espirometría. Estas tareas se asignaron a los participantes del programa delfín de acuerdo a sus habilidades y áreas de conocimiento. Como trabajo en conjunto se apoyó en la manufactura y ensamble de equipos para el uso en pruebas clínicas con fisioterapeutas y pacientes. Para la implementación y desarrollo aplicados al diseño se realizaron imágenes y video de apoyo con una representación fotorrealista mediante el uso de un modelo 3D con el propósito de explorar el producto mediante la explotación y enfoque a diversas partes del dispositivo. De igual manera se buscó generar propuestas de diseño para el envolvente para un dispositivo placa orificio donde se contiene la placa, componentes electrónicos y batería. Respecto al sistema de monitoreo, se realizó una interfaz gráfica y dinámica. Mediante el diseño de un videojuego sencillo, el software recibe e interpreta datos de flujo, los cuales se ven reflejados en la mecánica de tres monos que suben cada uno una palmera, simulando la mecánica del TriFlow. Se implementan los scripts de cada mono donde se reciben los datos, es decir, se añade una lógica para que los monos suban las palmeras. Para la dinámica de los monos se implementan fórmulas utilizando flujos limites inferiores y superiores, así como la posición de cada mono. Se buscó añadir una nueva variable al equipo mediante el diseño de un oxímetro. Primeramente se realizaron simulaciones de diferentes propuestas de circuitos electrónicos, escogiéndose el que mejor se adecuaba a las necesidades del proyecto: la posibilidad de monitorear los BPM y la oxigenación del paciente al utilizar el dispositivo. Se realizó el diseño de la PCB para su integración a la electrónica actual. La implementación de un sistema de medición inspiración-espiración se trabajó con el objetivo de ampliar los parámetros caracterizables durante la rehabilitación y ampliar los campos de aplicación del dispositivo. Posterior a la propuesta de diferentes versiones del tubo placa orificio, se imprimió en resina el primer prototipo. Las primeras pruebas consistieron en verificar la medición bidireccional del flujo y modificar el software para la adquisición de los datos de espiración.


CONCLUSIONES

En el área de diseño, se realizaron implementaciones que incluyeron propuestas para el cierre del dispositivo, mejora y desarrollo de apoyos visuales como imágenes y videos. También se ajustó el diseño de un instrumento de medida, la placa orificio, que se imprimió usando resina para realizar pruebas. Se abordaron aspectos ergonómicos relacionados con la manipulación del dispositivo y el almacenamiento de sus componentes. Se desarrolló un sistema de seguimiento de la inspiración respiratoria utilizando herramientas informáticas como Unity. Esta implementación brinda una representación visual sencilla y atractiva de las variaciones de flujo y la elección de los flujos límites. Se diseñó un circuito simulado con las especificaciones necesarias, junto con una placa de montaje superficial. Los filtrajes se probaron por separado en un circuito físico, confirmándose su funcionamiento. La simulación, documentación y especificación de los componentes facilitan la implementación completa del circuito en físico y su posterior integración al dispositivo incentivo respiratorio. Por último, utilizando el primer prototipo, se verifico funcionamiento del instrumento placa orificio y el sensor diferencial para determinación del flujo. Además, se ajustó el software para medición de flujo inspiratorio y espiración.
Mejia Mejia Joaquin, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. Oriana Susana Martínez Palomino, Universidad Tecnológica De Bolívar

CRECIMIENTO DE LOS EMPRENDIMIENTOS A TRAVéS DEL COMERCIO ELECTRóNICO


CRECIMIENTO DE LOS EMPRENDIMIENTOS A TRAVéS DEL COMERCIO ELECTRóNICO

Mejia Mejia Joaquin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Oriana Susana Martínez Palomino, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

La presente investigación es sobre el crecimiento de los emprendimientos a través del comercio electrónico y que, tiene como objetivo analizar y comprender el crecimiento de los emprendimientos a través del comercio electrónico. El comercio electrónico es un sistema que permite a las empresas y consumidores realizar transacciones comerciales electrónicamente, sin la necesidad de una interacción física directa.  La elección de este tema de investigación se sustenta en la creciente importancia que el comercio electrónico ha adquirido en el panorama empresarial moderno. Actualmente, el comercio electrónico está creciendo rápidamente y se ha convertido en una poderosa herramienta para los emprendedores. Permite a las empresas ingresar a nuevos mercados, construir relaciones con los clientes y aumentar la rentabilidad. Pero también crea desafíos y oportunidades. Comprender cómo el comercio electrónico ha impulsado el crecimiento de los emprendimientos es esencial para adaptarse a las dinámicas cambiantes del mercado y aprovechar las ventajas competitivas que ofrece esta modalidad de negocios.



METODOLOGÍA

La investigación es de tipo descriptivo, debido a la forma en que se aborda el tema del crecimiento de los emprendimientos a través del comercio electrónico, el objetivo es describir las características comerciales existentes, las tendencias y los patrones de desarrollo a través del comercio electrónico sin alterar variables ni establecer relaciones de causalidad. Se realizó una extensa búsqueda en bases de datos académicas y motores de búsqueda en línea utilizando palabras clave relacionadas con el tema, como "emprendimiento", "comercio electrónico", "emprendimiento digital", "marketing", entre otros. Se realizó lectura comprensiva y análisis de los artículos seleccionados. La información relevante ha sido categorizada por tema para identificar tendencias, patrones y puntos de vista generales en el campo del desarrollo de negocios de comercio electrónico. Es importante mencionar que se utilizó un enfoque cualitativo para sintetizar los resultados y sacar conclusiones significativas.


CONCLUSIONES

En general, este artículo de revisión general brinda información detallada sobre cómo prosperan las nuevas empresas a través del comercio electrónico. La adopción de tecnologías digitales ha permitido a los emprendedores llegar a un mercado global, eliminar las barreras geográficas y aumentar significativamente su base de clientes potenciales. Los resultados obtenidos destacan la importancia del comercio electrónico como motor clave para el crecimiento empresarial en la era digital. Adicionalmente, se han identificado factores clave, estrategias y desafíos que los emprendedores deben considerar para lograr un crecimiento sostenible en un entorno digital competitivo.
Mejia Mejia Juan Sebastian, Servicio Nacional de Aprendizaje SENA - Regional Caldas
Asesor: Mg. Carlos Ignacio Torres Londoño, Universidad Cooperativa de Colombia

UN SISTEMA DE CALIFICACIóN AUTOMáTICA DE EJERCICIOS DE PROGRAMACIóN QUE BRINDA RETROALIMENTACIóN PERSONALIZADA A LOS ESTUDIANTES Y RESPONDE A LAS NECESIDADES DE LOS PROFESORES.


UN SISTEMA DE CALIFICACIóN AUTOMáTICA DE EJERCICIOS DE PROGRAMACIóN QUE BRINDA RETROALIMENTACIóN PERSONALIZADA A LOS ESTUDIANTES Y RESPONDE A LAS NECESIDADES DE LOS PROFESORES.

Mejia Mejia Juan Sebastian, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Asesor: Mg. Carlos Ignacio Torres Londoño, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Enseñar programación es un reto que manejan docentes, instructores y muchas personas que orientan los procesos de enseñanza-aprendizaje de muchos estudiantes que inician en el mundo de la programación; Cada vez las facultades de ingeniería y centros de formación en tecnología obtienen nuevos retos encaminados a lograr que los estudiantes aprendan a conocer la lógica de programación, estructura de un código de programación y la construcción de programas funcionales en el tiempo.  Estos primeros pasos se orientan a través de lenguajes sencillos en sintaxis breves utilizadas por los seres humanos, es decir, un estudiante que inicia en el mundo de la programación debe conocer la secuencia lógica de una tarea simple como lo es una rutina personal o comprar un producto en un supermercado, a partir de ese proceso, el estudiante puede entender con facilidad la secuencia lógica y funcional de la construcción de un programa y los enfoques dados como las buenas prácticas en programación, la programación orientada a objetos, entre otros.  El docente tiene a cargo una responsabilidad grande para enfocar el proceso de retroalimentación y evaluación de la programación en los estudiantes que se inician en programación, pero termina siendo una tarea con muchos limitantes; esto se debe a que el docente encargado no tiene el suficiente tiempo para calificar y dar una evaluación certera a sus estudiantes, es por ello que se pueden utilizar las herramientas de enseñanza de programación para brindar una calificación automatizada que brinde al estudiante buenas reseñas en la solución de ejercicios de pseudocódigo.  La herramienta aliada para los estudiantes de los primeros semestres de la carrera de Ingeniería en Software, Sistemas Informáticos, Desarrollo de Software, etc, es PseInt, un software que resuelve problemas de programación con pseudocódigo, ideal para la comprensión y solución de un software. Este programa permite desarrollar un pensamiento lógico inicial para manejar un lenguaje de programación como C + +, Python, Java, JavaScript, etc. Esta herramienta también permite el procesamiento de pruebas manuales y automatizadas para entender el funcionamiento del código y lo que se pretende construir es el módulo de autoevaluación que de una retroalimentación ágil a los estudiantes. 



METODOLOGÍA

El uso de herramientas automatizadas y de inteligencia artificial ha permitido que muchos docentes puedan simplificar su trabajo evaluativo sin necesidad de pasar horas enteras revisando minuciosamente el trabajo realizado por sus estudiantes, esto debido a la poca disponibilidad de tiempo y la cantidad de alumnos por calificar. El núcleo de calificación automática de ejercicios permite que se entregue una retroalimentación en los desarrollos de cada estudiante, mostrando las debilidades y fortalezas existentes en la implementación y criterios de cada docente.  La perspectiva de crear una plataforma automatizada que realice la revisión y entrega de retroalimentación de las tareas de programación asignadas, permite que los temas de introducción al desarrollo de software puedan ser abordados de forma satisfactoria en el ciclo semestral en carreras de ingeniería, desarrollo de Software, etc. Es decir, que los tiempos estipulados para los temas de una asignatura como introducción a la programación, programación orientada a objetos o introducción a la ingeniería puedan orientarse sin contratiempos. Actualmente PseInt no cuenta con un proceso de autoevaluación en este tipo de procesos, por lo que sería necesario diseñar, y trabajar en el modelo de una plataforma que permita la autoevaluación de cada desarrollo de software, para ello se requiere concretar un plan de trabajo que permita la integración de un software que entregue retroalimentación oportuna de un desarrollo por un estudiante y una plataforma existente que pueda integrarse de forma correcta.  Primero que se pueda distribuir el conocimiento con los estudiantes, logrando que cada uno entienda la conceptualización de términos significativos con la introducción a la programación. El Análisis y solución de problemas, permitiendo la agilidad en cada estudiante de resolver ejercicios de pseudocódigo, por lo tanto, lograr que el estudiante pueda ejecutar programas en PseInt con sus respectivos algoritmos, diagramas de flujo, etc. Finalmente la evaluación de cada una de las competencias desarrolladas durante el curso.  Sin duda, la evaluación es fundamental en todos los procesos educativos, porque gracias a esa retroalimentación los alumnos pueden obtener un rendimiento mucho mayor en la elaboración de ejercicios más avanzados en toda su formación profesional y académica.


CONCLUSIONES

Durante la estancia de investigación se pudo adquirir conocimientos sobre el uso de herramientas tecnológicas como PseInt y cómo utilizar cada una de sus funciones para el entendimiento del desarrollo de un software y las prácticas que un estudiante debe realizar para alcanzar los objetivos de aprendizaje. Para ellos se realizaron pruebas con distintas funciones que ofrece el programa y entendiendo cómo logran los estudiantes desarrollar la lógica de programación. La siguiente etapa de este proyecto estará enfocado en un diseño para el desarrollo de un software que permita evaluar de forma automática cada trabajo realizado por un estudiante. Para ello se debe estructurar un plan de trabajo bajo metodología scrum, donde cada sprint se presentaran las fases de la construcción del software.
Mejia Pineda Brinny Mariana, Fundación Universitaria Tecnológico Comfenalco
Asesor: Mtra. Cecilia Elizabeth Albujar Verona, Universidad Tecnológica del Perú

CONTAMINACIóN POR AGUAS RESIDUALES EN ZONAS MARINO-COSTERAS.


CONTAMINACIóN POR AGUAS RESIDUALES EN ZONAS MARINO-COSTERAS.

Flores Sánchez Fabiola, Instituto Tecnológico de Matamoros. Mejia Pineda Brinny Mariana, Fundación Universitaria Tecnológico Comfenalco. Asesor: Mtra. Cecilia Elizabeth Albujar Verona, Universidad Tecnológica del Perú



PLANTEAMIENTO DEL PROBLEMA

La contaminación de zonas costeras a nivel mundial es un problema ambiental que afecta gravemente a una multitud de lugares. La combinación de fenómenos naturales y las actividades antropogénicas han dado pie a la degradación del ecosistema costero y a la vez influye negativamente en la vida marina y la calidad del agua. (Adyasari et al., 2021) El objetivo del artículo es mostrar un análisis de investigaciones científicas que abordan el tema de la contaminación y por ende las principales fuentes que dan origen a ella y los tratamientos recomendados para disminuir los efectos de esta. En este análisis, exploraremos en mayor profundidad las causas y consecuencias de la contaminación en zonas costeras, así como las posibles soluciones y estrategias para mitigar este problema. Es imperativo que todos comprendamos la importancia de estas áreas y nos comprometamos a proteger y conservar nuestros valiosos ecosistemas marino-costeros para las generaciones futuras. Al abordar la contaminación en estas zonas, podemos contribuir a un entorno más saludable y sostenible tanto para la vida marina como para las comunidades humanas que dependen de estos frágiles y valiosos ecosistemas.



METODOLOGÍA

La presente investigación compone una revisión sistemática acerca de artículos relacionados con la contaminación de las zonas costeras. Durante el proceso de búsqueda de información fueron utilizados metabuscadores tales como Scopus, Scielo, Redalyc, Bol, entre otras fuentes de búsqueda reconocidas. A su vez fueron empleados términos clave dirigidos únicamente al tema mencionado, frases clave como contaminación del mar, principales contaminantes del mar y consecuencias de la contaminación. Las frases claves sirvieron como los criterios. El primer criterio de inclusión se enfoca en hablar sobre los tipos de contaminación directamente. El objetivo es mencionarlos y establecer que son. El segundo criterio establece en que afectan esos tipos de contaminación. El tercer criterio menciona los posibles tratamientos para la contaminación costera. La búsqueda de artículos relacionados hace énfasis en buscar solo cierto rango; artículos relacionados al tema desde el 2017 hasta el 2023, con el propósito de que contengan datos recientes y puntuales para el desarrollo del análisis.  


CONCLUSIONES

De lo expuesto en esta revisión, se concluye que la contaminación marino-costera es altamente influenciada por el factor humano. El mal manejo de agentes químicos y la contaminación por micro-plasticos han sido causados por el hombre. Los tipos de contaminación varían, pero derivan de causas antropogénicas. Los agentes químicos son un tipo de contaminación alarmante Dicho esto, se cree que, para controlar el problema de la contaminación por aguas residuales,  es crucial poner en efecto sistemas de tratamiento adecuados en plantas de tratamiento de aguas residuales antes de su descarga al medio ambiente. Además, es importante promover prácticas sostenibles en la industria, la agricultura y los hogares para reducir la cantidad de contaminantes vertidos en las aguas residuales. La concienciación pública sobre la importancia de preservar la calidad del agua y el uso responsable de los recursos hídricos también desempeñan un papel fundamental en la mitigación de la contaminación por aguas residuales y la protección del medio ambiente acuático. Básicamente la culpa de la contaminación a las zonas costeras ha sido causada por el hombre. Sin embargo, es momento de tomar acción y cuidar adecuadamente las zonas costeras, de lo contrario serán inhabitables.
Mejia Zavaleta Eduardo, Universidad Veracruzana
Asesor: Mg. Angela Maria Alzate   Alvarez, Universidad Católica de Manizales

MODELO HIDROGEOLóGICO CONCEPTUAL DEL áREA DE INFLUENCIA DEL PARQUE NACIONAL NATURAL LOS NEVADOS, PARTE ALTA CUENCA DEL RíO CHINCHINá, FASE 1.


MODELO HIDROGEOLóGICO CONCEPTUAL DEL áREA DE INFLUENCIA DEL PARQUE NACIONAL NATURAL LOS NEVADOS, PARTE ALTA CUENCA DEL RíO CHINCHINá, FASE 1.

Mejia Zavaleta Eduardo, Universidad Veracruzana. Portilla Linares Naomi Anaid, Universidad Veracruzana. Asesor: Mg. Angela Maria Alzate   Alvarez, Universidad Católica de Manizales



PLANTEAMIENTO DEL PROBLEMA

La importancia del agua subterránea para consumo humano es cada vez más relevante, sin embargo, se cuenta con poca información, sin mencionar su vulnerabilidad con respecto al cambio climático. (Bolaños & Betancur, 2018). ​En el departamento de Caldas, cerca de su capital se encuentra el páramo de letras, el cual tiene la capacidad de mantener el equilibrio hídrico de la región, lo cual beneficia tanto a la población local como a la biodiversidad (Erazo Chamarro et al., 2015).​ Siendo nuestro caso de estudio Parque Nacional Natural Los Nevados, definida a partir de la cota 2400 msnm, cubriendo el área de paramos, ábacos de interés para el municipio de Manizales y los humedales altoandinos del complejo volcánico Nevado del Ruíz en la cuenca del Río Chinchiná. Esta cuenca representa un punto clave en la comunidad, puesto que esta cubre el 70% del abastecimiento de Manizales, además de la biodiversidad que despliega. La principal problemática es la falta de estudios hidrogeológicos en esta zona, por lo tanto, se tiene información limitada, por lo tanto, nos impide el conocer el número y tipos de acuíferos, la hidrodinámica y el comportamiento hidráulico, siendo este un punto clave de abastecimiento de agua para la ciudad de Manizales.



METODOLOGÍA

El desarrollo de las actividades dentro de la pasantía se dividió en la parte práctica y teórica, de acuerdo con el cronograma de trabajo, realizando dichas actividades en conjunto con estudiantes de la Universidad de Bemidji y estudiantes del semillero de ingeniería ambiental, pertenecientes a la Universidad Católica de Manizales. Siendo de vital importancia para realizar el trabajo práctico más adelante. Durante la primera semana se visitó el ecoparque el Reciento del Pensamiento además del Páramo de Letras, con el objetivo de comprender la importancia de dichas reservas de aguas, tanto superficial como subterránea para la ciudad de Manizales. A lo largo de la segunda semana de estancia, se visitó el ecoparque Los Yarumos, con el objetivo de adquirir conocimientos acerca de otra función biológica de algunos macroinvertebrados como muestreo de la calidad del agua. De igual forma, se conocieron los laboratorios de la Universidad de Caldas, donde se adquirieron conocimientos en geología, así como también su aplicación en el campo. Es de gran importancia recalcar que lo aprendido, más tarde al realizar la parte teórica. En los días posteriores, se realizaron visitas por la Central Hidroeléctrica Sancancio - CHEC, para comprender otro de tantos usos que tiene el agua del río Chinchiná, siendo así también su importancia en otro rubro. Por último, se visitó el Observatorio Vulcanológico de Manizales, para lograr comprender las interacciones del volcán Nevado del Ruiz y el agua subterránea que aprovecha Manizales, además de comprender la geología que conlleva el estudio de estos sistemas en Colombia. Posteriormente a esas semanas, comenzó la parte teórica de la pasantía, realizando análisis comparativos entre organismos, su gestión del agua, así como también técnicas de muestreo de aguas subterráneas entre Colombia y México. Para finalizar con nuestra participación práctica, se realizó una identificación de manantiales, la cual consistió en georreferenciar el manantial, analizar su parte litológica, así como sus parámetros de este, los cuales fueron caudal, temperatura, conductividad y ph. Con la parte práctica terminada, nos enfocamos en realizar una matriz de información bibliográfica acerca de modelos hidrogeológicos a nivel local, nacional y mundial. Más tarde, la información recabada en dicho trabajo fue utilizado para formar parte de una revisión sistemática tipo PRISMA, donde se analizaron una mayor cantidad de artículos científicos de todas partes del mundo con la siguiente búsqueda: (((hydrogeological) AND (model) AND (mountain) AND (aquifer)) NOT (coastal)) NOT (karstic).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la hidrología, geología e hidrogeología que presenta esta zona, llevándolos a la práctica en las visitas de campo realizadas. Además, se adquirieron conocimientos en revisión sistemática siguiendo la metodología PRISMA. Nuestros principales resultados a nivel práctico fueron el Inventario de los manantiales de la zona de influencia y la recolección de datos (pH, conductividad eléctrica, temperatura, caudal y georreferencia) de cada uno de los manantiales encontrados. Por otro lado a nivel teórico, se obtuvo una matriz bibliométrica.
Meléndez Mendoza Daniela, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

ALGORITMO DE DETECCIóN DE NEOPLASIAS EN EL TEJIDO INTESTINAL MEDIANTE TéCNICAS DE VISIóN POR COMPUTADORA


ALGORITMO DE DETECCIóN DE NEOPLASIAS EN EL TEJIDO INTESTINAL MEDIANTE TéCNICAS DE VISIóN POR COMPUTADORA

Meléndez Mendoza Daniela, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las neoplasias en el tejido intestinal suelen ser relativamente comunes en adultos, sin embargo, sin un monitoreo continuo de su estado en un transcurso aproximado de diez a quince años pueden resultar malignos, ya sea por un crecimiento descontrolado o por derivar en tejidos cancerosos invasivos. En ambos casos mencionados, la neoplasia implica la obstrucción del tracto gastrointestinal así como en el impedimento del proceso digestivo sano y normal. De esta problematica nace la importancia de su detección oportuna. El procedimiento estándar para su detección y monitoreo es la endoscopía, esta suele verse limitada por diversos factores: la calidad de la cámara, iluminacion, la buena (o mala) preparación previa del paciente, técnica y experiencia del médico, etc... Por otra parte, al momento de evaluar las imágenes obtenidas suelen perderse detecciones neoplasicas debido a error humano o la poca calidad de las imagenes obtenidas. En tanto, el procesamiento de las imágenes endoscópicas se dificulta debido a la variedad de forma, coloratura y textura que pueden llegar a presentar las neoplasias, además del considerable parecido que tienen con el resto del tejido intestinal en sus etapas tempranas tanto en color como textura y las diferentes perspectivas se imagenes que se adquieren de una misma endoscopía. 



METODOLOGÍA

Primero se realizó una estandarización de las imagenes a través de un preprocesamiento, donde se corrigieron parametros de contraste, iluminación y curvaturas de color con corrección gamma. De esta manera se destacan los detalles de la imágen como los bordes y la vascularización de la pared intestinal.  Después, a estas imágenes preprocesadas se les aplicó un mapa de atención que permitió escoger áreas de interés que podrían contener neoplasias. Esto permitió hacer más eficiente el algoritmo al evaluar solo áreas con potencial de contener neoplasias y no la imagen en su totalidad.  Luego, las áreas de interés son escaladas para que todas posean la misma escala, enseguida se aplica la técnica HOG y es finalmente a partir de este análisis de textura que se determina la presencia o ausencia de neoplasia mediante una red neuronal convolucional. 


CONCLUSIONES

A manera de conclusión se señala que después de experimentar con otras metodologías (umbralización en escalas de grises, segmentación por color, análisis de textura con LBP, por mencionar algunas) la mencionada es la que proporciona los mejores resultados. Se destaca la importancia de un buen preprocesamiento de las imágenes ya que esto permite la detección correcta y eficiente en gran medida al resaltar potenciales áreas de neoplasias y descartando el resto de la imágen. Por otro lado, se aprovecha un patron de textura regular en las neoplasias con respecto al resto de tejido intestinal para lograr su diferenciación.  Finalmente, se espera que se puedan mejorar los resultados al experimentar con otros parámetros en la red convolucional, así como en el preprocesamiento de la imágen. 
Melgarejo Martinez Montserrat, Instituto Tecnológico de Toluca
Asesor: Mg. Karina del Carmen Guzman Martinez, Servicio Nacional de Aprendizaje SENA - Regional Córdoba

DESARROLLO Y APLICACION DE LAS -TECNOLOGÍAS DE LA INFORMACIÓN- PARA EL DISEÑO DE UN EMPAQUE CON IDENTIDAD REGIONAL QUE VALORICE LA CADENA DE CACAO EN CÓRDOBA- COLOMBIA


DESARROLLO Y APLICACION DE LAS -TECNOLOGÍAS DE LA INFORMACIÓN- PARA EL DISEÑO DE UN EMPAQUE CON IDENTIDAD REGIONAL QUE VALORICE LA CADENA DE CACAO EN CÓRDOBA- COLOMBIA

Melgarejo Martinez Montserrat, Instituto Tecnológico de Toluca. Asesor: Mg. Karina del Carmen Guzman Martinez, Servicio Nacional de Aprendizaje SENA - Regional Córdoba



PLANTEAMIENTO DEL PROBLEMA

El design thinking es una metodología eficiente e innovadora, que permite encontrar soluciones a necesidades puntuales en empresas u organizaciones. Se empleó la metodología design thinking para el desarrollo de diseños de imagen para empaques de productos de chocolatería tipo barra. Mediante la técnica de focus group se logró identificar y definir un grupo de participantes perteneciente a la asociación cacaotera activa G10 de la subregión del alto Sinú en el departamento de Córdoba, los cuales hicieron parte de los procesos de empatizar y definir, dentro de las primeras etapas del design thinking; permitiendo conocer opiniones, preferencias, gustos a través de instrumentos de recolección de datos de tipo cualitativos y talleres de ideación para el fomento de la creatividad de los participantes. Teniendo en cuenta el procesamiento y análisis de la información recolectada se desarrollaron nubes de palabras con el fin de identificar términos claves con los que los productores asociaban el cacao e historias de vidas asociadas a vivencias personales de cada evaluado con el cacao. Todo esto permitió al equipo investigador tomar esa información y emplearla en las etapas posteriores como la ideación y el desarrollo de los prototipos. Posterior al desarrollo de los prototipos se identificó una de las necesidades o requerimientos que presentan los participantes, de descubrir las ventajas de las Tecnologías de la Información impregnadas en los prototipos de los empaques propuestos. Se propone implementar un código QR, direccionado a una herramienta digital, para potencializar el soporte del producto y la empresa. Teniendo en cuenta ese proceso y la recolección de la información, se procede a capacitar a los miembros de la asociación mostrando las diferentes herramientas que se pueden implementar para el prototipo y el uso de alguna de ellas. Esto permitió conocer sus puntos de vista y empatizar con las necesidades con las que cuentan los miembros de la asociación. Posteriormente se utilizó la información recolectada de las conferencias, para analizar que herramienta digital tendría mejor impacto y conveniencia en el negocio.



METODOLOGÍA

La metodología aplicada fue de tipo cualitativa, en dónde se incluyeron técnicas de investigación-acción-participativa y design thinking. Empatizar:  esta etapa se dividió en dos fases. Para la primera fase, inicialmente se desarrolló un instrumento de recolección de datos. La segunda fase de esta etapa de empatizar constó de un taller de tipo ideation workshop. Visita a campo, en el Municipio de Terralta, Cordoba - Colombia Definir: se procesó la información mediante uso de herramientas ofimáticas y de igual manera información recolectada por conferencias. Idear: en la etapa de idear se definieron los mercados destinos según el instrumento de recolección de la información. Se definen los clientes y el mercado que operara la herramienta digital Se define las ventajas y el impacto que tienen las herramientas digitales en los emprendimientos u organizaciones Prototipar: se desarrollaron 3 prototipos de imagen para una barra de chocolate tipo exportación. Se desarrollaron mockups de la herramienta digital seleccionada, una página web. Teniendo vistas en la página principal, con diferentes funciones que tienen como requerimiento. Se asistió a mesas de trabajo con equipo de expertos de la sede y miembros de la asociación. Se realizo transferencia de conocimientos, por medio de herramientas digitales por videoconferencias. Visita a docentes expertos en el tema del SENA, para aterrizar los requerimientos y la información. Se prototiparon espacios de redes sociales, por medio de creación de Instagram, Facebook, Whatsapp con perfiles Business. Evaluar: para la evaluación de los prototipos desarrollados se llevó a cabo una prueba sensorial de percepción. Presentación de avances, a docentes de sede y miembros de la asociación.


CONCLUSIONES

La metodología design thinking permite el desarrollo y diseño de manera conjunta entre investigadores y comunidad, haciendo que los procesos creativos sean inclusivos. La elección de herramienta digital a través del design thinking permitió cumplir con creces las expectativas de la comunidad y permitió generar un impacto social. El diseño de los prototipos a través del design thinking permitió cumplir con creces las expectativas de la comunidad y de los usuarios, teniendo un impacto social a través de herramientas digitales. El proceso de aplicación de la metodología design thinking puede ser una alternativa precisa para el diseño de herramientas digitales.      
Melgoza Lagunas Eduardo Antonio, Instituto Tecnológico de La Piedad
Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

ANáLISIS DE EMPRESAS B


ANáLISIS DE EMPRESAS B

Melgoza Lagunas Eduardo Antonio, Instituto Tecnológico de La Piedad. Mendoza Martinez Maria Daniela, Universidad Tecnologica de León. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente las prácticas empresariales se relacionan directamente con la calidad de vida de su entorno, ya que afectan o benefician directamente ya sea en cuestiones ambientales y sociales. Según Molina y Suárez (2014) el desarrollo industrial puede llegar a ocasionar importantes desequilibrios en cuestiones sociales y ambientales e inclusive pueden generar efectos negativos tanto en los empleados como en la sociedad de un área territorial determinada, por lo que una no adecuada forma de operar afecta directamente tanto a consumidores como a cualquiera que esté relacionado con la fabricación de un producto o la prestación de un servicio (pág. 357). Durante la presente investigación se analizan empresas con la certificación B la cual pretende mejorar el impacto social y ambiental de las empresas que así lo deseen.



METODOLOGÍA

La investigación se realizó haciendo uso de información obtenida en distintos medios, tanto físicos como digitales, por lo que se clasifica de tipo documental, a la vez, se emplearon distintos recursos los cuales se enlistan a continuación: •          Libros •          Sitios web •          Equipo de cómputo •          Cuestionario de recolección de información •          Artículos científicos El primer paso de la investigación comprendió de obtener información acerca del distintivo B en las empresas, lo que formó una base sólida para aplicar el cuestionario de impacto que fue la principal herramienta de recolección de datos, el cual consta de un total 191 preguntas distribuidas en 5 áreas, las cuales son: gobernanza, colaboradores, comunidad, clientes y medio ambiente; dicho cuestionario se aplicó a un total de 2 empresas en distintos puntos geográficos de México. Como tercer paso se analizaron los resultados obtenidos en el cuestionario, para así discutir y concluir en base a las respuestas de las distintas empresas en las que se aplicó.


CONCLUSIONES

En la búsqueda del objetivo principal de examinar el sistema B y las empresas que lo conforman, así como su responsabilidad social y ambiental, y tomando como base los resultados obtenidos se puede afirmar que las empresas B están comprometidas de manera operativa, así como económica con beneficiar al planeta y a todas sus partes interesadas, por lo que buscan responsabilizarse de los resultados de sus procesos de producción generando impactos medibles (sociales y ambientales). Por su parte, las empresas que no cuentan con una certificación B se preocupan dentro de las distintas normativas acerca de cuestiones sociales y ambientales, por lo que el implementar una conciencia más profunda dentro de la organización no va más allá de lo que las leyes y regulaciones expresan, esto repercute como un impacto positivo en un número menor de áreas en relación con las empresas del padrón B, ya que el someterse a evaluaciones en distintas áreas de manera voluntaria lleva a adquirir un compromiso con sus colaboradores, partes interesadas, comunidad y medio ambiente.
Melgoza Tamayo Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO


DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO

Arias Aguilar Emmanuel, Instituto Tecnológico de Querétaro. Ceja Govea María Fernanda, Instituto Tecnológico de Estudios Superiores de Zamora. Gutiérrez Nava Martin Uriel, Instituto Tecnológico de Chilpancingo. Herrera Tovar Mariela, Instituto Tecnológico de Estudios Superiores de Zamora. Melgoza Tamayo Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Ríos Fuentes Karla Araceli, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los profesores en general tienen la necesidad de medir el aprendizaje de sus estudiantes. Para esto se piensa que una aplicación personalizable y gratuita pueda ayudar. Por supuesto existen muchas herramientas hoy en día, quizá la mas famosa sea Kahoot, sin embargo, en esa aplicación los estudiantes pueden responder sin necesidad de pensar en la respuesta, basta con oprimir cualquier botón. Otra forma de jugar mientras se mide el aprendizaje de los estudiantes es que ellos deban teclear la respuesta. En la aplicación se plantea realizar preguntas específicas por el profesor en el momento, y que así mismo las respondan los estudiantes, con esto se ayudará al aprendizaje constante de los estudiantes y se tendrán ventajas de mayor rendimiento.



METODOLOGÍA

La metodología utilizada consistió en una serie de pasos para creación de la aplicación web desde la planificación de las tecnologías utilizadas. 1. Recopilación de requerimientos con el cliente Se tuvo una reunión con el cliente para conocer el tipo de proyecto en el cual se estaría trabajando durante la estancia, a su vez se plantearon los requerimientos importantes para un buen desarrollo de la aplicación. En este caso, el cliente fue una profesora. 2. Planteamiento y estudios de las tecnologías Se realizó un análisis de diferentes tecnologías, con la finalidad de seleccionar y estudiar las que sean más acordes al tipo de proyecto y requerimientos que fueron planteados por el cliente. 3.Asignación de equipos de trabajo Se realizó el análisis de las actividades a realizar en el desarrollo de la aplicación y se asignaron equipos de trabajo y actividades para cada uno. 4. Creación de tablero de trabajo Se creó un tablero con las actividades asignadas con anterioridad para poder tener definidas las actividades, metas y avances durante el desarrollo. 5. Realización del prototipo de baja fidelidad Con los integrantes de los equipos de trabajo compuestos por dos integrantes en cada uno, se diseñaron las interfaces de cada una las pantallas de la aplicación web 6. Creación del modelo entidad- relación Se diseñó y se discutió el modelo entidad-relación con el propósito de definir los datos requeridos de acuerdo a la necesidad de la aplicación 7. Creación e implementación de la base de datos Se realiza creación de la base de datos con ayuda del diagrama entidad-relación 8. Conexión de base de datos Se realiza la conexión de la base de datos back-end y front-end 9. Implementación de Front-end Con ayuda mediante los prototipos de baja fidelidad la creación de front-end de las pantallas de la aplicación web. 10. Implementación de Back-end Se agregó la funcionalidad de las pantallas y el quiz con el uso de la base de datos. Resultados finales Se realizan las implementaciones correspondientes para la creación de de la aplicación web para su total funcionalidad.  


CONCLUSIONES

Este trabajo de investigación se implementó una aplicación web para impulsar el aprendizaje en estudiantes durante sesiones en línea, se concluyó con una aplicación web remasterizada con un diseño más dinámico y con funciones adicionales a las proporcionadas en el inicio del proyecto. La siguiente parte del proyecto consistirá en hacer análisis del uso de esta aplicación considerando distintos tipos de usuarios y grupos.
Mendez Garcia Oliver Jean, Instituto Tecnológico de La Piedad
Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana

ANáLISIS DE REGISTROS SíSMICOS EN EL ESTADO DE MICHOACáN Y JALISCO CON éNFASIS EN EL EFECTO EN EDIFICIOS.


ANáLISIS DE REGISTROS SíSMICOS EN EL ESTADO DE MICHOACáN Y JALISCO CON éNFASIS EN EL EFECTO EN EDIFICIOS.

Barajas Flores Fernando, Instituto Tecnológico de La Piedad. Mendez Garcia Oliver Jean, Instituto Tecnológico de La Piedad. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

En las últimas décadas, los estados mexicanos de Michoacán y Jalisco han experimentado una notable actividad sísmica debido a su ubicación en una zona tectónicamente activa. Estos sismos han suscitado inquietudes acerca de la seguridad de las estructuras en estas áreas, especialmente en zonas urbanas densamente pobladas. A medida que la infraestructura y los edificios continúan expandiéndose para dar respuesta al crecimiento demográfico, es crucial comprender y evaluar el impacto de esta actividad sísmica en la integridad de dichas estructuras. A pesar de la existencia de métodos y estándares de diseño sísmico para la construcción de edificios, es esencial investigar y analizar los efectos específicos de los sismos locales en las estructuras ya existentes. Además, aprovechando los avances tecnológicos y las técnicas de monitoreo actuales, surge la oportunidad de mejorar la comprensión sobre cómo distintos tipos de suelos y la geología local pueden amplificar o mitigar los efectos de los sismos en los edificios. El propósito principal de este estudio es analizar los registros sísmicos históricos y recientes en Michoacán y Jalisco, poniendo énfasis en cómo la actividad sísmica influye en la respuesta estructural de los edificios. Se buscarán datos de registros sísmicos reales que contribuyan a identificar las características de las sacudidas del terreno en áreas diversas, teniendo en cuenta las variaciones del tipo de terreno donde se obtuvieron los registros sísmicos. Para llevar a cabo este estudio, se recopilarán y analizarán datos de registros sísmicos que fueron obtenidos en estaciones sísmicas a través de los años recientes. Además de recopilar los datos se realiza una selección de los registros sísmicos más relevantes para la zona de estudio. Se analizan los datos básicos de los registros sísmicos y además se procesan los registros sísmicos para obtener más parámetros de utilidad en la ingeniería sísmica. Los resultados de este análisis proporcionarán información valiosa para contribuir a divulgar cómo se ha movido el terreno en la zona de estudio durante sismos, y por lo tanto, divulgar el tipo de movimientos del terreno que han afectado a los edificios en el pasado y que por lo tanto podrían volver a presentarse ese tipo de movimientos del terreno y afectar a los edificios actuales. En otras palabras, los resultados serán ejemplos de las acciones sísmicas que deberían tomarse en cuenta para el diseño sísmico de edificios en la zona de estudio.



METODOLOGÍA

El objetivo de esta metodología es analizar el impacto de la actividad sísmica en los edificios de Michoacán y Jalisco utilizando registros sísmicos reales. Se seleccionaron registros sísmicos históricos y recientes de los estados de Michoacán y Jalisco, disponibles a través de fuentes confiables como instituciones geológicas y de sismología y universidades. Estos registros contienen datos de terremotos y movimientos telúricos que han ocurrido en la región en los últimos años. Recopilación de Datos Sísmicos: Recolectar registros sísmicos históricos y recientes de estaciones sísmicas cercanas a las áreas de interés en Michoacán y Jalisco. Utilizar fuentes confiables como instituciones de monitoreo sísmico y bases de datos nacionales e internacionales. Selección de Áreas Urbanas Clave: Identificar áreas urbanas densamente pobladas en Michoacán y Jalisco que representen diferentes características geológicas y de construcción.


CONCLUSIONES

Durante la estancia de verano, hemos logrado adquirir un profundo conocimiento teórico sobre la actividad sísmica en los estados de Michoacán y Jalisco. A través del análisis detallado de registros sísmicos con énfasis en el efecto de estos registros sísmicos en los edificios. Nuestro estudio revela una diversidad sísmica sorprendente en Michoacán y Jalisco, donde la ubicación geológicamente activa de la región se traduce en una amplia gama de movimientos sísmicos. Los registros históricos y recientes han documentado terremotos y sacudidas telúricas que han impactado diversas áreas, subrayando la necesidad de comprender y adaptarse a esta variabilidad. Hemos identificado la influencia crucial de las características geológicas locales en la respuesta de los edificios ante los sismos. La geología subyacente y las propiedades del suelo desempeñan un papel determinante en la forma en que se amplifican o mitigan los efectos de las sacudidas. Esta comprensión enfatiza la importancia de considerar estas características al diseñar y construir edificaciones. La importancia de la planificación y la educación en la mitigación de riesgos sísmicos ha sido un aspecto central de nuestras conclusiones. Destacamos la necesidad de que los gobiernos y las comunidades prioricen la preparación ante desastres naturales, fortalezcan la planificación de emergencia y promuevan la conciencia pública sobre las medidas de seguridad. En última instancia, esta investigación contribuye significativamente al campo de la construcción en zonas sísmicas.
Mendez Gomez Evelin Alondra, Universidad de Guadalajara
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

DESARROLLO DE UNA INTERFAZ PARA EL ANáLISIS DE RECURSO EóLICOS EN YUCATáN


DESARROLLO DE UNA INTERFAZ PARA EL ANáLISIS DE RECURSO EóLICOS EN YUCATáN

Mendez Gomez Evelin Alondra, Universidad de Guadalajara. Osorio Bautista Fátima Diane, Universidad de Guadalajara. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La energía eólica emerge como una solución para generar electricidad de forma sostenible. El uso de simuladores y la realización de pruebas previas antes de poner en funcionamiento parques eólicos son fundamentales. Algunas razones importantes son: evaluación de viabilidad nos permite analizar el comportamiento del viento y la capacidad de generación de energía en una ubicación especifica antes de invertir en la construcción de parque eólico, además de su eficiencia, la seguridad y la confiabilidad de estas instalaciones. Ayudan a tomar decisiones informadas, reducir riesgos, mejorar la eficiencia y maximizar el rendimiento de la generación de energía eólica. Yucatán cuenta con una gran cantidad de vientos constantes y fuertes, especialmente en su costa.  Estos vientos en la costa en promedio pueden oscilar entre 6 y 8 m/s durante todo el año. Aunque las mediciones precisas pueden variar según la ubicación y la altitud específica teniendo en cuenta otros factores meteorológicos dentro de Yucatán. La implementación de parques eólicos en Yucatán sería una decisión estratégica que aprovecharía el potencial eólico de la región, diversificaría la matriz energética, reduciría las emisiones de carbono, generaría beneficios económicos.



METODOLOGÍA

Los objetivos principales de esta interfaz son facilitar la exploración de la dirección y velocidad del viento, estimar la distribución probabilística mediante la función de densidad de probabilidad de Weibull y permitir la extrapolación de datos para diferentes alturas sin la necesidad de mediciones durante un año completo. Para la realización de este proyecto el primer paso consistió en obtener los registros históricos de velocidad y dirección del viento de diferentes estaciones meteorológicas (NASA y UNAM) ubicadas en Yucatán con coordenadas de 20.515640, -88.907929. Para luego vaciar en un archivo Excel y realizar una base de datos y darle un acomodo más limpio y coherente. Para después realizar análisis estadísticos, esto con la ayuda de diferentes fórmulas, en este estudio energético se obtuvieron datos como la de la potencia eólica disponible y la función de densidad de probabilidad de Weibull para modelar la distribución de velocidades del viento en diferentes meses del año. Además de Estimar los parámetros de la función de Weibull para obtener información sobre las velocidades promedio y la variabilidad del viento en la región. Luego se realizó un análisis de los parámetros para poder interpretar los valores de k y c y de esta forma comprender la forma y escala de distribución de velocidad del viento, en donde el valor de k determina la forma de la curva, donde valores sean más grandes indican una curva puntiaguda en cambio mientras valores más pequeños indican una curva ancha y plana, mientras tanto el valor de c representa la velocidad de viento a la que la probabilidad de ocurrencia es máxima. Después teniendo en cuenta los objetivos del proyecto y las necesidades de los usuarios potenciales. A partir de ello, se diseñó la estructura general de la interfaz, identificando las secciones clave, como la rosa de los vientos, tablas de frecuencia, histogramas y curvas de velocidad, que serían mostradas al usuario. Luego se utiliza el lenguaje de programación Python y utilizar librerías como matplotlib y optar por tkinder como nuestra biblioteca principal para la creación de la interfaz gráfica, entre otras herramientas apropiadas para el diseño de la interfaz gráfica. Consecuentemente se llevó a cabo la implementar la visualización de datos mediante una estrecha relación con los datos que previamente se habían recopilados de la velocidad, dirección, frecuencia que se tenían en las estaciones meteorológicas que se tomó como referencia en el estado de Yucatán. Estas conexiones se realizaron mediante la utilización de líneas de código con algoritmos de lectura, permitiendo así cargar datos relevantes y poder actualizar los gráficos y tablas de forma dinámica. Para estimar los otros parámetros se utilizó las funciones de Weibull escritas en códigos. Esta interfaz permite a los usuarios interactuar añadiendo un archivo que nos sirve como base asi nos permite utilizar parámetros estimados de la función de Weibull para extrapolar las velocidades del viento a diferentes alturas y además nos permite variar el diámetro de un aerogenerador y saber su área de barrido.


CONCLUSIONES

El desarrollo de la interfaz en Python ha sido un desafío gratificante, y los resultados obtenidos han superado todas las expectativas planteadas inicialmente. Mediante su uso, los usuarios pueden explorar con facilidad la dirección y velocidad del viento en la región, visualizar la distribución de velocidades utilizando la función de densidad de probabilidad de Weibull y obtener estimaciones mensuales de velocidades promedio. La posibilidad de extrapolar datos para diferentes alturas de referencia ha demostrado ser una característica especialmente valiosa, ya que evita la necesidad de realizar costosas mediciones durante largos períodos de tiempo. Además de que ha resultado ser sólido y preciso, lo que ha sido corroborado a través de pruebas exhaustivas y validaciones con datos reales. La función Weibull proporciona una herramienta valiosa para caracterizar la distribución del viento en la región, permitiendo una comprensión más profunda de sus características y patrones estacionales. Es fundamental destacar que el éxito de esta investigación no habría sido posible sin la colaboración y apoyo de diversas instituciones y expertos en el campo. La disponibilidad de datos confiables y la retroalimentación recibida han sido invaluables para garantizar la precisión y relevancia de los resultados obtenidos.
Méndez Guzmán Leydi Arely, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO: EFECTO DEL USO DE FIBRAS DE HENEQUéN SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO


CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO: EFECTO DEL USO DE FIBRAS DE HENEQUéN SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO

Méndez Guzmán Leydi Arely, Instituto Tecnológico Superior de Los Ríos. Montes López Kevin Ignacio, Universidad Autónoma de Chiapas. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

En el sector de la construcción, el concreto reforzado ha sido fundamental, sin embargo, su deterioro a través de la carbonatación, en conjunto con la corrosión del acero afecta gravemente la estructura construida presentando agrietamientos y delaminaciones. Estas alteraciones en las estructuras son propiciadas por la calidad del aire y suelo en el que se encuentra, por ejemplo el dióxido de carbono el cual ingresan a través de los poros del concreto que al reaccionar forma carbonato de calcio, causando la disminución del pH, este proceso se denomina carbonatación; la humedad, por otro lado, afecta principalmente el estado del acero, ya que propicia su oxidación; y el conjunto de ambas afectaciones acelera la descomposición y corrosión del acero, haciendo que se presente agrietamientos, desprendimientos con exposición de acero y delaminaciones. En los países en vía de desarrollo (por ejemplo, México) y desarrollados, especialistas en estos temas, hicieron evaluaciones detalladas en el que determinaron que las pérdidas a causa de la corrosión del Producto Interno Bruto (PIB). Por lo tanto, las reparaciones en cuanto a corrosión del acero son muy costosas y si la estructura esta dañada por la carbonatación, su daño estructural puede ser irreversible. Por lo que las propiedades mecánicas y físicas del concreto son fundamentales, ya que su constitución proporciona resistencia y durabilidad a las estructuras; como propiedad mecánica se estudia su resistencia a la compresión que en base a norma debe corresponder de manera proporcional a los 7, 14, 28 y 90 días, derivando así otras propiedades del concreto; en la parte física, se estudia su fraguado y el endurecimiento, además de la inspección visual de la porosidad en el concreto.



METODOLOGÍA

Debido a que las propiedades mecánicas del concreto se ven afectadas, se añadieron las fibras de henequén a la mezcla de concreto del 0.5, 1 y 2% respecto al peso total de la mezcla, para así, mejorar algunas de sus propiedades mecánicas y físicas. Principalmente se cribaron los agregados finos y gruesos de las mallas con numero 4, 8, 16, 30 y 100, también se cortaron y separaron las fibras en buen estado a cada dos centímetros, usando un total de 500-800 gramos aproximadamente. La mezcla de concreto fue elaborada con fibras de henequén, cemento portland compuesto de la marca comercial Cemex maya, agregado fino y grueso, agua purificada y aditivos. Todo ello para obtener mezclas de concreto con una resistencia de 280 kg/cm2, elaborando 48 probetas cilíndricas de concreto con un diámetro de 15 cm y una altura de 30 cm, además de 44 probetas cilíndricas de 7.5 cm de diámetro y 15 cm de altura, algunas con varilla; dividiendo mezclas para su comparación, en el que tres cuartas partes tienen fibra de henequén y la ùltima cuarta parte no tiene. Una vez elaboradas las probetas, se procedió a desmoldarlas, y a las 24 horas se sometió a curado en una solución saturada de cal, el cual durará hasta los 90 días. Mientras, se realizaron pruebas de potencial, resistividad eléctrica y pruebas de compresión a los 7, 14 y 28 días. La prueba de potencial se realizó utilizando las probetas con varilla; para esta prueba se utiliza un electrodo de referencia, que en este caso se usó un electrodo de cobre sulfato de cobre, este se mide a través de un multímetro, en el cual se mide la diferencia de potencial de la varilla con el concreto y de el electrodo con el concreto, de esta manera se puede conocer la probabilidad de corrosión que existe en la varilla. La prueba de resistividad la realizamos con un resistómetro, en este caso utilizamos el método de 4 puntas, en el cual ingresamos una corriente a través de las puntas externas, y en las dos puntas centrales se mide la resistencia que genera el conductor que en este caso es la probeta de concreto, la cual se humedece para obtener el resultado; la distancia entre cada punto es la misma, en este caso fue de 2.5 cm. La prueba de compresión nos ayuda a determinar la resistencia de las probetas de concreto y los diferentes tipos de fisuras que puede presentar cuando ha alcanzado su peso limite resistente, a los diferentes días de curado, los cuales son a los 7, 14 y 28 días.


CONCLUSIONES

Durante la estancia de este verano, se realizo el estudio de la corrosión que se da en el concreto, la cual se da por diversas causas, entre las ya mencionadas, al igual que puede verse afectada por los cloruros y algunos otros compuestos que dañan a la varilla, por esta razón es que se utilizan diversos elementos que ayudan a retardar este efecto, y en cuanto a la mejora de las propiedades mecánicas del concreto se usan compuestos como lo son las fibras, o se hace el uso de algún tipo de aditivo. Las muestras de concreto durante los primeros 14 días, tienen un comportamiento en el que estas, con menor cantidad de fibra dan mejores resultados midiéndose a la resistencia a la compresión, y al medirlo a los 28 días, la resistencia a la compresión que se logró, fue mayor en el de 2% respecto a las muestras de 1%, sin embargo, las muestras con menor cantidad siguen teniendo una mayor resistencia a la compresión; comparando las muestras con fibra con las que no tienen fibra, podemos concluir que estas últimas tienen una mayor resistencia a la compresión. Centrando el uso del henequén para la mejora de las propiedades mecánicas y físicas del concreto, que, al hacer las pruebas ya nombradas con anterioridad, se puede concluir que el uso de las fibras hace que reduzca la resistencia a la compresión, pero se tiene la teoría que el uso de estas mismas, ayudarán a que el concreto se comporte de una mejor manera cuando se ven sometidas a flexión, como lo puede estar cuando se utiliza como viga.
Méndez Hernández Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Ana María Aristizábal Montoya, Universidad Católica de Oriente

CARACTERIZACIóN DEL ALMIDóN DE ARRACACHA (ARRACACIA XANTHORRHIZA) PARA LA APLICACIóN EN ALIMENTOS COMPLEMENTARIOS DIRIGIDOS A NIñOS CON DESNUTRICIóN.


CARACTERIZACIóN DEL ALMIDóN DE ARRACACHA (ARRACACIA XANTHORRHIZA) PARA LA APLICACIóN EN ALIMENTOS COMPLEMENTARIOS DIRIGIDOS A NIñOS CON DESNUTRICIóN.

Méndez Hernández Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Ana María Aristizábal Montoya, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años la población colombiana ha padecido un aumento en la inseguridad alimentaria, ante esta problemática existe la necesidad latente de implementar estrategias para reducir los porcentajes de población afectada ante esta situación, en la cual se encuentran principalmente niños de 0 a 5 años los cuales conforman más de medio millón de afectados (Mahtani, 2022). La principal causa de la inseguridad alimentaria está asociada a la desigualdad económica, la falta de recursos conduce a privarse de una alimentación saludable, lo cual desencadena problemas como la desnutrición y desarrollo cognitivo. La desnutrición temprana disminuye la capacidad de aprendizaje, el rendimiento escolar, la productividad económica en la vida adulta y las capacidades para cuidar de las nuevas generaciones, y atrapa a las personas en un círculo que perpetúa la desnutrición, la pobreza y el atraso en el desarrollo. El niño que sufre desnutrición crónica presenta un retraso en el crecimiento (no alcanza la talla recomendada para su edad) y sus capacidades cognitivas e intelectuales se ven afectadas, lo que tiene consecuencias irreversibles para el resto de su vida (Silva, 2016).  Por otro lado el uso de la arracacha en Colombia se identifica un porcentaje mínimo de aprovechamiento industrial de este tubérculo, teniendo en cuenta que se realiza únicamente explotación para consumo directo y animal. Sin embargo se debe resaltar que en los últimos años la aplicación de almidones en la industria alimentaria cada vez es mayor, independientemente de su origen. En Colombia cabe destacar que el almidón se ha convertido en uno de los ingredientes más versátiles que existe en la actualidad. Es por ello que se decidio hacer la caracterizacion de este tuberculo para que pueda ser utilzado en alimentos y sea industrializado, ya que dado su valor nutricional el consumo de esta, es recomendado en la dieta de niños, ancianos y convalecientes. 



METODOLOGÍA

La caracterización del almidón de arracacha con 3 variedades o clones (1,2 y 3) se realizó mediante diferentes técnicas para evaluar el hinchamiento, solubilidad y absorción de agua, así mismo la prueba de amilosa y amilopectina para conocer el contenido del tipo de almidón. Con miras a establecer la funcionalidad del almidón para la incorporación en matrices alimentarias en la elaboración de alimentos complementarios dirigidos a niños con desnutrición.    Se llevo a cabo la extracción del almidón lavando la arracacha, posteriormente se licua y filtra con agua destilada; se deja reposar y se lleva a un precipitado botando posteriormente el sobrenadante. Hasta obtener la pasta de almidón se procede a llevar al horno para obtener en una partícula mas pequeña, posteriormente se hace la molienda con el mortero y se lleva al tamizado para obtener partículas mas finas.    Posteriormente se realizaron las pruebas de hinchamiento, solubilidad y absorción al 1%. Se realizo el pesado de 0.5gr de almidón por muestra, se agrega a un balón de 50mL y se le agrego agua destilada. Para continuar se hace el vaciado de 10mL en un falcón previamente pesado vacío de 25mL, se y se lleva a baño maria por 15 minutos a una temperatura de 60ºC, este procedimiento se llevo a cabo por duplicado. Se realiza la misma solucion a temperaturas de 70º, 80º y 90ºC. Pasando los 15 minutos es necesario que se enfrien las muestras para posteriormente llevar a centrifugar a 3500 rpm durante 30 minutos, se vacia el sobrenadante en cajas petri que deben estar previamente pesadas para llevarlas al horno por 4hrs a una temperatura de 110ºC. Por ultimo se dejan enfriar y se hace el pesado de las cajas petri.    Por otro lado se realizo la prueba de amilosa y amilopectina en la cual se hizo el pesado de 0.1gr de almidón de cada una de las muestras, se le agrego 2mL de Dimetilsulfóxido (DMSO) y se llevo a calentar a baño maria por 15 minutos a 85ºC. Posteriormente se enraza a 25mL con agua destilada caliente y se debe agitar. Se toma 1mL de la solucion preparada y se le agregan 5mL de solucion de Yoduro de potasio (KI) con Yodo (I) y se enraza en un balon de 50mL con agua destilada. Por ultimo se lleva a leer en espectofotometro a 600nm.    Para la prueba de sinéresis, claridad y turbidez se llevo a cabo la medición de 0.5gr de almidón de las 3 muestras y se enraizó con agua destilada en balones de 50mL, posteriormente se llevo a baño maría por 30 minutos a 90ºC, pasado el tiempo se deben enfriar hasta llegar a 25ºC para después vaciar 1mL en tubos de Ependorff y llevar a la centrifuga a 3000 rpm por 15 minutos. Para continuar se vacía el sobrenadante y lo restante se debe almacenar refrigerado a una temperatura de 4ºC, se determina la sinéresis al día 1,2,3,4 y 7, y la cantidad de agua liberada después de centrifugar la muestra. Para la claridad y turbidez el gel del almidón se debe leer en el espectrofotómetro. 


CONCLUSIONES

De acuerdo con los resultados obtenidos en las técnicas para cuantificar la amilosa y amilopectina en los 3 clones de almidón de arracacha se observo que la amilosa oscilo entre 29.3 y 35.04% mientras que la amilopectina oscilo entre 64.96 y 70.68%. Con respecto a los solidos solubles oscilaron entre 0.1 a 1.1%, En cuanto a los gramos de agua absorbida por gramo de almidon vario entre 4.2 y 5.6% que según la FAO, los valores de referencia oscilan entre 0,82 y 15,52g gel/g muestra, lo anterior indica que el almidón posee una alta capacidad de absorción de agua.Mientras que el poder de hinchamiento vario entre 5.2 y 8.4%. Según las pruebas realizadas que se puede decir, tiene capacidad de retención de agua, forma gel estable y textura suave, así mismo gelificar desde los 60ºC yalta claridad de la pasta. Desde el punto de vista industrial, todas estas propiedades son deseables para multiples aplicaciones, especialmente para la industria de los alimentos, ya que puede ser usado como un emulsionante en productos como embutidos o como espesante en otros tipos de alimentos. Todo lo anterior puede apoyar el fortalecimiento de productos de uso autóctono en la región, además de recuperar el uso de semillas poco usadas u olvidadas.  
Méndez Pimentel Andrea, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Aaron Guerrero Campanur, Instituto Tecnológico Superior de Uruapan

MARCO INTEGRADO Y TENDENCIAS DE LEAN SIX SIGMA COMO CLAVE DE ÉXITO PARA LA MEJORA CONTINUA DE SISTEMAS DE PRODUCCIÓN Y SERVICIOS


MARCO INTEGRADO Y TENDENCIAS DE LEAN SIX SIGMA COMO CLAVE DE ÉXITO PARA LA MEJORA CONTINUA DE SISTEMAS DE PRODUCCIÓN Y SERVICIOS

Méndez Pimentel Andrea, Instituto Tecnológico Superior de Uruapan. Navarro Alfaro Adrian, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Aaron Guerrero Campanur, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el contexto empresarial actual, la búsqueda de la mejora continua en los sistemas de producción y servicios se ha convertido en un objetivo fundamental para mantener la competitividad y satisfacer las demandas de los clientes. Sin embargo, las organizaciones a menudo enfrentan obstáculos como ineficiencias en los procesos, altos costos de producción, variabilidad en la calidad del producto o servicio, y una falta de enfoque en las necesidades del cliente. Estos problemas pueden afectar negativamente la rentabilidad y el éxito a largo plazo de las empresas.   El Marco Integrado de Lean Six Sigma se ha destacado como una metodología efectiva para abordar estos desafíos y lograr mejoras significativas en los sistemas de producción y servicios. No obstante, aún existen interrogantes sobre la eficacia de su implementación en diferentes contextos empresariales y sectores industriales.   Pregunta de investigación: ¿Cómo el Marco Integrado de Lean Six Sigma se ha utilizado como clave de éxito para la mejora continua de sistemas de producción y servicios en distintas organizaciones y cuáles son las tendencias actuales de su aplicación?



METODOLOGÍA

El proyecto se llevará a cabo mediante la recopilación de datos cuantitativos provenientes de diversas bases de datos de revistas indexadas, como Web of Science y Scopus. El objetivo es obtener una muestra representativa de publicaciones científicas relacionadas con Lean Six Sigma. A través de este análisis, se buscará identificar las tendencias de investigación en el campo y determinar la cantidad de publicaciones por año.   Además, se llevará a cabo un análisis para identificar los autores más citados en el ámbito de Lean Six Sigma, así como las revistas científicas más relevantes que publican investigaciones sobre este tema. Esto permitirá comprender cuáles son las principales contribuciones y actores clave en el campo.   Adicionalmente, se realizará un análisis de la distribución geográfica de las publicaciones en el campo de Lean Six Sigma. Esto nos proporcionará una visión más amplia de cómo esta metodología se está implementando en diferentes regiones y países, y cómo está contribuyendo a la mejora continua de sistemas de producción y servicios a nivel global.   Este enfoque basado en datos cuantitativos nos permitirá obtener una visión sólida y objetiva de la evolución de Lean Six Sigma en el ámbito científico y su relevancia en la mejora continua de sistemas de producción y servicios. Con esta información, estaremos en posición de identificar las tendencias actuales y futuras en la investigación de Lean Six Sigma, y evaluar su impacto en la eficiencia, calidad y satisfacción del cliente en diversas organizaciones.


CONCLUSIONES

Los resultados obtenidos han demostrado que el Marco Integrado de Lean Six Sigma es una herramienta efectiva para abordar los desafíos que enfrentan las organizaciones en términos de ineficiencias en los procesos, altos costos de producción y variabilidad en la calidad del producto o servicio. La aplicación de Lean Six Sigma ha llevado a mejoras significativas en la eficiencia operativa, reducción de costos y aumento de la satisfacción del cliente en diversas organizaciones.   Además, el análisis bibliométrico ha permitido identificar las tendencias actuales en la investigación de Lean Six Sigma, destacando su aplicación en diferentes sectores y la integración de tecnología avanzada para la mejora continua. La metodología ha demostrado ser adaptable a diversos contextos empresariales y ha generado un impacto positivo en la calidad de los productos y servicios ofrecidos.   Sin embargo, también se han identificado desafíos en la implementación de Lean Six Sigma, como la resistencia al cambio y la alineación con la cultura organizacional. Estos aspectos deben ser abordados de manera adecuada para asegurar el éxito de la metodología en cada organización.
Mendez Rosales Alan, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

DISEÑO E IMPLEMENTACIÓN DE UN RESTAURADOR DE TENSIÓN MEDIANTE SIMULINK PERTENECIENTE A LA RAMA DE LOS CUSTOM POWER


DISEÑO E IMPLEMENTACIÓN DE UN RESTAURADOR DE TENSIÓN MEDIANTE SIMULINK PERTENECIENTE A LA RAMA DE LOS CUSTOM POWER

Hernandez Hernandez Eduardo Ramon, Instituto Tecnológico Superior de Irapuato. Mendez Rosales Alan, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En la actulaidad el sistema electrico de potencia presenta disturbios, perturbaciones en la red , causando una problematica en la calidad del servicio electrico, pudiendo llegar a comprometer la confiabilidad del sistema y desencadenando problemas que involucran afectaciones económicas severas por concepto de fallo de equipos y paros inesperados de procesos de producción.



METODOLOGÍA

Metodología Integración de módulos de IGBT’s, junto con el diseño un inversor de potencia. Diseño, desarrollo e implementación de sistemas de control clásicos, para el control de disturbios eléctricos y regulación de voltaje. Realizar pruebas y obtener los resultados.


CONCLUSIONES

Resultados Como resultado se obtuvo un restaurador trifásico perteneciente a los CDP (DVR), el cual se sometió a diferentes tipos de disturbios eléctricos más común que se prestan en el sistema que cumple con los objetivos de proteger las cargas sensibles y críticas, cuya respuesta de operación del restaurador fue eficiente y rápida al detectar y corregir las anomalías o fallas que se presentan día a día en un sistema eléctrico. Conclusiones El Restaurador Dinámico de Tensión (DVR) es una solución que ha demostrado ser eficiente y efectiva al abordar los problemas de calidad de energía así como su capacidad para detectar rápidamente las variaciones en el voltaje y compensarlas mediante la inyección de voltaje lo cual ha permitido mejorar significativamente la calidad del servicio eléctrico en los diferentes entornos industriales.
Méndez Vallejo Ulises Helios, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

INFLUENCIA DE LA ESCALA TEMPORAL EN LA SIMULACIóN DE ESCURRIMIENTOS DE LA CUENCA DEL LAGO DE CUITZEO.


INFLUENCIA DE LA ESCALA TEMPORAL EN LA SIMULACIóN DE ESCURRIMIENTOS DE LA CUENCA DEL LAGO DE CUITZEO.

Méndez Vallejo Ulises Helios, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En México, se ha priorizado el uso de los modelos precipitación-escurrimiento (MPE) para la evaluación de los recursos hídricos debido a que hay una mayor cantidad de datos climatológicos en comparación con los datos hidrométricos, pero desafortunadamente, los datos climatológicos presentan una gran cantidad de faltantes a escala diaria. A escala mensual, estos se reducen considerablemente y existen métodos para completarlos. La disponibilidad de datos mensuales ha propiciado que uno de los modelos más utilizados sea el MPE Témez (1977) con 4 parámetros. Por otro lado, en la escala diaria se cuenta con el MPE HBV (Bergström, 1995) que consta de 8 parámetros y requiere una mayor cantidad de información. El presente trabajo tiene como objetivo realizar una comparativa entre estos dos modelos a escala mensual y observar la influencia que tiene la escala temporal, es decir, si es mejor o indiferente una serie de escurrimientos mensuales obtenida a partir de la acumulación de escurrimientos diarios simulados del MPE HBV o una serie de escurrimientos mensuales del MPE Témez, tomando como caso de aplicación la cuenca del lago de Cuitzeo. Se plantea conocer las diferencias en los resultados obtenidos, el proceso de recopilación de la información que alimenta a los modelos, su tratamiento estadístico, el llenado de datos para generar series continuas, el proceso de calibración con base en datos históricos, así como identificar las dificultades para el desarrollo de cada uno de los modelos, como lo es la falta de información climatológica en México.



METODOLOGÍA

Primero se realizó la caracterización de la cuenca del lago de Cuitzeo a través de la obtención de información geoespacial, climatológica e hidrométrica, con su respectivo análisis y procesamiento. Después con dicha información climatológica e hidrométrica se alimentó los MPE HBV (Bergström, 1995) y Témez (1977). La simulación de escurrimientos de ambos se llevó a cabo con el software EvalHid (Paredes Arquiola et al., 2014), para la calibración y validación se utilizaron tres subcuencas a régimen natural que cuentan con datos de aforo (Santiago Undameo, Queréndaro y Tarímbaro) y mediante el uso del software Calibrador para EvalHid (CALEV) (García Romero et al., 2019) se determinaron los parámetros que mejor representan los escurrimientos en dichas subcuencas. Estos parámetros se compartieron al resto de subcuencas según su parentesco con las tres subcuencas anteriormente mencionadas, dicha similitud la determinó un Análisis Multivariante (AMV) realizado en el software JMP (Jones & Sall, 2011). Finalmente, los MPE HBV y Témez se simularon en las subcuencas con datos de aforo y en la totalidad de la cuenca del lago de Cuitzeo, se analizaron a escala mensual a través de indicadores de eficiencia y pruebas estadísticas que consideran la variación de los datos entre las series y los datos hidrométricos.


CONCLUSIONES

Con base a los indicadores de eficiencia calculados de todas las simulaciones realizadas a escala mensual, se pudo observar que: El MPE HBV representa de mejor manera los escurrimientos tanto pequeños y grandes. El MPE HBV se acercó más a la media de escurrimientos En general ambos modelos sobreestiman los escurrimientos, sin embargo, El MPE HBV sobreestimo en menor cantidad que el MPE Témez. Los puntos anteriores indican que el MPE HBV es más eficaz que el MPE Témez a escala mensual, esto se explica con base en lo planteado, es decir, que el MPE HBV se calcula a escala diaria y se acumula mensualmente para poder compararlo con el MPE Témez que se calcula de forma mensual, esta diferencia en la escala influye de tal forma que los escurrimientos mensuales grandes y pequeños son mejor representados así como la cantidad media de agua escurrida, sin embargo, es importante recalcar que estos resultados son lo que se obtuvieron en la cuenca del lago de Cuitzeo, en las subcuencas estudiadas y con el criterio del modelador, por lo que esta regla puede no cumplirse siempre en otras cuencas debido a las condiciones hidrológicas y a las experiencias que tengan los modeladores. En cuanto a los procesos realizados para la creación de los modelos precipitación-escurrimiento, se pudo determinar que: El MPE Témez es más fácil y rápido de realizar, así como de calibrar al contar con solo cuatro parámetros y dos condiciones iniciales. La cantidad de datos para alimentar el MPE Témez es mucho menor, aproximadamente 30 veces más cantidad de datos en un MPE a escala diaria, con respecto a un MPE a escala mensual. En cuanto a la recopilación de información no hubo diferencias ya que la información de las estaciones climatológicas es de escala diaria. Con respecto a la validación de datos a través de pruebas estadísticas, no hubo diferencia, ya que estas se realizan a nivel anual. Para el llenado de datos faltantes, es mucho más fácil de llenarlos a escala mensual, ya que en escala diaria estos faltantes son mucho más, por lo tanto, se complica el llenado de estos. En conclusión, la escala temporal si influye en la determinación de los escurrimientos simulados, un MPE a escala diaria nos dará mejores resultados a nivel mensual y por lo tanto a nivel anual que un MPE a escala mensual. Se recomienda utilizar el MPE HBV en caso de que el estudio a realizar requiera de una mayor precisión en la simulación de escurrimientos, es decir, cuantificar de manera precisa los escurrimientos pequeños, grandes y el promedio con el fin de tener una gestión óptima de los recursos hídricos (recordando que este tipo de modelos no son utilizados para estimar eventos extremos o de riesgo). Sin embargo, la diferencia no es tan significativa con respecto al MPE Témez que también ofrece buenos resultados, por lo que, si el estudio no requiere de precisión, por ejemplo, una cuantificación de recursos hídricos es conveniente usar este modelo, ya que no vale la pena el tiempo, la dificultad y la cantidad de información que requiere un MPE a escala diaria solo por esa precisión extra que tiene este último.
Méndez Zamudio María Isabel, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Edgar Fernando Peña Torres, Consejo Quintanarroense de Ciencia y Tecnología

USO DE B-AGONISTAS EN CONDICIONES DE ESTRéS POR CALOR EN RUMIANTES Y SU IMPACTO EN PARáMETRO PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIóN


USO DE B-AGONISTAS EN CONDICIONES DE ESTRéS POR CALOR EN RUMIANTES Y SU IMPACTO EN PARáMETRO PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIóN

Méndez Zamudio María Isabel, Instituto Tecnológico de Estudios Superiores de Zamora. Rodríguez Jiménez Yadira Citlali, Instituto Tecnológico de Estudios Superiores de Zamora. Salazar Peralta Ana Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Torres González Karen Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Edgar Fernando Peña Torres, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

USO DE B-AGONISTAS EN CONDICIONES DE ESTRES POR CALOR EN RUMIANTES Y PARAMETROS EN PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIÓN



METODOLOGÍA

Durante nuestro verano de investigación hemos estado realizando un proyecto con el fin de publicar un artículo que trate sobre el efecto de agonistas β-adrenérgicos en animales de engorda (bovinos y ovinos) bajo condiciones de estrés por calor, durante este proyecto tomamos en cuenta múltiples investigaciones sobre proyectos enfocados al tema los cuales nos ayudaran a cubrir diferentes puntos importantes; desde que son estos tipos de suplementos, su mecanismo de acción, el efecto que tiene durante su etapa de implementación y las características tanto físicas y químicas que tiene la carne una vez llegada la etapa del sacrificio. Los B- antagonistas son moléculas sintéticas análogas a las catecolaminas (epinefrina y norepinefrina). La finalidad de estas es incrementar el anabolismo hacia la síntesis de masa muscular mediante el aprovechamiento de nutrientes y energía obtenido del tejido adiposo. Estos compuestos provocan mayor rendimiento en corral para la carne, favoreciendo el nivel económico y productivo. Su modo de acción se lleva a cabo a nivel celular, la molécula pasa intacta las paredes del rumen y es absorbida por el sistema portal llegando a las células blanco, logrando así unirse a los receptores que están en la membrana celular; lo que genera una activación y fosforilación de los distintos mecanismos incrementando la perfusión sanguínea hacia el músculo y una mejor disponibilidad de energía y aminoácidos, por lo tanto, aumenta la síntesis y retención de proteína que favorecen la hipertrofia muscular y a su vez a la degradación de grasa del animal. Dentro de este tipo de suplementos se encuentran el clorhidrato de clembuterol, cimaterol, clorhidrato de zilpaterol y clorhidrato de ractopamina con un mecanismo de tipo hormonal y solo estos dos últimos se permite su uso en etapas de finalización en animales de engorda. Se ha demostrado tener resultados favorables para la implementación de Zilpaterol en ovinos y bovinos en condiciones de estrés por calor, pero a su vez el rendimiento del mismo bajo temperaturas elevadas disminuye, dando un resultado variable al caso de estudio. La calidad de la carne está relacionada con sus características organolépticas, es decir, suavidad, jugosidad, color, olor y sabor. Algunos factores que influyen en que dicha calidad sea aceptable son la genética, la raza del animal, los días de engorda, el sexo y la edad. Mediante evaluación el Clorhidrato de Zilpaterol como suplemento alimenticio de ovinos y bovinos influyó sobre las características de la calidad de la carne, se reporta que realizaron varios tratamientos y evaluaciones las cuales arrojaron diversos resultados, entre ellos se veía comprometida la calidad de la carne, mientras las características físico- químicas de algunas cabezas aumentaban en peso y musculo incluyendo el descenso de la cantidad de grasa en el animal, también se detectó que era por el aumento en la síntesis de proteínas, otros puntos comprometidos durante el estudio fueron la terneza y el color de la carne, en comparación con otros “aditivos o suplementos” en carne cruda y cocida. Se sabe que la teoría del color en la carne por el CZ no ha sido específicamente reportada, al igual que el mal uso del CZ causa intoxicación dependiendo la sobreexposición y dosis usadas en animales, sin embargo, esto podría generar pérdidas económicas para la industria.


CONCLUSIONES

Las b-agonistas son moléculas que ayudan a incrementar la masa muscular mediante síntesis, en tal caso las condiciones de estrés por calor en animales generar malas características en el animal y la carne, las b- Agonistas nos ayuda a tener mejores características físicas, químicas y sensoriales, sin embargo,en un mal uso de las b-agonistas o mala sobre exposición del animal pueden generar daños al consumidor.
Mendieta Leon Adriana, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Francisco López Orozco, Universidad Autónoma de Ciudad Juárez

EYE TRACKING ART APP: UNA IMPLEMENTACIóN DEL SEGUIMIENTO OCULAR CON CáMARAS CONVENCIONALES COMO MODELO DE INTERACCIóN HOMBRE-MAQUINA.


EYE TRACKING ART APP: UNA IMPLEMENTACIóN DEL SEGUIMIENTO OCULAR CON CáMARAS CONVENCIONALES COMO MODELO DE INTERACCIóN HOMBRE-MAQUINA.

Mendieta Leon Adriana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco López Orozco, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La interacción Hombre-Máquina (HCI) es el estudio de cómo los seres humanos interactúan con las computadoras. HCI consta de usuarios, computadoras y la interacción entre ellos. Con el avance tecnológico se han creado nuevos modelos de interacción humano-computadora que puedan ser aprovechados por usuarios convencionales. Con la interacción HCI se busca explorar el uso de nuevos modelos que remplacen los convencionales como el mouse y el teclado. El eye tracking o seguimiento ocular es una tecnología que se ha utilizado como una forma de interacción entre usuario y computadora, sin embargo, existen limitaciones al utilizar esta tecnología ya que en su mayoría se necesita de un equipo especializado y de costo elevando conocido como eyetracker. Se busca que la mayoría de los usuarios puedan interactuar con sus equipos por lo que el sector de la población con discapacidades motoras llega a verse limitado con las formas convencionales de manejar los equipos de cómputo, por lo que utilizar el seguimiento ocular como forma de interacción es una solución viable para su uso sin embargo utilizar eyectraker profesionales es un reto debido a sus altos costo y la difícil manipulación para todos los usuarios. Con el presente proyecto se busca respaldar e implementar el uso del seguimiento ocular como una forma de interacción utilizando cámaras convencionales de los equipos de cómputo, el problema que se enfrenta es la precisión del modelo ya que existen factores como la iluminación que pueden afectar la precisión.



METODOLOGÍA

Durante esta investigación se llevó acabo la creación de una aplicación web que utiliza la librería webgezar.js para lograr hacer eye tracking con cámaras convencionales. La aplicación web permite al usuario dibujar de acuerdo con el seguimiento de su vista. Para lograrlo se trabajo bajo una metodología incremental, que es un enfoque de software que divide el proceso en etapas manejables y funcionales. A continuación, se enlistan las etapas: Planificación y Análisis Inicial: Esta primera etapa consiste en la realización de actividades enfocadas al análisis del problema y formación de una solución inicial. Se define el tipo de aplicación a desarrollar Diseño de la Arquitectura: En esta etapa, definimos el comportamiento de la aplicación, se identifican las funcionalidades y se establecen las herramientas de desarrollo como el lenguaje de programación. Al tratarse de una aplicación web se utiliza js, html y css. Desarrollo de la primera interacción: Se crea un primer prototipo. El primer prototipo que se presenta es la aplicación web pero sin incluir aún el seguimiento ocular. Se trabaja con el mouse como medio de interacción Pruebas, Evaluación y Retroalimentación: Se realizan pruebas de funcionamiento y diseño, evaluando principalmente que tan intuitiva es la interfaz de la aplicación. Desarrollo de la siguiente iteración: Basándose en la retroalimentación de la etapa anterior se identificaron cambios que se desarrollan en esta nueva iteración adicionalmente se incluyen funcionalidades adicionales. En este caso se agrega el seguimiento ocular y se quita el uso del mouse como medio de interacción Pruebas y retroalimentación: Durante estas segundas pruebas se evalúa el funcionamiento de la aplicación usando eye tracking, las pruebas se centran en la precisión al dibujar, la dificultad de uso, etc. Integración de incrementos: A medida que se completan las iteraciones, los incrementos se integran para formar una versión final más completa. Estos dependen de las retroalimentaciones anteriores Pruebas Finales y Validación: En esta etapa la versión final de la aplicación se somete a pruebas finales exhaustivas para verificar que las funcionalidades cumplan con los requisitos.


CONCLUSIONES

Para concluir, en el presente trabajo de investigación se logró obtener un primer prototipo funcional sin llegar a una versión final. Durante las pruebas con este primer prototipo se observó que si bien es posible hacer eye tracking con cámaras convencionales la precisión suele verse muy afectada por factores como la iluminación, si el usuario utiliza lentes o la postura del usuario. La aplicación web no cuenta con todas las funcionalidades que se plantearon durante el análisis, sin embargo, fue posible observar el funcionamiento del eye tracking como modelo de interacción humano-máquina, y observar que el proceso de calibración antes del uso de la aplicación es un paso importante para mejorar la precisión y obtener mejores resultados en la interacción.
Mendieta Soriano Atalia Carina, Universidad Politécnica de Atlautla
Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit

DISEñO PARAMéTRICO CAD/CAM


DISEñO PARAMéTRICO CAD/CAM

Mendieta Soriano Atalia Carina, Universidad Politécnica de Atlautla. Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

El avance de la tecnología ha permitido la utilización del CAD CAM en diversos campos, incluyendo la educación. Las piezas didácticas son elementos fundamentales en el proceso de aprendizaje de los estudiantes, ya que facilitan la comprensión de conceptos complejos. En este sentido, el uso de CAD CAM para la realización de piezas didácticas puede ser beneficioso en términos de precisión, personalización y eficiencia.  



METODOLOGÍA

Para utilizar CAD CAM en la realización de piezas didácticas implica varios pasos. 1. En primer lugar, se requiere un diseño en CAD de la pieza didáctica. En este proceso, se utiliza un software específico(Autodesk Iventor) para crear un modelo tridimensional de la pieza. 2. Una vez que el diseño está finalizado, se pasa a la etapa de CAM, donde se utiliza un software o máquina CNC(en este caso el uso de una impresora 3D) para fabricar la pieza física. Durante este proceso, el software (ultimaker cura ) traduce el diseño en una serie de instrucciones para la fabricación precisa de la pieza. 3. Finalmente despues de unas horas o minutos se obtienen las piezas físicas listas para ser utilizadas en el proceso de aprendizaje.  


CONCLUSIONES

El uso de CAD CAM en la realización de piezas didácticas para el aprendizaje en estudiantes ofrece diversas ventajas. En primer lugar, permite la personalización de las piezas según las necesidades específicas de cada estudiante o grupo de estudiantes. Esto facilita la comprensión de conceptos complejos y promueve un aprendizaje más eficiente. Además, el CAD CAM garantiza una mayor precisión en la fabricación de las piezas, lo que se traduce en una mayor calidad y durabilidad. Esto resulta especialmente útil en áreas como ciencias, matemáticas o ingeniería, donde la exactitud de las piezas es fundamental. En resumen, el uso de CAD CAM en la realización de piezas didácticas para el aprendizaje en estudiantes ofrece beneficios significativos en términos de personalización, precisión y eficiencia.
Mendoza Alcaraz María José, Universidad de Sonora
Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)

CARACTERIZACIóN Y EVALUACIóN DE DESEMPEñO EN MATERIALES AVANZADOS


CARACTERIZACIóN Y EVALUACIóN DE DESEMPEñO EN MATERIALES AVANZADOS

Mendoza Alcaraz María José, Universidad de Sonora. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El aleado mecánico hace referencia al proceso de mezcla de polvos de diferentes metales o aleaciones/compuestos los cuales son molidos en conjunto. Gracias a este proceso es posible obtener aleaciones metálicas que se caracterizan principalmente por tener una alta relación resistencia/peso, buen comportamiento frente a la corrosión, buena ductilidad, alta resistencia a la fractura y propiedades magnéticas El uso frecuente de esta técnica ha dado como resultado una amplia investigación, que actualmente sigue en auge y ha abierto un mundo de posibilidades y aplicaciones. Con este proyecto lo que se buscaba lograr era lo siguiente: Estudiar el proceso de formación de aluminio-nÍquel. Estudiar la temperatura en el vial. Implementar una metodología para medir temperatura en tiempo real. Caracterizar el proceso y los resultados obtenidos del proceso de molienda. Analizar el efecto térmico y reacciones llevadas a cabo durante la molienda  



METODOLOGÍA

El equipo utilizado fue el siguiente: Termopar tipo K de cromel-Alumel cuyo funcionamiento consiste en la unión de dos metales diferentes en la punta cuyo calentamiento o enfriamiento produce una tensión que es proporcional a la temperatura , una placa de calentamiento como fuente de calor para el analisis de temperatura, un multimetro Fluke 289 como sistema de registro de datos y graficador. Por ultimo empleamos un molino de bolas Spex 8000D, dentro de este va colocado un vial de carburo de tugsteno con revestimiento de acero con sus respectivas bolas de molienda. Primeramente lo que se realizo fueron estudios de temperatura en el plato caliente para simular la curva exotermica que se daria dentro del vial. Una vez realizadas las graficas y comprobar que el rango de temperatura y no presentaba variaciones se procedio a realizar los calculos de proporcion estequimetrica para aluminio y niquel. Estos dos metales son con los que se trabajo se utilizo una composición 50-50 por lo que el area de trabajo o de interes ubicado en el diagrama de fase niquel-aluminio seria la beta cuya temperatura estable es de 1638°C. Para los calculos Nos apoyamos en la relación BPR, Relación Peso Bolas de 6:1 es decir, la relación entre el peso de las bolas y el polvo. En este caso nos dio un peso total de 4.1781 g por lo que con ayuda de los pesos moleculares se llevo a cabo una regla de tres para determinar el peso necesario de niquel y aluminio correpsondientes a 1.3158 g y 2.8621 g. Para la preparación de la muestra se sello una primera vez en un ambiente de argon para evitar la oxidación y para la molienda se utilizaron dos bolas grandes y dos chicas. En este caso no ocurrio la reacción exotermica que se esperaba por lo que se realizo una segunda vez pero esta vez se sello en presencia de oxigeno y se utilizaron tres bolas grandes para la molienda. La molienda tuvo una duración de aprox. 1 hora y media. La reacción exotermica, es decir el momento en el que se libero mucha energia fue a la hora con 10 min aprox. Podemos corroborar esto con la grafica al momento de observar un ascenso rapido de temperatura en 1 seg hasta los 50°C para depsues volver a su temperatura anterior. y quedarse estable. Despues pasamos a la sinterización para la formación de moneditas con el polvo resultante que obtuvimos en la molienda. Para esto utilizamos dos cilindros grandes y uno delgado para presionar el polvo, tambien nos ayudamos con una prensa ejerciendo una fuerza de 5 ton. y asi obteniendo la forma redonda de moneda. Este proceso se realizo para tres polvos: niquel puro, Ni-Al sin reacción exotermica y Ni-Al con la reacción con el fin de comparar las muestras. La sinterización se llevo a cabo en un horno tubular por un periodo de 2 hr a 1000°C con un flujo de argon de 300 ml/min. Identificamos despues de la sinterización para el caso de NiAl sin reaciconar que se formaron unos oxidos conocidos como espinelas son caracteristicos porque tienen forma de agujas o hilos y con una medida de 700 nanometros de diametro y 25 micrometros de longitud. En el caso del niquel podemos señalar que los polvos se aglomeraron y se pueden observar como esferas apretadas. Finalmente para Ni-Al con reacción se pudieron observar oxidos en la superficie debido a la interaccion con el oxigeno remanente en el horno y esta morfologia es caracteristica para oxido de aluminio


CONCLUSIONES

-Se estableció una metodología satisfactoria para medir la temperatura del vial y se logró identificar en tiempo real la formación de fases exotérmicas. -Para la muestra que no genero reacción exotérmica, se observó la presencia de óxidos de níquel en forma de espinela durante el proceso de sinterización. -Se observo la presencia de óxidos de aluminio Al2O3 característicos para la muestra que si tuvo la reacción exotérmica. -  Las muestras sinterizadas de Níquel no mostraron formación de óxidos aparentes.
Mendoza Cardenas Raymundo, Instituto Politécnico Nacional
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología

DESARROLLO DE SISTEMA DE LOCALIZACIóN EN ENTORNOS CERRADOS EMPLEANDO TECNOLOGíAS BLUETOOTH DE BAJO CONSUMO ENERGéTICO


DESARROLLO DE SISTEMA DE LOCALIZACIóN EN ENTORNOS CERRADOS EMPLEANDO TECNOLOGíAS BLUETOOTH DE BAJO CONSUMO ENERGéTICO

Mendoza Cardenas Raymundo, Instituto Politécnico Nacional. Ramos Sánchez Marcel Alexander, Universidad Tecnológica de Nayarit. Terán Cuevas Edgar Román, Instituto Politécnico Nacional. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La creciente necesidad de sistemas de localización en entornos interiores precisos y eficientes es evidente en la actualidad. Estos sistemas son vitales en aplicaciones industriales para optimizar procesos, rastrear activos y mejorar la gestión de inventarios, lo que reduce costos y aumenta la productividad. En el aspecto de seguridad, la tecnología de posicionamiento en interiores mejora la protección en edificios, permitiendo el monitoreo continuo y una rápida respuesta en situaciones de emergencia. En espacios públicos como centros comerciales y hospitales, la experiencia del usuario se enriquece mediante guías de navegación y servicios personalizados. Aunque los avances tecnológicos y el GPS en exteriores son ampliamente disponibles, la localización en interiores enfrenta desafíos únicos. La señal GPS no es confiable debido a obstáculos físicos y la interferencia de señales inalámbricas que afecta la precisión. Es necesario buscar enfoques alternativos, como redes de sensores inalámbricos con tecnología Bluetooth de bajo consumo de energía (BLE) y algoritmos de multilateración (MLAT), que han demostrado su eficacia en la localización de objetos en interiores.



METODOLOGÍA

En el presente proyecto se emplearon seis nodos Bluetooth Low Energy (BLE) para llevar a cabo la recolección de datos. Estos nodos se dividieron en dos tipos: tres BC037S BlueCharm y tres ESP32 EXPRESSIF. La elección de nodos de diferentes modelos permitió evaluar y comparar su desempeño en el contexto específico de este proyecto. Cada uno de los nodos utilizados, BC037S BlueCharm o ESP32 EXPRESSIF, funcionó como un emisor de señales Bluetooth y tuvo la capacidad de transmitir información relevante. Estos nodos fueron ubicados estratégicamente en el área de interés para asegurar una cobertura óptima y recopilar datos representativos de distintas ubicaciones dentro del espacio bajo estudio.  Para lograr una implementación efectiva de algoritmos de localización, se llevó a cabo una caracterización detallada de los sensores BLE utilizados. Este proceso consistió en realizar mediciones del indicador de fuerza de la señal recibida (RSSI, por sus siglas en inglés, Received Signal Strength Indicator) a diferentes distancias de los nodos. Mediante estas mediciones, se obtuvo una relación entre la distancia y el valor de RSSI, que permitió establecer una expresión matemática que relaciona ambos parámetros.  Durante todo el proceso de caracterización, se prestó especial atención a factores que pudieran afectar la precisión de las mediciones, como la presencia de interferencia de señales y la geometría de los espacios de prueba, que incluyen el Laboratorio de Redes y Comunicaciones (NETCOM Laboratory) y el Lobby del edificio de la División de Ciencias, Ingenierías y Tecnología (DCIT) de la Universidad Autónoma del Estado de Quintana Roo (UQROO). Se observó que el valor del RSSI puede experimentar variaciones significativas en cada iteración debido a estas influencias externas.  Para abordar este desafío y mejorar la confiabilidad de las mediciones, se implementaron filtros de Kalman. El uso de este tipo de filtros en el proceso de localización resultó positivo para mitigar los efectos de la interferencia y otros factores que afectan el RSSI en aproximadamente un 6%.    Para el procesamiento y presentación de los datos recopilados, se utilizó una tarjeta Raspberry Pi 400, una microcomputadora potente y versátil. Está Raspberry Pi 400 actuó como centro de control, recibiendo las señales emitidas por los nodos BLE y aplicando algoritmos específicos de localización, como multilateración, trilateración y ponderación inversa.  La multilateración permitió calcular la ubicación precisa de la estación base a partir de la distancia medida desde múltiples nodos emisores. La trilateración, por su parte, utilizó la distancia desde al menos tres nodos para calcular la posición relativa del receptor en el plano cartesiano. La ponderación inversa se utilizó para asignar pesos a las mediciones en función de su confiabilidad, mejorando la precisión de las estimaciones de distancia.  Finalmente, los resultados se presentaron de manera visual y accesible mediante una página web desarrollada utilizando el framework Flask, HTML, CSS y la biblioteca Plotly para la visualización de datos. Esta interfaz gráfica permitió a los usuarios interpretar fácilmente la ubicación de los nodos y la estación base, lo que resultó en un análisis más completo y una comprensión clara de los datos recopilados.


CONCLUSIONES

Durante la estancia de verano, se lograron adquirir valiosos conocimientos teóricos sobre los sistemas de localización en espacios interiores y se pusieron en práctica mediante la implementación de un sistema de localización. Para esto, se emplearon nodos BLE y una Raspberry Pi 400 como estación base. Los resultados obtenidos a través de los algoritmos de localización y filtros de Kalman demostraron la obtención de mediciones precisas y confiables.  Además, se diseñó una interfaz web para la presentación de los datos, lo que facilitó el análisis y la interpretación de los resultados. Si bien el proyecto aún se encuentra en desarrollo debido a su complejidad, se han sentado las bases para futuros desarrollos y aplicaciones en escenarios similares.  Es importante mencionar que, debido a la etapa actual de desarrollo, no es posible mostrar un plan de pruebas, pero se espera que con mejoras continuas, el sistema alcance una mayor precisión y se optimicen los costos de implementación. De esta manera, se abrirán nuevas posibilidades de aplicación en diversos ámbitos, aumentando la utilidad y el alcance de este innovador sistema de localización en entornos interiores.
Mendoza Gonzalez Manuel Alejandro, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

DISPOSITIVOS DE RECOLECCIóN Y DISTRIBUCIóN DE AGUA PLUVIAL EN CASAS HABITACIóN.


DISPOSITIVOS DE RECOLECCIóN Y DISTRIBUCIóN DE AGUA PLUVIAL EN CASAS HABITACIóN.

Gallardo García Diego, Benemérita Universidad Autónoma de Puebla. Mendoza Gonzalez Manuel Alejandro, Benemérita Universidad Autónoma de Puebla. Pabón Córdoba Jair Andrés, Universidad de Investigación y Desarrollo. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, 113.9 millones de personas tienen acceso al agua, mientras que 26.1 millones (18.6 %) de habitantes no tienen acceso al agua. En 2015, el 94.4 % de la población tenía cobertura de agua entubada en vivienda. Para 2012 se estimó que 685 mil muertes eran atribuibles a agua y saneamiento inadecuados. La mayoría de sistemas de recolección de lluvias no cuentan con medidores de calidad del agua. La medición de distintas variables como la conductividad eléctrica, densidad, pH (grado de acidez o alcalinidad), dureza total, dureza cálcica, contenido de calcio, alcalinidad total, alcalinidad parcial e hidróxida ayudan a determinar si el agua cumple con los parámetros establecidos para el consumo humano.



METODOLOGÍA

Proponer medidores de calidad de agua accesibles para sistemas de recolección de aguas pluviales. Aporte práctico: Implementación de un medidor de calidad del agua en SCALL. 1. Identificar las consecuencias del uso del agua contaminada. 2. Investigar los distintos medidores que existen actualmente. 3. Dar una comparativa sobre los dispositivos modulares comerciales


CONCLUSIONES

La investigación se ha enfocado en identificar opciones que ofrezcan un óptimo desempeño y precisión. Los medidores PC/EC-983, Yosoo, 5in1 (Generic) y Q-DH12, no incluyen tecnología Wifi en sus características. Asimismo, ninguno de estos medidores cuenta con medidores de gravedad específica (GE), lo que implica que no pueden proporcionar mediciones relacionadas con la densidad del agua y por otra parte, el modelo W2839 es una opción económica pero que solo mide el pH. El medidor Yosoo resulta ser una opción costosa y, lamentablemente, no cumple con la mayoría de los parámetros de la tabla. Los modelos YY-W9909 y PH-W218 destacan como las mejores opciones disponibles. Ambos dispositivos ofrecen mediciones precisas de todas las variables. Sin embargo, una ventaja significativa es que el modelo PH-W218 es un 19% más económico que el modelo YY-W9909.   Considerando la relación costo-beneficio, concluimos que el modelo  es la mejor opción por debajo del presupuesto de 2 mil pesos mexicanos. Al ofrecer la misma funcionalidad que el modelo YY-W9909 a un precio más accesible, el PH-W218 satisface nuestras necesidades de monitoreo de calidad del agua de manera eficiente y económica. Su rendimiento confiable y asequible lo convierte en la elección ideal para garantizar un análisis preciso y efectivo del agua en un sistema de captación de agua de lluvia.  
Mendoza Hernández Andrea Joselyn, Instituto Tecnológico de Jiquilpan
Asesor: M.C. Tizoc López López, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DEL COMPORTAMIENTO ENERGéTICO DE BATERíAS LIPO UTILIZANDO INSTRUMENTACIóN VIRTUAL


ANáLISIS DEL COMPORTAMIENTO ENERGéTICO DE BATERíAS LIPO UTILIZANDO INSTRUMENTACIóN VIRTUAL

Mendoza Hernández Andrea Joselyn, Instituto Tecnológico de Jiquilpan. Asesor: M.C. Tizoc López López, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las baterías son dispositivos que hoy en día estan en constante estudio y evolución, todo esto con el objetivo de obtener y desarrollar baterías más estables, asequibles y duraderas. También, aplicarlas a una gran gama de industrias tanto en sus procesos, dispositivos y, pensando más a futuro, en autos eléctricos. Todo esto dado que las baterías de Litio son las más utilizadas en la actualidad y para cualquier dispositivo. Acorde al esquema propuesto, donde se conectan distintos sensores y, con la ayuda de programar el funcionamiento de prueba, con Labview, se plantea observar y analizar el efecto de las baterías de Litio Polímero, en su etapa de carga y descarga con diferentes tiempos de cada uno, para corroborar su comportamiento en distintas y futuras aplicaciones.



METODOLOGÍA

Utilizando LabView, se generó la conexión e interfaz en donde se controla y observa, de manera gráfica, el comportamiento del sistema. Gracias a los sensores LM35, ACS712 y FZ0430, se registraron datos de interés sobre la batería como lo es la temperatura, corriente y voltage de carga y descarga. Para la carga se utilizó el cargador TP4056 que es un chip encasulado en formato SOP-8 que es capaz de gestionar la carga de una batería. Para la descarga se utilizó una resistencia 5W5.6 oms que limita el paso de la corriente de un circuito eléctrico. Para analizar la variación de los datos obtenidos, tanto en carga como en descarga, se realizaron distintas pruebas con diferentes tiempos. Las pruebas se realizaron con 300, 500, 700, 800 y 1200 segundos; mismos que nos permitieron analizar el comportamiento y estado de las baterías con un gran rango de variación.


CONCLUSIONES

Realizando las pruebas mencionadas anteriormente obtuvimos los siguientes resultados: 300 segundos: en carga se registró 4.03066 volts, 0.079180 amp, y la temperatura de la batería fue de 29.2969°, así también la resistencia alcanzó una temperatura de 52.2°C. En descarga se resgistró 3.76211 volts, -0.2903 amp, y una temperatura de 29.7852° en la batería, mientras que la resistencia alcanzó una temperatura de 55.5°C. 500 segundos: en carga se registró 3.95742 volts, 0.026393 amp, y la temperatura de la batería fue de 29.2969°, así también la resistencia alcanzó una temperatura de 51.5°C. En descarga se resgistró 3.68887 volts, -0.31672 amp, y una temperatura de 29.2969° en la batería, mientras que la resistencia alcanzó una temperatura de 72.2°C. 700 segundos: en carga se registró 3.90859 volts, 0.079180 amp, y la temperatura de la batería fue de 28.8086°, así también la resistencia alcanzó una temperatura de 50.0°C. En descarga se resgistró 3.64004 volts, -0.26393 amp, y una temperatura de 29.2969° en la batería, mientras que la resistencia alcanzó una temperatura de 74.8°C. 800 segundos: en carga se registró 3.93301 volts, 0.15836 amp, y la temperatura de la batería fue de 27.3437°, así también la resistencia alcanzó una temperatura de 49.9°C. En descarga se resgistró 3.71328 volts, -0.18475 amp, y una temperatura de 27.832° en la batería, mientras que la resistencia alcanzó una temperatura de 76.4°C. 1200 segundos: en carga se registró 3.81094 volts, 0.026393 amp, y la temperatura de la batería fue de 28.8086°, así también la resistencia alcanzó una temperatura de 28.1°C. En descarga se resgistró 0.368555 volts, -0.15836 amp, y una temperatura de 30.2734° en la batería, mientras que la resistencia alcanzó una temperatura de 81.3°C. Después de analizar los datos obtenidos con cada una de las pruebas se llegó a la siguiente conclusión; la temperatura de la resistencia en el proceso de carga disminuye mientras más alto sea el tiempo de prueba, en cambio, en la descarga se obtienen números más elevados en la temperatura de la resistencia mientras más alto sea el tiempo de prueba, esto es, porque la resistencia se está utilizando para hacer el proceso de descarga. También se puede observar que la temperatura de la batería se mantiene entre los 27°C y 30°C tanto en carga como en descarga, en carga en el apartado de corriente obtenemos datos positivos mientras que en descarga obtenemos datos negativos, estos se mueven entre el 0.1 y el -0.3. En la última prueba realizada que fue la más alta en tiempo con 1200 segundos se logró descargar y cargar la batería casi en su totalidad.
Mendoza Martinez Maria Daniela, Universidad Tecnologica de León
Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

ANáLISIS DE EMPRESAS B


ANáLISIS DE EMPRESAS B

Melgoza Lagunas Eduardo Antonio, Instituto Tecnológico de La Piedad. Mendoza Martinez Maria Daniela, Universidad Tecnologica de León. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente las prácticas empresariales se relacionan directamente con la calidad de vida de su entorno, ya que afectan o benefician directamente ya sea en cuestiones ambientales y sociales. Según Molina y Suárez (2014) el desarrollo industrial puede llegar a ocasionar importantes desequilibrios en cuestiones sociales y ambientales e inclusive pueden generar efectos negativos tanto en los empleados como en la sociedad de un área territorial determinada, por lo que una no adecuada forma de operar afecta directamente tanto a consumidores como a cualquiera que esté relacionado con la fabricación de un producto o la prestación de un servicio (pág. 357). Durante la presente investigación se analizan empresas con la certificación B la cual pretende mejorar el impacto social y ambiental de las empresas que así lo deseen.



METODOLOGÍA

La investigación se realizó haciendo uso de información obtenida en distintos medios, tanto físicos como digitales, por lo que se clasifica de tipo documental, a la vez, se emplearon distintos recursos los cuales se enlistan a continuación: •          Libros •          Sitios web •          Equipo de cómputo •          Cuestionario de recolección de información •          Artículos científicos El primer paso de la investigación comprendió de obtener información acerca del distintivo B en las empresas, lo que formó una base sólida para aplicar el cuestionario de impacto que fue la principal herramienta de recolección de datos, el cual consta de un total 191 preguntas distribuidas en 5 áreas, las cuales son: gobernanza, colaboradores, comunidad, clientes y medio ambiente; dicho cuestionario se aplicó a un total de 2 empresas en distintos puntos geográficos de México. Como tercer paso se analizaron los resultados obtenidos en el cuestionario, para así discutir y concluir en base a las respuestas de las distintas empresas en las que se aplicó.


CONCLUSIONES

En la búsqueda del objetivo principal de examinar el sistema B y las empresas que lo conforman, así como su responsabilidad social y ambiental, y tomando como base los resultados obtenidos se puede afirmar que las empresas B están comprometidas de manera operativa, así como económica con beneficiar al planeta y a todas sus partes interesadas, por lo que buscan responsabilizarse de los resultados de sus procesos de producción generando impactos medibles (sociales y ambientales). Por su parte, las empresas que no cuentan con una certificación B se preocupan dentro de las distintas normativas acerca de cuestiones sociales y ambientales, por lo que el implementar una conciencia más profunda dentro de la organización no va más allá de lo que las leyes y regulaciones expresan, esto repercute como un impacto positivo en un número menor de áreas en relación con las empresas del padrón B, ya que el someterse a evaluaciones en distintas áreas de manera voluntaria lleva a adquirir un compromiso con sus colaboradores, partes interesadas, comunidad y medio ambiente.
Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Mendoza Muñoz Itzel Ameyalli, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

CLASIFICACIóN DE IMáGENES DE RETINOPATíA DIABéTICA SEGúN SU DIAGNóSTICO Y GRADO DE DETERIORO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO (DEEP LEARNING)


CLASIFICACIóN DE IMáGENES DE RETINOPATíA DIABéTICA SEGúN SU DIAGNóSTICO Y GRADO DE DETERIORO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO (DEEP LEARNING)

López Ríos Erick Eduardo, Universidad de Guadalajara. Mendoza Muñoz Itzel Ameyalli, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La Retinopatía Diabética (RD) es una complicación ocular causada por la Diabetes Mellitus, resulta de anormalidades macro y microvasculares, además de un metabolismo de glucosa deficiente, afectando la visión y siendo una de las principales causas de ceguera alrededor del mundo, cuando no se detecta y trata de manera temprana. El tratamiento temprano puede frenar el desarrollo de las lesiones, sin embargo, no puede revertirlas, pero reduce significativamente el riesgo de pérdida de la visión. En México, según un estudio realizado por Prado et al. y publicado en la revista Mexicana de Oftalmología en septiembre del 2009, se mostró que el 71% de los pacientes diagnosticados con diabetes tienen lesiones de retinopatía diabética. Los pacientes con diabetes tipo 1 tuvieron mayor prevalencia. Tomando en cuenta que esta patología tiene una prevalencia considerablemente alta, la detección y el tratamiento precoz son cruciales para mantener una calidad de vida óptima en los pacientes. Para contribuir de forma positiva en esta problemática, en este verano de investigación, se implementó un algoritmo basado en técnicas de Deep learning para la detección y clasificación de imágenes del fondo de la retina, con base en los signos asociados a la RD, para predecir el curso de la enfermedad y del tratamiento.



METODOLOGÍA

Para la implementación y entrenamiento del modelo de Deep learning se utilizó la base de datos creada por Porwal et al. conformada por imágenes del fondo de la retina en pacientes de la India. Esta base de datos está constituida por 516 imágenes a color de tamaño de 4288 x 2848 píxeles. En estas imágenes se puede notar la presencia de microaneurismas, hemorragias, exudados y discos ópticos, los cuales denotan el grado de retinopatía del 0 al 4, según su gravedad, siendo 0 imágenes de retinas normales sin signos de retinopatía. Este conjunto de datos formó parte del "Diabetic Retinopathy: Segmentation and Grading Challenge (http://biomedicalimaging.org/2018/challenges/)" organizado juntamente con el IEEE International Symposium on Biomedical Imaging (ISBI-2018). Al revisar la base de datos, se encontró que el conjunto de datos estaba desbalanceado, esto ocasiona problemas al usar la base para datos de entrenamiento. Las clases 2 y 5 tenían muy pocos datos de muestra. Para solucionar este inconveniente, se generaron nuevas imágenes a partir de estas clases, se hicieron cambios en la intensidad de brillo, en el contraste y saturación de la imagen y zooms y rotaciones aleatorias dentro de la imagen, sin deformar o alterar su proporción de aspecto. Estas transformaciones se realizaron con apoyo del lenguaje de programación Python y la librería Python Imaging Library o Pillow. Para resolver la tarea de clasificación de las imágenes según el grado de avance de la enfermedad, se utilizó el modelo de red neuronal propuesto por Kaiming He et al. en 2015, siendo una arquitectura de red residual de 18 capas, descripción por la cual recibe su nombre ResNet-18. Esta red proporciona solución a varias tareas complejas que involucran la visión por computadora y la clasificación de imágenes. Entre sus características se encuentran las siguientes; 1.    Uso de bloques residuales: Característica que la distingue de otras redes, ya que se trata de una red que aprende también de los residuos o restos y no solo de la función principal de mapeo. 2.    Capas convolucionales: Al igual que otras arquitecturas de red basadas en redes neuronales convolucionales, esta incluye capas convolucionales, son 18 en total. 3.    Estructura: Las capas de esta red se agrupan en cuatro bloques principales con activaciones ReLU. Para implementar este modelo se utilizó el software de computador Deep Learning Tool, desarrollado por la empresa MVTec, el cual pone a disposición varios modelos de redes neuronales pre entrenadas. En la fase de entrenamiento, se usó el 90% de las imágenes de nuestra base de datos para entrenamiento y el 10% restante fue para la evaluación en cada iteración. Se configuró el entrenamiento, durante 80 épocas, con un ritmo de aprendizaje de 0.0001 y un optimizador Adam con un momento de 0.9. Para evaluar la precisión de las clasificaciones se utilizaron las métricas Error de Top-1 y la puntuación F1. 


CONCLUSIONES

Aunque la base de datos utilizada presentó un significativo desbalance en la cantidad de imágenes en sus diferentes categorías, esto se solventó con la generación de imágenes artificiales a partir de las originales, aumentando la cantidad de datos en las clases 2, 4 y 5. Con las clases balanceadas, se logró alcanzar una precisión de 81.93% y una sensibilidad del 82.98% tras 80 épocas de entrenamiento. El mejor resultado se registró en la época 62, con un error de Top-1 del 18%, puntuación F1 de 82.01% y función de pérdida de 0.06. Los resultados de la matriz de confusión muestran las predicciones realizadas por el modelo de clasificación distribuida por clases. En la diagonal principal, se encuentran los valores verdaderos positivos y verdaderos negativos de cada nivel. Por otro lado, los valores fuera de la diagonal representan los errores de clasificación; falsos positivos (FP) y falsos negativos (FN). Los FP y FN totales fueron 15 sobre 83 imágenes evaluadas.  Como conclusión, el verano de investigación fue una experiencia enriquecedora, donde se adquirieron sólidos conocimientos sobre fundamentos de aprendizaje automatizado, aprendizaje profundo y procesamiento de datos. Durante el desarrollo del proyecto, se utilizó una combinación de herramientas comerciales y desarrollo propio, destacando la aplicación del software Deep Learning Tool de MVTec.  Asimismo, el proceso permitió poner en práctica las habilidades adquiridas en la modificación de parámetros para obtener un mejor rendimiento en el entrenamiento de la red neuronal. La comprensión de cómo ajustar adecuadamente los parámetros y estrategias para enfrentar el desbalance de datos resultó fundamental para obtener resultados prometedores.
Mendoza Reyes Jalil Samas, Universidad de Guadalajara
Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara

NANOMEDICINA


NANOMEDICINA

Mendoza Reyes Jalil Samas, Universidad de Guadalajara. Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Uno de los campos más prometedores de la nanomedicina es el uso de nanopartículas y nanomateriales con propiedades antibacterianas. Las bacterias resistentes a los antibióticos son una preocupación importante en la medicina actual, y las técnicas tradicionales de tratamiento pueden ser cada vez menos efectivas debido al desarrollo de resistencia bacteriana. Las nanopartículas antibacterianas se han convertido en una alternativa innovadora y eficaz para combatir infecciones bacterianas. Estas nanopartículas pueden ser diseñadas con propiedades específicas para atacar y eliminar bacterias de manera selectiva.  



METODOLOGÍA

Para la metodología use una síntesis sol-gel, utilizando un nitrato de magnesio como base y otro nitrato ferroso como dopante. La síntesis consiste en los siguientes pasos: Hidrólisis y condensación de los precursores: En esta etapa, los precursores químicos se disuelven en un solvente y se someten a reacciones de hidrólisis y condensación. Esto implica la ruptura de los enlaces químicos de los precursores y la formación de nuevos enlaces para generar partículas sólidas en la solución. Esta fase es crucial para controlar la composición química y la estructura del material final. Formación del sol: Durante esta fase, las partículas sólidas formadas en la fase anterior se dispersan en el solvente para formar una solución coloidal llamada sol. El tamaño y la estabilidad del sol son controlados mediante factores como la concentración de los precursores, el pH, la temperatura y la presencia de agentes estabilizadores. La formación del sol es esencial para lograr una distribución uniforme de las partículas en la matriz. Gelificación: En esta etapa, el sol se transforma en un gel tridimensional mediante la polimerización y reticulación de las partículas sólidas en presencia del solvente. La gelificación puede ser inducida por cambios en las condiciones de pH, temperatura o mediante el uso de agentes gelificantes. La formación del gel es importante para lograr una estructura sólida y estable que retenga el solvente. Secado y tratamiento térmico: Después de la gelificación, el gel se somete a un proceso de secado para eliminar el solvente atrapado en la estructura. El secado puede realizarse a temperatura ambiente o mediante técnicas como el secado al vacío o el secado por congelación. Posteriormente, el gel se somete a un tratamiento térmico, que implica el calentamiento a altas temperaturas para eliminar cualquier residuo orgánico y promover la formación de enlaces químicos más fuertes en la estructura. Siguiente fase Una vez terminada la síntesis, pese las muestras y las coloque en frascos. Puse la mitad de cada muestra y las moli por completo. Posteriormente las coloque en crisoles para proceder a la impregnación, donde puse 2 ml de extracto. Donde estuvieron durante dos horas. Posteriormente procedí a dejarlas 2 días en el horno. Saqué las muestras del horno, las quité de los crisoles y  procedí a guardarlas en frascos nuevamente. A cada una le puse lo que era, el lote y su porción. Finalmente coloque en unos pequeños envases una pequeña muestra de polímero y  los disolví con 400 microlitros de acetona.  Prepare una solución PVA a 4%. Donde coloque 100 ml de con 4 gramos de PVA.  Lo agite en la plancha con el agitador magnético hasta que la mezcla se volvió homogénea.  Con mis muestras una vez lista, el polímero disuelto y la solución de PVA lista, procedí al siguiente paso. Tome 5 miligramos de mis muestras y agregue la solución PVA con 5 ml. Posteriormente agregue el polímero por goteo para con el producto final colocarlo en el ultra turrax durante 10 min por muestra. Después lo coloque en un nuevo recipiente y lo coloque en el congelador.  Solo que hubo un problema, había que agregar extracto, 2 ml.  5 de mis 8 muestras se congelaron, pero las saqué para descongelarlas. Y agregar una doble capa para agregar el extracto, mis otras 3 muestras estarán normales. Una vez repetido el proceso, procedí nuevamente a meterlas al congelador. Con eso concluyó la funcionalización y procedo con la liofilización. Fuimos al cutonala para liofilizar y se quedaron durante unos días allá. Las muestras llegaron y pese 5 microgramos de cada muestra y las coloque en vasos de precipitado. Prepare 4 membranas para 8 muestras. las puse a hervir y después se dividieron en 2.  Conseguí un tubo de ensayo y coloque las muestras, en los vasos de precipitado las llené de 40 ml de buffer. A los tubos de ensayo les coloque el parafilm sobre la membrana para sellarlo, aunque antes coloque 5 ml de buffer. Al final coloque en el vaso de precipitado una mosca y lo coloque en la plancha. Espere durante una hora para que liberen, tomando 2 ml de cada muestra y volviendo a añadir 2 ml de buffer. Así durante 12 horas y leyendo en UV.  A pesar que había irregularidades en las lecturas se apreciaba que si estaba liberando, así estuvo durante 3 días, donde se pudo observar que el proceso de liberación funcionaba.  


CONCLUSIONES

Los resultados muestran un enfoque interesante y prometedor en el uso de nanopartículas con propiedades antibacterianas para combatir infecciones resistentes a los antibióticos. Sin embargo, es importante tener en cuenta que la investigación puede requerir más análisis y pruebas para validar la eficacia y seguridad de este enfoque en el tratamiento real de enfermedades bacterianas. Aún falta un largo camino, pero lo que se hace hoy en día puede servir como punto de partida para futuros estudios y avances en el desarrollo de terapias antibacterianas más efectivas y seguras.  
Mendoza Salazar Dulce Maria, Universidad Autónoma de Zacatecas
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

ROBOTS VERY SMALL SIZE SOCCER


ROBOTS VERY SMALL SIZE SOCCER

Mendoza Salazar Dulce Maria, Universidad Autónoma de Zacatecas. Rodarte Lopez Miguel Angel, Universidad Autónoma de Zacatecas. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de robots autonomous para el fútbol de tamaño muy pequeño (VSSS) para la competición, centrándose en la visión artificial, la planificación de movimiento y diseño electrónico. El sistema se implementó sobre un terreno computadora usando ROS (Robot Operating System), mientras que el estado de los jugadores y el balón se obtiene mediante una cámara aérea adecuada a 2 metros de altura de nuestra cancha.  



METODOLOGÍA

Los robots son coches pequeños tipo DDR (Differential Drive Robots), y fueron diseñados para interactuar entre sí y con la pelota, utilizando un algoritmo de visión basado en el espacio de color HSL para detección de objetos Se empleó un filtro de Kalman para obtener Se propuso el seguimiento de objetos y una planificación de rutas para perseguir la pelota mientras evitas los obstáculos. El diseño modular de los robots, impulsado por Raspberry Pi Pico Microcontroladores W, facilitaron el montaje y mantenimiento. La comunicación se estableció a través de Wi-FI, y una costumbre Se creó el PCB. La estrategia propuesta permitió a los robots navegar por el campo de juego como se esperaba. Experimentos en tiempo real había demostrado el correcto funcionamiento del sistema


CONCLUSIONES

Estamos comprometidos a explorar nuevas estrategias, tecnologías, y mejoras de diseño para permanecer a la vanguardia de Very competición de Fútbol de Tallas Pequeñas y seguir consiguiendo éxito en el campo de la robótica deportiva. Actualmente, se siguen realizando validaciones y mejoras. realizado tanto en el código como en el diseño del robot. Hay un plan para mejorar la estrategia del juego o incluso reemplazar la estrategia codificada con una estrategia basada en Q-learning. Encapotando el centro de gravedad de los robots, implementando la visión detección en GPU, y considerando la frecuencia de radio en su lugar de wifi
Mendoza Solana Jorge Mahonri, Universidad Veracruzana
Asesor: Dra. Fátima de Jesús Oliva Palomo, Centro de Investigación en Matemáticas (CONACYT)

LEY DE CONTROL PARA MODELO DE LEVANTAMIENTO DE CARGA CON MúLTIPLES DRONES AéREOS.


LEY DE CONTROL PARA MODELO DE LEVANTAMIENTO DE CARGA CON MúLTIPLES DRONES AéREOS.

Mendoza Solana Jorge Mahonri, Universidad Veracruzana. Asesor: Dra. Fátima de Jesús Oliva Palomo, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se busca encontrar el diseño de un sistema de levantamiento de carga por suspensión mediante la fuerza de empuje generada por drones conectados. Con el sistema se busca modelar una ley de control que permita ajustar las posiciones de los drones en el tiempo, tal que permitan transportar la carga en una trayectoria deseada. Otro de los propósitos es que el modelo sea flexible para adaptar el número de variables y ecuaciones a una cantidad cualquiera de drones en el sistema.



METODOLOGÍA

Durante la estancia comprendida se realizaron diferentes diseños del modelo deseado para poder implementarse de manera práctica. Lo primero que se realizó es investigar el estado del arte del caso de estudio, es decir, buscar que tecnicas, metodologias, análisis y resultados anteriores se han obtenido de otras fuentes. Para simular las interacciones dinámicas del sistema se deben formular ecuaciones en funcion de interacciones físicas como leyes de Newton, efectos aerodinámicos, equilibrio de fuerzas, entre otros fenómenos. El conjunto de esto nos entrega una simulación numerica de valores en el tiempo de las variables de interés de nuestro sistema. Los modelos y simulaciones numéricos se realizaron en el software Simulink de Matlab y se utiliza un metodo de control PID (Proporcional, Integral, Derivativo) para medir el margen de error del valor de una variable deseada respecto a su valor actual, el controlador permite ajustar el margen de error tal que a medida que avanza el tiempo, el error entre el valor real y deseado sea mínimo.  Primero se construyó el modelo matemático del funcionamiento de un dron aplicando diferentes etapas de control: Primero con un control de orientación y altura (semejante a un control remoto manual) y despues un control de posición y trayectoria (semejante a un control de vuelo autónomo). Al modelo de vuelo se realizó una adaptación para usar cuaterniones como referencia de rotación en lugar de matrices de rotación, esto simplifica el coste computacional y reduce el número de ambigüedades. Posteriormente se plantearon las ecuaciones dinámicas del sistema de levantamiento de carga considerando perturbaciones en el vuelo de los drones como las tensiones generadas por los cables y el peso de la carga, ademas de buscar una sintonización robusta y estable de las posiciones de los drones. De igual forma se diseñaron dos etapas de control: A lazo abierto (Los drones tienen movimientos independientes y mueven la carga) y a lazo cerrado (los drones ajustan su posición para mover la carga en una trayectoria deseada).


CONCLUSIONES

Se obtuvieron simulaciones numéricas monitoreando variables de interés como posición, velocidad, fuerza de empuje, tensiones, entre otras. Se monitoreó su comportamiento y que los controladores diseñados cumplieran su función, ademas de verificar que ciertas variables tengan un comportamiento esperado. De diseño tambien un generador de formación de drones para posicionar automáticamente a los drones según la distancia de sus cables y el número de drones en el sistema. Las ecuaciones del modelo se formularon de tal forma que se pueda adaptar el número de ecuaciones y soluciones según el numero de drones que se deseen. Los resultados finales que se esperan es aplicar el modelo matemático de carga diseñado y sintonizado en un entorno de simulación gráfico. Este entorno permite una visualización mas realista del comportamiento del sistema, ademas de que este entorno permite que pueda ser programado en drones reales para una prueba del sistema en condiciones reales.
Mendoza Valdivia Marcela, Universidad de Guadalajara
Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.


GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.

Mendoza Valdivia Marcela, Universidad de Guadalajara. Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

Un elemento esencial para el diagnóstico de fallas y la interpretación de resultados es contar con un conocimiento previo de la máquina en estudio, incluyendo información sobre sus datos técnicos, características de operación, historial de mantenimiento y espectros de referencia. En la región del atlántico se busca aplicar técnicas no destructivas en las máquinas mediante sensores de vibración y temperatura para poder anticipar las necesidades de reparación que puedan presentar, esto con el fin de evitar los fallos inesperados que puedan resultar en situaciones peligrosas, además de evitar el paro de la línea de producción que ocasionan perdidas para la empresa.  



METODOLOGÍA

Para este trabajo se propone hacer evaluaciones de la maquina mediante vibración y temperatura, con ellas podemos evaluar el estado de cada componente de los equipos y así poder programar de forma anticipada las actividades de mantenimiento, con el fin de no afectar el funcionamiento habitual de la planta de producción de la empresa. Los materiales a utilizar para el desarrollarlo son los sensores PCE-PVS 10 (Sensor de vibración) y el sensor es1c a40 omron (Sensor de temperatura) con los que se realiza un análisis del motor, con los datos obtenidos se entrenara una red neuronal, creando una base de datos donde se identifique cuando el motor este en buenas condiciones o si esta por presentar algún fallo en uno de sus componentes, esta información se reportará en una interfaz creada para que el usuario pueda revisar los tipos de motores con los que se trabajan, el fallo que está presentando, o que este por presentar, y el mantenimiento que pueda necesitar el equipo para prevenir el fallo y que este cause un paro de producción. Para el entrenamiento de la red haremos uso de una raspberry Pi 4 Modelo B, el entrenamiento consistirá en leer los datos cuando el motor esta en buenas condiciones y cuando puede tener diferentes fallos, los cuales serán producidos por nosotros, para visualizarlos hacemos uso de una pantalla táctil de 5 pulgadas 800x480 HD TFT LCD, además de que podremos manipular los datos, ya sea ingresando información nueva o eliminando la que ya no es necesaria con un Mini teclado inalámbrico con PadMouse.


CONCLUSIONES

Al implementar estrategias de prevención mediante sensores de temperatura y vibración, podemos garantizar una mayor fiabilidad en el desempeño de los motores, lo que, a su vez, se traduce en un aumento significativo en la eficiencia operativa. Esto nos permite minimizar el tiempo de inactividad y evitar interrupciones innecesarias en la producción. Cabe destacar que el tiempo detenido por una falla en el motor puede tener consecuencias económicas considerables, como pérdida de ingresos y costosos retrasos en la cadena de producción.
Meneses Meneses Analy, Instituto Tecnológico de Pachuca
Asesor: Dr. Eddisson Hernández Hernández, Universidad Nacional de Ingeniería

BLOQUES ESTRUCTURALES DE CONCRETO CELULAR


BLOQUES ESTRUCTURALES DE CONCRETO CELULAR

Martínez Canales Hugo Uriel, Instituto Tecnológico de Pachuca. Meneses Meneses Analy, Instituto Tecnológico de Pachuca. Asesor: Dr. Eddisson Hernández Hernández, Universidad Nacional de Ingeniería



PLANTEAMIENTO DEL PROBLEMA

En Nicaragua, como varios otros países, en los últimos años se ha registrado un aumento en el costo de materiales de construcción, tales como cemento, arena, acero, entre otros (INID, 2022) situación que ha traído consigo el surgimiento de sistemas constructivos alternativos más asequibles. De igual manera, las temperaturas tan variables y extremas que se experimentan hoy en día, producto del cambio climático (Grupo Intergubernamental de Expertos sobre el Cambio Climático, 2019), demandan que se diseñen y construyan espacios altamente aislantes que puedan retener el calor en épocas de frío y brinden frescura en los días de calor; materiales que puedan ser empleados en cualquier región del planeta, ya sea fría o cálida, donde se requiera de esta propiedad para lograr un confort higrotérmico para sus usuarios (CORFO, 2016).   En este contexto, surgió el concreto celular hace más de 70 años, que es un concreto aligerado mediante la incorporación de aire o gases que generan una serie de vacíos en su estructura interna para así reducir su densidad. Al ser un material poroso, tiene una menor resistencia a la compresión que el concreto convencional, pero una mayor capacidad aislante tanto térmica como acústica (Nensok et al., 2021); debido a que las burbujas de aire contenidas en su interior absorben las ondas sonoras y retardan la transferencia térmica entre dos medios con un gradiente de temperatura entre ellos (CORFO, 2016). La inclusión de dichas burbujas se hace al agregar un agente aerante a la mezcla de concreto mediante procesos mecánicos o químicos.   Debido a sus características físicas, en algunos estudios se ha propuesto como material para la elaboración de bloques (Ramírez Crescencio et al., 2020), los cuales, si bien facilitan la construcción por su bajo peso, no cumplen con las normativas que demandan los bloques estructurales, limitando su uso a la elaboración de elementos decorativos o cerramiento de espacios.   El objetivo de este trabajo es desarrollar una mezcla de concreto celular con agregados ligeros (piedra pómez) o fibras (polietileno) para obtener un concreto celular de baja densidad, evaluando sus propiedades físico-mecánicas, mismas que, fueron comparadas con lo establecido en la norma NTON 12 008-09 para bloques estructurales tipo II (NTON, 2011), con el propósito de determinar su uso en la elaboración de bloques de concreto celular.



METODOLOGÍA

Primeramente, se revisaron diversos artículos científicos y trabajos de grado para conocer los conceptos básicos acerca del concreto celular y el diseño de mezclas de concreto   Se formularon 6 mezclas de concreto celular, algunas de las cuales incluyeron agregados ligeros o fibras.  Se emplearon los siguientes materiales: cemento hidráulico Portland gris de uso general (GU) marca CEMEX, cal hidratada, arena de río de granulometría fina, arena de la Mina Mostatepe, piedra pómez de 3/8, agua de la toma municipal, espuma generada a partir de Texapon N70, aditivo SikaFluid líquido fluidificante/plastificante tipo F, fibra de polietileno de mecate plástico cortado en secciones máximas de 4mm de longitud. La caracterización de los agregados se realizó de acuerdo con las normas ASTM C29, ASTM C33, ASTM C70, ASTM C127, ASTM C128 y ASTM C566 (ASTM, 2003).   Las primeras 3 mezclas fueron mezclas preliminares con las cuales se realizaron ensayos de Velocidad de Pulso Ultrasónico (VPU) y resistencia a la compresión a los 28 días. Estas pruebas se realizaron por medio de un aparato de pulso ultrasónico marca Controls modelo 58-E4800 con transductores de 54KHz, gel y una prensa hidráulica marca ELE International modelo Accu-Tek 250 con capacidad de 10,000PSI en el laboratorio de materiales del RUPAP de la Universidad Nacional de Ingeniería. Estos procedimientos se realizaron según lo indicado en las normas ASTM C597 y ASTM C39 (ASTM, 2003). A partir de los resultados obtenidos se procedió a reformular las mezclas dando lugar a las 3 mezclas mejoradas, las cuales se sometieron al mismo procedimiento de resistencia a la compresión y se determinó la densidad aparente, porcentaje de vacíos y porcentaje de absorción siguiendo la norma ASTM C642-97 (ASTM, 1997). Adicionalmente, se realizaron ensayos de espectroscopía por IR de acuerdo a la norma ASTM E1252-98 (ASTM, 2013), para identificar los  productos de hidratación del cemento.   Finalmente se evaluaron y compararon los resultados en función de valores clave como son porosidad, densidad y resistencia mecánica.


CONCLUSIONES

Se determinaron las propiedades físico-mecánicas de un bloque de concreto celular fabricado a partir de 2 de los diseños de mezclas mejoradas (M4 y M6), que cumplen con la resistencia mínima requerida establecida por la norma NTON 12 008-09 (NTON, 2011) para ser considerado como un bloque estructural tipo II. Por su parte, la mezcla M5 por su baja densidad y alto grado de absorción, a pesar de no cumplir con la resistencia mecánica estructural, puede ser empleada para la fabricación de paneles aislantes de concreto celular. Asimismo, se considera que las propiedades aislantes de todas las mezclas trabajadas, tanto acústica como térmicamente, son mayores que el concreto convencional, esto debido a su grado de porosidad. Se concluye que la aplicación de cualquiera de los bloques/paneles antes mencionados es recomendable en zonas secas debido a que por su alto porcentaje de absorción, podría disminuir la vida de los mismos en zonas húmedas. Por su parte la mezcla M6 es una buena opción técnica, para su uso en construcciones en zonas donde los choques térmicos son comunes. Su mayor resistencia mecánica está relacionada con la incorporación de fibra y mayor contenido de material cementante.
Mercado Cano Erika, Instituto Tecnológico de Pachuca
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

¿CóMO MEJORAR LA GESTIóN DEL CONOCIMIENTO MEDIANTE LA UTILIZACIóN DE HERRAMIENTAS DE LA INDUSTRIA 5.0?


¿CóMO MEJORAR LA GESTIóN DEL CONOCIMIENTO MEDIANTE LA UTILIZACIóN DE HERRAMIENTAS DE LA INDUSTRIA 5.0?

Huitrón Hernández Joselin, Instituto Tecnológico de Pachuca. Mercado Cano Erika, Instituto Tecnológico de Pachuca. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Según Estrada hace ya una década que existe un movimiento global para crear configuraciones de producción inteligente y automatizada, y hacen que las cosas se comuniquen de una forma digital, este movimiento comúnmente es conocido como la cuarta revolución industrial llamada industria 4.0. Actualmente ha surgido una nueva revolución tecnológica llamada industria 5.0, pretende potenciar un cambio del sector industrial en espacios inteligentes. Con la aparición de la nueva revolución industrial los entornos virtuales toman un gran auge debido a que en ellos se pueden representar de manera digital un proceso como si fuera algo real, este concepto va acompañado de tecnologías como los gemelos digitales, internet de las cosas e inteligencia artificial, el sector industrial se ha visto en la necesidad de adentrarse en las herramientas digitales para la solución de problemas más eficiente, rápida y concisa, el desarrollo de la tecnología es de suma importancia para la industria moderna, es por ello que buscan profesionistas que cumplan con una educación de calidad, debido a esto orillan a las instituciones a implementar estrategias y acciones en la enseñanza para cumplir las competencias de las empresas.  El objetivo de la investigación fue determinar cómo la aplicación de herramientas de la industria 5.0 mejora la enseñanza-aprendizaje de estudiantes de ingeniería, así mismo se examinó de qué modo les sería de utilidad para garantizar una educación inclusiva, equitativa y de calidad, y finalmente ser profesionistas mayormente preparados.



METODOLOGÍA

Según Estrada hace ya una década que existe un movimiento global para crear configuraciones de producción inteligente y automatizada, y hacen que las cosas se comuniquen de una forma digital, este movimiento comúnmente es conocido como la cuarta revolución industrial llamada industria 4.0. Actualmente ha surgido una nueva revolución tecnológica llamada industria 5.0, pretende potenciar un cambio del sector industrial en espacios inteligentes. Con la aparición de la nueva revolución industrial los entornos virtuales toman un gran auge debido a que en ellos se pueden representar de manera digital un proceso como si fuera algo real, este concepto va acompañado de tecnologías como los gemelos digitales, internet de las cosas e inteligencia artificial, el sector industrial se ha visto en la necesidad de adentrarse en las herramientas digitales para la solución de problemas más eficiente, rápida y concisa, el desarrollo de la tecnología es de suma importancia para la industria moderna, es por ello que buscan profesionistas que cumplan con una educación de calidad, debido a esto orillan a las instituciones a implementar estrategias y acciones en la enseñanza para cumplir las competencias de las empresas.  El objetivo de la investigación fue determinar cómo la aplicación de herramientas de la industria 5.0 mejora la enseñanza-aprendizaje de estudiantes de ingeniería, así mismo se examinó de qué modo les sería de utilidad para garantizar una educación inclusiva, equitativa y de calidad, y finalmente ser profesionistas mayormente preparados.


CONCLUSIONES

Durante la realización de esta investigación se logró concluir que el uso de gemelos digitales, internet de las cosas e inteligencia artificial en la educación permite mostrar a los estudiantes de nivel superior familiarizarse con la estructura de diversos sistemas y analizar cómo trabajan. Tras realizar la encuesta, analizamos que algunos de ellos no conocen del todo estas herramientas. Se tiene una aplicación distinta en numerosos campos, como la medicina, la educación, la industria, el transporte y muchos más. Su capacidad para automatizar tareas, analizar grandes conjuntos de datos y tomar decisiones precisas ofrece oportunidades emocionantes para mejorar la eficiencia y calidad de muchos procesos.  En los laboratorios universitarios, se pueden emplear estos recursos para estudiar el comportamiento de los sistemas en numerosas condiciones simuladas. Esto nos permite comprender las limitaciones y vulnerabilidades de los procesos, dado que estas herramientas pueden ser fácilmente manipuladas por los estudiantes, el aprendizaje tiende a ser más profundo y exacto que el logrado sólo con modelos teóricos.
Meza Moscote Jorge José, Fundación Universitaria Tecnológico Comfenalco
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

CONSUMO DE ENERGíA A NIVEL MUNDIAL CON HERRAMIENTAS DE ANáLISIS DE DATOS


CONSUMO DE ENERGíA A NIVEL MUNDIAL CON HERRAMIENTAS DE ANáLISIS DE DATOS

Meza Moscote Jorge José, Fundación Universitaria Tecnológico Comfenalco. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Como sabemos la energia es un recurso indispensable para la vida humana pero en la actualidad la sociedad tiene una alta dependencia en las fuentes de energia electrica. Esta es usada en la industria automotriz, manufacturera, en las condiciones climaticas, etc. Debido a esta dependecia y la ignorancia del ser humano se le ha estado dando un mal uso a la energia ocasionando un desgaste de la energia que esta obligando a los paises a utilizar energias renovables para cerrar esa brecha que se abrio debido al consumo excesivo de sus energias principales.



METODOLOGÍA

En primer lugar se escogió el tema que representaría mi investigación para posteriormente buscar un dataset que me proporcionara información relevante, luego de una exhaustiva revision del dataset limpiamos los datos para asi comenzar a escribir el codigo. En este usamos el lenguaje Python y herramientas como matplotlib y seaborn para desplegar las graficas de nuestro programa y hacerlo mas legible, ademas usamos tecnicas de regresion lineal y cuadratica para pronosticar en qué año el pais seleccionado consumirá o producirá energia.


CONCLUSIONES

Gracias al uso de las tecnicas de regresion lineal y regresion concluimos que la que mejor pronostica por los resultados obtenidos es la cuadratica. Tambien concluimos que Japon es el pais que mas produce y exporta energia nuclear en comparacion con Estados Unidos que es el que mas produce y exporta petroleo de todos los paises del G7. 
Milán Tagle Diana Alejandra, Universidad Autónoma de Baja California
Asesor: Dr. Carlos Duarte Galván, Universidad Autónoma de Sinaloa

DISEñO DE INSTRUMENTACIóN ELECTRóNICA PARA CARACTERIZACIóN DE DETECTORES DE PARTíCULAS Y FOTOMULTIPLICADORES DE ESTADO SóLIDO


DISEñO DE INSTRUMENTACIóN ELECTRóNICA PARA CARACTERIZACIóN DE DETECTORES DE PARTíCULAS Y FOTOMULTIPLICADORES DE ESTADO SóLIDO

Garcia Astorga Noel Armin, Instituto Tecnológico de Toluca. Milán Tagle Diana Alejandra, Universidad Autónoma de Baja California. Asesor: Dr. Carlos Duarte Galván, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el LHC - también conocido como el Gran Colisionador de Hadrones- se buscan las respuestas a las preguntas fundamentales de la física. Uno de los experimentos que se han desarrollado para encontrar estas respuestas es el experimento ALICE (A Large Ion Collider Experiment), cuyo propósito es detectar iones pesados y estudiar la física de su interacción ante la exposición a densidades de energía extremas, alcanzando la formación de la fase de la materia nombrada como plasma quark-gluon. De esta forma se generan en un laboratorio las condiciones que se consideran similares a aquellas en las cuales se dió el Big Bang. Evidentemente, el proceso de recolección, análisis, muestreo, caracterización -y todo lo que una investigación conlleva- requiere del uso de instrumentación sofisticada que debe ser desarrollada a la par del surgimiento de los requerimientos del experimento.    El objetivo principal de la estancia fue el diseñar un setup experimental con instrumentación electrónica y detectores de radiación, esto con el propósito de replicar el muestreo realizado en el CERN, haciendo uso de parte de la infraestructura, la electrónica y el software que se han estado trabajando para funcionar cómo propuesta y que fueron testeados en el ALICE. La intención de la réplica es mejorar el rendimiento tanto de las herramientas de hardware y software cómo de los procesos que se llevan a cabo, esto a través del análisis de los resultados obtenidos. 



METODOLOGÍA

Como paso fundamental para cualquier trabajo en el que se vaya a hacer uso de herramientas con características y funciones particulares, fue necesario recurrir a la documentación existente acerca de las mismas, siendo altamente necesario el consultar las datasheets para evitar errores que podrían causar el daño parcial, total o permanente de alguno de los componentes. Hubo, entonces, que corroborar las unidades requeridas para su energización, su comunicación y de sus resultados, cuidando en todo momento la compatibilidad de las señales para poder ejecutar el resto de los procesos.   Ya que se conocen los conceptos y funcionamientos generales se comenzó con el montaje del set up. Para esto se utilizó un crate modular WIENER VME 6023, que es un bus de instrumentación nuclear que cuenta con las características de una alta velocidad y rendimiento, además de la capacidad de un procesamiento múltiple en el que se requiere del movimiento de datos a muy alta velocidad. Estos buses se utilizan generalmente en detectores que permiten el crear, diseñar y probar circuitos de forma rápida. El modelo 6023 permite el uso de hasta 21 tarjetas y proveé de una energización estándar de +5V and +/-12Vs a dichos módulos. Los datos adquiridos serán almacenados en un archivo de texto en formato ASCII y se procesarán utilizando el lenguaje de programación Python para así poder analizar el comportamiento del detector bajo estudio.   Una vez instalado el VME se le colocaron las tarjetas que se requieren para el procesamiento, movimiento y tratamiento de los datos obtenidos de los detectores de radiación, estos incluyen el arreglo de triggers -tubos fotomultiplicadores modelo R5946 de Hamamatsu- acoplados a la barra centelladora, y el detector de un metro de largo que se busca caracterizar. Este detector tiene embebida una fibra Kuraray Y-11 (200) para colectar la luz y enviarla a un fotomultiplicador de estado sólido SiPM Hamamatsu MPPC_S13360_3050PE, el cual realiza la detección de fotones mediante múltiples fotodiodos de avalancha, y posee una alta precisión en sus lecturas. Se hace uso de los tubos fotomultiplicadores (PMTs) como triggers para el muestreo de los datos, siendo estos colocados en el set up de forma paralela a los costados de la barra centelladora. En esta configuración, el fotomultiplicador sólo registra las instancias en las que un fotón atraviesa ambos PMTs y la barra centelladora.   Como se mencionó anteriormente, la configuración del set up podría dividirse en dos partes, siendo la primera el uso de los triggers como iniciadores del almacenamiento de datos. Para ello se utilizaron los PMTs, los cuales son detectores ultrasensibles a las ondas ultravioletas, a la luz visible y a ondas del espectro electromagnético cercanas al infrarrojo, para su adecuado uso fueron energizadas con un voltaje máximo de -2500V. Una vez se activa un PMT con la incidencia de la radiación cósmica, las señales recibidas en forma de voltaje viajarán hasta el módulo V925 (Fan In/Fan Out)  que es un discriminador que cuenta con un modo inversor y no inversor y un canal de discriminador, además de cuatro secciones de entrada/salida, tres de cuatro canales y uno de tres; su ancho de banda es de 120 MHz y tiene un voltaje máximo de entrada de ±1.6V.   Para esta parte será necesario utilizar dos PMTs a modo triggers, las señales recibidas serán multiplicadas por una ganancia de uno y se transportarán al módulo discriminador V814 de 16 entradas que arrojará señales de tipo ECL con duraciones de 20 ns para PMTs y 150 ns para SiPMs y amplitudes de decenas de milivoltios.   Para poder observar las señales captadas por los fotodetectores se utilizó un osciloscopio Teledyne Lecoy modelo HDO4104-LMS, el cual es capaz de manejar resoluciones de amplitud desde 2 ns por división, con una frecuencia de muestreo de 2.5 GHz.


CONCLUSIONES

En el transcurso de la estancia de verano se adquirieron diversos conocimientos teóricos del desarrollo de instrumentación electrónica para detectores de partículas. Para determinar la precisión y capacidad del setup experimental diseñado se realizaron múltiples mediciones a diferentes voltajes y con diferentes fuentes de alimentación. En múltiples de estas mediciones, realizadas con dos fuentes de alimentación distintas, se detectó una fuente de ruido desconocida en los pulsos del fotomultiplicador, lo cual habría distorsionado los datos adquiridos.
Millanes Coronado Ramón Irene, Universidad de Sonora
Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana

ANáLISIS DE REGISTROS SíSMICOS EN LA CIUDAD DE GUADALAJARA CON éNFASIS EN EL EFECTO DE EDIFICIOS


ANáLISIS DE REGISTROS SíSMICOS EN LA CIUDAD DE GUADALAJARA CON éNFASIS EN EL EFECTO DE EDIFICIOS

Millanes Coronado Ramón Irene, Universidad de Sonora. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La ingeniería sísmica desempeña un papel fundamental en la protección de la vida humana, la infraestructura y la economía en regiones propensas a terremotos. Los desastres naturales, especialmente los terremotos, han demostrado repetidamente su capacidad para causar devastación masiva y pérdidas irreparables en todo el mundo. La comprensión de la interacción entre la actividad sísmica y las estructuras humanas es crucial para desarrollar medidas de mitigación efectivas y diseñar edificios y sistemas resistentes a los efectos destructivos de los temblores. Guadalajara, ubicada en el estado de Jalisco, México, es una ciudad con una significativa actividad sísmica debido a su posición en una región tectónicamente activa. La zona se encuentra en la interacción de varias placas tectónicas, lo que la expone a la posibilidad de experimentar terremotos de diversa magnitud en el futuro. A medida que la ciudad continúa creciendo y desarrollándose, la evaluación precisa de la vulnerabilidad sísmica de las estructuras existentes y el diseño de nuevas construcciones resistentes a sismos se vuelven de suma importancia.



METODOLOGÍA

La metodología de un análisis sísmico es un proceso estructurado que implica la evaluación de cómo las estructuras y el entorno responden a las vibraciones y movimientos causados por los terremotos. Y utilizando Seismograms Analyzer implica una serie de pasos que permiten procesar y analizar los datos de los sismogramas para comprender mejor los eventos sísmicos. Se obtuvieron los datos sísmicos relevantes, que son los registros de las vibraciones generadas por un terremoto o sismo. Estos datos suelen ser proporcionados por estaciones sísmicas o agencias de monitoreo sísmico. En esta investigación se realizo la recopilación mediante base de datos de UNAM, eligiendo así la ciudad de Guadalajara en el estado de Jalisco, seleccionando las estaciones sísmicas dentro de la ciudad Seleccioné el modelo sísmico que representa mejor las características de los terremotos esperados en la región. Esto incluye la selección de acelerogramas de terremotos históricos o generados sintéticamente, con lo cual ya tenemos datos concretos para su análisis, para todo esto nos vamos enfocando en PGA (Peak Ground Aceleration) y el tipo de suelo donde está situada la estación de donde se recabaron los datos. Una vez seleccionado el modelo sísmico de datos con mayor PGA y considerando el tipo de suelo de la estación, generamos los gráficos de acelerogramas donde se aclara en la grafica como varia la aceleración en el tiempo y el punto de mayor PGA y su duración.


CONCLUSIONES

Una conclusión de este análisis de datos es el dejarnos ver el como se comporta un sismo o las aceleraciones ya sea en un suelo o en roca, notablemente de acuerdo con los análisis y observaciones realizadas en otras locaciones o estaciones, se identifica que en un terreno rocoso se mantienen aceleraciones considerablemente menores en comparaciones a un terreno de depósitos lacustres. Estos datos recabados son los que se utilizaran posteriormente para conseguir (de acuerdo con los objetivos del desarrollo sostenible-ODS) que las ciudades y los asentamientos humanos sean inclusivos, seguros, resilientes y sostenibles.
Mina Landazuri Duvan Andres, Institución Universitaria Antonio José Camacho
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

SEGMENTATION OF KIDNEY STONES USING THE UNET NEURAL NETWORK: EVALUATION OF DIFFICULTY IN DIFFERENT DATASETS


SEGMENTATION OF KIDNEY STONES USING THE UNET NEURAL NETWORK: EVALUATION OF DIFFICULTY IN DIFFERENT DATASETS

Mina Landazuri Duvan Andres, Institución Universitaria Antonio José Camacho. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal de este proyecto es desarrollar un sistema de segmentación automática de cálculos renales en imágenes endoscópicas utilizando técnicas de inteligencia artificial (IA) y visión por computadora. La urolitiasis, también conocida como formación de cálculos renales, es una afección renal altamente prevalente que afecta a un gran número de personas. El diagnóstico y tratamiento tempranos de esta afección son fundamentales para evitar complicaciones graves y proporcionar un enfoque de atención médica personalizado. La segmentación precisa y confiable de cálculos renales en imágenes médicas es esencial para el diagnóstico y seguimiento de la urolitiasis. Sin embargo, el proceso de segmentación manual puede ser laborioso y propenso a errores debido a la complejidad y, la variabilidad de las formas y tamaños de los cálculos renales. Por lo tanto, se requiere un enfoque automatizado y preciso para mejorar la eficiencia y la precisión del diagnóstico. En este proyecto, se empleará una red neuronal convolucional (CNN) conocida como Unet, que es una arquitectura de vanguardia en el campo de la segmentación semántica. La Unet se caracteriza por su capacidad para realizar segmentación de imágenes píxel por píxel y su habilidad para capturar detalles finos en las áreas segmentadas. Se utilizará un conjunto de datos diverso y bien anotado que contiene imágenes endoscópicas de pacientes con urolitiasis, incluyendo una variedad de formas y tamaños de cálculos renales.



METODOLOGÍA

La red Unet tiene dos partes principales: contracción (encoder) y expansión (decoder). La contracción usa capas convolucionales para reducir la imagen y extraer características. La expansión usa capas de convolución transpuesta para aumentar el tamaño y reconstruir la segmentación. La red inicia con una capa convolucional de entrada y luego tiene varias capas convolucionales con filtros 3x3 y función LeakyReLU, seguidas de max-pooling para reducir el tamaño y aumentar la profundidad de características. En la expansión, se usan capas de convolución transpuesta para recuperar la resolución original. En cada etapa, se concatena con características de la contracción para combinar información de alto nivel y detalles espaciales. Finalmente, una capa convolucional de salida produce el resultado de segmentación, donde cada píxel representa la clasificación de un píxel original como cálculo renal o no. Se utilizaron tres bases de datos distintas, las cuales se componen de la siguiente forma: Dataset Michel Daudon: Esta base de datos comprende un total de 516 imágenes endoscópicas, las cuales fueron tomadas por una cámara CCD. De estas imágenes, se tomaron 464 imágenes para entrenamiento, mientras que los 52 restantes se reservaron para las pruebas. Dataset Jonathan El Beze: Esta base de datos incluye 409 imágenes endoscópicas. Se utilizaron 368 imágenes para el entrenamiento de la red Unet, mientras que 41 imágenes se destinaron para las pruebas. Dataset Vincent Estrade: El tercer conjunto de datos cuenta con 150 imágenes endoscópicas. De estas, se seleccionaron 135 imágenes para el entrenamiento del modelo, y las 15 imágenes restantes se utilizaron para las pruebas. Una vez que se dispuso de los datos, se procedió a la etapa de entrenamiento del modelo Unet. Dataset Michel Daudon: se entrenó durante 50 épocas, con un Learning rate de 0.001 y un batch size de 16. Dataset Jonathan El Beze: se entrenó durante 200 épocas con un Learning rate de 0.001 y un batch size de 16. Dataset Vincent Estrade: también se entrenó durante 200 épocas con un Learning rate de 0.001 y un batch size de 16. Una vez finalizado el entrenamiento, se procedió a evaluar el rendimiento del modelo utilizando la métrica de Intersección sobre Unión (IoU), que es una medida ampliamente empleada en tareas de segmentación semántica. La métrica de IoU calcula la proporción de área superpuesta entre las máscaras de segmentación predichas por el modelo y las máscaras de referencia (groundtruth). Un valor de IoU más cercano a 1 indica una mayor precisión en la segmentación realizada por el modelo.


CONCLUSIONES

El análisis de los resultados obtenidos revela que el conjunto de datos Jonathan El Beze obtuvo los mejores resultados de segmentación en términos de la métrica de IoU, con un promedio de precisión de 0.94 y una desviación estándar de 0.003. Por otro lado, el conjunto de datos Vincent Estrade resultó ser el más difícil de segmentar, con un promedio de precisión de IoU de 0.85 y una desviación estándar de 0.14. También es importante mencionar que el conjunto de datos de Michael Daudon obtuvo un promedio de precisión de 0.92 y una desviación estándar de 0.08, lo cual esta muy bien ya que esta por encima del 0.9 que era el promedio esperado. La diferencia en el rendimiento entre los conjuntos de datos podría deberse a la cantidad de imágenes de entrenamiento disponibles en cada uno de ellos. El Dataset Jonathan El Beze, con 368 imágenes de entrenamiento, obtuvo los mejores resultados, mientras que el Dataset Vincent Estrade, con solo 135 imágenes de entrenamiento, tuvo un rendimiento inferior. Para abordar la limitación del conjunto de datos Vincent Estrade, se propone implementar técnicas de Data Augmentation, que consisten en aplicar transformaciones y variaciones a las imágenes de entrenamiento existentes para aumentar su tamaño y diversidad. Con el aumento del tamaño del conjunto de datos, se espera obtener resultados de segmentación más precisos y consistentes en futuros experimentos.
Minu Bermudez Mariu Alejandra, Universidad Autónoma de Manizales
Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional

ANáLISIS DE LA EFICIENCIA PARA SISTEMA DE SECADO EN ALIMENTOS USANDO UN COLECTOR PARABóLICO SOLAR


ANáLISIS DE LA EFICIENCIA PARA SISTEMA DE SECADO EN ALIMENTOS USANDO UN COLECTOR PARABóLICO SOLAR

Minu Bermudez Mariu Alejandra, Universidad Autónoma de Manizales. Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con el escenario de desarrollo sostenible, la participación de las fuentes de energía renovables deberá ser 3 veces mayor en el año 2040, de no ser así, se llegará a un punto sin retorno donde no se podrá recuperar el planeta del daño causado.  Una de las energías renovables que se conocen es la del sol, la cual proporciona gran cantidad de luz y calor en el planeta sin ningún tipo de costo, aquellas pueden ser aprovechadas por medio de la transferencia hacia un sistema, puesto que estas, incrementan el movimiento de las moléculas, y por lo tanto la energía del sistema. La energía puede transmitirse de tres formas distintas: radiación, conducción y convección,  para llevarse a cabo todas ellas requieren una diferencia de temperatura.  De esta manera, se pueden encontrar trabajos como el diseño y optimización de colectores parabólicos solares, para la conversión de energía solar, dirigiendo la radiación en una sola línea focal que se conecta a un intercambiador que eleva la temperatura de un tanque con agua para generar vapor, y así lograr la generación de energía, gracias al calor que es transferido al fluido por medio de la radiación solar; este vapor nuevo continúa haciendo girar turbinas que transforman la energía en mecánica, para luego transformarla en energía eléctrica, generando alrededor de 354 MW,  además utilizan la misma configuración donde su tubo receptor de calor está envuelto por un tubo de vidrio al vacío. Asimismo, se señala otro que trabaja con la generación de vapor por medio de colectores solares parabólicos donde miden las pérdidas de calor al poner o no el tubo de vidrio alrededor, mostrando que se obtienen resultados positivos al usar el envoltorio.



METODOLOGÍA

Para iniciar, se hicieron pruebas previas que permitieron definir las horas de trabajo según la irradiancia permitida por la norma ASHRAE de 800 W/m2. Luego, se realizaron las instalaciones correspondientes de los sensores para medir las condiciones atmosféricas y las del sistema. Una vez se calibraron los sensores, se pone en marcha la bomba para que el fluido inicie el recorrido a través del tubo absorbedor del sistema, al mismo tiempo se enciende el tracker de los colectores solares para que estos reciban la más alta incidencia de radiación gracias a sus seguidores.  En primera instancia, se usan equipos meteorológicos que permiten conocer las condiciones atmosféricas presentes en el lugar de prueba. Estos son: anemómetro TA-T420, el cual permitir medir la velocidad y temperatura del viento en el lugar de prueba, se usan dos piranómetros, uno marca cmpcmp3 y otro 2 sp lite 2, para calcular la irradiancia solar global, un sensor de humedad THD-D1-C, el cual arroja valores de humedad relativa y temperatura ambiental, y por último, sensores de tipo K para medir la temperatura del fluido y elementos que componen al PTC para los cálculos pertinentes. Otros accesorios son empleados para asegurar el funcionamiento óptimo del sistema, de manera más automática, como la bomba hidráulica, dos motores que están anclados a cada par de colectores solares, y por medio de seguidores de luz, permiten un accionamiento automático dirigiendo los colectores hacia la irradiancia correcta para calentar el fluido, un medidor de flujo, un tracker, el cual es un software que permite interactuar con los motores para girarlos de manera manual o ser programados, por último, un intercambiador de calor de flujo cruzado, líquido-gas. Finalmente, se utiliza un sistema de adquisición de datos, donde se conectan los instrumentos de medición, y este por medio de su software, se encarga de recopilar muestras atmosféricas de los sensores en un intervalo de tiempo dado (1 minuto). De allí en adelante, se debe estar verificando constantemente que los motores de los colectores giren bien, el funcionamiento de la bomba, los valores captados por el sistema de adquisición, puesto que, en ocasiones los sensores se pueden descalibrar y arrojar mediciones incoherentes, y en general, que todo funcione correctamente. Después de las horas de prueba que se lleven a cabo, el software de adquisición permite exportar los datos tomados en un archivo de Excel, el cual será subido a Google Drive para su análisis matemático. Posteriormente, se realiza un código en lenguaje Python para desarrollar las ecuaciones presentadas anteriormente, donde se evalúa la eficiencia del sistema real en una comparativa con la eficiencia teórica, por medio de gráficas que permiten observar la eficiencia hallada versus la razón que se obtiene al poner diferencia de temperatura entre la entrada del fluido al sistema y el ambiente, sobre la irradiancia global tomada por los piranómetros en tiempo real con un intervalo de 1 minuto. 


CONCLUSIONES

Ambos intervalos de evaluación se pusieron iguales, es decir, sólo cambia el valor de la eficiencia en ambos casos, para así observar de manera más detallada los cambios en esta. Para la eficiencia experimental se muestra una pendiente positiva poco inclinada, esto sucede porque hay un incremento de temperatura prolongado en el sistema, ya que el fluido cada vez que retorna a su posición inicial ingresa con una temperatura más alta a la anterior, y aumenta la diferencia entre las temperaturas de entrada y salida; sin embargo, la eficiencia teórica, muestra una pendiente negativa más inclinada que en la experimental, puesto que, en la teórica se conserva un valor de entrada y salida fijo, y al tener  temperaturas impuestas este trabaja con valores mayores haciendo que la eficiencia del sistema vaya en disminución. Finalmente, se puede concluir que la energía solar es una gran forma de obtención de calor, donde en este caso se usa para implementar en un secador de alimentos por medio de un intercambiador de calor, que interacciona el fluido de aceite que circula por el sistema de PTC con el aire, para aumentar la temperatura de este; consiguiendo una mayor eficiencia de transferencia de energía al utilizar cintas torcidas al interior del tubo receptor que capta la radiación del sol dirigida. Además, mostrando que la eficiencia experimental de los colectores llega a una estabilidad más pronta con una pendiente positiva.
Miramontes Escobar Julian Enrique, Universidad Tecnológica de Nayarit
Asesor: Mg. Sergio Iván Galvis Motoa, Universidad Católica de Colombia

ACERCAMIENTO AL TDD COMO HERRAMIENTA DE APRENDIZAJE DE UN LENGUAJE DE PROGRAMACIóN: KOTLIN.


ACERCAMIENTO AL TDD COMO HERRAMIENTA DE APRENDIZAJE DE UN LENGUAJE DE PROGRAMACIóN: KOTLIN.

Miramontes Escobar Julian Enrique, Universidad Tecnológica de Nayarit. Asesor: Mg. Sergio Iván Galvis Motoa, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de software es un proceso complejo que implica múltiples etapas, desde el diseño y la codificación hasta la implementación y el mantenimiento. Durante este proceso, es fundamental garantizar la calidad del producto final para ofrecer una experiencia satisfactoria al usuario y minimizar errores y fallas potenciales. El uso de pruebas de software es una práctica esencial para lograr este objetivo y mejorar el desempeño del software a través de la refactorización y aprobación de las pruebas. Herramientas: Existen numerosas herramientas de prueba de software disponibles, en esta investigación se llevo a cabo en el entorno de desarrollo de Intellij IDEA Ultimate, utilizando el lenguaje de Kotlin mediante con la librería de testing JUnit5. A lo anterior, se utilizaron diferentes herramientas como medios de investigación y análisis, entre los que se encuentran GIT y GITHUB, repositorios de código con ejemplos algunos cursos tomados mediante el sitio oficial de Kotlin y YouTube, además de artículos extraídos de la Universidad Católica de Colombia.   



METODOLOGÍA

Desarrollo: Planeación del Proyecto: Antes del inicio del Verano de Investigación Delfín, se llevó a cabo una planificación meticulosa utilizando la metodología Scrum. Se definieron los objetivos y alcance del proyecto. En este caso, el asesor Ing. Sergio Iván Gavis Motoa fungió como Scrum Master para liderar las actividades diarias y velar por el cumplimiento de los plazos y metas. Sprint 1: Introducción y Búsqueda El objetivo del primer Sprint del proyecto de la investigación fue familiarizarnos con los conceptos clave relacionados con el Testing de Software, Kotlin, GIT y GITHUB. Durante este periodo, me enfoqué en investigar y recopilar información relevante sobre estas temáticas para establecer una base sólida de conocimiento que nos permita avanzar en el proyecto de manera efectiva. Sprint 2: Planeación y Definición de pruebas El objetivo del segundo sprint del proyecto es realizar la planeación y definición de las pruebas que se llevarán a cabo en nuestros proyectos de investigación. Durante este periodo, nos centraremos en identificar los diferentes tipos de pruebas que aplicaremos en relación a los temas de Testing de Software. Se discutieron los diferentes tipos de pruebas que serían relevantes para cada uno de los temas abordados en el proyecto. Se destacaron los tipos de pruebas más comunes, como pruebas unitarias, pruebas de integración, pruebas funcionales, pruebas de regresión y pruebas de aceptación, entre otras. Sprint 3: Crear Test El objetivo del tercer sprint del proyecto fue iniciar la creación de una batería de pruebas en Kotlin utilizando JUnit 5. Tras la definición de los tipos de pruebas a trabajar en nuestro proyecto de investigación, nos centraremos en implementar pruebas de ordenamiento y de integración para validar el correcto funcionamiento de las unidades de código y la interacción entre diferentes componentes en el desarrollo en Kotlin. Sprint 4: Validación de Pruebas El objetivo del cuarto sprint del proyecto fue llevar a cabo la validación de todas las pruebas de software realizadas en la batería de testing. Tras la creación de pruebas utilizando JUnit 5 en Kotlin, es esencial asegurarnos de que todas las pruebas sean efectivas y proporcionan resultados precisos. Durante este periodo, nos centraremos en comprobar el correcto funcionamiento de las pruebas y realizar ajustes en caso de ser necesario. Sprint 5: Automatización El objetivo del quinto sprint del proyecto fue llevar a cabo la automatización completa de las pruebas de software en la batería de testing. Después de validar las pruebas manualmente en el sprint anterior, es hora de implementar la automatización para optimizar la eficiencia y la repetibilidad de las pruebas. Durante este periodo, nos enfocaremos en desarrollar scripts y casos de prueba automatizados utilizando herramientas adecuadas para lograr una ejecución rápida y confiable. Sprint 6: Elaboración de reportes El objetivo del sexto sprint del proyecto es dedicarme a la elaboración del reporte final que describa de manera detallada toda mi estancia y experiencia dentro del programa Delfín en la Universidad Católica de Colombia, Bogotá. Durante este periodo, me enfocaré en redactar un informe completo que incluya mis actividades, aprendizajes, logros y reflexiones durante el Verano de Investigación. Reuniones de Revisión y Retrospectiva: Al final de cada sprint, se llevaron a cabo reuniones de revisión, donde junto a mi asesor revisamos avances y demostraron los resultados logrados. También se realizó una retrospectiva para analizar qué funcionó bien y qué se podría mejorar en el siguiente sprint. Estos momentos de reflexión promovieron la mejora continua y el fortalecimiento de la colaboración.  


CONCLUSIONES

El Verano de Investigación Delfín en la Universidad Católica de Colombia, ha sido una experiencia inolvidable durante toda mi participación. Durante este periodo, me sumergí en un increíble proyecto de investigación, desarrollando habilidades técnicas y de trabajo en ámbitos de desarrollo con los cuales nunca había trabajado. Este enfoque ágil permitió una gestión efectiva del tiempo y recursos, y fomenta una mentalidad de mejora constante. El Verano de Investigación Delfín no solo me ha enriquecido el conocimiento, sino que también ha sentado las bases para futuras colaboraciones y contribuciones al avance científico en Colombia, México y más allá. El uso efectivo de pruebas de software es esencial para garantizar la calidad, fiabilidad y éxito del producto final. La planificación y ejecución adecuadas de diferentes tipos de pruebas en diferentes etapas del ciclo de desarrollo son fundamentales para lograr un software de alta calidad y satisfacer las expectativas del cliente. La inversión en pruebas de software puede conducir a un mejor rendimiento, menor tiempo de inactividad y, en última instancia, a una mayor satisfacción del usuario y éxito comercial.  
Mirón León Valeria, Universidad de Guadalajara
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

TECLADOS EN SUSTRATOS FLEXIBLES


TECLADOS EN SUSTRATOS FLEXIBLES

Mirón León Valeria, Universidad de Guadalajara. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la tecnología de teclados ha evolucionado considerablemente, y una de las tendencias más importantes es la utilización de sustratos flexibles en lugar de sustratos rígidos. Los teclados en sustratos flexibles presentan desafíos técnicos que deben abordarse para lograr dispositivos confiables y funcionales. La durabilidad y resistencia del sustrato deben garantizar su capacidad para soportar el uso constante y repetido. La sensibilidad táctil y la precisión son esenciales para brindar una experiencia de escritura satisfactoria. Además, la integración con circuitos y componentes electrónicos, así como la resistencia a ambientes adversos, deben ser considerados cuidadosamente. Los costos de fabricación y la ergonomía también son factores importantes a tener en cuenta para ofrecer teclados en sustratos flexibles a precios competitivos y sin riesgos para la salud del usuario. Abordar estos problemas es crucial para aprovechar todo el potencial de esta tecnología en términos de portabilidad y versatilidad.



METODOLOGÍA

El objetivo de este proyecto fue diseñar un teclado innovador y adaptable que permita experimentar una experiencia de interpretación más versátil y cómoda, utilizando la plataforma de Arduino para implementar la funcionalidad y la interacción con el piano. El primer paso consistió en definir los objetivos específicos del proyecto, identificando los requerimientos clave del teclado, como sensibilidad táctil, durabilidad, resistencia ambiental y ergonomía. Durante los siguientes días se llevaron a cabo actividades prácticas en un Curso básico de Arduino, adquiriendo así habilidades fundamentales para el desarrollo del proyecto, como la programación de microcontroladores y la interacción con sensores y actuadores. Durante la semana 4, se trabajó en el diseño y simulación de un teclado de piano utilizando el software Tinkercad. Luego, se construyó un prototipo físico en una protoboard y se realizaron ajustes necesarios. En las semanas 5 y 6, se enfocaron en desarrollar el código para conectar el piano a una computadora mediante un Arduino UNO en modo de conexión MIDI, permitiendo a los usuarios interactuar con el teclado y procesar la información recibida. Esta parte resultó ser un desafío debido a la inexperiencia en programación, pero se logró definir los pines de los botones y las frecuencias correspondientes a cada nota, lo que permitió activar el tono adecuado al presionar un botón. El proyecto se presenta avances significativos en el diseño, simulación y prototipado del teclado de piano, así como en el desarrollo del código para su conexión con una computadora. A medida que se superen los desafíos técnicos, el equipo podrá seguir avanzando hacia la realización de un teclado funcional y eficiente basado en sustratos flexibles.


CONCLUSIONES

La creación de teclados en sustratos flexibles presenta retos técnicos que pueden superarse mediante una metodología bien estructurada. La combinación de investigación, diseño, prototipado, integración y evaluación garantiza la obtención de un teclado funcional, duradero y eficiente. La mejora continua y la documentación adecuada aseguran la optimización del proceso y el logro de resultados satisfactorios. Con esta metodología, los avances en la tecnología de teclados en sustratos flexibles pueden seguir brindando innovación y comodidad a los usuarios.
Mojica Pineda Ivan Yahir, Instituto Tecnológico de Ciudad Altamirano
Asesor: Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey

¿AGREGAR O REMOVER? UN ESTUDIO SOBRE MECANISMOS DE SELECCIóN BASADOS EN ENERGíA POTENCIAL


¿AGREGAR O REMOVER? UN ESTUDIO SOBRE MECANISMOS DE SELECCIóN BASADOS EN ENERGíA POTENCIAL

Mojica Pineda Ivan Yahir, Instituto Tecnológico de Ciudad Altamirano. Asesor: Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la optimización evolutiva multi-objetivo (OEMO), las funciones de potencial por pares han sido empleadas para definir mecanismos de preservación de diversidad. El problema de selección óptima de subconjuntos basada en energía potencial (PSOSEP) es un problema de optimización combinatoria que trata de encontrar un subconjunto A de tamaño N de tal forma que optimice una función dada. Dado que se utilizan las funciones de energía potencial, el objetivo es obtener un subconjunto A a partir de otro conjunto S con cardinalidad |S| = M >>N al minimizar su energía potencial U. Para lidiar con el PSOSEP se han propuesto diversos algoritmos, entre los cuales se encuentra el algoritmo avaro de remoción rápido. En este algoritmo se calculan los valores de contribución de cada partícula a la energía potencial del sistema, se almacenan en una matriz, y partiendo del conjunto S, se remueve en cada paso la peor solución (la que tiene el valor de contribución más grande a U). No obstante, este algoritmo tiene que realizar |A| - N iteraciones para llegar a su fin, por lo que se propone el uso de un algoritmo de agregación que solamente tenga que realizar N iteraciones. Se considera necesario realizar un análisis comparativo entre el algoritmo de remoción avara y un algoritmo de adición avara para aproximar la solución del problema para así determinar cuál heurística es mejor para el PSOSEP.



METODOLOGÍA

Se realizó una revisión de literatura relevante en materia de optimización multi-objetivo, selección de subconjuntos, archivado de resultados, y diversas aproximaciones al problema de selección de subconjuntos utilizando medidas de desempeño. Luego de analizar el algoritmo avaro de remoción, se decidió modificarlo ligeramente de tal forma que en lugar de remover soluciones de un conjunto base, parta de un conjunto vacío y agregue soluciones a este conjunto. Para lograr esto, en cada paso del algoritmo, se dejó de buscar el peor elemento en términos de contribución a la energía potencial del sistema, y se cambió por una búsqueda por el mejor, esto es, el que menos energía potencial total aporta. Para comparar ambos algoritmos, se ejecutaron varias veces con diferentes parámetros, registrando la rapidez de ejecución y la diversidad del resultado. El algoritmo fue programado en lenguaje C, y para su ejecución se utilizó un procesador Intel Core i3-4005U, y 12GB de RAM con el sistema operativo Windows 10. Como parámetros, se utilizó la función de energía de Riesz, un tamaño de subconjunto objetivo N=100, y la constante a = 1 en los problemas DTLZ1, DTLZ7 y WFG1 con 3 dimensiones. En promedio, el algoritmo avaro de remoción de soluciones tardó 3.8 segundos en ejecutarse, mientras que el algoritmo de agregación tardó 0.0065 segundos en ejecutarse, siendo el algoritmo de agregación entonces muy superior en rapidez. Sin embargo, el algoritmo de agregación resultó ser muy malo para escoger soluciones de una forma diversa, esto es, tomando soluciones que no sean tan parecidas entre sí. Por este motivo, este algoritmo no resulta ser mejor cuando se busca diversidad. En respuesta a los resultados deficientes de la primera versión del algoritmo de agregación, que fue muy rápido pero sin la capacidad de seleccionar subconjuntos diversos, se realizó una vez más una revisión de literatura y se analizó un algoritmo de selección de subconjuntos con base en la distancia. Este algoritmo parte de un conjunto vacío, al cual se le añade una solución extrema (una solución que se encuentra en una de las esquinas del espacio de soluciones) como punto inicial, y a partir de ahí, en cada paso, calcula las distancias de cada individuo, escogiendo aquel que maximice la uniformidad del conjunto (la distancia mínima entre cada solución). Tomando como base el algoritmo de selección con base en la distancia, se ideó y programó un algoritmo similar, pero que utiliza las funciones de potencial por pares en su lugar. En este algoritmo, en cada paso, se calcula la contribución individual de cada solución a la energia potencial del sistema, almacenandolas en un vector, y realizando una búsqueda lineal para encontrar aquel que tenga el menor valor, minimizando la energía potencial del sistema U. El algoritmo fue programado en lenguaje C y ejecutado bajo las mismas condiciones que los otros dos algoritmos. Como resultado se obtuvieron subconjuntos con una buena diversidad, similar a la proporcionada por el algoritmo de remoción rápido, sin embargo, tiene un gran problema, y es que al ser una primera versión, no ha sido optimizado, teniendo grandes tiempos de ejecución, llegando a tardar en promedio 260.7 segundos en ejecutarse (4 minutos y 20.7 segundos).


CONCLUSIONES

Durante la estancia de verano se logó obtener conocimientos en el campo de la optimización multi-objetivo y, más en concreto, sobre las técnicas de archivado y selección de subconjuntos y su importancia en la preservación de la diversidad de las soluciones de un algoritmo evolutivo multi-objetivo. En específico, se trabajó en un algoritmo de agregación para resolver el PSOSEP y realizar un análisis comparativo con respecto a un algoritmo existente de remoción rápido. El algoritmo hasta ahora descrito tiene buenos resultados en términos de la preservación de diversidad, pero al realizar cálculos de manera intensiva tiene tiempos de ejecución 68.6 veces más grandes que el algoritmo de remoción rápida. Sin embargo, al optimizarse adecuadamente, podría tener mejores tiempos de ejecución mientras preserva adecuadamente la diversidad de las soluciones.
Molina Arévalo Natalia, Universidad Nacional Abierta y a Distancia
Asesor: Dra. Josefina Guerrero García, Benemérita Universidad Autónoma de Puebla

GAMIFICACIÓN COMO ESTRATEGIA DE ENSEÑANZA EN EL CAMPO DE INGENIERÍA INDUSTRIAL


GAMIFICACIÓN COMO ESTRATEGIA DE ENSEÑANZA EN EL CAMPO DE INGENIERÍA INDUSTRIAL

Molina Arévalo Natalia, Universidad Nacional Abierta y a Distancia. Asesor: Dra. Josefina Guerrero García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

GAMIFICACIÓN COMO ESTRATEGIA DE ENSEÑANZA EN EL CAMPO DE INGENIERÍA INDUSTRIAL   Estado del arte sobre Gamificación en la educación en el campo de Ingeniería Industrial La gamificación es una estrategia de aprendizaje que transfiere su potencial de los videojuegos al aula estudiantil para mejorar los resultados de aprendizaje de los estudiantes. La gamificación o ludificación puede aplicarse desde grados de la etapa infantil hasta niveles posgraduales, para ayudar al estudiante interiorizar conocimientos y motivándoles por medio de sistemas de puntuación y recompensas. Las Tecnologías de la Información y la Comunicación (TIC), ofrecen una diversidad de recursos y herramientas que pueden ser aplicadas a diferentes campos de la educación, industria y ciencia; el rol del docente en relación con la gamificación es la de seleccionar las aplicaciones que mejor se ajusten a la estrategia de aprendizaje que se quiere aplicar en el aula para transferir conocimientos al alumnado (UNIR, 2020). Crehana (2023), propone las siguientes estrategias de gamificación que pueden ser usadas en las instituciones educativas o cualquier otro tipo de organización: Formación de equipos y competencias. Tablas de clasificación y medallas o insignias Niveles de ascenso en la escala de aprendizaje Recompensas, premios o incentivos. Reconocimiento social. Herramientas de interacción social y retroalimentación Intercambio de conocimientos              El portal Colombian Games (2023), presenta los siguientes ejemplos de gamificación en el aula: Quest to Learn (Q2L), es un colegido de bachillerato en Manhattan (USA), totalmente gamificado, Q2L usa una amplia gama de metodologías gamificadas para sus clases, aunque no todas se presentan en un formato digital, pero estas si basan las estrategias pedagógicas en dinámicas de juego. En la institución Delft University of Technology gamificaron dos cursos, uno sobre Fundamentos de computación y otro obre Computación en la nube, para incrementar la participación y compromiso de los estudiantes frente al curso, las técnicas de gamificación usadas fueron: Puntuación, escalafones, medallas, y niveles que se iban desbloqueando a medida que se avanzaba.  



METODOLOGÍA

Identificación de temas y actividades que se pueden incluir en los juegos de ingeniería industrial             En esta investigación se propone seguir el modelo de los juegos Time Managemnt Game para el desarrollo de un juego interactivo que le permita a los estudiantes de Ingeniería Industrial asimilar conceptos de forma más fácil y manipular sistemas para el alcance de objetivos. Los "time management games" (juegos de gestión del tiempo) son un género de videojuegos en los que los jugadores asumen el papel de un gerente o administrador y deben llevar a cabo diversas tareas y actividades en un período de tiempo limitado. Estos juegos suelen requerir que los jugadores planifiquen y prioricen sus acciones de manera eficiente para alcanzar objetivos específicos. En los Time management games, los jugadores pueden enfrentarse a desafíos como gestionar un restaurante, una granja, una tienda, un hospital, una ciudad, una empresa, entre otros escenarios. Deben tomar decisiones rápidas sobre cómo asignar recursos, atender a los clientes, realizar mejoras y optimizar sus operaciones para maximizar los beneficios o el progreso en el juego.  


CONCLUSIONES

Historia, tipo de Juego y reglas para el juego All Beauty Spa Game Basándose en el modelo de gamificación de los Time Management Game, se propone crear un juego que le permita a un estudiante de Ingeniería Industrial repasar y hacer ejercicios prácticos sobre diseño de productos, teoría de colas, servicio al cliente, gestión de operaciones, administración de recursos, gestión de talento humano, aumento de la productividad, distribución de planta y flujo de capital y mejora de sistemas productivos.   Para esto se propone crear el personaje de Emma, quien es una experta en la creación de cosméticos para el cuidado de la piel y quien funda su propio Spa, el cual se llama All Beauty, y esto da el nombre al juego All Beauty Spa Game.   En el Juego, Emma gerencia un Spa, en donde ofrece cuidados para el cutis, cuerpo y pies, según las necesidades de cada cliente, Emma debe crear cremas a base de ingredientes naturales (para cada nivel, la cantidad y tipo de estos recursos varia), las cremas se crean según las necesidades de cada cliente. Una vez creada la crema, dependiendo si el cliente quiere la crema para el cutis de la cara, cuerpo o pies, pasa a una estación de trabajo especializada en cada área del cuerpo, cada estación es atendida por un especialista, Karen es la especialista en el cuidado del cutis, Pablo es especialista en masajes para el cuerpo y Lena es especialista en podología y cuidado de pies.    
Molina Medellín Jesús Arnulfo, Universidad Politécnica del Valle del Évora
Asesor: M.C. Juan Jaime Fuentes Uriarte, Universidad Politécnica del Valle del Évora

CONTROL DE DRON TELLO PARA AMBIENTES CONTROLADOS


CONTROL DE DRON TELLO PARA AMBIENTES CONTROLADOS

Molina Medellín Jesús Arnulfo, Universidad Politécnica del Valle del Évora. Asesor: M.C. Juan Jaime Fuentes Uriarte, Universidad Politécnica del Valle del Évora



PLANTEAMIENTO DEL PROBLEMA

El proyecto tiene como objetivo desarrollar un sistema de control para el dron Tello en ambientes controlados. Utilizando una matriz que representa el ambiente, el dron deberá seguir rutas predefinidas, evitando obstáculos (paredes) y avanzando por los caminos libres. Se implementarán algoritmos de planificación de rutas y funciones de movimiento para lograr una navegación autónoma y precisa del dron. El lenguaje de programación Python y la biblioteca djitellopy serán empleados para la comunicación con el dron y la ejecución de comandos de vuelo.



METODOLOGÍA

La metodología implementada consistió en representar el ambiente controlado como una matriz en Python, donde cada celda de la matriz representa un espacio en el ambiente que puede ser un camino o una pared. El dron debía seguir un camino predefinido en el ambiente, representado por los "1" en la matriz, mientras evitaba las paredes, representadas por los "0". Para lograr esto, se diseñó una clase llamada "CaminoCorto" que analiza la matriz y encuentra un camino seguro para el dron. La clase utiliza un enfoque recursivo para explorar todas las posibles rutas y determinar la mejor opción, evitando las paredes y manteniéndose en el camino. Una vez que se obtuvo el camino seguro, se implementaron funciones adicionales para controlar los movimientos del dron. Si el dron encontraba un "1" en la matriz, avanzaba 20 cm hacia adelante. Si encontraba un "0", giraba a la derecha hasta encontrar el próximo "1" en el camino. La combinación de Python con la biblioteca "djitellopy" y la lógica implementada para el control del dron y la navegación en el ambiente controlado permitió que el dron siguiera el camino predefinido sin chocar con las paredes.


CONCLUSIONES

En conclusión, el proyecto de control de dron Tello para ambientes controlados ha sido exitoso al implementar una metodología que permite al dron seguir un camino predefinido y evitar obstáculos. La precisión en la navegación y la utilidad en aplicaciones específicas hacen de esta solución una herramienta valiosa en operaciones autónomas. La programación en Python y el uso de la biblioteca "djitellopy" facilitaron el desarrollo del proyecto y demostraron la flexibilidad y eficiencia de esta combinación. En general, el proyecto ha brindado la oportunidad de desarrollar habilidades en robótica y control de drones, y ha mostrado cómo mejorar la autonomía y funcionalidad del dron en entornos controlados.
Molina Ramirez Pedro Antonio, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato

CONSTRUCCIóN DE UN ROBOT DE MANEJO DIFERENCIAL CONTROLADO POR ROS PARA TAREAS DE NAVEGACIóN


CONSTRUCCIóN DE UN ROBOT DE MANEJO DIFERENCIAL CONTROLADO POR ROS PARA TAREAS DE NAVEGACIóN

Molina Ramirez Pedro Antonio, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto consiste en el desarrollo de un robot de manejo diferencial autónomo para el cual se considero dimensiones y ligereza en su diseño. El sistema robótico es controlado mediante un miniordenador llamado Raspberry Pi 4, el cual tiene capacidades de computo suficientes para operar el robot bajo el Sistema Operativo de Robots (ROS, por sus siglas en inglés) el cual trabaja bajo el sistema operativo Linux Ubuntu. En este sistema, el robot es capaz de ejecutar a través de sus dos motores independientes, 3 principales primitivas de movimiento: movimiento en línea recta, rotación en sitio y movimiento en arco de círculo.



METODOLOGÍA

Definir las dimensiones del robot considerando los factores del entorno en el cual el robot se desempeñará. Definir el tamaño, material y peso de las ruedas para que el robot pueda tener un buen desempeño. Seleccionar las piezas mecánicas y eléctricas a utilizar en el robot considerando el consumo de energía de cada uno de los componentes electrónicos, de esta manera, será posible elegir un juego de baterías adecuadas par proporcionar un buen rendimiento en el robot al momento de desplazarse. Para ello, fue necesario calcular la suma del consumo de todos los componentes electricos y de esta forma definir que capacidades de batería se requiere.. Se procedió a la fabricación de coples y ruedas por medio de dibujo asistido por computadora el cual se hace un modelado en 3D en AUTOCAD o SOLIDWORKS, para después pasarlo a formato STL y posterior a esto generar un código G que pueda entender la máquina. De este modo, fue posible imprimir cada una de las piezas mecánicas del robot ennuna impresora 3D. Se realizó la medición, corte y ensamble de cada una de las piezas tanto metálicas, así como las que fueron impresas en 3D con material PLA. Calibración y ajustes de imperfecciones. Instalación del sistema operativo Ubuntu a la placa de desarrollo Raspberry. Ejecución de pruebas desde la consola y se instalan algunos programas básicos. Se realizó la instalación de ROS así como de las paqueterías necesarias para el control del robot. Implementación de primitivas de movimiento en C/C++ y Python para el control del robot. Diseño de un esquema de seguimiento de perfil para el control de velocidad del robot.


CONCLUSIONES

Actualmente, es posible construir un robot móvil de ruedas relativamente económico y con suficiente capacidad de cómputo para realizar ciertas tareas. El uso de miniordenadores permite procesar los datos suficientes para obtener datos de sensado y ejecutar instrucciones en actuadores, de esta manera es posible diseñar un robot con capacidades para navegar de manera reactiva. Las capacidades de computo del robot, permite implementar sistemas de sensado que permitan obtener la suficiente información del entorno para mandar señales a los motores que permitan al robot realizar tareas de navegación bajo diversas metodologías, entre ellas están la navegación reactiva, seguimiento de pared, seguimiento de trayectorias, navegación respecto a puntos de referencia, entre otras. El robot desarrollado e instrumentado es compatible con ROS, lo cual le permite usar múltiples herramientas que facilitan las tareas de exploración y navegación en entornos. Como trabaja futuro, se buscará calibrar al robot para controlarse directamente a través de su velocidad lineal y angular. También se buscará implementar aplicaciones especificas para probar el rendimiento del sistema robótico.
Molina Sales Miguel Angel, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora

REINVENCIÓN DE HERRAMIENTAS PARA LA SEGURIDAD COTIDIANA, PRODUCCIÓN Y CONSUMO RESPONSABLES.


REINVENCIÓN DE HERRAMIENTAS PARA LA SEGURIDAD COTIDIANA, PRODUCCIÓN Y CONSUMO RESPONSABLES.

Arias Mendoza Jesús Esteban, Instituto Tecnológico de Estudios Superiores de Zamora. Cortez Navarro Francisco Ja Vier, Instituto Tecnológico de Estudios Superiores de Zamora. Molina Sales Miguel Angel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

DENTRO DE NUESTRO DÍA A DÍA ENCONTRAMOS COMO INVESTIGADORES NUMEROSOS CAMPOS DE REINVENCIÓN PARA MEJORAR EN TODOS LOS ASPECTOS NUESTRAS VIDAS, UNO DE LOS MÁS IMPORTANTES DESDE NUESTROS INICIOS CÓMO CIVILIZACIÓN HA SIDO LA BUSQUEDA DE TRANQULIDAD CREADA A PARTIR DE LA SEGURIDAD.   EL EQUIPO EN FUNCIÓN SE ENCUENTRA IDENTIFICACANDO DE QUE MANERA SE PUEDEN REALIZAR ,FUNCIONALMENTE Y CON PRESUPUESTOS QUE SE AJUSTEN AL PARAMETRO DADO,  PRÁCTICAS DE SEGURIDAD PARA IMPLEMENTAR EN NUESTRO ENTORNO. COMENZAREMOS POR DEFINIR LA PALABRA SEGURIDAD.   LAS CERRADURAS AUTOMÁTICAS HAN EXPERIMENTADO UN CRECIENTE INTERÉS EN LOS ÚLTIMOS AÑOS DEBIDO A SU CAPACIDAD PARA MEJORAR LA SEGURIDAD Y COMODIDAD EN EL ÁMBITO RESIDENCIAL Y COMERCIAL. ESTAS CERRADURAS UTILIZAN TECNOLOGÍAS AVANZADAS, COMO LA BIOMETRÍA, LA CONECTIVIDAD INALÁMBRICA Y LOS SISTEMAS DE CONTROL REMOTO, PARA PROPORCIONAR UN ACCESO SEGURO Y CONVENIENTE A LAS PROPIEDADES. ESTA REVISIÓN DE LITERATURA TIENE COMO OBJETIVO EXAMINAR LAS INVESTIGACIONES MÁS RECIENTES SOBRE EL DESARROLLO Y LAS APLICACIONES DE LAS CERRADURAS AUTOMÁTICAS, CENTRÁNDOSE EN SU FUNCIONAMIENTO, CARACTERÍSTICAS DE SEGURIDAD, VENTAJAS Y DESAFÍOS.



METODOLOGÍA

DE ACUERDO A LA AGENDA 2030 PUBLICADA POR LA ORGANIZACIÓN DE LAS NACIONES UNIDAS EL CONSUMO Y LA PRODUCCIÓN MUNDIALES (FUERZAS IMPULSORAS DE LA ECONOMÍA MUNDIAL) DEPENDEN DEL USO DEL MEDIO AMBIENTE NATURAL Y DE LOS RECURSOS DE UNA MANERA QUE CONTINÚA TENIENDO EFECTOS DESTRUCTIVOS SOBRE EL PLANETA. EL PROGRESO ECONÓMICO Y SOCIAL CONSEGUIDO DURANTE EL ÚLTIMO SIGLO HA ESTADO ACOMPAÑADO DE UNA DEGRADACIÓN MEDIOAMBIENTAL QUE ESTÁ PONIENDO EN PELIGRO LOS MISMOS SISTEMAS DE LOS QUE DEPENDE NUESTRO DESARROLLO FUTURO (Y CIERTAMENTE, NUESTRA SUPERVIVENCIA). EL CONSUMO Y LA PRODUCCIÓN SOSTENIBLES CONSISTEN EN HACER MÁS Y MEJOR CON MENOS. TAMBIÉN SE TRATA DE DESVINCULAR EL CRECIMIENTO ECONÓMICO DE LA DEGRADACIÓN MEDIOAMBIENTAL, AUMENTAR LA EFICIENCIA DE RECURSOS Y PROMOVER ESTILOS DE VIDA SOSTENIBLES. EL CONSUMO Y LA PRODUCCIÓN SOSTENIBLES TAMBIÉN PUEDEN CONTRIBUIR DE MANERA SUSTANCIAL A LA MITIGACIÓN DE LA POBREZA Y A LA TRANSICIÓN HACIA ECONOMÍAS VERDES Y CON BAJAS EMISIONES DE CARBONO. DICHO ÉSTO SE INTENTA LOGRAR UN USO ERGONÓMICO Y SIMPLE. SE UTILIZARAN COMPONENTES DE BAJO COSTO, AMABLES CON EL MEDIO AMBIENTE, RECICLABLES Y DE FÁCIL MANTENIMIENTO. AL ENGLOBAR LOS OBJETIVOS A ALCANZAR CON ESTA INVESTIGACION SE PREVEE GENERAR UTENCILIOS DE USO DIARIO REPARABLES Y CON UNA VIDA UTIL MUY ACEPTABLE.   SERÁ UN EQUIPO DE SEGURIDAD QUE ESTARÁ DE PARTE DEL CONSUMIDOR PARA RESOLVER SU PROBLEMATICA AL MANETENER SUS PUERTAS CON UN SISTEMA ESTABLE Y CONFIABLE. ANTE LA PROBLEMÁTICA DE EXTRVIO DE LLAVES NUESTRA CERRADURA SERÁ PARTE VITAL Y UNA DE LAS ESTRATEGIAS DE MERCADEO PARA QUE SEA UN PRODUCTO EXITOSO.   SE UTILIZARÁ UNA CERRADURA  Y UNA PUERTA SIMPLE, COMÚN Y CORRIENTE. CÓMO REQUISITOS ADICIONALES SE USARA UN MECANISMO DE CARGA, QUE USARÁN LOS COMPONENTES DIGITALES. EL MONTAJE SE RELIZARA DENTRO DE LA MISMA CORAZA DE LA CERRADURA SIN MÁS CABLEADO QUE EL QUE SE USA DENTRO DEL ARDUINO Y LA ALIMENTACIÓN ENERGÉTICA DEL MISMO.


CONCLUSIONES

EN RESUMEN, DESTACA QUE LAS CERRADURAS AUTOMÁTICAS SON UNA OPCIÓN PROMETEDORA PARA MEJORAR LA SEGURIDAD Y LA COMODIDAD EN EL ACCESO A PROPIEDADES RESIDENCIALES Y COMERCIALES. A PESAR DE LOS DESAFÍOS MENCIONADOS, LA TECNOLOGÍA CONTINÚA AVANZANDO EN TÉRMINOS DE SEGURIDAD, CONECTIVIDAD Y FACILIDAD DE USO. PARA FUTURAS INVESTIGACIONES, ES IMPORTANTE ABORDAR LAS PREOCUPACIONES DE SEGURIDAD Y GARANTIZAR LA INTEROPERABILIDAD CON OTROS SISTEMAS INTELIGENTES EN EL HOGAR. ADEMÁS, ES NECESARIO CONSIDERAR LA ACEPTACIÓN Y ADOPCIÓN POR PARTE DE LOS USUARIOS, ASÍ COMO LAS IMPLICACIONES LEGALES Y ÉTICAS RELACIONADAS CON EL USO DE DATOS BIOMÉTRICOS EN LAS CERRADURAS AUTOMÁTICAS.
Moncada Alvarez Emmanuel, Universidad de Guadalajara
Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California

EXTRACCIóN DE CARACTERíSTICAS DE ECG PARA DETECCIóN SEMIAUTOMáTICA DE FIBRILACIóN AURICULAR


EXTRACCIóN DE CARACTERíSTICAS DE ECG PARA DETECCIóN SEMIAUTOMáTICA DE FIBRILACIóN AURICULAR

Moncada Alvarez Emmanuel, Universidad de Guadalajara. Noreña Ceballos Marcelo, Universidad Nacional Abierta y a Distancia. Valzania Prada Vittoria José, Universidad Autónoma de Bucaramanga. Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La fibrilación auricular (FA) es una arritmia cardíaca común caracterizada por un ritmo cardíaco irregular y rápido. En lugar de tener un ritmo cardíaco regular, como ocurre en un corazón sano, los pacientes con fibrilación auricular experimentan una actividad eléctrica caótica y desorganizada en las aurículas del corazón, que son las dos cámaras superiores. En la fibrilación auricular, las aurículas no se contraen adecuadamente, lo que resulta en una pérdida parcial de la capacidad de bombear sangre de manera efectiva hacia los ventrículos, que son las cámaras inferiores del corazón. Como resultado, la frecuencia cardíaca puede aumentar significativamente y volverse irregular. La fibrilación auricular es el trastorno del ritmo cardíaco más común en adultos. Teniendo un dato de 46,3 millones de personas en el mundo padece de esta enfermedad, donde un 50-87% son asintomáticas. Esta enfermedad puede tener serias implicaciones para la salud, ya que puede aumentar el riesgo de formación de coágulos sanguíneos en las aurículas y su posterior liberación hacia otras partes del cuerpo, aumentando el riesgo de accidentes cerebrovasculares o embolias El diagnóstico de la fibrilación auricular generalmente se realiza mediante la realización de un electrocardiograma (ECG), que muestra la actividad eléctrica del corazón y revela los patrones característicos de la arritmia. Este trabajo tiene como objetivo de manera semi automatizada, detectar dicha patología por sus características únicas o distinguibles de otras patologías cardiacas.



METODOLOGÍA

En el presente estudio, se utilizó MATLAB para procesar las señales de ECG y se implementó un código personalizado que resalta tres características esenciales de la fibrilación auricular (FA). En primer lugar, se evaluó la arritmia, que se refiere a la variación en las pulsaciones por minuto, permitiéndonos detectar cuando el ritmo cardíaco se aleja del estándar o promedio de una persona sana. En segundo lugar, se analizó la irregularidad de los pulsos derivados de la patología. Esta característica es crucial, ya que muestra que el tiempo entre pulsos es completamente aleatorio, lo cual es uno de los aspectos más distintivos de la FA y de gran relevancia para su detección temprana. Finalmente, el código también identificó las ondas fibrilatorias, conocidas como pulsos f, que son oscilaciones de menor tamaño y duración, pero con altas frecuencias, que se pueden encontrar en la línea isométrica de nuestra señal de ECG entre los pulsos reales del corazón. Estas ondas fibrilatorias son indicativas de la presencia de FA y su detección es fundamental para un diagnóstico certero. El algoritmo de detección desarrollado se probó en seis señales de ECG obtenidas de una base de datos, que incluía sujetos sanos y sujetos con otras patologías cardíacas. La efectividad del algoritmo se evaluó en términos de su capacidad para detectar correctamente la presencia de la FA, así como para minimizar los falsos positivos.


CONCLUSIONES

En el presente estudio, se observó que el software desarrollado fue capaz de detectar cuatro de las señales como fibrilación auricular, identificando las tres características esenciales previamente mencionadas. Sin embargo, en las otras dos señales, solo se pudieron detectar dos de las características, lo que sugiere que aún se necesita estudiar y mejorar la generalización del algoritmo para lograr una detección más precisa de estas dos patologías faltantes. En cuanto a los sujetos sanos, los resultados fueron altamente alentadores, ya que el algoritmo mostró una precisión del 100% al descartar la falta de características  de la fibrilación auricular en estas muestras. Esto indica que el algoritmo es capaz de diferenciar de manera efectiva entre una señal de ECG normal y una afectada por fibrilación auricular, evitando confusiones con esta patología. Por otro lado, el algoritmo también demostró una buena capacidad para descartar otras patologías que no son fibrilación auricular, gracias a las características distintivas de esta arritmia, como la irregularidad de los pulsos y la presencia de las ondas f. En particular, se destacó que el algoritmo es capaz de diferenciarse de otras patologías excepto por una derivación de esta que es el aleteo auricular. Aunque los resultados son prometedores, se reconoce que aún queda trabajo por hacer para mejorar la capacidad de generalización del algoritmo y permitir una detección más precisa de las dos señales faltantes. Se sugiere seguir investigando y ampliando el conjunto de datos utilizado para entrenar y validar el algoritmo, con el objetivo de mejorar su sensibilidad y especificidad.
Mondragón Granados Daniela Mariana, Instituto Tecnológico de Pachuca
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

ANáLISIS DEL PROCESO DE MANTENIMIENTO EN UNA COMPAñíA PORTUARIA A TRAVéS DE LA SIMULACIóN DE EVENTOS DISCRETOS.


ANáLISIS DEL PROCESO DE MANTENIMIENTO EN UNA COMPAñíA PORTUARIA A TRAVéS DE LA SIMULACIóN DE EVENTOS DISCRETOS.

Mondragón Granados Daniela Mariana, Instituto Tecnológico de Pachuca. Ramos Larrieta Mariana, Instituto Tecnológico de Pachuca. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales procesos en las empresas portuarias es la transferencia de carga; para ello, los equipos electromecánicos utilizados deben cumplir con una serie de requisitos que garanticen su buen funcionamiento, lo cual puede ocasionar un incremento en los costos de producción. Por lo tanto, toda mejora que permita reducir pérdidas y costos en la producción a corto, mediano y largo plazo, son una decisión asertiva que las empresas deberían tomar para mantener la sustentabilidad. Bajo esta directriz, el mantenimiento ha tomado un papel importante debido a que ya no es solo un área de la empresa, sino que ahora se considera una parte importante del proceso productivo. 



METODOLOGÍA

Una vez que el tema de investigación ha sido asignado se realiza una visita empresarial para la recopilación de información y la creación de una base de datos. Posterior a ello se construye un modelo de simulación que permita conocer las áreas de oportunidad dentro del proceso seleccionado. Finalmente se generan propuestas de mejora y el proyecto es sustentado ante directivos de la universidad.


CONCLUSIONES

En los resultados se aprecian retardos o colas en la etapa de ejecución del trabajo que afectan directamente al tiempo final de ejecución del mantenimiento. Estos retardos se dan en la llegada de los insumos o repuestos necesarios para llevar a cabo el mantenimiento respectivo, lo cual puede ser el causante de la falta de disponibilidad de los equipos del área de operaciones de manera oportuna. Esto impacta negativamente los tiempos planificados para cada mantenimiento. En los resultados de la simulación se evidencia que al incluir una persona en el proceso este presenta mejoras en cuanto a los tiempos de respuesta; sin embargo, se propone hacer un estudio de funciones para no contratar a alguien sino realizar una redistribución de las cargas de trabajo.
Mondragon Vazquez Pedro Antonio, Universidad Autónoma de Occidente
Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente

CONCIENCIA ARTIFICIAL: LA CONVERGENCIA DE DOS MUNDOS


CONCIENCIA ARTIFICIAL: LA CONVERGENCIA DE DOS MUNDOS

Mondragon Vazquez Pedro Antonio, Universidad Autónoma de Occidente. Rascon Baca Ruendi Rubín, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la inteligencia artificial (IA) ha generado múltiples avances en diferentes campos y ha demostrado su eficacia en la emulación de habilidades humanas específicas. Sin embargo, una de las cuestiones más preocupantes y complejas es la viabilidad de que las IA pueden adquirir conciencia, es decir, tener una experiencia subjetiva y una comprensión consciente del mundo. Hablar de una inteligencia artificial con conciencia autónoma supone una serie de dilemas e interrogantes, siendo uno de ellos: ¿Aquella AI que goce de conciencia autónoma seguirá sirviendo a los intereses con los que fue disenada en un principio? Por lo cual; el propósito de este proyecto de investigación es fomentar el debate sobre la capacidad de adquisición de conciencia en una inteligencia artificial, sus alcances y consecuecias.



METODOLOGÍA

Los métodos e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en la revisión de la literatura existente sobre la emulación de habilidades relacionadas con la conciencia en IA. Además, se analizaron las investigaciones, estudios y avances técnicos relevantes, lo que permitió comprender los enfoques utilizados y los logros alcanzados en cada una de estas habilidades. Posteriormente, se exploraron las diferentes posturas en la IA respecto a la posibilidad de simular la conciencia en una máquina. Se examinó la postura de la IA fuerte, que defiende que toda actividad mental, incluyendo la conciencia, puede ser replicada mediante procesos computacionales y se contrastó la postura de la IA débil, que sostiene que la conciencia es una característica exclusiva del cerebro humano y que no puede ser alcanzada a través de la computación tradicional.  


CONCLUSIONES

Al término de la estancia de verano se llegó a la conclusión de los siguientes puntos: No existe consenso científico definitivo sobre si la inteligencia artificial puede crear conciencia. Los avances en la emulación de habilidades relacionadas
Monroy Casillas Jessica Vanessa, Universidad de Guadalajara
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

DISEñO DE PROTOTIPO MECATRóNICO PARA AUTOMATIZACIóN DE MéTODO SILAR.


DISEñO DE PROTOTIPO MECATRóNICO PARA AUTOMATIZACIóN DE MéTODO SILAR.

Domínguez Llanez Miguel, Instituto Tecnológico de Sonora. Monroy Casillas Jessica Vanessa, Universidad de Guadalajara. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la investigación de creación de películas para celdas fotovoltaicas observamos que existen diferentes métodos con los que se pueden obtener, aunque algunos requieren de altas o de bajas temperaturas, de presiones diferentes a la atmosférica y de tiempos de reacción diferentes. Por estas razones nos enfocamos en el método Silar, que fue descrito por Nicolau en 1985, y ha sido comúnmente utilizado para el crecimiento de películas delgadas en diversos substratos. Es un método conveniente y es posible utilizar diversos agentes purificantes; sin necesidad de vacío y a temperatura ambiente, condiciones en que se pueden obtener películas de buena calidad y homogeneidad. Además, permite controlar a merced el espesor de dicha película en un rango amplio únicamente variando la cantidad de ciclos de inmersión. Esta última característica, que vista simplemente, representa una ventaja, en procesos que requieren de un gran número de ciclos para alcanzar un espesor determinado puede representar una dificultad por el tiempo requerido en el proceso.



METODOLOGÍA

Para la creación del sistema Silar se dividió el trabajo en dos partes, una de las cuales se enfocó en el diseño mecánico donde se utilizaron herramientas de software e impresión 3D. En la segunda parte se desarrolló el software para el movimiento del sistema y también basado en el uso de elementos electrónicos como sensores y motores a paso. Para el control de los motores a pasos y el uso de sensores infrarrojos se utilizó una tarjeta programable la cual fue un Arduino Mega por la familiaridad y herramientas ya existentes, en la creación del programa de software se utilizó una librería que permitía el control de velocidad, aceleración, cantidad de pasos y la ubicación; el uso de los sensores se limitó únicamente para cerciorar la posición del recorrido producido por el motor. Para la parte mecánica del proyecto se utilizó el software de diseño SolidWorks. El prototipo consta de 19 piezas, 7 de ellas iguales. Todas fueron diseñadas individualmente en el software ya mencionado y posteriormente ensambladas para formar un mecanismo tipo brazo cuidando las proporciones y funcionalidades requeridas. Sumado a las piezas impresas en 3D, se requiere tornillería, tuercas y baleros, éstos de origen comercial.


CONCLUSIONES

El desarrollo e investigación en el campo de la ingeniería de materiales es fundamental para la creación de nuevas tecnologías, ya que se conocerán sus propiedades y como usarlas a nuestro favor; nuestro enfoque en este proyecto es automatizar el método SILAR que facilitara el proceso de creación de películas semiconductoras. La necesidad de la automatización viene dada por el objetivo de cualquier proyecto: eficiencia y productividad. Cualquier proceso de automatización consta de procesos que se desarrollan por sí mismos sin la necesidad de realizar controles manuales. Esto supone grandes ventajas para todos: la no interrupción de los procesos productivos. Como menciona Ogata (1998) el control automático ha desempeñado una función vital en el avance de la ingeniería y la ciencia. Debido a que los avances en la teoría y la práctica del control automático aportan los medios para obtener un desempeño óptimo de los sistemas dinámicos, mejorar la productividad, aligerar la carga de muchas operaciones manuales repetitivas y rutinarias, así como de otras actividades, todos los ingenieros y científicos deben tener un buen conocimiento de este campo. (Ogata, 1998).
Monroy Hernández Camila Andrea, Universidad Pontificia Bolivariana
Asesor: Mtra. Beatriz González Gutiérrez, Tecnológico de Estudios Superiores de Tianguistenco

ESTUDIO ANALíTICO DE LA UTILIZACIóN DE MANUALES DE PROCEDIMIENTOS Y ORGANIZACIóN EN ORGANISMOS GUBERNAMENTALES EN CONJUNTO CON SU CULTURA ORGANIZACIONAL, Y ANáLISIS DE HERRAMIENTAS PARA MEDIR LA EFICIENCIA DE LOS TRABAJADORES DENTRO DE SU CULTURA ORGANIZACIONAL.


ESTUDIO ANALíTICO DE LA UTILIZACIóN DE MANUALES DE PROCEDIMIENTOS Y ORGANIZACIóN EN ORGANISMOS GUBERNAMENTALES EN CONJUNTO CON SU CULTURA ORGANIZACIONAL, Y ANáLISIS DE HERRAMIENTAS PARA MEDIR LA EFICIENCIA DE LOS TRABAJADORES DENTRO DE SU CULTURA ORGANIZACIONAL.

Monroy Hernández Camila Andrea, Universidad Pontificia Bolivariana. Asesor: Mtra. Beatriz González Gutiérrez, Tecnológico de Estudios Superiores de Tianguistenco



PLANTEAMIENTO DEL PROBLEMA

Dentro de un organismo gubernamental la cultura organizacional tiene un impacto muy fuerte en la obtención de los resultados al ofrecer el servicio, lo cual provoca la ineficiencia de los trabajadores al llevar a cabo sus actividades, esto se deriva por estrés laboral, problemas psicosociales, falta de conocimiento de las actividades específicas que les toca realizar a cada uno dentro de la organización y en varios casos por no contar con el equipo y herramientas necesarias.  Dentro de los gobiernos de América Latina se considera importante tener el conocimiento de lo que es cultura organizacional y los diferentes documentos para la mejora de ésta, es por ello la importancia de que existan publicaciones del tema para realizar un análisis detallado de los diferentes documentos utilizados, entre los que se encuentran los manuales de procedimientos.



METODOLOGÍA

La presente investigación se enfoca en un diseño descriptivo y cuantitativo para analizar la utilización de manuales de procedimientos y organización en organismos gubernamentales en conjunto con su cultura organizacional, así como para analizar las herramientas existentes para medir la eficiencia de los trabajadores dentro de su cultura organizacional. Se llevará a cabo una revisión de la literatura existente sobre el tema para obtener información relevante sobre estudios previos y marcos teóricos relacionados con la utilización de manuales de procedimientos y organización, la cultura organizacional y las herramientas de medición de eficiencia de los trabajadores. Se identificarán las principales variables que serán analizadas en el estudio, como la utilización de manuales de procedimientos y organización, los aspectos de la cultura organizacional y las diferentes herramientas de medición de eficiencia de los trabajadores. Para la recopilación de datos, se utilizarán fuentes secundarias como informes gubernamentales, estudios previos, documentos organizacionales y artículos académicos. Se extraerán los datos relevantes sobre la utilización de manuales, aspectos culturales y herramientas de medición de eficiencia para su posterior análisis. Los datos recopilados serán analizados cuantitativamente utilizando técnicas estadísticas apropiadas. Se calcularán porcentajes y se realizarán comparaciones entre las diferentes variables identificadas en la investigación, con ayuda de Microsoft Excel. Se presentarán las conclusiones generales del estudio en relación con la utilización de manuales de procedimientos y organización en organismos gubernamentales y su relación con la cultura organizacional, así como las herramientas de medición de eficiencia de los trabajadores. Además, se ofrecerán recomendaciones prácticas y sugerencias para futuras investigaciones en el área.


CONCLUSIONES

El análisis de los documentos examinados ha demostrado de manera efectiva que todos ellos se centran en el tema de la cultura organizacional en organismos gubernamentales. Sin embargo, es importante destacar que ninguno de los documentos aborda de manera puntual el tema del manual de procedimientos. Aunque la literatura existente proporciona valiosa información sobre la cultura organizacional, se identifica una brecha en la cobertura específica de esta herramienta vital para el adecuado funcionamiento y eficiencia de los procesos internos de las entidades gubernamentales. Por ende, se sugiere que futuras investigaciones y estudios se enfoquen en abordar esta temática crucial para el desarrollo y mejora de la gestión en el ámbito público.
Monroy Rodríguez Roald Aarón, Instituto Politécnico Nacional
Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

DESARROLLO DE AMBIENTE VIRTUAL PARA LA CAPACITACIóN DE MéDICOS EN PROCEDIMIENTOS DE HISTEROSCOPIA


DESARROLLO DE AMBIENTE VIRTUAL PARA LA CAPACITACIóN DE MéDICOS EN PROCEDIMIENTOS DE HISTEROSCOPIA

Ambriz Hernández Abdiel, Instituto Politécnico Nacional. Monroy Rodríguez Roald Aarón, Instituto Politécnico Nacional. Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La histeroscopia es un procedimiento médico que implica la inserción de un histeroscopio (un tubo delgado con una cámara) a través del cuello uterino para visualizar el interior del útero. Al desarrollar un simulador, se brinda a los médicos y estudiantes un entorno seguro para practicar y perfeccionar sus habilidades antes de realizar el procedimiento en pacientes reales. Esto reduce el riesgo de errores y complicaciones durante los procedimientos reales.



METODOLOGÍA

Escaneo de materiales físicos Como primera actividad se realizó el escaneado de los materiales de referencia (Maniquí, histeroscopio, etc.) para poder tener sus dobles digitales que posteriormente fueron usados dentro del motor gráfico y, además, adquirir la capacidad de replicarlos para evitar el maltrato de los materiales originales.   Tratado de mallas  Seguido de esto, se trata la malla resultante para reducir la cantidad de polígonos que la conforman a fin de que, al ser procesada por los Slicers, estos mantengan un desempeño aceptable y se agregó la cavidad donde se montó el sistema mecatrónico. Cabe destacar que la capacidad de impresión no fue suficiente por lo que fue necesario seccionar el modelo para poder ensamblarlo posteriormente.  Ensamble del modelo de referencia  Con los archivos de las secciones listos el siguiente paso fue imprimir y limpiar las piezas resultantes para luego ser ensambladas y con ello verificar que las dimensiones y la disposición escogida fueron las adecuadas.   Conexión con el motor gráfico  El apartado anterior concluye el primer módulo, por lo que para el segundo módulo fue necesario conectar el sistema mecatrónico con el motor gráfico. Aunque el motor escogido fue Unreal Engine 4, no se contaba con la documentación necesaria para realizar la conexión, por lo que se optó por utilizar la opción restante, el motor grafico Unity. El medio para realizar dicha conexión es el Plugin HaptictsDirect. Con el Plugin instalado en el motor fue posible empezar la fase de desarrollo y experimentación de lo que el Plugin permite realizar en base a la documentación existente.  Modelado y texturizado de mallas  Para el tercer módulo se requirieron los modelos ya obtenidos en el primer módulo, con la diferencia que se necesitó agregar tanto texturas, shaders y modificadores de deformación que permitan interactuar de forma adecuada con estos elementos dentro del motor gráfico.   Pruebas de funcionamiento  Finalmente, fue necesario construir el ambiente virtual en el que se lleva a cabo el procedimiento para poder experimentar la funcionalidad del prototipo con los 3 módulos funcionando en conjunto. Este proyecto se encuentra desarrollado hasta este punto a la fecha de redacción del documento.


CONCLUSIONES

Durante la estadía fue posible realizar una gran parte del desarrollo al que este proyecto apunta, dado que se cuenta con un entorno representativo de un útero sano que es la base para poder generar distintos entornos que representes diversos casos específicos que dependan de la edad y la patología que se requiera poner a prueba en el simulador. Además de que al contar con los modelos digitales es posible tanto replicar el instrumental, como modificarlo, abriendo así las posibilidades de modificar los modelos para cumplir con especificaciones dadas por el personal capacitado y para ofrecer una vía de mantenimiento al material físico. 
Montañez Fuerte Alfonso, Instituto Tecnológico de Morelia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

EFECTO DE LA ADICIÓN DE METACAOLÍN EN LA CARBONATACIÓN DE UN MORTERO BASE CEMENTICIA. UNA PREDICCIÓN DE TIEMPO DE VIDA


EFECTO DE LA ADICIÓN DE METACAOLÍN EN LA CARBONATACIÓN DE UN MORTERO BASE CEMENTICIA. UNA PREDICCIÓN DE TIEMPO DE VIDA

Montañez Fuerte Alfonso, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto es el segundo material más utilizado en el mundo, esto lo convierte además en un sector altamente contaminante, siendo responsable de la producción anual de hasta el 5% de CO2 a nivel mundial, en donde el cemento, uno de sus componentes, es el material que cubre gran parte de este porcentaje, por ello la importancia de reducir su uso y hacerlo más durable. La carbonatación es un fenómeno de gran importancia en la industria de la construcción, ya que debido a ella se tiene por consecuente la corrosión en el acero de refuerzo. Siendo el cemento un sector que requiere atención debido a su gran magnitud en producción y contaminación, por lo anterior, la continua búsqueda de materiales alternativos para la reducción del uso del cemento ha hecho que se sugieran una serie de distintos materiales, entre ellos, los materiales cementantes suplementarios (SCMs) debido a que representan un área de oportunidad debido a la disponibilidad de estos. Se propuso el uso de metacaolín en el diseño de un mortero para comparar y saber hasta qué punto permite reemplazar parcialmente el cemento utilizado, se hizo la medida de la carbonatación para poder determinar su efectividad con 1 año de exposición a la intemperie.



METODOLOGÍA

Se hicieron una serie de 6 muestras de mortero base cementicia con dimensiones de 40 mm x 40 mm x 160 mm, 3 presentan adición de metacaolín al 5% y 3 son muestras testigo para poder hacer la comparación con un tiempo de exposición a la intemperie de 1 año. La relación agua/cemento fue de 0.86, se busca que cumplan con las condiciones de la ciudad de Morelia, cuyos rangos de humedad se encuentran entre el 50% y 80%. Posterior a ello, se hizo el trazado de líneas guía en el centro de cada cara de la pieza para la realización de un corte transversal con la ayuda de un cincel, una vez fueron cortadas, se usó una solución de fenolftaleína al 2% como una prueba general de carbonatación. La coloración indica el pH que presenta, las zonas incoloras representan el avance de la carbonatación porque el pH es inferior a 8. Se midieron las profundidades de carbonatación de cada cara en dirección al centro para recopilar información y realizar el cálculo de KCO2 promedio y KCO2 crítico, ambas medidas son representativas, el primero se enfoca de manera general en la tasa de carbonatación mientras que el segundo se dirige hacia una profundidad crítica.


CONCLUSIONES

Los resultados obtenidos fueron evaluados con la norma NMX-C-515-ONNCCE-2016 para determinar su calidad. Con lo anterior, los cálculos de los coeficientes de carbonatación indican que con un recubrimiento de 45mm y un KCO2 crítico= 15 mm*año-0.5, son 9 años los que deben trascurrir para llegar a ese espesor. Se hizo la comparación con el mortero testigo en donde se encontró que la tasa de carbonatación fue mayor en el mortero adicionado con metacaolín, por lo que el efecto de la adición de metacaolín al 5% en el mortero para esta prueba resultó ser perjudicial dado que aumenta la tasa de carbonatación del mortero.
Montaño Medina Abril Daniela, Universidad de Sonora
Asesor: Dra. Karen Hariantty Estevez Sanchez, Benemérita Universidad Autónoma de Puebla

ANÁLISIS Y SIMULACIÓN DE PROCESOS DE TRANSPORTE DE MASA Y CALOR


ANÁLISIS Y SIMULACIÓN DE PROCESOS DE TRANSPORTE DE MASA Y CALOR

Montaño Medina Abril Daniela, Universidad de Sonora. Asesor: Dra. Karen Hariantty Estevez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, la escasez de agua limpia es un problema que ha avanzado con alarmante rapidez en los últimos años. Actualmente, en el país hay municipios al borde de la sequía cuya única forma de subsistir ha sido extrayendo agua de las presas de regiones vecinas, ocasionando un mar de conflictos políticos. Ejemplo de ello fue la construcción del Acueducto Independencia en 2010 para abastecer de agua a la ciudad de Hermosillo, cuando la presa Abelardo L. Rodríguez se secó. Dicha obra desató una fuerte problemática con la tribu Yaqui porque reclamaban que el saqueo a la presa El Novillo dejaba sin agua a sus cosechas. Un conflicto similar se presentó en 2022 cuando el gobernador de Nuevo León, Samuel García, y el de Tamaulipas, Américo Villareal, se disputaban el agua del Río Panuco ante la inquietante crisis hídrica que azotaba la región. La propuesta del proyecto presentado también surge ante la situación que existe en la ciudad de Puebla, donde el agua "limpia" que corre por las tuberías presenta muchos problemas debido a la incrustación de sales.



METODOLOGÍA

Para dar solución a problemáticas como las anteriores, se propone la fabricación de un módulo de desalinización de agua salada que opera bajo la técnica de Destilación por Membrana de Contacto Directo (DMCD). El módulo se divide en 3 secciones: una cámara de alimentación, una membrana semipermeable, y una cámara de permeado. En su totalidad mide 0.1 m de largo, 0.002 m de ancho y 0.05 m de profundidad, dando un volumen de 1E-05 m^3. La membrana está hecha de un material hidrofóbico que no permite el paso de las sales contenidas en el agua a tratar. Posee un grosor de 1.7E-04 m y un tamaño de poro de 2.6E-07 m. Su tortuosidad es de 1.35, su porosidad de 0.73, y su coeficiente conductivo tiene valor de 0.24 W/ m-ºC. Por la primera cámara se hace correr un flujo de agua salada que entra a una temperatura de 50ºC - 80ºC y que posee una concentración de 40.84854 kg/m^3; mientras que por la segunda corre un flujo de agua pura a 20ºC - 25ºC. El agua que corre a la par de la frontera alimentación - membrana se ve sometida a una caída de presión que origina su pase de líquido a vapor sin alcanzar el punto de ebullición. La diferencia de temperatura entre las fronteras de la membrana genera un gradiente de presión de vapor que funge como fuerza motriz para el arrastre del vapor desde la frontera alimentación - membrana hacia el permeado, evitando la necesidad de utilizar una bomba externa para empujar el agua como en el caso de la ósmosis, reduciendo así el consumo energético e impacto ambiental del módulo. Durante la estancia, se utilizó el software Octave para calcular las propiedades del fluido tanto en las cámaras de alimentación y permeado como en la membrana en diferentes puntos de las mismas. Empleando el método de discretización se propusieron 5 nodos por cada sección del módulo, dando lugar a 15 ecuaciones diferenciales obtenidas a través del planteamiento de los balances de masa y energía dentro del sistema, cuya resolución describe el cambio de T en cada nodo de la alimentación y el permeado, así como el cambio de concentración en cada nodo de la primera, a través del tiempo. La concentración en el permeado siempre tiene valor de cero ya que no contiene sales. La programación del código en Octave inicia con la declaración de las variables de entrada del sistema: temperaturas para ambas cámaras, concentración, y número de ecuaciones a resolver. Posteriormente, se construyen distintas matrices que sirven como espacios virtuales para almacenar las propiedades que se esperan obtener al correr el código. Después, se asignan las temperaturas de entrada de ambas cámaras como las temperaturas de las interfases correspondientes en la membrana. Sin embargo, este paso solo es válido para el momento en el que el fluido no ha comenzado a correr a través de las cámaras ya que, una vez iniciado este proceso, la transferencia de calor entre el fluido caliente y el frío provocan que dichas temperaturas de interfase empiecen a variar. Luego, se inicia un proceso de iteración de 20 ciclos (número propuesto empíricamente en base a la convergencia del valor) para recalcular los flujos volumétricos en cada nodo de la cámara de alimentación y permeado, así como una serie de propiedades entre las que destacan las presiones de vapor, coeficientes convectivos y conductivos, T en la membrana, flujo de masa del permeado, velocidades de alimentación y permeado, transferencia de calor global y las nuevas T de interfase. Finalmente, con los valores anteriores, se resuelven de forma simultánea los balances de energía y masa de todos los nodos, obteniendo los cambios de T y concentración en función del tiempo.


CONCLUSIONES

Para descubrir cómo cambian las propiedades obtenidas al variar las temperaturas de entrada, se hicieron distintas pruebas empleando 50ºC, 60ºC, 70ºC y 80ºC para la alimentación, y 20ºC y 25ºC en el permeado. Al graficar T de alimentación VS tiempo, se observó que ésta disminuye mucho más rápido cuando el permeado se encuentra a 20ºC en lugar de 25ºC. Esto puede atribuirse a que, dado que el gradiente de T entre 20ºC y la T de alimentación correspondiente (50ºC, 60ºC, 70ºC u 80ºC) es mayor que el gradiente entre 25ºC y esa misma T, la transferencia de energía entre ambas cámaras es mucho más rápida. Por otra parte, al graficar el cambio de concentración contra el tiempo se percibió que hay periodos de tiempo en los que la concentración se mantiene constante pero posteriormente incrementa súbitamente. Estos incrementos se dan de forma equitativa o arbitraria en cada nodo, lo que depende del tipo de fluido (laminar o turbulento). Adicionalmente, tras graficar concentración de alimentación VS T de permeado, se observó que si bien la temperatura aumenta durante los primeros momentos del proceso, posteriormente se mantiene constante en el tiempo; mientras que, la concentración aumenta en todo momento, lo que permite deducir que ambas variables no son dependientes entre sí.
Montes López Kevin Ignacio, Universidad Autónoma de Chiapas
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO: EFECTO DEL USO DE FIBRAS DE HENEQUéN SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO


CORROSIóN EN ESTRUCTURAS DE CONCRETO REFORZADO: EFECTO DEL USO DE FIBRAS DE HENEQUéN SOBRE PROPIEDADES DE DURABILIDAD DE MUESTRAS DE CONCRETO REFORZADO

Méndez Guzmán Leydi Arely, Instituto Tecnológico Superior de Los Ríos. Montes López Kevin Ignacio, Universidad Autónoma de Chiapas. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

En el sector de la construcción, el concreto reforzado ha sido fundamental, sin embargo, su deterioro a través de la carbonatación, en conjunto con la corrosión del acero afecta gravemente la estructura construida presentando agrietamientos y delaminaciones. Estas alteraciones en las estructuras son propiciadas por la calidad del aire y suelo en el que se encuentra, por ejemplo el dióxido de carbono el cual ingresan a través de los poros del concreto que al reaccionar forma carbonato de calcio, causando la disminución del pH, este proceso se denomina carbonatación; la humedad, por otro lado, afecta principalmente el estado del acero, ya que propicia su oxidación; y el conjunto de ambas afectaciones acelera la descomposición y corrosión del acero, haciendo que se presente agrietamientos, desprendimientos con exposición de acero y delaminaciones. En los países en vía de desarrollo (por ejemplo, México) y desarrollados, especialistas en estos temas, hicieron evaluaciones detalladas en el que determinaron que las pérdidas a causa de la corrosión del Producto Interno Bruto (PIB). Por lo tanto, las reparaciones en cuanto a corrosión del acero son muy costosas y si la estructura esta dañada por la carbonatación, su daño estructural puede ser irreversible. Por lo que las propiedades mecánicas y físicas del concreto son fundamentales, ya que su constitución proporciona resistencia y durabilidad a las estructuras; como propiedad mecánica se estudia su resistencia a la compresión que en base a norma debe corresponder de manera proporcional a los 7, 14, 28 y 90 días, derivando así otras propiedades del concreto; en la parte física, se estudia su fraguado y el endurecimiento, además de la inspección visual de la porosidad en el concreto.



METODOLOGÍA

Debido a que las propiedades mecánicas del concreto se ven afectadas, se añadieron las fibras de henequén a la mezcla de concreto del 0.5, 1 y 2% respecto al peso total de la mezcla, para así, mejorar algunas de sus propiedades mecánicas y físicas. Principalmente se cribaron los agregados finos y gruesos de las mallas con numero 4, 8, 16, 30 y 100, también se cortaron y separaron las fibras en buen estado a cada dos centímetros, usando un total de 500-800 gramos aproximadamente. La mezcla de concreto fue elaborada con fibras de henequén, cemento portland compuesto de la marca comercial Cemex maya, agregado fino y grueso, agua purificada y aditivos. Todo ello para obtener mezclas de concreto con una resistencia de 280 kg/cm2, elaborando 48 probetas cilíndricas de concreto con un diámetro de 15 cm y una altura de 30 cm, además de 44 probetas cilíndricas de 7.5 cm de diámetro y 15 cm de altura, algunas con varilla; dividiendo mezclas para su comparación, en el que tres cuartas partes tienen fibra de henequén y la ùltima cuarta parte no tiene. Una vez elaboradas las probetas, se procedió a desmoldarlas, y a las 24 horas se sometió a curado en una solución saturada de cal, el cual durará hasta los 90 días. Mientras, se realizaron pruebas de potencial, resistividad eléctrica y pruebas de compresión a los 7, 14 y 28 días. La prueba de potencial se realizó utilizando las probetas con varilla; para esta prueba se utiliza un electrodo de referencia, que en este caso se usó un electrodo de cobre sulfato de cobre, este se mide a través de un multímetro, en el cual se mide la diferencia de potencial de la varilla con el concreto y de el electrodo con el concreto, de esta manera se puede conocer la probabilidad de corrosión que existe en la varilla. La prueba de resistividad la realizamos con un resistómetro, en este caso utilizamos el método de 4 puntas, en el cual ingresamos una corriente a través de las puntas externas, y en las dos puntas centrales se mide la resistencia que genera el conductor que en este caso es la probeta de concreto, la cual se humedece para obtener el resultado; la distancia entre cada punto es la misma, en este caso fue de 2.5 cm. La prueba de compresión nos ayuda a determinar la resistencia de las probetas de concreto y los diferentes tipos de fisuras que puede presentar cuando ha alcanzado su peso limite resistente, a los diferentes días de curado, los cuales son a los 7, 14 y 28 días.


CONCLUSIONES

Durante la estancia de este verano, se realizo el estudio de la corrosión que se da en el concreto, la cual se da por diversas causas, entre las ya mencionadas, al igual que puede verse afectada por los cloruros y algunos otros compuestos que dañan a la varilla, por esta razón es que se utilizan diversos elementos que ayudan a retardar este efecto, y en cuanto a la mejora de las propiedades mecánicas del concreto se usan compuestos como lo son las fibras, o se hace el uso de algún tipo de aditivo. Las muestras de concreto durante los primeros 14 días, tienen un comportamiento en el que estas, con menor cantidad de fibra dan mejores resultados midiéndose a la resistencia a la compresión, y al medirlo a los 28 días, la resistencia a la compresión que se logró, fue mayor en el de 2% respecto a las muestras de 1%, sin embargo, las muestras con menor cantidad siguen teniendo una mayor resistencia a la compresión; comparando las muestras con fibra con las que no tienen fibra, podemos concluir que estas últimas tienen una mayor resistencia a la compresión. Centrando el uso del henequén para la mejora de las propiedades mecánicas y físicas del concreto, que, al hacer las pruebas ya nombradas con anterioridad, se puede concluir que el uso de las fibras hace que reduzca la resistencia a la compresión, pero se tiene la teoría que el uso de estas mismas, ayudarán a que el concreto se comporte de una mejor manera cuando se ven sometidas a flexión, como lo puede estar cuando se utiliza como viga.
Montes Rosales Naydelin Vianey, Universidad Mexiquense del Bicentenario
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

PROTOTIPO IOT PARA CENSAR HUMEDAD DEL SUELO


PROTOTIPO IOT PARA CENSAR HUMEDAD DEL SUELO

Montes Rosales Naydelin Vianey, Universidad Mexiquense del Bicentenario. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La variabilidad de la humedad del suelo afecta directamente el crecimiento de las plantas, con una baja filtración de agua se reduce también la absorción de nutrientes el cultivo lo expresa en una menor tasa de crecimiento y por ende menor rendimiento. Un exceso de humedad dentro del invernadero da lugar a varios problemas en el cultivo, como la desigualdad de crecimiento o desarrollo y la aparición de enfermedades. Por lo tanto, es importante controlar la humedad. Deshumidificar el invernadero puede reducir la humedad ambiental o aumentar la producción. Independientemente de cuánto tiempo las plantas se exponen al exceso de humedad, la interrogante será qué tanto el agua afectó la disponibilidad de Nitrógeno (N) en el suelo y si esto puede abastecer la necesidad de las plantas, pues los suelos con altas temperaturas y saturados de humedad pierden Nitrógeno a través de la desnitrificación (reducción de nitratos o nitritos convirtiéndolos en óxidos de nitrógeno, amoníaco y nitrógeno libre mediante determinados microorganismos). En la mayoría de los casos la pérdida es elevada, esto es más grave en suelos con un pobre drenaje. En suelos con mejor drenaje la desnitrificación no afecta, en este caso las pérdidas de Nitrógeno se dan por percolación, el agua puede mover el N fuera del alcance de las raíces. Un cultivo con un buen sistema radical, creciendo en un suelo con 3% de Materia Orgánica (MO), la mineralización durante la etapa media de crecimiento provee un porcentaje considerable del N requerido por el cultivo.  Esto quiere decir que si el suelo es rico en MO puede abastecer N suficiente para el cultivo, incluso si se dan pérdidas por inundación del suelo. Aunque medir la concentración de N en el suelo o aplicarlo al cultivo o parte del cultivo donde muestre deficiencia, es recomendable esperar algunos días para ver si las plantas recuperan su verdor antes de gastar.  



METODOLOGÍA

Para este proyecto se utiliza el siguiente material: Sensor De Humedad De Tierra Suelo Arduino, Pic Placa nodemcu esp8266 Jumper Cable v8 Protoboard Display Oled 128x64 Primero se realizó la instalación del software Blink Arduino 1.8.19 y se descargó el gestor de tarjetas, conectamos la Placa nodemcu esp8266 a la computadora y se verifico la conexión, seguido de esto programamos utilizando las librerías:  #include  #include  #include Esto para agregar la conexión de la red a la que se conectó, se realizó una prueba para verificar la conexión y una vez terminado el código se subió a la Placa nodemcu esp8266 fuimos a la opción Monitor Serie este nos muestra una pantalla donde nos dice si la conexión es exitosa o no, en este caso mostró Conexión Exitosa y seguido de ello la IP que está utilizando para verificar que si hay conexión entre la computadora y la Placa nodemcu esp8266 se realizó un ping. Se abre una nueva pestaña en Arduino y se realizó un programa de prueba para verificar que el servidor HTTP esté funcionando y una vez más se comprobó en el Monitor Serie que se tuviera conexión y que se estuviera iniciando el HTTP, se consulta la estructura de la placa nodemcu esp8266 y el cómo deben ir conectadas las entradas que se van a utilizar con el Display Oled 128x64. Se realizó la siguiente conexión todo esto sobre el protoboard 3V de la placa con VCC del Pin del display SSD1306 OLED 128X64 utilizamos jumper color rojo, G de la placa con GND del Pin del display SSD1306 OLED 128X64 utilizamos jumper color negro, D1 de la placa con SCL del Pin del display SSD1306 OLED 128X64 utilizamos jumper color azul,  D2 de la placa con SDA del Pin del display SSD1306 OLED 128X64 utilizamos jumper color blanco. Una vez realizada la conexión se programó en el proyecto de Arduino para que se encienda el display una vez compilado se subió a la placa nodemcu esp8266 y observó como el display prende.   Se instalo XAMP (el cual es un paquete de software libre, que consiste principalmente en el sistema de gestión de bases de datos MySQL, el servidor web Apache y los intérpretes para lenguajes de script PHP y Perl), ya que se ocupó para poder enlazar la base de datos que se tiene en phpMyAdmin, seguido de esto se abrió la carpeta de XAMPP/apache/conf y abrimos httpd.con con el block de notas. Buscamos las líneas Listen 12.34.56.78:80 y Listen 80 a esta última se le agregó # al inicio y en la siguiente línea se agregó Listen seguido de la IP de la maquina esto para que podamos tener conexión con la base de datos. Se realizó una base de datos con los siguientes elementos: Id, Humedad, Fecha/Hora, SensorId todo esto en la herramienta phpMyAdmin. En el buscador de la maquina situó la IP/myAdmin y me cargó a la página donde se muestra la base de datos. Se abre una nueva pestaña en Arduino donde se realizó un nuevo código para que la base de datos se actualice cada 5 segundos se verifica el código y se sube a la placa nodemcu esp8266 una vez elaborado esto se hace la última conexión A0 Nodemcu esp8266 con A0 Sensor de Humedad se conecto con  Jumper de color Naranja/cafe,  D0 Nodemcu esp8266  no se conecta G  Nodemcu esp8266 con GND   Sensor de Humedad se conecto con  Jumper de color negro 3V Nodemcu esp8266 con VCC Sensor de Humedad se conecto con  Jumper de color rojo Al colocar el Sensor de humedad de suelo en tierra seca se obtuvo un 0 lo que indica que está muy seca la tierra y al meter el sensor al agua obtuvimos 942 y conforme iba sacando el sensor la humedad iba disminuyendo así mismo se muestra una gráfica donde se visualiza como va descendiendo la humedad.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre la importancia de la humedad del suelo en una planta puesto que el exceso de humedad afecta directamente el crecimiento de las plantas, con una baja absorción de agua se reduce también la absorción de nutrientes y el cultivo gracias a esta investigación se puede monitorear en tiempo real, mejorar el rendimiento de los cultivo y de acuerdo a los datos precisos y confiables permite tener una mejor visión de las condiciones del suelo, optimiza el uso de recursos en este caso del agua y fertilizantes así mismo tomar decisiones sobre la misma.
Montesinos Garcia Kevin Javier, Universidad Vizcaya de las Américas
Asesor: Dr. Carlos Vicente Tostado Cosío, Universidad de Sonora

COMPORTAMIENTO FISICO-MECANICO DE LOS MATERIALES DE LA CONSTRUCCION ADOBES BTS COMPACTADOS DE TIERRA Y DOVELAS DE CELULOSA.


COMPORTAMIENTO FISICO-MECANICO DE LOS MATERIALES DE LA CONSTRUCCION ADOBES BTS COMPACTADOS DE TIERRA Y DOVELAS DE CELULOSA.

Montesinos Garcia Kevin Javier, Universidad Vizcaya de las Américas. Asesor: Dr. Carlos Vicente Tostado Cosío, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El laboratorio experimental se enfrenta al desafío de mejorar y garantizar la calidad de los trabajos centrados en la elaboración de nuevos materiales, especialmente el adobe de tierra compactada (adobes BTC), compuesto por tierra, agua, cemento y perlita mineral. La implementación de un sistema de aseguramiento de la calidad se vuelve imprescindible para aumentar la credibilidad y confiabilidad de los resultados obtenidos en los ensayos y pruebas realizadas en el laboratorio. El objetivo principal es demostrar que el adobe BTC es un excelente material de construcción, tanto en términos de resistencia como de capacidad para soportar altas temperaturas. Para lograrlo, el equipo de investigadores busca obtener resultados precisos que respalden la viabilidad y calidad del material para su comercialización. Por otro lado, el equipo también está trabajando en el desarrollo de dovelas de celulosa, utilizando este biomaterial orgánico abundante y renovable como una alternativa sostenible y respetuosa con el medio ambiente en la construcción. Aunque existe un gran interés en esta propuesta, se enfrentan a desafíos y problemas que deben abordarse para validar y mejorar la viabilidad y eficacia de las dovelas de celulosa en diversas aplicaciones arquitectónicas e ingenieriles. La clave para lograr un sistema constructivo viable y sostenible, basado en las dovelas de celulosa, radica en realizar pruebas y análisis adecuados, así como optimizar la mezcla y el proceso de elaboración. De esta manera, podrán obtener un material con potencial real para su aplicación en la arquitectura e ingeniería civil, contribuyendo significativamente a soluciones más respetuosas con el medio ambiente y el uso de materiales renovables en la construcción.



METODOLOGÍA

ADOBES BTC El adobe elaborado consiste en una mezcla de tierra, agua, cemento y perlita mineral. Para su evaluación, se colaboró en la medición de la resistencia, peso volumétrico, absorción de agua y dimensiones de las piezas. Los materiales empleados incluyeron cemento, tierra, perlita, agua, probetas, recipientes, moldes, plantillas, palas y una carretilla. Se creó una tabla con relaciones y cantidades para guiar la preparación de los adobes. Procedimiento: Primeramente mojamos la perlita mineral y agregamos 700 gramos de cemento y mezclamos. Medimos la tierra conforme a la tabla y la cantidad que se indica, posteriormente agregamos los 700 gramos de cemento faltante y mezclamos hasta que se vea uniforme, luego se le agrega los dos litros de agua y mezclamos.    Continuando le agregamos la mezcla de perlita con cemento y mezclamos hasta tener una mezcla heterogénea. Preparación del molde, aplicar aceite. Rellenar el molde mientras se rellena no se aplica presión, cuando ya esté lleno se cierra y se aplica presión, continuando se saca con cuidado el ladrillo y se coloca en la mesa. Al día siguiente se realizó el curado de los ladrillos, el cual consiste en aplicarles agua hasta quedar todos húmedos. Y se marcó los ladrillos. DOVELAS DE CELULOSA Es un sistema constructivo en la arquitectura para formar arcos pero hoy en la actualidad se están haciendo pruebas con celulosa lo que viene siendo el papel triturado y puesto en aguay esto viene a reemplazar al casetón.   Se llevó a cabo una investigación en el laboratorio de la Universidad de Sonora (UNISON) sobre una dovela de celulosa, un sistema constructivo en pruebas. La dovela, hecha de papel reciclado, fue sometida a diversas pruebas con la adición de materiales como cemento y cemento blanco. Se utilizaron equipos como una trituradora, molde, cubetas, taladros e Inclusores para realizar las pruebas. Procedimiento Primeramente conseguimos hojas de papel reciclado y lo pasamos a triturar en la máquina. Un día antes se puso igual se trituro papel y se puso a remojar con agua. Continuando se revolvió el papel con un taladro a el cual se le coloco puntas de taladro, esto se hizo con el fin de que se mezcle uniformemente y quede como una pasta.   posteriormente se pesó los aglomerantes con la cantidad de 100 gramos, 200 gramos y 300 gramos y se le aplico a la celulosa correspondiente Continuando se preparó el molde se le puso aceite y se lijo la madera y se cortó bolsas de plástico.  Luego se puso en el molde, y se le aplico presión para que el exceso de agua y quedara plana este proceso se le aplico a todas las dovelas. Después se colocó en una cubeta para que tomara la forma de la curva. Posteriormente se dejó secar para que a los 8 días se les hiciera pruebas.  


CONCLUSIONES

En el laboratorio de ingeniería civil se realizaron experimentos con dos temas principales: adobes compactados de tierra (BTC) y dovelas de celulosa. Se lograron buenos resultados con ambas técnicas.  En cuanto a los adobes de BTC, se encontró que la mezcla más resistente y adecuada para futuras construcciones fue la que tenía un 40% de tierra, 1400 gramos de cemento gris, 2 litros de agua y 4.8 litros de perlita mineral. Con respecto a las dovelas de celulosa, se encontró que la más resistente fue la que contenía 300 gramos de Crest como aglomerante, pero debido a su alto precio, se optó por utilizar cemento gris en futuras creaciones de dovelas. El experimento con la dovela de celulosa y perlita mineral resultó en una resistencia mayor a 100 kilos, lo que fue un éxito. Sin embargo, al crear una dovela a tamaño real, surgieron problemas y se concluyó que era necesario repetir el proceso para obtener un resultado más satisfactorio. En general, este estudio resultó en un nuevo conocimiento sobre BTC y dovelas de celulosa, y se abre la oportunidad para que futuras generaciones continúen la investigación en este campo. Se agradece a los asesores por su apoyo y orientación en este proyecto de investigación. En resumen, esta investigación representa un importante avance en el campo de la ingeniería civil y promete ser de gran utilidad en el futuro.
Montoya Arango Juan Manuel, Corporación Universitaria Minuto de Dios
Asesor: Dr. Luis Pérez Domínguez Pérez Domínguez, Universidad Autónoma de Ciudad Juárez

MéTODO AHP PROGRAMADO EN AMBIENTE PYTHON, PARA LA TOMA DE DECISIONES MULTI CRITERIO


MéTODO AHP PROGRAMADO EN AMBIENTE PYTHON, PARA LA TOMA DE DECISIONES MULTI CRITERIO

Montoya Arango Juan Manuel, Corporación Universitaria Minuto de Dios. Asesor: Dr. Luis Pérez Domínguez Pérez Domínguez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En el mundo empresarial y académico, tomar decisiones efectivas desempeña un papel crucial en el logro exitoso de proyectos, estrategias y procesos. Sin embargo, enfrentarse a una variedad de opciones y criterios puede llegar a ser abrumador tanto para individuos como para equipos. Es en este contexto que surge la Metodología AHP (Analytic Hierarchy Process), una potente herramienta que ha transformado la forma en que abordamos decisiones complejas. En el presente artículo, se presenta un análisis detallado de la Metodología AHP, explorando sus orígenes, principios fundamentales y aplicaciones prácticas. Nuestro propósito es brindar una comprensión clara y concisa de cómo esta metodología puede ser empleada para resolver problemas altamente complejos y ambiguos. Como evidencia (Gómez, 2008) el pilar central de la Metodología AHP se basa en descomponer jerárquicamente un problema complejo en una serie de criterios y subcriterios, lo que permite una evaluación sistemática y ponderada de las opciones disponibles. A través de la utilización de matrices de comparación y cálculos matemáticos, el AHP facilita la identificación de la opción óptima, reduciendo al mínimo la influencia de sesgos y preferencias personales. A lo largo del artículo, exploraremos los pasos prácticos para aplicar la Metodología AHP, utilizando el lenguaje de programación Python, el cual contiene desde la construcción de la jerarquía hasta la determinación de los pesos relativos de los criterios y la selección de la mejor alternativa. En última instancia, el objetivo de este artículo es proporcionar a los lectores una comprensión integral de la Metodología AHP, aclarando sus ventajas y limitaciones. Al desmitificar esta poderosa herramienta de toma de decisiones, esperamos que los lectores puedan aplicarla de manera efectiva en sus respectivos campos, impulsando así un enfoque más informado, estratégico y exitoso para enfrentar los desafíos de la toma de decisiones en el mundo actual.



METODOLOGÍA

El siguiente código es un ejemplo práctico de cómo se puede utilizar AHP para tomar decisiones basadas en múltiples criterios y cómo generar matrices con cierta consistencia para resolver problemas complejos. Al ajustar el valor IA y el número de matrices generadas, se pueden obtener diferentes resultados y soluciones en función de las prioridades establecidas en los criterios. Inicialmente importamos la biblioteca NumPy con el alias np, que se utiliza para manipulación de matrices y cálculos numéricos. Seguidamente definimos la función calculate_weights(criteria_matrix) que toma como entrada una matriz de criterios y calcula los pesos de cada criterio. Esta función utiliza AHP para normalizar la matriz de criterios y luego calcular los pesos tomando el promedio de cada fila. Posteriormente se utiliza la función generate_matrix(n) que crea una matriz cuadrada de tamaño n x n. Esta función genera una matriz inicial como una matriz identidad (la diagonal tiene 1) y luego llena la parte triangular superior con números enteros aleatorios del 1 al 9. La parte triangular inferior se completa con los recíprocos correspondientes. Luego de generar correctamente la matriz se procede a realizar cálculos matemáticos, para ello utilizamos una función la cual se encarga de calcular la Consistencia Relativa (RC) de una matriz de criterios dada y un valor de Aceptación de Inconsistencia (IA). Primero, se calculan los pesos de los criterios utilizando la función calculate_weights. Luego, se realiza una multiplicación de matrices para obtener los resultados. Después, se calcula un valor de división para cada criterio y se encuentra el máximo de estas divisiones. A continuación, se calcula el Índice de Inconsistencia (IC) y, finalmente, el RC se deriva del IC utilizando el valor IA. En este orden de ideas en la parte principal del código, se generan num_matrices (4 en este caso) matrices utilizando la función generate_matrix. Luego, el código verifica que el RC de cada matriz generado sea menor o igual a 10%. Si el RC es mayor a 10%, se generará una nueva matriz hasta encontrar una que cumpla la condición Finalmente se evidencia los resultados arrojados en Python luego de ejecutar el código. Para una mejor visualización del trabajo realizado visitar el siguiente link, en el cual vas a encontrar imágenes detalladas del código correspondiente Link: https://docs.google.com/document/d/1WBnG5a4k0wDdd0VrxJUGaoVtvYpXDpzP/edit?usp=sharing&ouid=115260901012661507183&rtpof=true&sd=true


CONCLUSIONES

En conclusión, este código proporciona una valiosa y eficiente implementación de la metodología AHP (Analytic Hierarchy Process). Su capacidad para generar matrices de criterios al azar, calcular los pesos de criterios y evaluar la consistencia a través del Índice de Consistencia (IC) y el Ratio de Consistencia (RC) destaca su importancia en la toma de decisiones multicriterio. La automatización de los cálculos y la generación aleatoria de matrices de criterios agiliza el proceso de toma de decisiones, ofreciendo resultados precisos y confiables. Esta herramienta es de gran utilidad en diversos contextos y campos, ya que permite a los tomadores de decisiones obtener evaluaciones más fundamentadas y coherentes en sus selecciones. En definitiva, este código proporciona una solución práctica y eficaz para aplicar la metodología AHP, lo que contribuye significativamente a una toma de decisiones más informada y efectiva.
Montoya Solorzano Catalina, Universidad Autónoma de Manizales
Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional

BIOSENSOR DE ADN BASADO EN BIOIMPEDANCIA POR INDUCCIóN MAGNéTICA


BIOSENSOR DE ADN BASADO EN BIOIMPEDANCIA POR INDUCCIóN MAGNéTICA

Becerra Martinez Liliana, Universidad Veracruzana. Gómez González Nancy Nallely, Universidad de Guadalajara. Montoya Solorzano Catalina, Universidad Autónoma de Manizales. Asesor: Dr. César Antonio González Díaz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La necesidad de una técnica sencilla y económica para la cuantificación del ADN y la detección de genes, principalmente para los países en desarrollo, es de gran importancia. Existen varios métodos para detectar ADN amplificado a través de PCR, que incluyen electroforesis, fluorescencia y espectroscopia de impedancia electroquímica (EIS) los cuales están basados en marcadores o funcionalización. Actualmente, han surgido métodos de detección de ADN por EIS, que determinan la presencia de ADN por las propiedades electroquímicas siendo un método por funcionalización basado en un sistema de PCR portátil y electrodos para la medición [1]. También, se ha desarrollado la cuantificación de ácidos nucleicos mediante la citometría de impedancia multifrecuencia y aprendizaje automático utilizando una red neuronal basada en un modelo de regresión híbrido para predecir cantidades de ADN acopladas a perlas paramagnéticas que actúan como marcador [2].  En este trabajo, se diseñó el prototipo de un biosensor libre de marcado y funcionalización para la detección de presencia de ADN mediante bioimpedancia por inducción magnética a multifrecuencia. En el prototipo se analizaron 5 muestras de ADN de esperma de salmón a  distintas concentraciones y una muestra de agua milli-Q. Paralelamente, se comprobó la concentración de las muestras mediante el espectrofotómetro NanoDrop 2000 (Thermo Fisher Scientific - Waltham, MA USA) . Tras un análisis estadístico que relaciona la resistencia vs reactancia se observan regiones específicas para cada concentración lo cual indica la sensibilidad del prototipo y su viabilidad para determinar la concentración de ADN. Se requiere de más estudios para respaldar las observaciones.



METODOLOGÍA

Se diseñó un sistema de inducción de campos magnéticos a través de bobinas coaxialmente alineadas con el analito centrado entre las mismas, para el desarrollo del sistema se utilizan 5 etapas las cuales son: control, generador de funciones, inductor-sensor, detector de ganancia y fase, convertidor analógico digital. Los distintos componentes de cada etapa se integraron en una carcasa y se alimentaron con una fuente de grado médico elpac power systems. La programación del microcontrolador e interfaz gráfica se llevo a acabo por el lenguaje de programacion python, el cual se dividio en dos funciones principales: barrido de frecuencias y convertidor. El sistema induce un campo magnético en la muestra dependiendo de sus propiedades eléctricas, dicho campo magnético es  perturbado respecto al campo inicial evidenciándose en la magnitud y fase. Estos parámetros se correlacionan con las características del analito siendo de interés para determinar su relación con la presencia de ADN. La evaluación del prototipo  se realizó a través  de determinar su sensibilidad a diferentes concentraciones de ADN.  Se utilizaron 5 muestras de 50 µL de  ADN  de esperma de salmón a diferentes concentraciones y una muestra de agua milli-Q como referencia del vehículo. Cada concentración de ADN se cuantificó por triplicado mediante espectrofotometría UV-Vis a través del NanoDrop 2000 (Thermo Fisher Scientific - Waltham, MA USA). Estas mismas muestras se evaluaron en el Biosensor de ADN inductor-sensor determinando  los distintos parámetros de magnitud y fase a diferentes frecuencias, la medición se realizó nueve veces por muestra. Como resultados de la medición con el biosensor de ADN  se obtuvieron datos de magnitud y fase, mediante procesamiento fuera de linea se analizo y se grafiacaron mediate un diagrama de dispersión.


CONCLUSIONES

El prototipo biosensor de ADN presenta sensibilidad ante las distintas concentraciones de ADN en frecuencias de campo magneticas especificas. Se requiere mejorar el prototipo incluyendo filtros para reducir el ruido y el número de  repeticiones de las mediciones. Se evidencia la viabilidad del prototipo biosensor de ADN  para determinar la presencia de ADN mediante impedancia por inducción magnética.
Montoya Valdez Edwin Ramón, Instituto Tecnológico de Tepic
Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar

PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER


PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER

Dominguez Herrera Denilson de Jesus, Instituto Tecnológico de Tepic. Duran Sanchez Juan Manuel, Instituto Tecnológico de Tepic. Marmolejo Sandoval Estefanía, Instituto Tecnológico de Tepic. Montoya Valdez Edwin Ramón, Instituto Tecnológico de Tepic. Pacheco Rosales Victor Manuel, Instituto Tecnológico de Tepic. Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

En la era digital, las redes sociales se han convertido en un espacio de interacción y expresión para millones de personas en todo el mundo. Sin embargo, junto con la libertad de comunicación y la facilidad de compartir ideas, también ha surgido un lado oscuro marcado por el anonimato y la impunidad. Específicamente, las redes sociales, con políticas menos restrictivas, como Twitter, han demostrado ser un terreno fértil para la propagación de mensajes ofensivos y discriminatorios, especialmente hacia la comunidad LGBTQ. La comunidad LGBTQ ha luchado históricamente por la igualdad de derechos y el reconocimiento de su identidad y orientación sexual en muchas sociedades. A pesar de los avances en los últimos años, persisten actitudes intolerantes y homofóbicas que encuentran su refugio en el entorno virtual. Las personas con prejuicios hacia esta comunidad suelen utilizar un lenguaje común caracterizado por palabras ofensivas y despectivas para expresar su discriminación y hostilidad. El impacto social y emocional del discurso de odio dirigido a personas LGBTQ es considerable. La exposición constante a mensajes discriminatorios puede provocar un daño emocional significativo, reforzar la invisibilidad y estigmatización de la comunidad y, en casos extremos, contribuir a la pérdida de autoestima y calidad de vida de las personas afectadas. Por lo tanto, es crucial implementar medidas efectivas para salvaguardar la integridad y el bienestar de la comunidad LGBTQ y de todos los usuarios de las redes sociales.  



METODOLOGÍA

1.- Descripción de los datos El conjunto de datos de PAN 2021 para perfilar a quienes difunden discurso de odio en Twitter se compone de 200 tweets por autor en formato XML, cada uno con un identificador de autor único. Este conjunto de datos incluye textos en español e inglés. 2.- Integración Se utilizan modelos de incrustación de sílabas fonéticas y fonemas para la transformación de caracteres fonéticos, entrenados con los corpus CESSESP para español y BROWN para inglés. Se extraen frases de estos corpus para generar vectores de palabras. Luego se extraen sílabas de cada palabra del vector y se transforman en su representación fonética IPA mediante la función transliterate de Epitran. Para las incrustaciones de fonemas, se realiza la representación fonética IPA de cada carácter de la palabra utilizando la función trans_list de Epitran. En cuanto a las características léxicas, el sentimiento inicial del mensaje se determina mediante SenticNet 5, que analiza expresiones de varias palabras relacionadas con conceptos emocionales. Se determinan otras características léxicas siguiendo métodos descritos en otras fuentes. 3.- Transformación de datos En este proceso, se concatenan los tweets de cada usuario para generar un único documento por perfil. Luego se limpian los textos, sustituyendo hashtags, menciones, URLs y emojis por las palabras "hashtag", "mention", "URL" y "emoji" respectivamente. Se eliminan caracteres especiales, signos de puntuación (excepto punto y coma), paréntesis y números. Luego se identifican y cuentan palabras globalmente reetiquetadas. Finalmente, el conjunto de datos se divide en un 70% para entrenamiento y un 30% para pruebas. 4.- Extracción de Caracteristicas Esta fase se enfoca en la extracción de características léxicas y fonéticas. La extracción de características léxicas involucra el análisis del uso de palabras, hashtags, menciones, URLs, emojis, la polaridad, el uso frecuente de partes del discurso y palabras odiosas. Por otro lado, la extracción de características fonéticas se divide en tres tareas: sílabas fonéticas, frecuencias fonéticas y fonemas. En relación a las sílabas fonéticas, se carga en memoria las sílabas fonéticas entrenadas. Luego, se extraen las frases de cada mensaje y las palabras de cada frase. A continuación, se obtienen las sílabas de cada palabra y se codifican en IPA. Usando el modelo de sílabas fonéticas incrustadas, se obtiene el vector de características de cada sílaba. Finalmente, se promedian los vectores de características en un único vector. 5.- Ajustes En la fase de configuración, se ajustan los parámetros de hardware de la máquina, como procesadores e hilos, y se pueden configurar diferentes escenarios para el uso de clasificadores. El sistema puede ajustarse para almacenar vectores de palabras y clasificadores. Durante todos los experimentos, se utilizó el 70% de los datos para el entrenamiento y el 30% restante para las pruebas. Basándose en trabajos previos realizados en el PAN, se examinaron varios clasificadores como la Regresión Logística (LR), Bosques Aleatorios (RF), Árbol de Decisión (DT), Bagging (BG), Gradient Boosting (GB) y AdaBoost (AB).      


CONCLUSIONES

En conclusión, este proyecto de investigación se centró en abordar el problema de la homofobia y el discurso de odio hacia la comunidad LGBT+ en las redes sociales, particularmente en Twitter. La detección automática de perfiles que propagan mensajes ofensivos es una tarea crucial para promover un entorno en línea más inclusivo y seguro. Para lograr este objetivo, se emplearon técnicas de procesamiento del lenguaje natural y aprendizaje automático, como el uso de características léxicas y fonéticas específicas. Estas técnicas permitieron analizar y recopilar una muestra representativa de mensajes con contenido homofóbico y entrenar un modelo capaz de identificar con una efectividad del 70% si un mensaje es homofóbico o no. Sin embargo, al ser un trabajo extenso aún no se cuenta con los modelos completamente entrenados, y por lo tanto no se puede mostrar un resultado enteramente certero por el momento. Pero es importante resaltar que estos hallazgos pueden ser de gran utilidad para las plataformas de redes sociales y la comunidad en general, ya que permiten identificar y enfrentar de manera más eficiente los discursos de odio en línea.  
Mora Hurtado Maria del Carmen, Instituto Tecnológico del Valle de Morelia
Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango

DISEñO Y CONSTRUCCIóN DE PROTOTIPO DE GENERACIóN DE ENERGíA PARA BAJO CONSUMO UTILIZANDO LAS FUERZAS DE GRAVEDAD.


DISEñO Y CONSTRUCCIóN DE PROTOTIPO DE GENERACIóN DE ENERGíA PARA BAJO CONSUMO UTILIZANDO LAS FUERZAS DE GRAVEDAD.

Mora Hurtado Maria del Carmen, Instituto Tecnológico del Valle de Morelia. Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Hasta la fecha la población humana que habita el planeta ronda los 8,000 millones. Este exorbitante número de personas consume una enorme cantidad de energía con una demanda en aumento constante que parece no tener fin. Actualmente, y desde la revolución que representó el motor de combustión interna, los combustibles mayormente empleados para la producción de energía son aquellos de origen fósil como el petróleo, el gas y el carbón. Debido al crecimiento de la población y el avance e incremento de la industria que afectan de forma negativa al medio ambiente ya que la energía que comúnmente se utiliza en la industria proviene de combustibles fósiles, la cual emite gases de efecto invernadero (GEI), residuos que tardan años en degradarse, sin dejar de lado la contaminación a cuerpos de agua, al suelo, así como daño y pérdida de biodiversidad.  Los años siguientes serán cruciales para el desarrollo del país en materia de energía eléctrica, por lo que es de vital importancia buscar alternativas renovables que reduzcan el uso de combustibles fósiles y empoderen al sector energético.  Por lo anterior resulta necesario el diseño y construcción de un prototipo de generación de energía para bajo consumo utilizando las fuerzas de gravedad pensado para mejorar la calidad de vida de las personas que habitan en las zonas rurales de la Sierra Norte de Puebla que no tienen acceso a energía eléctrica debido a que el costo de la conexión de energía eléctrica en el área rural, se ha ido incrementando a través del tiempo en vez de disminuir, sin dejar de lado que las comunidades están cada vez están más aisladas y lejanas, el número de familias que vive en ellas es reducido además de contribuir al desarrollo sustentable.



METODOLOGÍA

Para empezar se realizó una investigación sobre las formas convencionales y no convencionales de generación de energía eléctrica, al mismo tiempo contemplando la situación de la red eléctrica y los problemas de suministro a nivel nacional y en la región de la Sierra Norte de Puebla. Se diseño el prototipo de generación de energía para bajo consumo utilizando las fuerzas de gravedad haciendo uso del software SketchUp Pro 2021. Se realizaron los dibujos de los equipos eléctricos por separado en el software tomando en cuenta las medidas reales que estos tendrían, básicamente el regulador, generador, inversor, engranajes, cadena, cables de unión para los equipos, además de un diagrama preliminar para después llevar a cabo la construcción del prototipo. Descripción de cada uno de los elementos del prototipo desde el tipo de engranajes los cuales son de dientes rectos ya que son mecanismo utilizados para transmitir potencia mecánica de un componente a otro, la principal característica de estos por tener dientes rectos y a sus ejes paralelos se utilizan para aumentar o disminuir el par. El generador de corriente directa de imanes permanentes, al ser generadores magnéticos permanentes son máquinas síncronas con los bobinados del rotor sustituidos por imanes permanentes. No necesitan una excitación separada, de modo que las pérdidas en la excitación, en torno al 30 % del total de pérdidas del generador. En nuestro caso se tienen 8 V de manera constante. El regulador se refiere a un dispositivo eléctrico diseñado para suministrar un voltaje estable y proteger a los equipos eléctricos y electrónicos conectados a una línea de tensión contra fenómenos como sobrevoltaje, caída de tensión y variaciones de voltaje.Para este caso en particular se tiene como estándar 6 V para dar salida a 12 V. La batería es un dispositivo para almacenar energía eléctrica en forma química y ser liberada después como corriente continua en forma controlada, en particular en este caso es de 12 V. El inversor es aquel dispositivo electrónico capaz de convertir la corriente directa (CD) a corriente alterna (CA), el objetivo de un inversor es la conversión de un voltaje de entrada en corriente continua, la cual es suministrada desde un sistema de baterías, a un voltaje de salida en corriente alterna con especificaciones de tensión y frecuencia de acuerdo a la necesidad del usuario (por ejemplo para este caso es de Entrada 12 VCD / Salida 300 W). Finalmente se realizó el diseño para comenzar con la construcción del diseño físico del prototipo, además del calculo correspondiente.


CONCLUSIONES

Este trabajo se desarrolla con la finalidad de poder obtener una nueva alternativa de generación de energía de una forma sustentable, que solo necesita del efecto de gravedad para tener la energía primaria y llevar a cabo la generación de la energía eléctrica. En principio nuestro prototipo tendrá la capacidad de generar energía para bajo consumo la cual será suficiente para sistemas de iluminación y cargas prioritarias, se pretende tener una generación máxima de 300 w/h para el primer prototipo, pero se planea realizar un prototipo a una mayor escala que pueda entregar cantidades de energía superiores. Durante mi estadía de verano de investigación aprendí nuevas formas de trabajo además de técnicas y metodologías distintas, llevé a la practica la una de las materias que me han impartido en mi carrera la cual es Desarrollo Sustentable para la realización de este proyecto ya que implica conocimientos sobre rubros del medio ambiente desde complejidades como ecosistemas hasta cosas básicas como lo son las comunidades y sus componentes. Con base en mis conocimientos y la investigación continua en aspectos de los diferentes tipos de energías renovables sin dejar de lado el apoyo y la paciencia del investigador se logró diseñar y construir el prototipo de generación de energía para bajo consumo utilizando las fuerzas de gravedad, cabe mencionar que se pueden tener algunas mejoras y/o innovaciones del prototipo con base en los requerimientos de las personas que habitan en las zonas rurales de la Sierra Norte de Puebla.
Mora Leal Brandon, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro

SISTEMA WEB RESPONSIVO, EVALUACIóN Y PROPUESTAS DE ESTRATEGIAS DE ACUERDO A LOS ESTILOS DE APRENDIZAJE, PARA LOS ESTUDIANTES DE NIVEL SUPERIOR


SISTEMA WEB RESPONSIVO, EVALUACIóN Y PROPUESTAS DE ESTRATEGIAS DE ACUERDO A LOS ESTILOS DE APRENDIZAJE, PARA LOS ESTUDIANTES DE NIVEL SUPERIOR

Barreda Bonilla Teresita de Jesús, Instituto Tecnológico Superior de Tacámbaro. Mora Leal Brandon, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Elizet Ibarra Limas, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Los test de detección de aprendizaje son herramientas muy útiles implementadas, como bien su nombre lo señala, para lograr reconocer cual es la mejor manera de que los alumnos adquieran conocimiento de manera mucho más efectiva dependiendo de las respuestas a dicho test aplicado; no obstante, existen ciertas complicaciones que pueden afectar de forma negativa los resultados obtenidos. Tal es el caso de, en el Instituto Tecnológico Superior de Tacámbaro se instaura la tarea de realizar un test psicométrico por parte de cada tutor a sus tutorados, de tal manera que, pueda detectarse los estilos de aprendizaje que prevalecen dentro del grupo; sin embargo, los resultados obtenidos sólo son conocidos por el docente que practicó el test, es decir, los demás docentes que se encargan de impartir las distintas clases al grupo no cuentan con la noción de que existe más de un estilo de aprendizaje y suelen generalizarlo, generando con ello que el aprovechamiento académico sea desequilibrado. Esta problemática, aunada a muchas otras que se suscitan durante la aplicación de test nos motiva a que, durante el verano de investigación, realicemos un sistema web responsivo que facilite la detección de estilos de aprendizaje de los alumnos.  



METODOLOGÍA

Se llevo a cabo una investigación acerca de cuáles son los modelos de estilos de aprendizaje más utilizados y eficaces, donde se pudo encontrar que:  Modelo CHAEA es uno de los más importantes test, cuenta con ochenta preguntas (veinte correspondientes a cada uno de los cuatro estilos que maneja: activo, reflexivo, teórico y pragmático) sin límite de tiempo para responder, basado en el modelo de Kolb.  Modelo de Kolb basado en su teoría acerca del aprendizaje experimental, con un ciclo de cuatro etapas (experiencia concreta, observación reflexiva, conceptualización abstracta y experimentación activa).  Modelo Felder y Silverman lleva a cabo su clasificación mediante escalas bipolares con relación directa a las preferencias del estudiante, así como, con elementos motivacionales.  Modelo VARK llamado así por el acrónimo de las cuatro letras iniciales correspondientes a las preferencias modales sensoriales (visual, aural, lector-escritor y kinestésico)  Modelo de Howard Gardner también llamado modelo de las inteligencias múltiples es una propuesta del campo de la psicología cognitiva que rechaza el concepto tradicional de la inteligencia y los métodos para medirla.  


CONCLUSIONES

Durante este verano de investigación logramos adquirir las bases teóricas acerca de los modelos para la detección de estilos de aprendizaje, conocimiento sobre las necesidades de los docentes para generar mayor índice de formación en los alumnos que integran el aula, dando como resultado una idea más clara y concisa para la realización del sistema, sin embargo, y debido a la extensión que requiere el proyecto, no se ha concretado el sistema como tal, por lo cual no pueden presentarse los resultados obtenidos. Esperamos que, la simulación previamente presentada pase a ser un sistema funcional y practico, otorgando estrategias y apoyo para mejorar el aprovechamiento académico de las/los estudiantes.  
Mora Quintana Karen Yunuen, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. Oriana Susana Martínez Palomino, Universidad Tecnológica De Bolívar

DISEÑO ORGANIZACIONAL: UN ANÁLISIS BIBLIOMETRICO


DISEÑO ORGANIZACIONAL: UN ANÁLISIS BIBLIOMETRICO

Mora Quintana Karen Yunuen, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mg. Oriana Susana Martínez Palomino, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El principal problema se enfrentan las organizaciones al no llevar a cabo un diseño organizacional es el control de actividades y el flujo de la informacion de recurso. Lo que ocaciona que exista duplicidad de tareas que ocacione que no halla una forma precisa del control de sus actividades y responsabilidades.



METODOLOGÍA

Se utilizó la libreria bibliometrix del sofware R versión 4..2.0  y el sofwarwe VOSviewer para procesar la información proveniente de scopus, Para el cumplimiento del objetivo propuesto se desarrolló una investigación descriptiva de tipo revisión bibliográfica fundamentada. Mediante la revisión documental, hermenéutica y análisis de contenido se estudiaron los textos de los documentos y materiales bibliográficos relativos a la temática abordada recuperados de diferentes repositorios con el auxilio de gestión estarategica. En la búsqueda de la información se utilizaron las palabras clave diseño organizacional, estructura organizacional y gestión. Con los textos procesados y resumidos se confeccionó una base de datos con 70 referencias que sirvieron para la construcción del discurso escrito. Por su parte el método histórico-lógico posibilitó el estudio de las etapas de evolución del diseño organizacional, él que transcurrió por diferentes enfoques (clásico, tecnológico, ambiental y reducción de tamaño.


CONCLUSIONES

El proceso de la investigación permite concluir que el diseño organizacional es un proceso planificado de modificaciones culturales y estructurales, que visualiza la institucionalización de una serie de tecnologías sociales, de tal manera que la organización quede habilitada para diagnosticar, planificar e implementar esas modificaciones; es un esfuerzo educacional muy complejo destinado a cambiar actitudes, valores, comportamientos y la estructura organizacional. Los términos  de diseño organizacional, gestion de organización y gestion estrategica se utilizaron como palabras clave de búsqueda en títulos, resúmenes y/o palabras clave de artículos. El método de búsqueda en Scopus se desarrollo la perspectiva de cada autor a la cual implementaba el termino de diseño organizacional y difusión del conocimiento y la investigación en esta área que hallan incluido la atención de profesionales y académicos. Se identificaron 1670 publicaciones relacionadas con el diseño organizacional centrada en las empresas. Se incluyeron todos los tipos de publicaciones en la búsqueda. Cada elemento disponible contiene información como el año de publicación, los autores, su dirección, título, fuente de la revista, áreas temáticas y referencias. Estos 1670 conjuntos de datos se exportaron a Microsoft Excel para el análisis del año de publicación, fuente de publicación, país y territorio, autoría, afiliación y área temática. Para examinar el diseño organizacional, es crucial estudiar las estructuras de investigación interrelacionadas dentro de un dominio particular.  Por lo tanto por los textos resumidos e informacion se opto por colocar las referencias considerables en las cuales se obtuvo la informacion de que en los ultimos 5 años el 2022 fue el año en donde mas artículos en el termino diseño organizacional se publicaron.
Morales Ancheyta Cesar Adrian, Universidad Tecnológica de La Selva
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

DESARROLLO DE LA APLICACIÓN MÓVIL EDUSMART


DESARROLLO DE LA APLICACIÓN MÓVIL EDUSMART

Garcia Caballero Jesus, Universidad Tecnológica de La Selva. González Hernández Dilmar, Universidad Tecnológica de La Selva. Morales Ancheyta Cesar Adrian, Universidad Tecnológica de La Selva. Solorzano Roblero Octavio, Universidad Tecnológica de La Selva. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto aborda la problemática de la falta de recursos didácticos digitales que puedan ser consultado fuera de aula de clases por lo estudiantes, así como, la inserción de la gamificación como parte del proceso de enseñanza y aprendizaje en las escuelas, ya sean públicas como privadas, con un enfoque específico en la creación de una aplicación dirigida a ser adquirida por instituciones educativas. Si bien el público objetivo son las instituciones educativas del sector público y privado, nuestros principales usuarios serán los maestros y los alumnos. El propósito de la aplicación es proporcionar a los maestros una plataforma que les permita gestionar el contenido temático y crear exámenes de manera interactiva y lúdica. De esta manera, se busca fomentar un enfoque más dinámico y atractivo para la enseñanza, involucrando a los estudiantes de una forma más activa en el proceso de aprendizaje. Por otro lado, los alumnos serán beneficiados al poder consultar recursos didácticos a cualquier hora y lugar, además, resolver los exámenes en un entorno gamificado, lo que hará que el aprendizaje sea más entretenido y motivador.  



METODOLOGÍA

Para el desarrollo de la aplicación móvil, se basó en la metodología ágil llamada incremental, primeramente, se parte de un bosquejo que dentro de esta metodología se denomina como el primer incremento, se codifica este primer bosquejo y se manda a aprobación del cliente, siendo éste la primera versión de la aplicación; a partir de ésta, se desarrolla el siguiente incremento, donde se eliminan errores del incremento anterior y se agregan nuevas funcionalidades, iniciando nuevamente el ciclo de codificación y validación del cliente; el proceso finaliza cuando la aplicación está libre de errores y está validado por el cliente, teniendo así la versión final de la aplicación. (Domínguez-Gutú et al., 2022, Somerville 2011)


CONCLUSIONES

El proyecto de desarrollo de la aplicación ha avanzado de acuerdo con el plan de trabajo establecido. Hasta la semana 5, se han completado diversas actividades clave que nos han permitido sentar las bases para la creación de la aplicación móvil y web conectadas, enfocadas en la gestión de temas y subtemas, y la publicación de contenido. La metodología ágil adoptada para el desarrollo del software ha demostrado ser efectiva en la gestión de las iteraciones y la corrección continua de actividades, lo que ha facilitado un progreso constante y la identificación oportuna de posibles ajustes necesarios para alcanzar nuestros objetivos.   En cuanto al diseño de la aplicación, se han definido la gama de colores y la tipografía, lo que ayudará a proporcionar una identidad visual coherente en ambas plataformas. Además, se han creado mockups y wireframes para la aplicación móvil y aplicación web, lo que nos ha permitido visualizar la estructura y distribución de los elementos de manera más clara y eficiente. En el ámbito de la base de datos, después de investigar y evaluar diferentes gestores de bases de datos, se ha seleccionado uno que se ajusta adecuadamente a los requerimientos del proyecto.  Asimismo, se ha avanzado en el desarrollo de la API, lo que permitirá la conexión entre la aplicación móvil y la aplicación web. Además, hemos iniciado con el desarrollo del módulo de creación de temas y subtemas, así como la funcionalidad de publicación de contenido, que son componentes centrales de nuestra aplicación.  BIBLIOGRAFÍA. Domínguez-Gutú, J., Bonifaz-Solórzano, R., Trejo-Trejo, G. A., Constantino-González, F. E. & Gordillo-Espinoza, E. (2022). 4LG3BR4: Una aplicación móvil para el aprendizaje del Álgebra básica. Investigación Aplicada, Un Enfoque en la Tecnología, 7(13), 1-14. Sommerville, I. (2011). Ingeniería de Software (Novena ed.). Pearson Educación.
Morales Arias Luis Emanuel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE POSIBLES ESCENARIOS DE ROTURA DE LA PRESA DE COINTZIO PARA LA EVALUACIóN DEL RIESGO.


ANáLISIS DE POSIBLES ESCENARIOS DE ROTURA DE LA PRESA DE COINTZIO PARA LA EVALUACIóN DEL RIESGO.

Morales Arias Luis Emanuel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Una presa es una barrera construida en un río que detiene el flujo de agua y crea un embalse, la finalidad de su construcción es almacenar agua y gestionar su uso. El agua eliminada en el reservorio se puede utilizar para diversos fines, como riego, generación de energía hidroeléctrica, control de inundaciones y suministro de agua potable. Aunque las presas tienen muchos beneficios, también pueden ser peligrosas. Si una presa se rompe, puede causar inundaciones devastadoras. Las presas de materiales sueltos son el tipo más común de presa. Se construyen con materiales como tierra, grava y rocas. Este tipo de presas son relativamente económicas de construir y pueden adaptarse a una variedad de condiciones geológicas. Sin embargo, también son más propensas a fallas que otros tipos de presas. La falla de una presa puede tener consecuencias devastadoras. La rotura de la presa trae consigo una ola de inundaciones de mayor altura y velocidad, que pueden causar daños importantes la propiedad, lesiones a las personas y muertes. También pueden destruir cultivos, ecosistemas y viviendas. Por lo tanto, es importante analizar y simular escenarios de falla de represas para comprender la gravedad de la amenaza e identificar áreas que podrían estar en riesgo. El estudio de más de 1065 fallas de presas de materiales sueltos revela que las causas importantes de la falla de estas presas son el desbordamiento y la tubería. Este estudio intenta llevar a cabo un análisis de rotura de la presa de Cointzio, utilizando un modelo hidráulico unidimensional llamado Sistema de Análisis de Ríos del Centro de Ingeniería Hidráulica (HEC-RAS). El modelo se producirá para simular el flujo de agua en caso de una ruptura por desbordamiento de la presa y para identificar áreas que podrían estar inundadas Los resultados de este estudio son importantes para los planificadores de uso de la tierra y los planificadores de emergencia de la región. El estudio proporciona información valiosa sobre los riesgos asociados con la presa de Cointzio y puede ayudar a los planificadores a tomar decisiones informadas sobre cómo reducir estos riesgos.



METODOLOGÍA

En un principio se realizó una investigación para conocer y aprender varios conceptos relacionados a las presas: que es una presa, partes de una presa, niveles de una presa, tipos de presa según su material, geometría y uso; etc. Posteriormente, se recopilo información sobre la presa de Cointzio: Ubicación, usos, tipo de presa, dimensiones de la cortina, vertedor, túneles; niveles, elevaciones, capacidad de almacenamiento, curvas elevaciones-capacidades, etc. A continuación, apoyándonos en la página del INEGI se descargaron modelos digitales de elevación del terreno con resolución de 5 metros, las cuales conforman el área de lo que es el embalse. Así como también se descargo un levantamiento topográfico de la misma zona realizado en el 2009 por FYSPA para CONAGUA. Ambos archivos se cargaron en el programa llamado QGIS con la finalidad de compararlos realizando vistas en perfil y lograr visualizar cual de los dos tiene mas detalle sobre las elevaciones del terreno. Realizado lo anterior, se llego a la conclusión de que el levantamiento topográfico tenía mejor detalle y sería el que se utilizaría en el modelo. Después, se realizo lectura del documento que tiene por título Using HEC-RAS for Dam Break Studies (Uso de HEC-RAS para estudios de ruptura de presas) con el fin de comprender y proponer diversos escenarios de falla que se pudiera presentar en la presa. Se opto por simular la falla por desbordamiento ya que es la que se presenta comúnmente en presas de materiales sueltos. Considerando el tipo de falla, se utilizaron las ecuaciones que vienen en dicho documento para poder determinar las dimensiones de la brecha que presentaría nuestro modelo. Nuevamente apoyándonos de la pagina del INEGI, esta vez se descargaron los modelos digitales de elevación de la superficie con resolución de 5 metros, los cuales conforman la zona de Morelia. Se unieron con los archivos descargados del embalse y se cargaron en el programa HEC-RAS. Se agrego un archivo que contenía el levantamiento topográfico del Rio Grande de Morelia y sus alrededores para tener mejor detallada esa zona. Por último, se comenzó con la construcción del modelo Hidráulico en HEC-RAS 2D, se agregaron las mallas en las zonas del embalse y Rio Grande, se realizo la estructura de la cortina de la presa, la cual se modificará con las dimensiones de la brecha y se pondrá en marcha el modelo.


CONCLUSIONES

Durante la estancia del verano se logró adquirir conocimientos teóricos sobre las presas y como seria si estas fallaran. La rotura de una presa es un evento devastador y complejo que puede tener consecuencias altamente graves. Aun no se pone en marcha en modelo por lo cual no podemos presentar resultados, aun que se espera que en las primeras corridas pueden presentarse errores en el modelo, los cuales se corregirán y con ello poder visualizar las áreas de Morelia que serán mayormente afectadas en caso de la rotura de la presa de Cointzio. Sabemos que no es un modelo con el cual se tenga alta exactitud, pero con él nos podemos acercar mucho a la realidad y poder crear planes para reducir riesgos.
Morales Barrios Laura Arleth, Instituto Tecnológico de Puebla
Asesor: Mg. Julio Ernesto Camargo Bejarano Bejarano, Corporación Universitaria Empresarial Alexander von Humboldt

DESARROLLO DE UN JUEGO DE ROLES PARA LA TOMA DE DECISIONES EN LA CADENA DE SUMINISTRO DE UNA EMPRESA


DESARROLLO DE UN JUEGO DE ROLES PARA LA TOMA DE DECISIONES EN LA CADENA DE SUMINISTRO DE UNA EMPRESA

Morales Barrios Laura Arleth, Instituto Tecnológico de Puebla. Asesor: Mg. Julio Ernesto Camargo Bejarano Bejarano, Corporación Universitaria Empresarial Alexander von Humboldt



PLANTEAMIENTO DEL PROBLEMA

La cadena de suministro es comprendida como todas las actividades, procesos y medios necesarios para lograr la entrega de valor al cliente, ya sea por medio de un producto o servicio. Sin embargo, pocas veces se logra dimensionar la importancia de la relación de cada una de las actividades entre sí, y en mucho menor grado, transmitirlo.  El impacto de las decisiones tomadas a lo largo de la cadena de suministro va más allá de abastecimiento y disposición de insumos o material, ya que también se ve afectado el costo de producción, el ritmo de producción, y, por tanto, el precio final que se ofrece al cliente.   La importancia de esta investigación recae en el desarrollo de un juego de roles para los alumnos que estudian la cadena de suministro, donde en el juego se crean diferentes escenarios que propician el análisis de aspectos como tiempos, costos y satisfacción del cliente, para una correcta toma de decisiones a lo largo de toda la cadena de suministro de un vehículo.   Se hace mención de la importancia del papel que toman todos los actores de la cadena de suministro como son los proveedores nacionales e internacionales, las respectivas aduanas, líneas transportistas y los diferentes departamentos de la empresa encargada de la producción de estos vehículos.  



METODOLOGÍA

Para la construcción de dicho juego, fue necesario empaparse de manera teórica del tema y la situación que se está abordando; haciendo referencia a investigaciones realizadas en un marco de 5 años, con la intención de adquirir información de temas recientes e innovadores como logística y cadena de suministro 4.0, el impacto de la nueva economía y el mundo globalizado en las cadenas de suministro de las empresas de rama automotriz, entre muchas otras recientes aportaciones.   En el desarrollo del juego de roles, se utilizan vehículos tipo Lego compuestos por 13 piezas, de las cuales 6 corresponden al módulo de preensamble, y 7 piezas de montaje final, donde se añaden los ejes, las llantas y el techo. Estos vehículos desarmables fueron donados por la Corporación Universitaria Empresarial Alexander von Humboldt para crear mejores prácticas de aprendizaje para los alumnos.   La situación inicial del juego de roles le presenta a los alumnos un punto de partida para poder tomar decisiones respecto a la cadena de suministro de los vehículos, ya que reciben pedidos de sus clientes y deben realizar pedidos internos para poder satisfacer dicha demanda, además de considerar los tiempos y costos de entrega de sus proveedores.   El desarrollo del juego se dará mediante etapas, donde se reciben pedidos por parte de proveedores y clientes, ya sean nacionales o internacionales, e incluso pedidos internos. En cada etapa se trabajará cada área de producción, con la posibilidad de hacer uso del material recién recibido correspondiente a un pedido anterior.   Para la primera etapa estableció un pedido de 6 vehículos para ambos clientes, un inventario inicial de 6 vehículos listos para despacho, 4 módulos preparados para montaje final, un pedido internacional en tránsito del proveedor internacional y cantidades limitadas en los almacenes de producción.   En las etapas posteriores, la demanda de los clientes se determinará con números aleatorios en un rango de 2 a 10 autos por cada etapa. Mientras que la situación de inspección en aduana tanto para proveedor y cliente internacional se determinará de manera aleatoria. Los tiempos de tránsito serán de una etapa, así como la de inspección de aduana. Los pedidos se entregan una etapa después de realizarlos.  Con el fin de mejorar el desarrollo del juego, se realizó un diagrama respecto a la etapa de producción, donde se establecieron las áreas necesarias para la fabricación de estos vehículos, la cual comienza con un almacén de piezas nacionales e internacionales, seguida por el área de preensamble donde se construyen el módulo base del vehículo; continúa el área de montaje final, después el área de despacho, el cual está dividido en revisión de calidad y despacho final. Cabe mencionar que las áreas de preensamble y montaje final cuentan con un almacén interno.   Siendo los costos un aspecto indispensable en la cadena de suministro, el alumno deberá tomar en cuenta los diferentes costos que se presentan, como son los de producción, realización de pedidos, de almacenamiento, de insuficiencia de materiales, de material sin calidad y, en caso de no cubrir la demanda, el costo de la penalización por parte del cliente.   Tal y como se lleva a cabo en la vida profesional, se elaboraron los formatos necesarios para realizar pedidos, tanto para clientes como para proveedores, así como para los pedidos internos de la empresa, además de los formatos de devolución en caso de que el material solicitado no cumpla con la calidad requerida y necesite ser repuesto.  


CONCLUSIONES

La creación del juego de roles permite fomentar el análisis en la toma de decisiones a lo largo de la cadena de suministro, ya que enseña de mejor manera la conexión de los distintos eslabones de la misma, más que nada, demuestra el impacto de una decisión tomada dentro de la cadena de suministro, sobre todo en la cuestión de los costos de producción, y, por ende, en el precio final del producto y la futura demanda.   Además, el proyecto reconoce las distintas situaciones y complicaciones a las que se puede un profesional que se puede enfrentar al desempeñarse dentro de la cadena de suministro, siendo los principales los distintos costos, los tiempos externos e internos, los retardos, la falta de calidad tanto de materia prima como de producto final, entre muchas otras.    
Morales de Gante Jorman Aldrich, Universidad Politécnica de Tecámac
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN


APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN

López Solís Osvaldo Jesus, Instituto Tecnológico Superior de Uruapan. Morales de Gante Jorman Aldrich, Universidad Politécnica de Tecámac. Ponce Reyes Andrea Gpe, Instituto Tecnológico Superior de Uruapan. Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Rubio Solis Carlos Alberto, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la aplicación surgió a partir de encontrar que hoy en dia en distinguidas tiendas de aplicaciones móviles no existen tantas alternativas para la fomentación del aprendizaje por lo cual partimos de una propuesta inicial la cual fue desarrollar una aplicación de preguntas donde se haga esta fomentación del aprendizaje mediante multiples preguntas de todo tipo de áreas(Matemáticas,Filosofía,Literatura,etc.)Esto nos recordó al famoso juego preguntados, donde tomando como principal dicho juego añadimos que los usuarios tengan que registrarse para poder acceder a la aplicación.



METODOLOGÍA

Jor de Gante, [28/07/23 9:20 P.M.] Para este proyecto notamos que sería necesario la utilización de una metodología donde no se pierda tanto tiempo ya que no contamos con una gran cantidad de este para el desarrollo de nuestra aplicación  por lo cual la Metodología de prototipado resultó la más convenienteya que está se adecuada a nuestras necesidades. Comunicación: La comunicación para esta metodología es sumamente necesaria por lo cual nuestro equipo de trabajo desde el primer dia presentó este apartado por lo cual resultó sencillo poder dividirnos el trabajo además de la solidaridad y el trabajo en equipo resultaron factores beneficiosos para todos. Plan rápido: La aplicación surgió apartir de una idea del profesor donde todos los compañeros ayudamos a reforzar dicha idea y sacamos el proyecto adelante, partiendo de referencias o bases al igual que estudiar el mercado para poder hacer una aplicación que realmente atraiga a futuros usuarios. Modelado diseño rápido: Para el modelado utilizamos imagenes de referencias donde todos ibamos a desarrollar el mismo proyecto pero en cuanto a diseño era a criterio propio por lo cual nos apoyamos de igual forma del software figma para desarrollar los mockups para una vez todos estuvieramos deacuerdo comenzariamos a trabajar con el SDK de Flutter.Este paso resultó el más interesante puesto que cada uno de nosotros dejamos ir nuestra imaginación para los mockups. Construcción del prototipado: Para este paso tuvimos que aprender los fundamentos de flutter , desde su instalación,complementos,actualizaciones,etc. donde resultó un poco mayor el nivel de complejidad puesto que la mayoría no tenía un amplio conocimineto de esta tecnología sin embargo el apoyo de los compañeros fue el principal factor para que todos vallamos de la mano . Desarrollo y entrega: En este apartado el profesor nos dio a conocer distintas  herramientas que en este y en muchos más proyectos nos serán de gran utilidad para la reducción de tiempos,costos,complejidad,etc como lo son complementos de flutter,firebase,etc.Llegando a este punto resultó muy interesante el tema de una base de datos en tiempo real, además de aprender bastante de la tecnología flutter. Con forme avanzamos la aplicación iba tomando forma,estructura y resultó muy atractiva para todos.


CONCLUSIONES

Gracias al trabajo en equipo la autoretroalimentación y enseñanza de el profesor logramos obtener el exito mediante la aplicación de manera ágil y efectiva dando como resultado una aplicación multiplataforma util,atractiva y sobre todo facil de usar de igual forma conseguimos implementar la base de datos en tiempo real donde esta resultó sumamente beneficiosa para el desarrollo del proyecto.
Morales de los Santos Raúl Alberto, Instituto Tecnológico Superior de Los Ríos
Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad de Pamplona

DESARROLLO DE CONTROL DE NIVEL EN FLUIDOS A PARTIR DE LÓGICA DIFUSA EN PLC SIMATIC S7-300, CPU 314C-2PN/DP


DESARROLLO DE CONTROL DE NIVEL EN FLUIDOS A PARTIR DE LÓGICA DIFUSA EN PLC SIMATIC S7-300, CPU 314C-2PN/DP

Morales de los Santos Raúl Alberto, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad de Pamplona



PLANTEAMIENTO DEL PROBLEMA

El PLC (Programmable Logic Controller) o Controlador Lógico Programable es un computador que cumple con diversas funciones que se encuentran en la industria, por ello, es necesario que la tecnológica con la cual funcionan vaya evolucionando conforme a las necesidades que se encuentran en los procesos de automatización y control. En esta ocasión se trabajará con sistemas difusos, debido a que la utilización de lógica difusa, también conocida como lógica borrosa, es una herramienta valiosa en diversos campos donde se enfrentan situaciones y problemas complejos que no pueden ser tratados adecuadamente con la lógica clásica, que es binaria (verdadero o falso). En ingeniería y automatización, la lógica difusa es ampliamente utilizada para controlar sistemas complejos y no lineales. Permite tomar decisiones basadas en reglas lingüísticas y adaptarse a condiciones variables. En resumen, la lógica difusa se aplica en situaciones donde la precisión no es suficiente o es difícil de alcanzar debido a la complejidad y la incertidumbre inherentes en el problema. Proporciona una forma más flexible y más cercana a la forma en que los seres humanos razonan y toman decisiones en situaciones ambiguas.



METODOLOGÍA

1.- Planteamiento del problema. Se identificaron diversos campos de la automatización que incluyeran el control mediante PLC, para poder detectar la forma en la cual se podría aplicar la lógica difusa para el mejoramiento e innovación, y con esto se logró plantear la situación de un llenado de tanque. Con la idea del llenado de tanque se propusieron las variables con las cuales se quería trabajar y la forma en que se aplicaría un sistema de lógica difusa. 2.- Construcción de un modelo teórico. Al tener definido que se trabajaría con el llenado de tanque, se procedió a definir el modelo y la marca del PLC con el que se trabajará la parte de la programación y control, y de acuerdo con las posibilidades que se tienen en cuanto a equipo, se concluyó que se harían simulaciones desde un SIMATIC S7-300, CPU 314C-2PN/DP, así como también se trabajaría con un SIMATIC S7-1200, CPU 1214C DC/DC/DC. Al definir los equipos y las variables con las que se trabaja un sistema de llenado, la aplicación del proyecto se encaminaría al desarrollo de un sistema de control de nivel en fluidos. 3.- Deducción de las consecuencias particulares. Se definieron las variables exactas, el contexto, la instrumentación y los equipos con los que se cuentan, esto para poder llevar a cabo las simulaciones y realizar los cálculos correspondientes, debido a que las señales que mandan los sensores se deben normalizar y convertir a unidades con las que se pueda trabajar en la programación del PLC. Las principales variables a tener en cuenta fueron: Volumen del tanque. Nivel inicial del líquido en el tanque. Nivel máximo del tanque. Nivel mínimo del tanque. Sensores y dispositivos de medición. Todas estas variables deben ser cuidadosamente controladas y monitoreadas durante el proceso de llenado para garantizar un llenado seguro, eficiente y preciso del tanque, evitando situaciones de sobrellenado o derrames, y asegurando el funcionamiento óptimo del sistema. 4.- Prueba de hipótesis. Al inicio se instaló para hacer pruebas de funcionamiento el sensor ultrasónico SM906A-430000 de la marca Telemecanique Sensors, que tiene salida analógica en corriente con un rango de 4 a 20 mA (miliamperios), esto se normalizó y se estandarizó en el software TIA PORTAL, en la versión V18, con las opciones NORM X y SCALE X que nos da el software, esto nos llevó a tener valores de 0 a 27648, ya que son los valores con los cuales trabajan las entradas analógicas del programa. Después de que se tenían los valores con los cuales se trabajarían y las conexiones de los equipos para el llenado de tanque, se procedió a realizar la programación en lenguaje SCL, para poder anexar las variables lingüísticas y definir las reglas de inferencia según los valores y rangos con los que estemos trabajando. Luego de tener la programación y todo el sistema interconectado se realizó la primera simulación con ayuda del software FACTORY I/O y el enlace con PLCSIM para corroborar que el programa funcionara de manera óptima y no tuviera errores. Para finalizar se hicieron algunas pruebas con ayuda de un tablero didáctico que proporciona un variador de frecuencia, un motor, válvulas, un tanque y un HMI 7 BASIC, para realizar el control del llenado y verificar la funcionalidad del sistema difuso.


CONCLUSIONES

En el tiempo que duró la estancia de verano se logró expandir los conocimientos de automatización y la forma en que se puede innovar esta rama de la tecnología debido a las necesidades que se presentan en la industria, por ello se decidió utilizar los sistemas difusos para ampliar las funciones y posibilidades que nos puede brindar un PLC. Debido a lo extenso de la investigación y a ciertas dificultades que se presentan debido al costo y disponibilidad de los equipos, aún se espera obtener resultados de esta programación de lógica difusa, pero ahora siendo aplicados en problemas reales de la industria, para corroborar la factibilidad de este sistema inteligente.
Morales Flores Daniela, Universidad Mexiquense del Bicentenario
Asesor: Mtra. Ma. del Carmen Alarcón Mendoza, Universidad Politécnica de Tecámac

ANáLISIS PARA DESARROLLO AUTOMATIZADO DE INDICADORES DE EVALUACIóN


ANáLISIS PARA DESARROLLO AUTOMATIZADO DE INDICADORES DE EVALUACIóN

Morales Flores Daniela, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Ma. del Carmen Alarcón Mendoza, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

En la Universidad Politécnica de Tecámac contamos con el proceso de dos Estancias cortas y una Estadía en el sector industrial, misma que revalida el Servicio Social obligatorio en el Estado de México, siendo estas actividades obligatorias dentro de la formación curricular de nuestras y nuestros estudiantes. OBJETIVO: Lograr que el alumno ponga en práctica los conocimientos teórico-prácticos-valorativos adquiridos a lo largo de su formación curricular. En la actualidad la Universidad Politécnica de Tecámac existe la manera de evaluar a los alumnos por medio de un formulario de Microsoft, en donde se mide el desempeño con el cual se desarrollan en la práctica con ayuda de sus conocimientos. A pesar de esto, se pretende automatizar dicho sistema de evaluación, mejorando la práctica de parte del asesor empresarial/académico al momento de evaluar al alumnado. Por otro lado, se puede ver la falta de control y organización administrativa, por el proceso extenso que se lleva a cabo, teniendo así el mismo resultado se hará el sistema para mejorar la discrepancia de horario con el cual puede contar el asesor para buscar al alumno por medio de su número de expediente, mismo que se verá reflejado al asesor académico para ver los resultados.    



METODOLOGÍA

SCRUM La metodología Scrum es un enfoque ágil para el desarrollo de software que se centra en la colaboración, la flexibilidad y la entrega incremental. Fue creado por Jeff Sutherland y Ken Schwaber en los años 90 y ha ganado mucha popularidad en la industria del desarrollo de software debido a su capacidad para mejorar la productividad y la calidad del trabajo. Scrum se basa en ciclos de desarrollo iterativos e incrementales llamados "sprints". Cada sprint tiene una duración fija y generalmente varía entre 1 a 4 semanas. Durante cada sprint, se desarrolla una parte del producto final, con entregables y objetivos específicos.  Scrum es una metodología probada que puede aumentar la eficiencia, la calidad y la satisfacción de los equipos de desarrollo, así como mejorar la satisfacción del cliente al asegurar la entrega de un producto que realmente cumple con sus necesidades. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos-prácticos sobre el desarrollo de software teniendo en cuenta la posibilidad de contribuir a la sociedad y la capacidad de mantenerse actualizado en un entorno tecnológico en constante cambio. El desarrollo de software generalmente se lleva a cabo en equipos multidisciplinarios, lo que fomenta el aprendizaje y la colaboración entre profesionales con diferentes conocimientos y experiencias 
Morales Gonzalez Christopher Daniel, Universidad de Guadalajara
Asesor: Dra. Margarita Sanchez Dominguez, Centro de Investigación en Materiales Avanzados (CONACYT)

FABRICACIóN DE COMPóSITOS CU-NTC CON ESTRUCTURA MULTICAPA Y LA EVALUACIóN DE SUS PROPIEDADES ELéCTRICAS Y TéRMICAS.


FABRICACIóN DE COMPóSITOS CU-NTC CON ESTRUCTURA MULTICAPA Y LA EVALUACIóN DE SUS PROPIEDADES ELéCTRICAS Y TéRMICAS.

Morales Gonzalez Christopher Daniel, Universidad de Guadalajara. Asesor: Dra. Margarita Sanchez Dominguez, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El aprovechamiento de la energía y la innovación de los materiales es un tema que siempre esta presente en la investigación. Es una realidad que la eficiencia energética es un punto clave para poder progresar en diferentes aspectos tecnológicos actuales, pero esta va de la mano con la disipación térmica. Un caso ilustrativo de estos sistemas es el de los circuitos de integración tridimensionales (3DIC). La tecnologia "Through-silicon via" (TSV) constituyen la pieza central de la tecnología 3DIC, ya que ofrecen una interconexión vertical eficiente, permiten aprovechar al máximo el espacio en altura y mejoran la integración global. En la estructura de apilado jerárquico de alta densidad en 3DIC, también es fundamental que los TSV presenten una excelente capacidad de disipación de calor y una gran confiabilidad para respaldar de manera óptima la estructura en su totalidad.[1] El cobre (Cu) y sus aleaciones se utilizan ampliamente en aplicaciones eléctricas debido a su excelente conductividad eléctrica y térmica, sin embargo, las aleaciones tienden a tener bajas propiedades mecánicas y pueden ser mejoradas. Los nanotubos de carbono (NTC), que tiene un alto módulo elástico (>1 TPa) y una alta resistencia a la tracción (30-100 GPa), así como un bajo coeficiente de expansión térmica (≈0), es el refuerzo más atractivo para materiales eléctricos, aun así, la aglomeración de los NTC es un problema común que dificulta el logro de las propiedades deseadas debido al pequeño tamaño de los NTC en comparación con los polvos de la matriz. Por lo tanto, el objetivo principal de este estudio fue producir compuestos de matriz de cobre (compositos) con diferentes contenidos de NTC utilizando la técnica de metalurgia de polvos, mediante un molino de bolas planetario, una prensa hidráulica para el proceso de compactación y un horno tubular con atmósfera controlada para sintetizar las muestras que posteriormente fueron evaluadas eléctrica y térmicamente. Se obtuvieron diferentes configuraciones de Cu y Cu-NTC en el número de capas y el espesor de las mismas dentro de la pastilla compuesta en forma de disco (12 mm de diámetro y 4 mm de espesor). Lo anterior, con el propósito de evaluar las propiedades eléctricas y térmicas en la sección transversal del disco y encontrar futuras aplicaciones como posibles interconectores en circuitos electrónicos que permitan la disipación del calor sin afectar notablemente la conductividad eléctrica.



METODOLOGÍA

Se utilizaron NTC de pared simple (SWCNTs) comerciales de aproximadamente 2 nm de diámetro y 1.5 μm de longitud. Estos fueron funcionalizados mediante un tratamiento ácido en un baño ultrasónico con HNO3 y HCl en las mejores condiciones encontradas. Posteriormente, se realizó un proceso de reducción autocatalítica sin uso de corriente (electroless) utilizando sulfato de cobre como precursor de los iones de Cu, citrato de sodio como agente quelante o estabilizador de los iones y formaldehído como agente reductor. El proceso de metalizado de los nanotubos permite aumentar la compatibilidad del refuerzo con los polvos de cobre que se utilizarán en el proceso de molienda. Luego de la preparación de la nanoestructura, se realizó una molienda mecánica para combinar los nanotubos metalizados con el cobre en polvo comercial. Se hizo una pre-molienda con un agente de control de proceso (metanol) durante dos horas, con el objetivo de dispersar apropiadamente los nanotubos y homogeneizar la mezcla Cu-NTCl. Posteriormente, se realizó una molienda final por dos horas más con las mismas condiciones, pero con una cantidad extra de cobre en polvo para obtener los composites con las distribuciones requeridasPosteriormente, se realizó el proceso de compactación en una prensa hidráulica empleando un dado de acero. Se aplicó un presión de 25 MPa y se sostuvo durante dos minutos. Se prepararon pastillas con diferentes configuraciones de capas de Cu y Cu-NTC, manteniendo un espesor constante para realizar el estudio y ver el efecto en las propiedades eléctricas y térmicas. El siguiente paso fue llevar las pastillas en verde a un proceso de sinterización a 850°C en un horno tubular (MTI GSL1700X) con atmósfera controlada,se empleó flujo constante de nitrógeno durante aproximadamente 6 horas, para finalmente realizar un proceso de devastación abrasiva, eliminando cualquier impureza en la superficie que hayan sufrido las muestras durante todo el proceso de fabricación. Las pastillas obtenidas posteriormente fueron guardadas en un ambiente controlado y pulidas nuevamente para realizar las pruebas eléctricas y térmicas. Para las pruebas eléctricas, nos apoyamos en un potenciostato de PalmSens mediante la función de espectroscopia de impedancia electroquímica. En nuestro caso, fue espectroscopia de impedancia eléctrica, ya que no se utilizó una celda ni un medio electrolítico para las mediciones, las cuales se realizaron con ayuda de un soporte con pogopins y un circuito RC adaptado para estar en el rango de medición del equipo.


CONCLUSIONES

Durante la estancia de verano, logré adquirir conocimientos en un área de investigación relativamente nueva para mí, como es la metalurgia junto con procesos químicos. Pude obtener nuevas bases teóricas que puse a prueba experimentalmente en el transcurso de la estancia mediante metodologías innovadoras. Sin embargo, al ser un trabajo extenso y delicado, aún se encuentra en fase experimental y estamos a punto de obtener los primeros resultados, por lo que no es posible mostrar los datos obtenidos. Se espera un incremento de conductividad eléctrica por los CNT, un comportamiento predecible según el grosor de las capas, una conductividad térmica en una sola dirección y una mejor dispersión del calor generado. Referencias [1] B. Xu, R. Chen, J. Zhou and J. Liang, "A Modeling Study on Electrical and Thermal Behavior of CNT TSV for Multilayer Structure," in IEEE Transactions on Electron Devices, doi: 10.1109/TED.2023.3297078.
Morales Govea Rene, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo

CALIBRACIóN DE MODELO NUMéRICO DE DISTRIBUIDOR VIAL CON BASE EN MEDICIONES EXPERIMENTALES


CALIBRACIóN DE MODELO NUMéRICO DE DISTRIBUIDOR VIAL CON BASE EN MEDICIONES EXPERIMENTALES

Morales Govea Rene, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La seguridad de puentes y edificaciones ante acciones gravitacionales y sísmicas es necesario cuantificarla, particularmente cuando se trata de estructuras cuya falla puede tener consecuencias muy lamentables para la sociedad. El crecimiento de una ciudad se acompaña de la construcción de puentes y distribuidores viales que permiten reducir el tiempo de transporte en la localidad. En la ciudad de Morelia se construyó muy recientemente un distribuidor vial localizado al oriente que permite reducir los tiempos de traslado en dos vialidades muy relevantes para el tránsito vehicular. Por su importancia y las grandes pérdidas que podrían originarse en caso de falla, se inició un estudio que permita en un futuro cercano cuantificar su vulnerabilidad sísmica. El objetivo de esta investigación es modelar y evaluar la respuesta sísmica de un distribuidor vial existente, mediante la medición de su vibración ante efectos ambientales y la calibración de un modelo numérico, que será utilizado posteriormente para cuantificar la vulnerabilidad sísmica de la estructura.



METODOLOGÍA

Para obtener las propiedades dinámicas de la estructura, se realizaron dos campañas de medición de vibración ambiental utilizando acelerómetros triaxiales de marca Kinemetrics en el distribuidor vial de Mil Cumbres, ubicado en Morelia, Michoacán. El distribuidor vial está compuesto por dos gazas y dos tramos rectos, las mediciones se realizaron en un tramo curvo y en un tramo recto. En la primera campaña de mediciones, se recopilaron datos a lo largo de la gaza norte en dirección "Salida a Salamanca-Acueducto". Los puntos de medición se colocaron en el centro de los claros, a una distancia equivalente a un cuarto del claro entre cada punto de medición y cada medición duró 10 minutos. La segunda campaña se llevó a cabo en un tramo recto en dirección "Acueducto-Mil Cumbres". Los puntos de medición se ubicaron sobre los claros G-K, colocándolos en el centro de cada claro con una separación de un cuarto del claro. Además, se realizó una medición en el claro H-I, donde los puntos de medición se situaron en los extremos del claro, también a una distancia de un cuarto del claro. Para ambas campañas, se mantuvo un sensor de referencia único en todo momento y cada medición fue también con una duración de 10 minutos. Los datos de vibración registrados por los acelerómetros fueron procesados utilizando el software ARTEMIS. En este software, se realizó un modelo geométrico del distribuidor vial y se incorporaron las coordenadas de las mediciones, así como los resultados obtenidos en cada campaña. La técnica de Análisis Modal Operacional - Descomposición en el Dominio de Frecuencia Mejorado (OMA-FDD) se empleó para identificar los modos de vibración de la estructura basándose en los datos experimentales. El proceso de OMA-FDD implica el uso de algoritmos matemáticos para descomponer las respuestas de vibración registradas en frecuencias modales, lo que permite obtener las formas modales y las frecuencias naturales de la estructura.  


CONCLUSIONES

El proceso de las señales en el tiempo obtenidos experimentalmente con base en las mediciones de vibración ambiental permitió estimar las propiedades dinámicas del distribuidor vial que fueron utilizadas para la calibración de un modelo numérico de análisis realizado con el software SAP2000.
Morales Ramos Bernardo, Universidad Autónoma de Baja California
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

PREDICCIóN DE ACCIONES E íNDICES EN LA BOLSA MEXICANA DE VALORES CON UN COMPORTAMIENTO CAóTICO MEDIANTE COMPUTACIóN CUáNTICA Y REDES NEURONALES LSTM


PREDICCIóN DE ACCIONES E íNDICES EN LA BOLSA MEXICANA DE VALORES CON UN COMPORTAMIENTO CAóTICO MEDIANTE COMPUTACIóN CUáNTICA Y REDES NEURONALES LSTM

Hernández Mendoza Emmanuel, Instituto Politécnico Nacional. Morales Ramos Bernardo, Universidad Autónoma de Baja California. Pérez Reyes Omar Alejandro, Universidad Politécnica de Victoria. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El mercado de valores de la Bolsa Mexicana de Valores denota volatilidad y complejiadad, lo que presenta desafíos significativos para la predicción de acciones e índices. Se propone el uso de redes neuronales LSTM y tecnología cuántica para abordar este problema. Sin embargo, se trata de un conjunto de datos caótico, lo que agrega complejidad y aumenta la importancia de encontrar enfoques óptimos.  En este contexto, el presente proyecto se alinea directamente con el ODS número 9, al catalizar la innovación tecnológica en el sector financiero y alentar el fortalecimiento de las infraestructuras y servicios financieros. El objetivo es obtener mejores predicciones de acciones e índices en la Bolsa Mexicana de Valores mediante el uso de tecnología cuántica y redes neuronales LSTM.



METODOLOGÍA

En el contexto de la metodología, se considera el plan de trabajo del programa interinstitucional. Se describe un proceso paralelo para formalizar el aprendizaje de computación cuántica y redes neuronales. Por una parte la exploración y estudio de la tecnología cuántica, sus principios fundamentales y sus aplicaciones en el procesamiento de datos. Por otro lado, el análisis y comprensión de las redes neuronales desde su forma práctica como matemática, su funcionamiento y su uso. La combinación de estos dos campos ha permitido el desarrollo de una metodología. A grosso modo la construcción de la red LSTM se vió reflejada en los siguientes pasos: Recopilación de datos históricos de acciones e índices de la Bolsa Mexicana de Valores. Implementación de una red neuronal LSTM para la predicción de precios con distintas arquitercturas y cambios en sus hiper parámetros. Modificación en la red neuronal LSTM que le permite realizar predicciones basadas en sus propias predicciones anteriores. Una vez construida la red neuronal se analizó en búsqueda de optimizar su rendimiento acercándose a los valores esperados. Obteniendo el siguiente algoritmo de pos-procesamiento: Calcular los puntos medios de ambos conjuntos de datos (predicción y reales) mediante los máximos y mínimos. Entendiendo los conjuntos de datos como señales, podemos calcular el valor a multiplicar por los datos alpha (α) con las amplitudes de los datos, denominamos la amplitud de los datos reales como a1 y la amplitud de los datos de predicción como a2, por lo tanto: a2 * α = a1; α = a1/a2 Al multiplicar por un número alpha, los datos sufrirán un desfase sobre el punto medio de los datos reales, por lo que se calculará un número beta (β) el cual sumaremos a los datos reales para compensar dicho desfase de los datos. La distancia que hay entre el punto medio multiplicado y el punto medio donde debe estar es de punto_medio * α - punto_medio, beta (β) será igual al resultado de esta operacion. Por último, observamos que muchas de las predicciones eran inversamente proporcionales a los datos reales, siguiendo la tendencia de los mismos, pero en sentido opuesto. Por lo que para solventar esto, debemos hacer un cálculo de proporcionalidad. Determinaremos  tomando dos puntos cualquiera de ambos conjuntos de datos y calcularemos la pendiente que hay entre ambos puntos, si el sentido de dicha pendiente coincide, significa que las predicciones son proporcionales a los datos reales, y si no coinciden, significa que son inversamente proporcionales, en este caso, el conjunto de datos de predicción se multiplica por -1 para que todos los datos de inviertan, teniendo en cuenta que los datos reales y de predicción están por encima del eje de las X, al multiplicarlos por -1 estos datos terminarán por debajo del eje de las X, y por ende, el punto medio de los datos también estará por debajo del eje de las X. Teniendo esto en cuenta, la distancia que hay entre el punto medio deseado y el multiplicado por -1 será del punto_medio * 2. Al utilizar la red neuronal y predecir datos en base a sus predicciones anteriores se obtienen resultados con errores por encima del 80%. Al emplear el algoritmo propuesto como una técnica de pos-procesamiento, los resultados muestran una notable aproximación, manteniendo errores por debajo del 20% donde los mejores resultados llegan a errores del 3%. Esto resalta cómo la implementación de dicho algoritmo contribuye de manera significativa a la mejora en la predicción y demuestra la efectividad del algoritmo propuesto.


CONCLUSIONES

Sobre el objetivo, se han realizado importantes avances en la predicción de acciones e índices en la Bolsa Mexicana de Valores mediante el uso de tecnología cuántica y redes neuronales LSTM. Encontrando que las predicciones realizadas por la red neuronal pueden ser mejoradas significativamente mediante un algoritmo de ajuste pos-predicción: Calcular los puntos medios de los conjuntos de datos (predicción y reales) para estandarizarlos. Calcular el valor de alpha (α) para igualar las amplitudes de los datos de predicción y reales. Calcular el valor de beta (β) para corregir el desfase causado por la multiplicación por alpha. Realizar un ajuste para asegurar que las predicciones sean proporcionales a los datos reales. Este enfoque no había sido considerado previamente y muestra resultados prometedores para mejorar las predicciones y hacerlas más cercanas a los datos reales. Para seguir desarrollando y mejorando esta metodología, es importante analizar el desempeño en términos de recursos y tiempo utilizados para determinar si una arquitectura más compleja es significativamente óptima o si el algoritmo de ajuste complementa mejor una arquitectura más simple. Además, es relevante revisar el estado del arte sobre propuestas similares y estudiar cómo se han abordado problemas similares de predicción en otros campos para obtener nuevas ideas y enfoques. También, como parte del trabajo futuro, es relevante aplicar la computación cuántica a la red neuronal LSTM. La tecnología cuántica podría ofrecer ventajas significativas en el procesamiento y análisis de grandes volúmenes de datos, lo que podría potenciar el modelo de predicción.
Morales Renteria Areli, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero

GEO SKETCHER TURTLE: ROBOT DIDáCTICO PARA DIBUJAR TRAZOS GEOMéTRICOS


GEO SKETCHER TURTLE: ROBOT DIDáCTICO PARA DIBUJAR TRAZOS GEOMéTRICOS

Barrera Reyes Angel, Instituto Tecnológico de Chilpancingo. Mares Hernández Orlando, Instituto Tecnológico de Chilpancingo. Morales Renteria Areli, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Virgilio Cruz Cruz, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

El aprendizaje de la programación en niños enfrenta diversos problemas en la actualidad como la falta de recursos adecuados, principalmente computadoras y personal capacitado. Además, los enfoques teóricos de enseñanza en lugar de enfoques prácticos, dificulta el proceso de aprendizaje. Otro problema es que la curva de aprendizaje inicial y la falta de continuidad en los planes de estudio también representan desafíos significativos. A pesar de estos obstáculos, se reconoce el valor de la programación como una habilidad relevante y se están realizando esfuerzos para mejorar la enseñanza en este campo. Como propuestas de solución a esta dificultad, se diseñan y desarrollan robots o mecanismos robóticos didácticos para hacer el aprendizaje más dinámico, lúdico y atractivo para los estudiantes. En este sentido, en la Facultad de Matemáticas de la UAGro se desarrolla un prototipo denominado Geo Sketcher Turtle, el cual consiste en un robot zoomórfico basado en una tortuga para la enseñanza-aprendizaje de temas básicos de geometría, tales como reconocimientos de polígonos, lados, ángulos, entre otros. Este robot está orientado a niños de preescolar y proporciona una interfaz sencilla y amigable mediante botones de control para su manipulación y uso.



METODOLOGÍA

En la fase de diseño, se creó la arquitectura del sistema de la tortuga robótica. Esto incluye el rediseño de la estructura física, la selección de los componentes electrónicos necesarios, el diseño de circuitos, el diseño la programación y de la presentación. Basándonos en el prototipo inicial, con la ayuda de la plataforma Tinkercad se diseñó al circuito para integrar una placa Arduino NANO EVERY con un microcontrolador L293D, que a su vez se conectó a los botones de control y los motores DC usando resistencias y jumpers. Utilizamos Arduino IDE con lenguaje C para desarrollar el programa del robot y se utilizó la Placa Arduino UNO para hacer pruebas de código por su facilidad de manejo, definimos a los pines del 2 al 5 como pines de entrada y del 8 al 11 como pines de salida, así mismo, se establecieron los puertos 13 y 12 para los motores. Los pines mencionados se conectaron a los pines correspondientes del microcontrolador L293D, el cual sirve para el control y dirección de motores DC, en este caso utilizamos modulación por ancho de pulso (PWM). Los botones de control serían el de avanzar, retroceder, girar a la izquierda y a la derecha. Por último, se incluye un botón para limpiar la memoria de forma que se puedan recibir nuevas instrucciones, de no presionarse, el robot repetiría la última secuencia grabada. Para el caparazón se utilizó una jícara <Material natural usado comúnmente como bandeja para uso doméstico>. La idea de utilizar este material fue usar materiales ecológicos y amigables con el medio ambiente, de esta manera pudimos ahorrar material y energía al no tener que imprimir esta pieza.  La base y cabeza de la tortuga fueron diseñadas para encajar con el tamaño del caparazón y para que el robot tuviera un espacio para las llantas y un plumón, los botones constaron de cuatro flechas para cada movimiento, el botón de encendido/ejecutar instrucciones y el de eliminar secuencia, el tamaño de la muesca se basó en el tamaño de los Pulsadores Switch 12x12x7. Para el control del servomotor se ideó un mecanismo que consistía en una palanca para empujar el plumón hacia arriba o hacia abajo dependiendo del movimiento del motor utilizando un soporte que se acopló a la base de la tortuga. La base, la cabeza, el soporte del servomotor y los botones, se modelaron con Blender y posteriormente se imprimieron utilizando el programa Cura para la impresora 3D Anet A8 plus, dichas piezas fueron pulidas, pintadas y ensambladas para adaptarse al diseño de la presentación de la tortuga. El circuito se pasó a la placa Arduino Nano Every y fue soldado con estaño para adaptar el tamaño del circuito al espacio que nos proporcionó la jícara y por último se atornillaron el resto de componentes.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos básicos para desarrollar un robot didáctico para niños, aplicando tecnología educativa basado en el aprendizaje STEM. Aprendimos más acerca de las funciones que tiene la placa  Arduino junto con el lenguaje C, la programación del microcontrolador L293D para el control de motores de corriente directa, la administración de datos y el cómputo físico para el desarrollo de sistemas más complejos dado que fomenta el aprendizaje práctico y estimula el pensamiento crítico, la creatividad y la resolución de problemas en los estudiantes, mientras los prepara para enfrentar los desafíos de un mundo cada vez más tecnológico, así mismo, aprendimos sobre modelado e impresoras 3D para obtener los componentes o figuras de nuestra necesidad.
Morales Tejeda Edgar Yali, Instituto Tecnológico de Pachuca
Asesor: Dra. Valentina Hernandez Piedrahita, Servicio Nacional de Aprendizaje SENA - Regional Caldas

INVESTIGACIóN APLICADA EN EL DESARROLLO DE EMPRENDIMIENTOS EN TECNOPARQUE, SENA REGIONAL CALDAS.


INVESTIGACIóN APLICADA EN EL DESARROLLO DE EMPRENDIMIENTOS EN TECNOPARQUE, SENA REGIONAL CALDAS.

Morales Tejeda Edgar Yali, Instituto Tecnológico de Pachuca. Ramirez Cortes Eli Magdiel, Instituto Tecnológico de Pachuca. Asesor: Dra. Valentina Hernandez Piedrahita, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Tecnoparque es un acelerador de proyectos de investigación, desarrollo tecnológico e innovación, tiene como objetivo el materializar ideas en prototipos funcionales y productos pre-comerciales. Esta institución brinda asesoría técnica especializada, acceso a infraestructura  y laboratorios, así como la asesoría para la creación de empresas. Dando como beneficio a los emprendedores la entrega de los derechos patrimoniales, presentación a convocatorias, procesos de propiedad intelectual y siendo todo lo anterior un servicio completamente gratuito.   Tecnoparque, Caldas cuenta con cuatro líneas de base tecnológica, siendo estas: Biotecnologia y Nanotecnologia; Electrónica y Telecomunicaciones; Tecnología virtuales; e Ingeniería y diseño. En consecuencia la ayuda que se brinda a los emprendedores que ingresan a tecnoparque es bastante amplia ya que tienen acceso a una amplia gama de equipos y a la asesoría de especialistas en el tema sobre el cual se desenvuelve su proyecto, para desarrollar de manera metodológica, práctica y eficiente sus ideas.   La mayor problemática presente en la línea de Biotecnología y Nanotecnología  es el ingreso de  talentos que buscan solucionar necesidades del mercado en diferentes temas como: Alimentos, agroindustria, medio ambiente, microbiología industrial, cosmética, desarrollo de nuevos materiales, entre otros. Lo cual exige una constante actualización en el marco legal, tecnológico, ambiental y social.  



METODOLOGÍA

Cada proyecto que se registra en Tecnoparque y requiere del laboratorio de biotecnología, inicia con una presentación frente a los expertos explicando sus necesidades e intenciones con su producto, dependiendo del área del mismo se puede tomar un enfoque de ingeniería química general, especialidad en alimentos y/o en microbiología o a varias de manera simultánea, con la finalidad de validar la calidad de sus productos, realizar formulaciones y ajustarlo a la normativa vigente.  Una vez que el proyecto es validado, se da a conocer al equipo de trabajo el objetivo general, el producto esperado, y, dependiendo de las necesidades se asigna a uno o más de los expertos que están inmersos en el tema, para asesorar técnicamente en correcto desarrollo de la experimentación y que se encamine al producto esperado por el talento.     Posteriormente se programan las actividades considerando la agenda de los talentos, siendo la primer sesión una breve demostración sobre el producto desarrollado por el emprendedor o bien con la entrega de muestras para un primer estudio, esto con la finalidad de caracterizar el punto de partida que tiene el proyecto, y de esta forma plantear las iteraciones que ayuden a mejorar el prototipo, estructurar su formulación, la obtención de la ficha técnica y alcanzar los estándares del mercado. Para el desarrollo del proyecto se sigue la metodología Planear, Hacer, Verificar y Actuar, para realizar de manera constante avances hacia el producto final. En los primeros dos pasos se realiza una investigación para conocer mejor las materias empleadas en el producto, el adecuado manejo y tratamiento para las mismas, las condiciones de operación, los equipos a emplear y metodología a seguir en la experimentación, así como las técnicas empleadas para cuantificar los resultados esperados, así como los límites establecidos en normas para los productos similares.  Las marchas analíticas que se desarrollan en el laboratorio se realizan bajo la guianza de los expertos correspondientes y con las recomendaciones que se estipulaban en la investigación previa, procurando tener iteraciones suficientes para evaluar las variables del producto y su efecto en resultado final, del mismo modo los resultados se discutían con los expertos para obtener conclusiones del perfil que presenta el producto de acuerdo a esas variables.  Finalmente los resultados obtenidos se reportan con el emprendedor para discutir si estos son los adecuados a sus objetivos y si las formulaciones le resultan satisfactorias, en caso de no serlo se repiten las pruebas bajo las nuevas observaciones hasta encontrar resultados que cumplan las expectativas, una vez se llega a este punto se da por finalizada la experimentación y el trabajo de laboratorio, entregando un prototipo funcional y que puede ser comercializado.


CONCLUSIONES

Durante la estancia en Tecnoparque pudimos observar los grandes aportes que se brindan a los emprendedores para desarrollar un prototipos funcionales y productos precomerciales, así mismo, de manera personal colaboramos en diversos proyectos con el fin de fungir como apoyo técnico en análisis químicos, la implementación de estrategias en la resolución de problemas y en el diseño de algunos prototipos, el cual nos ayudó a mejorar nuestros conocimientos en las áreas de alimentos, así como de microbiología e ingeniería química, de igual manera se presentó la oportunidad de poder operar los equipos de laboratorio con los que cuenta la institución y así fortalecer la formación en el manejo de los mismos.    Debido a la naturaleza de los proyectos los resultados obtenidos resultaron ser variados, ya que en algunos se desarrollaron prototipos funcionales y se dieron por concluidos, mientras que en otros se presentó un avance significativo a los mismos y en algunos no se tienen resultados finales porque están en desarrollo. Sin embargo, el trabajo con cada proyecto nos brindó nuevos conocimientos y el refuerzo de algunos como lo son: las marchas analíticas a realizar en diversas muestras, el manejo apropiado de equipos y las técnicas empleadas para realizar buenas prácticas de laboratorio, de igual manera el aprendizaje sobre metodologías de trabajo funcionales para el desarrollo de proyectos.  
Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Morales Torres Francisco Javier, Universidad Autónoma de Zacatecas
Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISPOSITIVO DE RECONOCIMIENTO POR INTFRARROJO


DISPOSITIVO DE RECONOCIMIENTO POR INTFRARROJO

Morales Torres Francisco Javier, Universidad Autónoma de Zacatecas. Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En SENA Tecnoparque, se ha llevado a cabo un proyecto confidencial de diseño de un dispositivo de reconocimiento por infrarrojo. El objetivo de este dispositivo es la detección de siluetas humanas a distancia y emitir una señal de ‘persona detectada’, lo que podría tener aplicaciones en diversas áreas como la seguridad y la vigilancia. El problema radica en que el proyecto se encuentra estancado en la fase de diseño debido a que el tiempo no es suficiente para alcanzar la fase de implementación por la llegada de los materiales que implica meses para su llegada, la restricción de información impuesta por un acuerdo de confidencialidad con los clientes y partes involucradas. Esta limitación impide que el equipo de delfines e investigador pueda compartir detalles específicos sobre las características, funcionalidades y desafíos técnicos que enfrenta el dispositivo. Por lo tanto, el reto para el equipo de delfines e investigador del SENA Tecnoparque es encontrar la manera de avanzar en el desarrollo del dispositivo sin violar el acuerdo de confidencialidad establecido y con el limite de tiempo que especifica el Programa Delfin. Esto implica idear estrategias y soluciones creativas para abordar los desafíos técnicos, mejorar la precisión de detección, optimizar la eficiencia energética y reducir los costos de producción, todo ello dentro de los límites y restricciones impuestas por el acuerdo de confidencialidad. El equipo debe equilibrar la necesidad de avanzar en el proyecto sin comprometer la confidencialidad y seguridad de la información. Esto requiere una comunicación efectiva y colaborativa con las partes involucradas, y posiblemente la exploración de alternativas para el desarrollo conjunto del dispositivo. El éxito en superar estos obstáculos permitirá al Tecnoparque entregar un dispositivo funcional, competitivo y de alto rendimiento, manteniendo la confianza y el respeto de sus clientes y estableciendo una base sólida para futuras colaboraciones y proyectos en el ámbito de la innovación tecnológica.



METODOLOGÍA

Desarrollo del dispositivo de reconocimiento por infrarrojo:     Definición de requerimientos: Trabajo en conjunto con EFIM - Escuela de Formación de Infantería de Marina para establecer las necesidades específicas de detección de siluetas humanas y otros detalles esenciales.     Investigación y diseño conceptual: Investigación exhaustiva de proyectos similares, resultando en un diseño conceptual que integra tecnología Flir Lepton y Lora para detección térmica y comunicación inalámbrica.     Diseño del circuito impreso (PCB): Detallado diseño de PCB con Altium Designer para optimizar eficiencia y reducir ruido electromagnético.     Modelado 3D con Solidworks: Creación de modelo 3D para asegurar un diseño estético y funcional del dispositivo.     Programación del Raspberry Pi: Uso de MicroPython para manejo de datos de sensores Flir Lepton y comunicación LoRa.     Control de versiones con GitHub: Registro organizado y seguro del progreso de desarrollo mediante GitHub.     Documentación y entrega: Entrega de código fuente, esquemáticos detallados del PCB y diseños en 3D a SENA Tecnoparque para futuros desarrollos. Cabe mencionar que, dado el acuerdo de confidencialidad, los detalles específicos sobre el diseño y desarrollo del dispositivo de reconocimiento por infrarrojo no pueden ser divulgados en esta metodología. Sin embargo, se garantiza que se siguieron buenas prácticas de ingeniería, pruebas rigurosas y una comunicación efectiva para cumplir con los objetivos del proyecto y mantener la confidencialidad de la información.


CONCLUSIONES

El proyecto de desarrollo del dispositivo de reconocimiento por infrarrojo representó un desafío técnico significativo y una experiencia valiosa para el equipo de delfines Tecnoparque. A pesar de las limitaciones impuestas por el acuerdo de confidencialidad, se lograron avances significativos en el diseño y programación del dispositivo para la detección de siluetas humanas a distancia. Las principales conclusiones del proyecto son las siguientes: Investigación y aprendizaje: El proceso de investigación y estudio de tecnologías avanzadas, como Flir Lepton y LoRa, permitió al equipo expandir sus conocimientos en el ámbito de la detección térmica y la comunicación inalámbrica. La experiencia adquirida será valiosa para futuros proyectos y desafíos técnicos. Importancia de la confidencialidad: El acuerdo de confidencialidad resaltó la importancia de mantener la seguridad y privacidad de la información en proyectos con colaboraciones externas. Aprendimos la importancia de respetar y cumplir con las restricciones y obligaciones legales para proteger los intereses de nuestros clientes. Colaboración y comunicación: El proyecto destacó la importancia de una comunicación efectiva y colaborativa con los clientes y partes interesadas. La claridad en la comunicación y la retroalimentaciónconstante permitieron al equipo adaptarse a los requerimientos y expectativas del cliente. Uso de herramientas de desarrollo: La utilización de herramientas como Altium Designer, Solidworks, GitHub y MicroPython demostró ser esencial para el desarrollo del proyecto. La aplicación de estas herramientas facilitó la organización, el seguimiento y la colaboración en el proceso de desarrollo.
Moras Moras José Armando, Instituto Tecnológico de Chilpancingo
Asesor: Dra. María Zavala Hurtado, Instituto Tecnológico de Chilpancingo

SISTEMA DE CONTROL DE ASISTENCIA A TRAVéS DE RECONOCIMIENTO FACIAL


SISTEMA DE CONTROL DE ASISTENCIA A TRAVéS DE RECONOCIMIENTO FACIAL

Atempa Basilio Cesar Eduardo, Instituto Tecnológico de Chilpancingo. Godinez Santana Eduardo, Instituto Tecnológico de Chilpancingo. Moras Moras José Armando, Instituto Tecnológico de Chilpancingo. Asesor: Dra. María Zavala Hurtado, Instituto Tecnológico de Chilpancingo



PLANTEAMIENTO DEL PROBLEMA

En el TecNM campus Chilpancingo, como la mayoría de las instituciones educativas, realizan un seguimiento constante de la asistencia de los estudiantes con el fin de ayudar al profesor a conocer la presencia, ausencia o retardos de los estudiantes y así poder resolver algunos problemas que se puedan presentar. El proceso de registro de asistencia dentro de las aulas del TecNM campus Chilpancingo por parte de los profesores es de manera manual, se anuncia el nombre de cada uno de los estudiantes y en una lista se registra la asistencia, retardo o falta. Esto implica que, en una clase de 60 minutos, con un promedio de 30 alumnos el docente invierte de 10 a 15 minutos registrando la asistencia. Aunado a lo ya mencionado, este proceso es susceptible a errores humanos (registrar asistencia, falta o retardo donde no corresponde) ocasionando reportes incorrectos sobre el tema en cuestión.



METODOLOGÍA

Las metodologías ágiles son flexibles y ofrecen una respuesta inmediata; además, son adaptables a la forma de trabajo de los proyectos, permiten construir un producto de forma incremental, hacer modificaciones y cambios en cualquier etapa del proyecto. Dentro de estas metodologías ágiles se seleccionó el método Scrum porque trabaja en pequeños proyectos; en cada Sprint se realiza la planificación, análisis, creación y comprobación, también se caracteriza por las entregas regulares y parciales del producto final. Aunado a lo anterior, cuando se detecta problemas en un Sprint puede volver a la fase del error para corregir el problema (las Heras del Dedo, R. d., Álvarez García, A., Lasa Gómez, C., 2018) El método Srum se trabajó apoyándose en tres procesos: Construcción de la base de datos del sistema de control de asistencia y el diseño de la interfaz final. Desarrollo de la API de reconocimiento facial a través de imágenes. Construir la API de reconocimiento facial a través de video. En cada proceso se realizó la planeación, el análisis, la creación de la iteración y por último se probó el correcto funcionamiento del sistema, además se realizaron pruebas finales con la integración de cada proceso. Planeación. Se definieron los objetivos y se fijaron fechas de entrega de los sprint. Análisis. Se analizaron los requisitos del proyecto, considerando la automatización, la precisión y registro de asistencia en la base de datos, la rápida identificación de los estudiantes y monitoreo en tiempo real.   Creación: Se construyó cada sprint utilizando como principal lenguaje de programación python, la biblioteca OpenCV y el SGBD MariaDB, se utilizó el algoritmo de FaceNet implementado a través de la biblioteca face_recognition para el reconocimiento facial tanto de imagen como video Comprobación: Durante y después de cada sprint, se realizaron pruebas para asegurarse de que el software cumple con los requisitos y funciona como se planeó. Las pruebas también ayudaron a identificar la eficiencia de los algoritmos de reconocimiento de imagen y video.


CONCLUSIONES

El desarrollo del Sistema de Control de Asistencia a través de Reconocimiento facial representa un importante avance en la administración académica y en la gestión del tiempo en el ámbito educativo. El sistema fue desarrollado con el uso de diversas herramientas y bibliotecas como: Python, OpenCV, Dlib y face_recognition, llegando a las siguientes conclusiones: El reconocimiento facial requiere de un algoritmo capaz de entrenarse para que la eficiencia logre el menor margen de error al momento de la comparación entre imagenes, en este caso se utilizó el algoritmo FaceNet implementado a través de la biblioteca face_recognition, alcanzando una compatibilidad hasta del 80% en las pruebas realizadas. Se utilizó una base de datos donde se guarda permanentemente la información de los estudiantes y las materias que cursa, así como su asistencia. El Sistema Gestor encargado de eso fue MariaDB por la cantidad de registros que almacena, además de ser OpenSource. El guardado de imágenes en la base de datos se realizó convirtiendo la imagen a escala de grises con cvtColor, enseguida se utilizó el clasificador Haar.igual para ser guardado en la base de datos, proceso que fue exitoso para poder recuperar la imagen, ser comparada con el rostro y registrar la asistencia cuando existen coincidencias. Se integró correctamente los algoritmos de reconocimiento facial a través de imagen y video en el sistema de control de asistencia, logrando el objetivo planeado. Aunque las pruebas se realizaron de manera local con más de 20 rostros, se recomienda realizar un test del sistema en un ambiente real.
Moreau Añorve Edgar Rogelio, Universidad Autónoma de Baja California
Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México

PROCESO PARA DEFINIR LAS ESTRATEGIAS BIOCLIMáTICAS ANTE EL CAMBIO CLIMáTICO


PROCESO PARA DEFINIR LAS ESTRATEGIAS BIOCLIMáTICAS ANTE EL CAMBIO CLIMáTICO

Moreau Añorve Edgar Rogelio, Universidad Autónoma de Baja California. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existe una gran necesidad de combatir el cambio climático, el cual se ve provocado por las emisiones de gases de efecto invernadero (GEI), estas emisiones provocan el aumento de la temperatura global, una de las principales causas de las emisiones GEI es la quema de combustible fósil para la generación de energía eléctrica (Estrada Gasca, 2013). El incremento en la temperatura provocará que cada vez sea más complicado tener una temperatura de confort en los edificios, lo cual aumentará el consumo energético en sistemas de climatización provocando un aumento de emisiones relacionadas, por esto se estudiaran los efectos del cambio climático para ver su impacto en los edificios y como deben adaptarse, por lo cual se mostrará el proceso para definir las estrategias bioclimáticas, las cuales sirven para lograr el confort a pesar de los cambios climáticos por medio de estrategias las cuales permitirán definir los sistemas pasivos, contribuyendo a la disminución de consumo energético en sistemas de climatización, según estudios se estima que en el sector residencial, en nuevas edificaciones, que incluyan sistemas pasivos, se puede lograr ahorro de hasta 50% de energía y adaptando edificaciones hasta 25% (Hernández y Morillón, 2022).



METODOLOGÍA

Se definen ciudades representativas de las condiciones climaticas: Cálido seco, Cálido húmedo y templado para llevar a cabo los escenarios de los años 2030, 2050 y 2100, con trayectorias de concentración representativas (RCP) 2.6 (se realizan acciones estrictas para reducir las emisiones) y 8.5 (no se realizan acciones para reducir las emisiones). Se tomó la información climatológica de las localidades de Mexicali, Villahermosa y Iztacalco, las cuales son representativas del clima cálido seco, cálido húmedo y templado respectivamente, la cual fue genera medio de la herramienta meteonorm 8 (Tomado de Mendoza Moreno, 2022). Se tomaron en cuenta análisis del bioclima realizados con la herramienta Biosol con base en los escenarios prospectivos indicados, los cuales muestran las condiciones de comodidad de las personas necesarias para definir las estrategias (Tomado de Bahena Fernández, 2022), se observa que en cada escenario prospectivo se tendrán mayores requerimientos de climatización. Se tienen 3 métodos para definir las estrategias y recomendaciones; mediante el análisis directo del bioclima realizado con el Biosol, mediante la interpretación de la carta psicométrica del ESTBIO y por último mediante el uso de Climate Consultant 6.0. Se analizaron los 3 métodos y se concluyo que se utilizaría Climate Consultant 6.0, debido a que no se requiere de conocimiento específico para utilizarlo, mientras que el análisis directo del bioclima por medio de Biosol requiere de habilidad específica para manejarlo y el ESTBIO se descarta debido a que el listado de recomendaciones es limitado y difícil de interpretar. Posterior a la selección del método se definieron las estrategias y recomendaciones para los escenarios prospectivos indicados.


CONCLUSIONES

Durante la estancia se obtuvo conocimientos teóricos sobre el diseño bioclimático, además se definieron las estrategias y recomendaciones para el confort de las personas con base al clima de las localidades seleccionadas, se observó que en el peor escenario se tendrán requerimientos de climatización para el enfriamiento durante todo el año, debido al cambio climático. Se analizaron los métodos para definir las estrategias y recomendaciones bioclimáticas, el método climate consultant es aplicable para cualquier localidad y clima, para lograr la adaptación de los edificios ante el cambio climático. Como ejemplo las estrategias bioclimáticas para el escenario 2100, RCP 8.5 en cada clima son las siguientes: En cálido seco se requerirá de enfriamiento y humidificación principalmente en verano y calentamiento en invierno. En cálido húmedo se requerirá de enfriamiento y deshumidificación durante todo el año. En templado se requerirá de enfriamiento en primavera y calentamiento principalmente en invierno. Las recomendaciones o sistemas pasivos con requerimiento específico, para cada clima son: Cálido seco: Sombreado de ventanas (2569 hrs), ganancia térmica (903 hrs), descarga térmica nocturna (1268 hrs), ventilación natural (542 hrs), calentamiento solar pasivo (949 hrs), confort (1797 hrs), enfriamiento evaporativo (2037 hrs), ventilación forzada (397 hrs), como complemento el enfriamiento y deshumidificación mecánica (2702 hrs). Cálido húmedo: Sombreado de ventanas (2612 hrs), deshumidificación (485 hrs), como complemento el enfriamiento y deshumidificación mecánica (8135 hrs). Templado: Sombreado de ventanas (1984 hrs), ganancia térmica (1304 hrs), descarga térmica nocturna (1423 hrs), ventilación natural (770 hrs), calentamiento solar pasivo (1296 hrs), confort (3648 hrs), enfriamiento evaporativo (1451 hrs), ventilación forzada (519 hrs), deshumidificación (1024 hrs).
Moreno Bautista Natalie Xiomara, Universidad de Guadalajara
Asesor: Dr. Erick Axel Padilla García, Universidad Politécnica de Atlacomulco

PRóTESIS MECATRóNICA


PRóTESIS MECATRóNICA

Díaz López Javier Ignacio, Universidad de Guadalajara. Moreno Bautista Natalie Xiomara, Universidad de Guadalajara. Segura Gallegos Luis Arturo, Universidad de Guadalajara. Asesor: Dr. Erick Axel Padilla García, Universidad Politécnica de Atlacomulco



PLANTEAMIENTO DEL PROBLEMA

Una amputación es la separación o corte de un miembro o una sección del cuerpo de un ser vivo a través de una cirugía quirúrgica. De acuerdo con la Academia Nacional de Medicina de México (ANMM), en nuestro país se efectúan aproximadamente 75 amputaciones diarias; es decir más de 25 mil personas al año sufren la escisión de alguna de sus extremidades. La pérdida de un miembro generalmente tiene un impacto psicológico en las personas, así como social, pues al faltarles un miembro se consideran incapaces de realizar ciertas actividades y/o trabajos robustos, creando así un incremento en el porcentaje de desempleados. Una prótesis reemplaza al miembro perdido de forma artificial, mejorando así la comodidad, la estabilidad y permitiendo el desempeño de varias actividades al usuario. El objetivo de la realización de las prótesis es poder proporcionar al usuario una solución para los problemas que la pérdida del miembro puede provocar y el diseño de la misma se debe adaptar a las necesidades de cada paciente. En este caso se planteó la problemática de un paciente con una amputación de tipo transradial con ambos impactos post-amputación y se trabajó con la finalidad de ofrecerle al usuario una calidad de vida lo más parecida a la que tenía antes de la pérdida del miembro.



METODOLOGÍA

Para el desarrollo del proyecto se utilizó la metodología científica llamada diseño mecatrónica secuencial/iterativo. Se basa en obtener las necesidades del paciente para posteriormente realizar propuestas del sistema físico, las cuales pueden ser: mecánica, eléctrica, de sensores, electrónica y/o de instrumentación. Cuando se pasa a la fase de pruebas se evalúa el desempeño del control, del GUI, del software y de las señales que retroalimentan al sistema de control (señales feedback). Si el resultado de la fase de pruebas es satisfactorio el diseño se da por terminado, de lo contario, se realizará una nueva iteración; es decir, comenzar a revisar nuevamente las necesidades del paciente, luego realizar modificaciones al sistema físico y finalmente las modificaciones al desempeño. Este proceso se repetirá las veces que sea necesario hasta lograr un sistema satisfactorio. Se propusieron dos modelos de prótesis con la finalidad de que cada uno solucione las dos problemáticas post-amputación que se generan. El primer modelo propuesto es una mano con dedos articulados, esto con la finalidad de satisfacer de alguna forma el vacío psicológico del usuario por la falta del miembro y lograr la sensación de normalidad que la depresión puedo minimizar. Sin embargo, este tipo de diseños tienen un enfoque principalmente estético, por lo que cuentan con motores pequeños que no permiten el desempeño de actividades o trabajos más robustos o que requieran de mayor fuerza que se presentan en su día a día, como lo sería cargar la bolsa del súper. Es por ello que nuestro segundo modelo propone una garra motorizada que proporcione al usuario la facilidad de sostener y/o empujar elementos pesados. Para el diseño ambos modelos de prótesis se utilizó el método anteriormente mencionado, dentro del cual dividimos la realización del proyecto en dos fases: Diseño del artefacto físico y evaluación del desempeño del mismo. Para la primera fase se subdivide en 3 etapas: Planificación: En esta etapa se definió el propósito que tendría que cumplir cada modelo. Análisis y diseño: En esta etapa se evalúa la necesidad del usuario para definir el nivel electrónico que tendrán los modelos, es decir si requería un nivel meramente electromecánico o si era conveniente el diseño de un modelo biónico. Después del análisis, vienen las propuestas, se propone primeramente un diseño mecánico, posteriormente se consideran los actuadores convenientes, así como los sensores. El diseño de las partes de la prótesis se realizó en programas de diseño 3D como fueron SolidWorks para el diseño de la garra que requería mayor precisión en la geometría y Fusión 360 para diseños más orgánicos como la mano articulada. La impresión de las partes se realizó con ayuda de una impresora 3D con un filamento de materia PLA y para las partes flexibles de las articulaciones de la mano fue con un filamento de tipo TPU. Implementación: En esta etapa se ejecutó de forma física todo el diseño teórico previo y se incluyó el circuito eléctrico. Para el circuito de la mano se requirió un arduino nano y 5 servomotores (uno por dedo), y para la garra se utilizó un sistema de engranajes que eran empujados por un motor MG995. Para la segunda fase se subdivide en 2 etapas: Pruebas: En esta etapa se realizaron diversas pruebas con el artefacto en el usuario para lograr los ajustes necesarios en las propuestas de control, el cual fue un control de tipo PID así que solo se tuvo que ajustar las ganancias del mismo. Evaluación y revisión: En este caso quien midió la factibilidad fue el paciente y en los casos de no satisfacerla se revisó y modificó el diseño, después se volvió a realizar las pruebas pertinentes para la nueva evaluación. Terminamos de iterar hasta que el producto se consideró útil para el paciente.


CONCLUSIONES

Se logró adquirir conocimientos teóricos sobre las amputaciones, las prótesis y sensores biológicos, además del conocimiento práctico del proceso de diseño rústico y digital de una prótesis con el uso software para amputaciones de tipo transradial. También se adquirieron habilidades de investigación basándonos en el método secuencial iterativo, con el que se pudo establecer un plan de trabajo eficiente, sin embargo, por limitaciones de algunos recursos por la ubicación geográfica de la estancia, nos retrasó el conseguir los materiales pertinentes y no se logró llegar a la etapa de implementación de un control con sensores bilógicos quedando así una prótesis mecatrónica en lugar de la prótesis biónica planeada.
Moreno Camacho Brenda Paola, Instituto Politécnico Nacional
Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla

IMPLEMENTACIÓN DE UN SISTEMA PARA MEDIR LA FRECUENCIA DE RESPIRACIÓN HUMANA BASADO EN UN SENSOR TEXTIL Y VESTIBLE


IMPLEMENTACIÓN DE UN SISTEMA PARA MEDIR LA FRECUENCIA DE RESPIRACIÓN HUMANA BASADO EN UN SENSOR TEXTIL Y VESTIBLE

Fuentes Bailón Erick Uriel, Instituto Politécnico Nacional. Moreno Camacho Brenda Paola, Instituto Politécnico Nacional. Munguia Fernandez Nicol Alejandra, Universidad Autónoma de Baja California. Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La frecuencia respiratoria es un parámetro de gran importancia en el ámbito de la salud y el bienestar de las personas, por lo tanto, es de gran importancia realizar un monitoreo constante en diversas situaciones clínicas y cotidianas para obtener un registro adecuado de la salud del paciente. Actualmente, la población mexicana se ve severamente afectada debido al incremento en la concentración de gases tóxicos que afectan en gran medida el sistema respiratorio, especialmente en las grandes ciudades como la Ciudad de México.  Por otro lado, se pueden encontrar diversos dispositivos médicos que tienen como objetivo medir la frecuencia respiratoria humana, sin embargo, la mayoría de ellos tienen un alto costo, son de gran tamaño o necesitan de la una supervisión continua de un profesional de la salud. Además, estos dispositivos frecuentemente tienden a resultar incómodos para el paciente, lo cual genera una limitación a su uso en entornos no médicos. Por ello, se plantea la necesidad de desarrollar un sensor de frecuencia respiratoria basado en el uso del efecto piezorresistivo con el que se pretende mejorar su accesibilidad, portabilidad y precisión además de que pueda ser utilizado tanto por profesionales de la salud como por personas en sus actividades diarias. 



METODOLOGÍA

El primer paso para el desarrollo experimental del proyecto fue investigar y seleccionar el material más eficiente para lograr alcanzar los objetivos, dicho material tendría que tener como característica principal el cambio significativo en su resistividad al ser deformado. Por ello, se comenzó empleando pintura conductiva sobre una tira elástica y se determinaron diferentes patrones para seleccionar el más eficiente. Sin embargo, al momento de ser deformada, la pintura conductiva presentó una fractura la cual generó una discontinuidad eléctrica. Por lo tanto, se optó por usar tela conductora de hilos de plata. Con el cambio de resistividad de la tela se realizaron diversos patrones para elegir el adecuado y se realizó una costura a la tira elástica, al igual que se incluyeron unos broches de presión y de plástico, con la finalidad de tener constante el comportamiento del resorte y poder ajustar el dispositivo a diferentes usuarios.  Para determinar el cambio en la resistencia del material se diseñó un divisor de voltaje en el cual una de las resistencias sería representada por la tela conductora. Al suministrar un voltaje en ambas resistencias podría ser cuantificada la variación en el voltaje del cinturón debido al cambio en su resistencia. Sin embargo, este diseño presentó una variabilidad en las medidas por lo que se decidió utilizar una configuración conocida como puente de Wheatstone debido a que permite convertir un cambio de resistencia en un cambio de voltaje de un transductor, en este caso, el sensor textil, utilizando únicamente tres resistencias conocidas y una resistencia variable (tela conductora). Dado que el voltaje obtenido en el puente de Wheatstone presentaba valores bajos, se empleó un amplificador de instrumentación con la finalidad de amplificar el valor de voltaje medido entre los dos puntos del puente de Wheatstone además de acondicionar la señal obtenida. Después, se procedió a visualizar la señal por medio del software LabVIEW y una DAQ (Data Acquisition System) la cual nos permite digitalizar señales analógicas.   Al comprobar la calidad de la señal obtenida en la interfaz de LabVIEW, se decidió implementar la transmisión de los datos de manera inalámbrica para mejorar la experiencia del usuario y evitar errores en la medición que podrían ser resultado del movimiento excesivo de los cables y sus conexiones. Inicialmente, la transmisión de datos se llevó a cabo mediante el uso del módulo bluetooth HC-05 y la placa de desarrollo Arduino Uno, sin embargo, debido a errores en la vinculación con la computadora se decidió hacer uso de la placa de desarrollo ESP-32 el cual se programó por medio del IDE de Arduino para recibir datos de la señal y después transmitirla, de esta manera fue posible reducir el espacio de los dispositivos lo que mejora la portabilidad.  Con dicha placa se logró realizar la transmisión de datos utilizando el protocolo de comunicación TCP/IP, el cual permite la comunicación entre dispositivos pertenecientes a una misma red, en este caso el ESP32 y una computadora en la cual se encuentra la interfaz de LabVIEW, con el fin de lograr contabilizar las respiraciones por minuto de manera inalámbrica y registrar los datos obtenidos en un archivo de Excel mediante el cual el usuario podría llevar registro de su frecuencia respiratoria y en caso de ser necesario consultarlo con su médico de confianza. 


CONCLUSIONES

Durante el desarrollo de este proyecto adquirimos y desarrollamos conocimientos sobre el acondicionamiento de las señales fisiológicas y el potencial que tiene el principio piezorresistivo para aplicaciones de electrónica flexible en áreas importantes como en la salud. Además de esto el objetivo principal del proyecto se logró satisfactoriamente, transmitiendo la señal obtenida de manera inalámbrica, además de poder llevar a cabo la contabilización de las respiraciones por minuto de un usuario para posteriormente guardar registro de estas en una base de datos. Sin embargo, aunque se cumplió con los objetivos principales, para futuras mejoras se recomienda realizar una mejora en el acondicionamiento de la señal además de mejorar la interfaz para que sea más amigable con el usuario. También, se recomienda el uso de redes neuronales con la finalidad de detectar ciertas anomalías de manera automática. 
Moreno Gómez José Antonio, Instituto Tecnológico de Morelia
Asesor: Dr. Luis Ariosto Serna Cardona, CIAF Educación Superior

SISTEMA DE PREDICCIóN ORIENTADO A LAS PRUEBAS SABER 11° MEDIANTE VARIABLES SOCIODEMOGRáFICAS Y ECONóMICAS UTILIZANDO TéCNICAS DE APRENDIZAJE AUTOMáTICO.


SISTEMA DE PREDICCIóN ORIENTADO A LAS PRUEBAS SABER 11° MEDIANTE VARIABLES SOCIODEMOGRáFICAS Y ECONóMICAS UTILIZANDO TéCNICAS DE APRENDIZAJE AUTOMáTICO.

Berecochea Estrada Linda Anaid, Instituto Tecnológico de Morelia. Moreno Gómez José Antonio, Instituto Tecnológico de Morelia. Rodríguez Carvajal Eva Jaqueline, Universidad de Guadalajara. Santacruz Espinoza Guillermo, Instituto Tecnológico de Morelia. Asesor: Dr. Luis Ariosto Serna Cardona, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

Para los colombianos, alcanzar altos niveles de educación es vital para lograr el éxito y prosperidad en diferentes aspectos, desde el aumento de ingresos y productividad hasta el compromiso político y la igualdad social. Sin embargo, las enormes brechas de inequidad que existen en el país perjudican a los estudiantes de grupos o regiones con carencias socioeconómicas, impidiendo que el estudiante desarrolle sus actividades académicas con normalidad, aumentando así la deserción. Debido a esto, el país busca evolucionar en este aspecto y lograr estar conformado por ciudadanos competentes, formados académicamente, que puedan satisfacer los requisitos impuestos por la oferta laboral. Actualmente el ingreso a la educación superior en Colombia está determinado en gran medida por el desempeño en las pruebas saber 11, prueba que evalúa las áreas fundamentales del conocimiento como matemáticas, lectura crítica, ciencias naturales, lengua inglesa y ciencias sociales y ciudadanas, además de recoger información de tipo sociodemográfico y económica de los estudiantes de educación media. Estas pruebas no solo sirven como criterio de ingreso para la educación superior, adicional a esto, también aportan al desarrollo de investigaciones de carácter cultural, social y educativo implementadas por el gobierno mediante las convocatorias del ICFES. De acuerdo a lo planteado anteriormente es evidente que existe un problema metodológico en relación a la determinación de las variables no académicas que influyen en los resultados de las pruebas saber 11, y siendo consecuente con el auge actual de las técnicas de aprendizaje automático en el campo educativo, se hace pertinente plantear la siguiente pregunta de investigación ¿Cómo desarrollar un sistema para predecir los resultados de las pruebas saber 11°, mediante los patrones de desempeño obtenidos de las variables de carácter social y económico y usando técnicas de aprendizaje de máquina?



METODOLOGÍA

Las bases de datos que se utilizaron para este proyecto fueron exclusivamente del ICFES. Se utilizaron las bases de calendario 1 y 2 de las pruebas saber 11° a partir del año 2015 hasta el 2022. Se utilizaron todas las muestras en este rango de años, esto con el fin de tener un mejor entrenamiento del modelo de predicción y poder saber cuáles son los factores de desempeño que más afectan el nivel académico de la nación y poder tener un modelo de predicción general para todo el país colombiano. Se organizaron las bases de datos a partir de las encuestas realizadas a los estudiantes colombianos sobre la prueba saber 11°. Una vez alineado, se empezó con el preprocesamiento. Primero, se analizó detenidamente cada una de las características proporcionadas por la base de datos, por consiguiente, se eliminaron las columnas que resultaban irrelevantes o de datos repetitivos a los que ya existían y se pueda tener un procesamiento realmente efectivo. El siguiente reto al que se enfrentaron fue la diversidad en la escritura de un mismo dato. Este error humano surgió debido a que diferentes personas lo redactaron de manera distinta, según su percepción, lo que ocasionó la existencia de múltiples variantes del mismo dato. Esta variabilidad en la escritura generó una mayor cantidad de datos únicos, lo que complicó la precisión del análisis. Para resolverlo, se implementó una estrategia de normalización para las palabras mal redactadas. Luego, con las características resultantes se realizó una lista con todos los valores únicos que proporcionaba cada posible respuesta en las columnas, todo eso para poder convertir los datos categóricos y pasarlos a datos numéricos, que son mucho más fáciles y eficientes de procesar. Otro de los problemas que poseían los datos era la dimensionalidad, el exceso de características, por lo que para eliminarlos, se utilizaron diferentes métodos para así debatir cuál era el más conveniente y acertado.


CONCLUSIONES

Con los avances actuales en la investigación, nos encontramos en la fase final del preprocesamiento de datos, donde el objetivo principal es abordar el desafío de la dimensionalidad mediante el empleo de tres métodos distintos: correlación, PCA y ReliefF. Con el análisis de estos enfoques, buscamos reducir la complejidad del conjunto de datos para facilitar el siguiente paso de la investigación. Al finalizar esta etapa, podremos debatir y determinar cuál de los métodos se muestra más eficiente y adecuado para el desarrollo posterior de la investigación. La selección del método óptimo será de gran importancia para obtener resultados precisos y significativos en el entrenamiento de la inteligencia. En cada uno de estos métodos, nos enfocamos en el análisis de las matrices de correlación resultantes al final de cada proceso, analizando así, la disminución, parcial o total, de los cuadrados de color rojo en dichas matrices. El objetivo es lograr que la diagonal principal sea la única zona con este tono, mientras que el resto de los cuadros muestre preferentemente colores azules o blancos. Este patrón en las gráficas nos indica que la correlación entre los datos ha sido reducida de manera significativa, lo que a su vez implica una disminución en la dimensionalidad de los datos y una mayor eficiencia en la representación de la información relevante para la investigación. Al final, se tuvo un exhaustivo análisis de los tres métodos utilizados en el preprocesamiento y el equipo llegó a la conclusión de que se van a utilizar los dos últimos procesos para el siguiente paso de la investigación, debido a que se consideró que cada uno aportaba información relevante y se quiere comprobar qué método va a ser el más eficiente al momento de pasar por el procesamiento, en este caso, el método seleccionado sería k-means, que lamentablemente es un proceso muy tardado por la cantidad de datos que se presenta, por lo que ya no se dió el tiempo de seguir con este paso. 
Moreno Ibarra Libia Sahara, Universidad de Guadalajara
Asesor: Dr. Jose Octavio Saucedo Lucero, Centro de Innovación Aplicada en Tecnologías Competitivas CIATEC (CONACYT)

CONSTRUCCIÓN DE UN BIOLAVADOR BOTÁNICO PARA LA FILTRACIÓN DE CONTAMINANTES ATMOSFÉRICOS EN INTERIORES


CONSTRUCCIÓN DE UN BIOLAVADOR BOTÁNICO PARA LA FILTRACIÓN DE CONTAMINANTES ATMOSFÉRICOS EN INTERIORES

Moreno Ibarra Libia Sahara, Universidad de Guadalajara. Asesor: Dr. Jose Octavio Saucedo Lucero, Centro de Innovación Aplicada en Tecnologías Competitivas CIATEC (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La Organización Mundial de la Salud (OMS) estima que más de 8 de cada 10 habitantes de las ciudades de todo el mundo respiran un aire que supera sus recomendaciones sanitarias (World Health Organization, 2017) ocasionando problemas respiratorios. La contaminación del aire interior tiene diferentes orígenes: los propios ocupantes, los materiales de construcción, las actividades interiores, el uso de productos de limpieza, los gases de combustión y los contaminantes de las zonas exteriores. La contaminación de los ambientes interiores suele ser mucho mayor que la del exterior y hoy en día es un problema de salud pública (Geiss et al., 2011; Martins y Carrilho da Grac¸a, 2018). Con una población urbana en constante aumento, donde las personas pasan en promedio el 90% de su tiempo en interiores (Zhang 2004), Los impactos resultantes de la mala calidad del aire interior dan lugar a costos significativos asociados con gastos de atención médica y deterioro del desempeño laboral. Los biofiltros son biorreactores donde una corriente de aire contaminado pasa activamente a través de una región con alta actividad biológica donde los contaminantes son neutralizados por procesos biológicos. Los biofiltros botánicos son biofiltros con plantas verdes integradas directamente en su estructura, lo que los convierte en una tecnología respetuosa con el medio ambiente que utiliza plantas y sus microorganismos de la rizosfera para eliminar contaminantes atmosféricos. El objetivo de este proyecto es construir un biolavador botánico con E. aureum para la filtración de contaminantes atmosféricos provenientes de ambientes interiores, monitorear los parámetros operacionales, calcular el área foliar y el APTI de la planta, además de determinar la capacidad de eliminación del biorreactor para PM2.5, PM10, CO2, CO y COVT.     



METODOLOGÍA

Se desarrolló un sistema de filtración de aire botánico dinámico basado en el principio de absorción por depuradores húmedos, adsorción física por vermiculita y consumo de contaminantes por microbios en el sistema de raíces de la planta. El sistema aplica una mezcla de perlita y vermiculita en partes iguales como lecho de raíces de E. aureum. El sistema de filtración funciona con riego periódico (8h al día) y flujo de aire (95.14 m3/h) continuo, por lo tanto, el gas contaminante del interior será absorbido y el lecho de raíces húmedo será un depurador de contaminantes solubles en agua. Al mismo tiempo, el aire purificado se devolverá al ambiente interior para mejorar la calidad del aire interior. El biorreactor está encerrado por una caja de acrílico de base cuadrada de 56 cm de lado y 89.5 cm de altura. Se registra la temperatura y la humedad al interior y al exterior del biorreactor, se midió la luminosidad y el pH del agua.  Se calculó el área foliar del biolavador botánico clasificando las hojas con respecto a su tamaño y con el software ImageJ. Se obtuvo el APTI de la planta al inicio y al final del experimento. Se midió la concentración de PM2.5, PM10, CO2, CO y COVT.


CONCLUSIONES

Se construyó un biolavador botánico, sin embargo, no se cumplió la hipótesis planteada, ya que debido al bajo EBCT (10 s) no se permite una correcta eliminación de los contaminantes, siendo baja la capacidad de eliminación e inconsistente. El aire liberado del biolavador botánico presenta una temperatura y humedad más bajos comparados con el ambiente exterior. El APTI de E. aureum se mantiene como tolerante al interior del biorreactor. 
Moreno Jiménez Karely Jacqueline, Instituto Tecnológico de Colima
Asesor: Mtra. Nora Evelia Rios Silva, Instituto Tecnológico de Colima

PROTOTIPO DE REALIDAD VIRTUAL DE ESPACIO ARQUITECTóNICO Y URBANO


PROTOTIPO DE REALIDAD VIRTUAL DE ESPACIO ARQUITECTóNICO Y URBANO

Martinez Ramirez Ramon Leonardo, Universidad Vizcaya de las Américas. Martínez Zamora Adriana Montserrat, Universidad Vizcaya de las Américas. Moreno Jiménez Karely Jacqueline, Instituto Tecnológico de Colima. Asesor: Mtra. Nora Evelia Rios Silva, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos siglos, ha surgido un desafío apasionante: lograr que las máquinas desarrollen una inteligencia tan cercana a la humana; este desafío ha influido en las ramas de la construcción, por lo tanto, la importancia de la tecnología contribuye a la simplificación y agilización de las actividades cotidianas, especialmente en la Arquitectura, ya que apoya a los profesionistas a crear proyectos que sean tanto eficientes como óptimos, que se adapten mejor a cada entorno y necesidad. Es por ello que, el conocimiento de la arquitectura y la ciudad a través del diseño virtual y la recreación de espacios a escala utilizando video mappings y maquetas virtuales tridimensionales, apreciando el desarrollo cultural y social así como la infraestructura de la ciudad conurbada Colima-Villa de Álvarez, influyó para la realización de este proyecto de investigación. En este primer acercamiento, se planteó conocer las instalaciones del Tecnológico Nacional de México, Campus Colima, que al ser un punto de referencia en la comunidad  como una de las instituciones que forman estudiantes a nivel superior, contribuye en el desarrollo social de Colima. La Arquitectura virtual es, por tanto, un campo creativo e innovador que permite explorar las posibilidades de la tecnología digital para generar experiencias espaciales únicas y significativas, ambientes que surgen mediante la creación de experiencias sensoriales para los usuarios, en consecuencia, se comparte y difunde fuera del estado de Colima a través de este medio, sin necesidad de estar en el sitio, y por ende, el conocimiento que ahí mismo se plasme se de con mayor proyección, incluso pensando para una futura emergencia sanitaria, y así, de esta manera, los usuarios se sumergen en un ambiente aparentemente realista. Bajo esta primicia, se formulará una propuesta de realidad virtual, misma que consta de varias etapas: PRIMERA ETAPA: La elaboración de maquetas virtuales de edificaciones icónicas del estado de Colima. SEGUNDA ETAPA:  Posteriormente a través de dichas maquetas, se tendrán acceso a video mappings, así como fichas técnicas del lugar. Y en un futuro próximo, la difusión de la información, siendo esta misma una vía distinta de comunicar aspectos relevantes sociales y culturales que dan identidad a la comunidad colimense, asimismo llegar a considerar diversas regiones del país o del mundo.



METODOLOGÍA

Como parte del proceso, se realizó una revisión exhaustiva de la literatura y las experiencias existentes sobre la aplicación de la realidad virtual al ámbito arquitectónico, así como el análisis de los softwares y proyectos que se han desarrollado con fines educativos y de divulgación de la información. El objetivo fue identificar las ventajas, limitaciones y desafíos de esta tecnología emergente, así como las buenas prácticas y recomendaciones para su implementación efectiva. Posteriormente se realizaron levantamientos fotográficos, de igual forma se llevaron a cabo acciones con las que fue complementaria la memoria fotográfica; mediante levantamientos de medidas precisas realizados por medio del uso de aplicaciones especializadas en medición. Estas acciones permitieron obtener datos exhaustivos acerca de las alturas y características específicas de las diversas edificaciones estudiadas. Con esta valiosa información recopilada, se procedió con el proceso de modelado tridimensional, donde se empleó el programa REVIT como principal herramienta. Además, se contó con la colaboración de planos arquitectónicos generados en el programa AutoCAD, los cuales proporcionaron una base sólida y confiable para la creación del modelo tridimensional de cada edificación. Como logro significativo alcanzado durante esta fase inicial del proyecto, se pudo culminar exitosamente el proceso de modelado tridimensional de un total de 19 edificaciones distintas, representando un arduo esfuerzo de investigación, recolección de datos y visualización en el entorno arquitectónico. Cada una de estas edificaciones fue modelada con un enfoque minucioso y meticuloso, garantizando una representación virtual de alta fidelidad y con un cierto toque de realismo.


CONCLUSIONES

Como conclusión en este informe se describe el proceso y los hallazgos de la primera etapa de un estudio de investigación que busca examinar las potencialidades de las tecnologías digitales para proporcionar una nueva manera de conocer lugares lejanos sin moverse de casa. Se empleó la realidad virtual y los modelos tridimensionales para generar experiencias envolventes y verosímiles para los usuarios, que les facilitaran observar los pormenores y el entorno de los lugares recorridos. Por lo cual con la aportación de esta tecnología ha avanzado mucho en los últimos años, permitiendo crear experiencias virtuales cada vez más realistas e inmersivas. Estas experiencias pueden ser una forma de explorar el mundo, sus maravillas y su arquitectura, sin salir de casa. Sin embargo, también tienen un impacto social y ambiental, que puede ser positivo o negativo según el uso que se les dé. Por ejemplo, pueden fomentar el interés por otras culturas y el respeto por la diversidad, pero también pueden generar aislamiento y desinterés por la realidad. Por lo tanto, es importante usar estas tecnologías con responsabilidad y criterio, aprovechando sus beneficios y evitando sus riesgos.  El turismo virtual es una modalidad que permite a las personas visitar lugares remotos o inaccesibles sin salir de su casa, utilizando dispositivos electrónicos y software especializados. Una de las formas más innovadoras de realizar este tipo de turismo es mediante la creación de modelos tridimensionales de edificios emblemáticos o representativos de ciertas zonas urbanas, que se pueden explorar con detalle y realismo. Estos modelos se elaboran con software especializados que permiten capturar las formas, texturas, colores y dimensiones de las construcciones, así como recrear los efectos de luz y sombra, el clima y el ambiente sonoro. De esta manera, se ofrece al usuario una experiencia inmersiva y educativa, que le permite conocer la historia, la cultura y la arquitectura de diferentes lugares del mundo, sin necesidad de viajar físicamente.
Moreno Kazandra de los Ángeles, Universidad Autónoma de Sinaloa
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DETECCIóN DE ANOMALíAS EN IOMT USANDO ML


DETECCIóN DE ANOMALíAS EN IOMT USANDO ML

Moreno Kazandra de los Ángeles, Universidad Autónoma de Sinaloa. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se nos brindo cursos los cuales nos ayudarian para realizar de una forma mas desarrollada para nuestros proyectos, asi tambien como el apoyo de los conocimientos de involucrados con mi instancia,con esto aclarando dudas de los mismos proyectos y poder avanzar y concluir de la mejor manera el proyecto.  Objetivo principal es Entender e implementar modelos de IA capaces de detectar ataques/anomalías en bases de datos IoT. Objetivos específicos. 1. Evaluar algoritmos de Maching Learning en una base de datos de un ambiente IoT. 2. Analizar un sistema de detección de anomalías para el Internet de las Cosas. Resultados esperados. 1. Un modelo de IA que permita recabar información y reconocer una anomalía en una base de datos IoT. 2. Reporte técnico de los resultados obtenidos



METODOLOGÍA

Para poder llevar a cabo el proyecto necesitamos de un Plan de Trabajo el gual seria una guia para saber todo lo que se deberia de realizar investigar e implementar para llevar a cabo este proyecto asi tambien, del apoyo de los cursos, con esto se logro definir conceptos tomando de refencia libros internet entre otras herramientas que nos brindan informacion  Realizar un análisis de conjuntos de datos IoT y seleccionar una base de datos Familiarizarse con el conjunto de datos seleccionados • Identificar las clases • Identificar el número de instancias • Identificar los tipos de dispositivos • Identificar los tipos y números de ciberataques Simulación de un algoritmo basado en Tiny Machine Learning Realizar diferentes pasos y combinaciones de preprocesamiento a los datos y guardar estos datos como nuevos conjuntos de datos Implementar los algoritmos de IA seleccionados Obtener las métricas: TP, FP, TN, FN, TPR, PFR, Accuracy, Precision, Recall, F1- Score; reportar y analizar los resultados obtenidos Escribir un reporte de los resultados obtenidos con el sistema utilizado


CONCLUSIONES

Para finalizar el resumen, he de decir que hasta ahora llevo un avance que le falta poco por concluir con esto, se puede mostar un poco de lo que se realizo y se espera, ya que aun no se termina de implementar al 100%  lo que en los objetivos esta planeado. - IoMT (Internet of Medical Things) El entorno de trabajo de IoMT se enfoca en la aplicación de la tecnología IoT en el campo de la salud y la medicina. Implica la interconexión de dispositivos médicos, sensores, registros de pacientes y sistemas de información de salud para mejorar la atención médica, el monitoreo remoto de pacientes y la toma de decisiones clínicas. Detección de anomalías Las soluciones de sistemas de detección de intrusos basadas en anomalías crean un modelo del comportamiento normal del sistema protegido. Todo comportamiento futuro se compara con este modelo y cualquier anomalía se etiqueta como amenaza potencial y genera alertas. Inyección de SQL Una inyección de lenguaje de consulta estructurado (SQL) ocurre cuando un atacante inserta un código malicioso en un servidor que usa el SQL y forzar al servidor para que revele información que normalmente no revelaría. El atacante puede efectuar la inyección de SQL simplemente enviando un código malicioso a un cuadro de búsqueda de un sitio web vulnerable. Pre-procesamiento de datos El pre-procesamiento de datos es una etapa fundamental en el proceso de extracción de conocimiento, cuyo objetivo principal es obtener un conjunto de datos final que sea de calidad y útil para la fase de extracción de conocimiento. Limpieza de Datos La limpieza de datos también conocida como Data Cleaning engloba varios procesos destinados a mejorar la calidad de los datos. Hay muchas herramientas y prácticas para eliminar los problemas de un conjunto de datos. Estos procesos se utilizan para corregir o eliminar registros inexactos en una base de datos o conjunto de datos. La limpieza de datos es un proceso esencial en la Data Science y en Machine Learning. Los datos son esenciales en la ciencia de datos, la inteligencia artificial y el machine learning.  
Moreno Lozano Claudia Iyali, Instituto Politécnico Nacional
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

DISEñO MECáNICO DE UN PATíN DE ATERRIZAJE DE UN HELICóPTERO BELL 206


DISEñO MECáNICO DE UN PATíN DE ATERRIZAJE DE UN HELICóPTERO BELL 206

Moreno Lozano Claudia Iyali, Instituto Politécnico Nacional. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Los materiales compuestos contienen tanto fibras como resina y, por lo tanto, muestran excelentes características que incluyen baja densidad, alta resistencia, propiedades anticorrosivas y antifatiga, y facilidad de construcción y reparación. Por lo tanto, los materiales compuestos encuentran amplias aplicaciones en la industria aeronáutica. El tren de aterrizaje es un sistema de aeronave extremadamente importante que debe construirse de tal manera que pueda soportar todas las cargas que se presenten. En la búsqueda continua de mejorar la eficiencia y el rendimiento de estos sistemas, el uso de materiales compuestos ha emergido como una alternativa prometedora debido a sus destacadas propiedades mecánicas, es por ello que se realiza el análisis mecánico de un elemento tubular de material compuesto utilizado en el patín de aterrizaje de un helicóptero Bell 206.



METODOLOGÍA

Se realizó en una investigación que abarcó diversos artículos científicos relacionados con materiales compuestos, patines de aterrizaje en helicópteros y las características de las fibras utilizadas en la fabricación de estos materiales. Se escogieron tres materiales para el análisis, el aluminio 6061 ya que es conocido por su bajo peso específico, ofrece una alta resistencia estructural y tiene buena resistencia a la fatiga. El acero, carbono y el polímero reforzado con fibra de carbono. Las propiedades mecánicas de los materiales las proporcionó el programa Autodesk Inventor. Las propiedades mecánicas de los materiales fueron obtenidas a través del programa Autodesk Inventor. Se observó que el polímero reforzado con fibra de carbono presentó un coeficiente de Poisson más alto, así como una menor densidad y una mayor resistencia máxima a tracción en comparación con los demás materiales.   Para el diseño de un patín de aterrizaje de Bell 206 se utilizaron herramientas CAD con las siguientes condiciones: La masa bruta se establece en 1694 kg ≈16,618.14 N Las bases geométricas (diámetro, grosor) del patín, AFT y FWD son (74, 2), (65, 2.5) y (69, 2.5) mm Para el desarrollo del modelo 3D del ensamblaje del tren de aterrizaje del patín del helicóptero las fuerzas que se distribuyen en la parte delantera son del 30.36% del peso total del helicóptero, mientras que el 69.74% se distribuye en la parte trasera del patín. El peso en cada una de las fuerzas para el tubo transversal delantero es del 2,514.324 N y para el tubo transversal trasero es de 5,794.75 N. Se utiliza la herramienta de Análisis de Tensión de Autodesk Inventor para analizar tensión de Von Mises, desplazamiento y coeficiente de seguridad. La tensión de Von Mises arrojó una tensión máxima de 197.4 MPa con en el patín con aluminio 6061, mientras que con el acero carbono la tensión máxima fue de 178.1 MPa, en ambos casos, la tensión máxima se encontró en la zona curva derecha del tubo transversal trasero. Con el polímero reforzado con fibra de carbono el valor máximo fue de 183.8 MPa y el punto de tensión máxima se encontró en la zona curva izquierda del tubo transversal derecho.


CONCLUSIONES

Durante la estancia de verano, se logró el propósito de realizar lecturas científicas y explorar diversas publicaciones. Además, se tuvo la oportunidad de utilizar el software Autodesk Inventor, para simular el patín de aterrizaje de un helicóptero Bell 206, incorporando ciertas bases geométricas. En el proceso de simulación del patín, se seleccionaron tres materiales para llevar a cabo el análisis: aluminio 6061, acero carbono y polímero reforzado con fibra de carbono. Los resultados del análisis de tensión arrojaron datos significativos: el aluminio 6061 mostró un desplazamiento (deformación) máximo de 9.291 mm, el acero carbono de 3.211 mm y el polímero reforzado con fibra de carbono de 4.782 mm. Al evaluar el coeficiente de seguridad, se observó que el aluminio 6061 alcanzó un valor máximo de 1.39, mientras que el acero carbono obtuvo un valor de 1.97 y el polímero reforzado con fibra de carbono alcanzó 1.63. En base a los resultados, se llega a la conclusión de que el polímero reforzado con fibra de carbono es la mejor opción debido a sus superiores propiedades mecánicas. Además, demostró ser capaz de soportar la carga sin exceder sus límites de resistencia, lo que lo convierte en una opción segura y confiable. Esta experiencia ha sido gratificante y me ha permitido aprender más sobre la importancia de los materiales reforzado con fibras en el diseño de estructuras en el sector aeroespacial. 
Moreno Orduz Adriana Carolina, Universidad Nacional Abierta y a Distancia
Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo

PRODUCCION DE LIMON


PRODUCCION DE LIMON

Moreno Orduz Adriana Carolina, Universidad Nacional Abierta y a Distancia. Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

Las iniciativas se orientan según los programas estratégicos para el desarrollo de las naciones, como los objetivos del milenio y los de desarrollo sostenible. También se considera el ordenamiento productivo, las cadenas productivas y la frontera agrícola. Es importante planificar evaluando las tierras para desarrollar modelos de producción acordes a las condiciones agroecológicas, contribuyendo al buen vivir y progreso de las comunidades. En Sogamoso, Boyacá, se detecta un problema en los cultivos de limón donde no se realiza el debido proceso, dañando la fruta. Por ello, se busca mejorar el control de calidad para conservar mejor el limón a largo plazo.



METODOLOGÍA

Proceso que se le hace a la semilla de limón: en una maceta o semillero (que tenga agujeros de drenaje) tendrás que preparar sustrato para semillas como tierra pasteurizada ya que así prevendremos la aparición de bacterias. También puedes agregar un poco de fibra de coco para proporcionarle un mayor drenaje al sustrato. Ahora riega la tierra para humedecerla y remuévela mientras tanto para que la humedad sea homogénea. Haz unos cuantos agujeros en la tierra con tus dedos y agrega las semillas de limón. Sin embargo, es importante que antes las laves para retirar todo rastro de materia orgánica. Ahora cubre la maceta (o el semillero) con una capa de film transparente. Sin embargo, recuerda hacerle antes unos agujeros para que la tierra mantenga su humedad, pero transpire. Deja la maceta en un sitio que sea cálido, pero sin que le dé luz directa del sol. Estos puntos tratados desde la técnica del HACCP pueden desarrollar los puntos estratégicos para controlar el procesos y adecuar una técnica mejorada en le proceso de producción de plantas a trabajar. Una vez tengas los plantones de una forma u otra te recomendamos que los trasplantes a su sitio definitivo entre marzo y septiembre. Para ello, sigue estos pasos: Planta el limonero (ya sea en suelo o maceta) en un sitio cálido y soleado. Si vives en una zona demasiado soleada es recomendable que busques un sitio con semisombra. Haz el trasplante llevando cuidado para no hacer daño a las raíces de la planta cubriéndolas con tierra de manera que el plantón quede recto y sus raíces bien tapadas. Riega el trasplante entre 2 y 3 veces por semana hasta que los plantones tengan sus 4 hojas completas. En ese momento tendrás que espaciar un poco más los riegos. Que han sido identificados por el HACCP los cuales pueden generar acciones correctivas si es preciso al salir fuera de los puntos de Control Establecidos.


CONCLUSIONES

La lección más importante de este proyecto de producción y comercialización del cultivo limón  es garantizar la calidad e inocuidad del producto mediante el control de los puntos críticos de control HACCP apoyando por un estudio técnico que tenga en cuenta los factores: Estudio económico y social del municipio, modelo de producción, costos de establecimiento y mantenimiento, condiciones del predio a cultivar, criterios de exportación, plan de acción para el manejo agronómico del cultivo y la proyección de producción del cultivo dependiendo del área y cantidad de plantas distribuidas en ese terreno, centrado en un control y análisis de los puntos críticos de control que influyan en el desarrollo de este. Por lo anterior es importante capacitar al productor en procesos HACCP a fin de evitar la contaminación cruzada y el buen uso de prácticas agrícolas adecuadas que permitan el crecimiento del mercado y disminuir los costos de producción de los cultivos.
Mosqueda Jiménez Santa Yuritzi, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos

INNOVACIóN FRUGAL PARA LA COMERCIALIZACIóN DE PRODUCTOS AGRíCOLAS DERIVADOS DEL PROGRAMA SEMBRANDO VIDA


INNOVACIóN FRUGAL PARA LA COMERCIALIZACIóN DE PRODUCTOS AGRíCOLAS DERIVADOS DEL PROGRAMA SEMBRANDO VIDA

Gómez López Jonathan, Instituto Tecnológico Superior de Los Ríos. Mosqueda Jiménez Santa Yuritzi, Instituto Tecnológico Superior de Los Ríos. Qué Juárez Pavel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, el Programa Sembrando Vida ha demostrado ser una iniciativa exitosa en la promoción de la agricultura sostenible y la generación de ingresos para comunidades rurales. Mediante la siembra y cuidado de árboles frutales y maderables, el programa ha logrado mejorar la calidad de vida de miles de familias campesinas, preservar el medio ambiente y fomentar la producción de cultivos agrícolas. Sin embargo, a pesar de los logros alcanzados en la producción, el proceso de comercialización de los productos agrícolas derivados del Programa Sembrando Vida presenta desafíos significativos, entre ellos, la falta de acceso a mercados consolidados, la limitada infraestructura logística en las áreas rurales, y la escasa diversificación de productos disponibles para la venta, dificultan la maximización de los beneficios económicos y el pleno potencial del programa. Actualmente, la mayoría de los agricultores beneficiarios del programa solo pueden vender sus productos en mercados locales y a intermediarios, lo que resulta en márgenes de beneficio reducidos y dependencia de terceros. Además, la falta de tecnologías y prácticas innovadoras limita su capacidad para agregar valor a sus cultivos y ofrecer productos más atractivos para mercados más amplios y exigentes, teniendo como causas directas el conocimiento técnico insuficiente de los sistemas agroforestales para el cultivo de la tierra y escasos recursos monetarios de los campesinos, así como la falta de capacitación en temas afines a la comercialización.



METODOLOGÍA

El objetivo de la investigación se centra en aplicar la innovación frugal en la cadena de valor del producto agrícola con mayor producción de la Ruta 2, derivado del Programa Sembrando Vida del municipio de Balancán correspondiente a la Región Tabasco-Península, que genere competitividad sostenible, por lo anterior, se considera como una investigación aplicada con un enfoque descriptivo por la interpretación de los resultados a la realidad del contexto actual. Se realizaron diversas actividades encaminadas al diseño de una propuesta fiable para los productores de la Ruta 2, entre ellas: Elaboración de un diagnóstico de las Comunidades de Aprendizaje Campesino (CAC) de la Ruta 2 (Apatzingán, Sacaolas, Cenotes, Capulín y Ramonal) del Programa Sembrando Vida en el municipio de Balancán, para identificar los productos que se cultivan a corto, mediano y largo plazo por los productores rurales, donde se a través del diseño de un instrumento de investigación aplicado a los productores rurales. Total, de productores adscritos en la Ruta 2 del Programa Sembrando Vida: 992 Cultivos con mayor producción a corto plazo: Chihua, mediano plazo: Limón persa y largo plazo: Mango. Cultivo con mayor potencial de comercialización: Chihua Diseño de estrategias de innovación frugal en la cadena de valor para lograr la comercialización de productos derivados de la chihua.


CONCLUSIONES

El proyecto de investigación da una alternativa para asegurar la sostenibilidad de los sistemas de producción agrícolas y aplicar prácticas resilientes que garanticen transformar los productos cultivados en productos comerciables e impulsar la economía de las familias dedicadas al programa Sembrando Vida. Por lo tanto, se reflejará en los siguientes aspectos: Incremento de ingresos para los agricultores: La mejora en la comercialización de los productos agrícolas permitirá a los agricultores acceder a mercados más rentables, lo que se traducirá en un aumento de sus ingresos y una mejora en su calidad de vida. Esto ayudará a fortalecer la economía local y reducir la pobreza en las comunidades rurales. Fomento de la sostenibilidad del programa: Al mejorar la comercialización de los productos agrícolas, se promoverá la sostenibilidad del Programa Sembrando Vida. Los agricultores tendrán un incentivo económico más fuerte para participar en el programa y seguir practicando la agricultura sostenible, lo que contribuirá a la conservación del medio ambiente y a la mitigación del cambio climático. Impulso a la innovación tecnológica: La implementación de estrategias de innovación frugal permitirá encontrar soluciones prácticas y de bajo costo para superar las barreras en la comercialización de los productos agrícolas. Esto fomentará la adopción de tecnologías y herramientas accesibles para mejorar la cadena de suministro, la logística y la promoción de los productos. Fortalecimiento de capacidades locales: El proyecto brindará capacitación y asesoramiento a los agricultores en áreas como la comercialización, el empaquetado, la promoción y el acceso a mercados. Esto fortalecerá sus habilidades y conocimientos en el ámbito empresarial, permitiéndoles ser más competitivos y exitosos en la venta de sus productos. Generación de empleo y desarrollo local: Al impulsar la comercialización de los productos agrícolas, se crearán oportunidades de empleo adicionales en las comunidades rurales. Esto no solo beneficiará a los agricultores, sino también a otros actores locales involucrados en la cadena de suministro, como transportistas, procesadores y vendedores minoristas. del producto, la productividad interna y la competitividad sustentable. 
Mosqueda Prado Jesús Baltazar, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín

DISEÑO Y PRODUCCIÓN DE TEXTILES A PARTIR DE NOPAL (OPUNTIA-FICUS)


DISEÑO Y PRODUCCIÓN DE TEXTILES A PARTIR DE NOPAL (OPUNTIA-FICUS)

Mosqueda Prado Jesús Baltazar, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

La cultura actual sobre el consumismo hace que nos enfrentamos a un problema serio con los materiales textiles efímeros sin medir las consecuencias del impacto a largo plazo para el ambiente. Sin embargo, esto trasciende más allá del consumo y distribución de los textiles, teniendo como punto de partida su producción, ya que, todas aquellas prendas que terminan en depósitos de basura al comenzar a degradarse comienzan a liberar de metano, así como los colorantes empleados. Esta tendencia insostenible plantea la necesidad urgente de buscar soluciones innovadoras, buscando un enfoque sostenible y eco amigable, sin perder de vista características como; la durabilidad, la resistencia y la biodegradabilidad. Tomando como ruta la producción de materiales con posibles aplicaciones en la industria textil a partir del nopal Opuntia Ficus aprovechando su renovabilidad, abundancia y capacidad para su cultivo en condiciones adversas, presentando una solución alternativa para el bagazo de nopal generado en la producción de higo en el pueblo de Sonsón, Antioquia. De esta manera, redituar las características del mucílago del nopal otorgadas por sus componentes; la celulosa, la hemicelulosa y los polisacáridos presentes en el mucílago. No obstante, es importante reconocer el desafío que presenta debido a la falta de investigación y desarrollo en la producción de textiles a base de nopal. Aun si bien, es una materia prima de gran abundancia se requiere una investigación a profundidad para comprender sus componentes, propiedades, procesamiento y aplicaciones dentro de la industria textil. Generando nuevas ideas, identificación de rutas de síntesis y procesos que faciliten el procesamiento de materiales obtenidas del nopal.



METODOLOGÍA

La obtención de los biomateriales de un nopal, para aplicaciones en la industria textil se abordó una ruta de síntesis a través de un triturado de nopal con una adición del 0.5% de sal. Para esto se preparó la muestra iniciando con una separación de la piel del nopal de la pulpa, posteriormente la pulpa se corta en trozos pequeños de no más de 0.5x1.5 cm, se adiciona el 0.5% de sal del peso total de la pulpa y se masajea por 10 min y se filtra por gravedad durante 24 h. Simultáneamente se muele la piel, se drena el agua y se pasa a secar en el horno a 90 °C durante 3-4 h, se hace un refinamiento del tamaño de partícula con mortero hasta obtener un polvo fino. Teniendo lista la materia prima preparada, se inicia con la solución considerando 100 g de líquido de mucílago como el 100%, tal que; la  preparación de la solución polimérica a base de nopal, 100 g de mucílago líquido, 4 g de glicerina, 2 g de ácido acético (AA) y 1 g de celulosa. Sometiendo a un tratado térmico a una temperatura de 92 °C hasta que presente burbujeo y bajar gradualmente la temperatura hasta 65 °C y la solución tomara una consistencia similar a un gel. El mucílago restante (los trozos) se molerán hasta obtener una masa y se filtra, el líquido filtrado se le agrega un 2% del gel del peso total del líquido, mientras que la masa restante se prepara similar a la solución inicial omitiendo la celulosa. se extienden sobre una lamina y se someten a 90 °C durante 2-2.5 h.


CONCLUSIONES

Dando seguimiento a la problemática de ¿cómo se puede aprovechar el nopal de manera efectiva para generar un textil o polímero funcional, sostenible y de alta calidad, teniendo en cuenta los desafíos asociados con la extracción y modificación de sus componentes polisacáridos?, dio paso a la discusión de estos dos puntos: Puesto que el aprovechamiento de los componentes del nopal, como la celulosa, hemicelulosas, pectinas, mucílagos y lignina, para la síntesis de polímeros ofrece ventajas como su abundancia y sostenibilidad, propiedades gelificantes, resistencia mecánica y versatilidad en aplicaciones. Estos polisacáridos y compuestos fenólicos presentes en el nopal pueden ser utilizados como materia prima para desarrollar polímeros biodegradables, películas y/o materiales con aplicaciones en la industria textil, aprovechando su disponibilidad, naturaleza renovable y propiedades únicas hacen del nopal una opción prometedora para la síntesis de polímeros sostenibles Los procesos de extracción de mucílago y celulosa del nopal presentan un enfoque interesante para aprovechar los componentes de esta planta en la producción de materiales poliméricos y textiles. Estos procesos ofrecen una oportunidad para desarrollar productos sostenibles, que sean respetuosos con el medio ambiente, aunque es necesario construir una investigando para mejorar los métodos que garantizan la viabilidad comercial y la calidad de los materiales obtenidos. Siendo una base prometedora para la fabricación te materiales con aplicaciones en textiles con un cuidado rigurosa durante cada una de las etapas evitando la degradación de los componentes del nopal.   Durante la investigación y desarrollo de los prototipos dirigidos a textiles, podemos impulsar la economía circular, reducir la dependencia de los recursos no renovables y resolver la problemática del bagazo en la industria de higo en Sonsón, tratando de generar una innovación en productos textiles de impacto social y ecológico que puede generar oportunidades económicas y laborales en comunidades locales productoras de higo de nopal, promoviendo prácticas justas y éticas en toda la cadena de suministro.
Moya Manzano Andres, Universidad de Guadalajara
Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara

OPTIMIZACIóN DE PARáMETROS DE UNA ESTUFA DE HIDRóGENO


OPTIMIZACIóN DE PARáMETROS DE UNA ESTUFA DE HIDRóGENO

Moya Manzano Andres, Universidad de Guadalajara. Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto surgió a partir de un viaje a través de Latinoamérica realizado por el estudiante de ingeniería Manuel Alejandro Montoya Haro en el cual él pudo detectar la situación y dificultades que las personas atravesaban por el uso de las estufas tradicionales de leña, a partir de esta idea nació la idea Hidrocook, estufas que generan hidrógeno verde con pocos recursos, la cual ha presentado bastantes problemas para poder despegar al mercado, y aunque la idea se ha apoyado por instituciones internacionales, los requerimientos necesarios para cubrir las necesidades de estos grupos vulnerables no han sido solventadas, sin embargo, con la ayuda de los algoritmos metaheurísticos se ha podido encontrar la solución a uno de los problemas que presentaba el proyecto, la cual eran sus dimensiones ideales para solventar las necesidades.



METODOLOGÍA

Para la implementación de este proyecto se utilizaron técnicas metaheurísticas basados en la resolución de problemas computacionales, utilizando individuos cuya representación son soluciones numéricas y la optimización de funciones multivariables, aplicando conceptos y definiciones del cálculo diferencial. Para modelar el problema analíticamente se consideró una estufa de hidrógeno como un prisma rectangular que debe de tener un volumen máximo (Vmax) de 250,000 cm3, por lo que se dio un enfoque  basado en un problema de optimización, en el cual queremos conocer cuáles deben de ser las dimensiones mínimas del prisma rectangular. En otras palabras, cuáles tienen que ser las dimensiones del largo, ancho y la altura (x,y,z) de tal manera que una estufa de hidrógeno (prisma rectangular) cumpla con el requisito de tener un volumen de 2.5x105cm3. Basándose en el cálculo diferencial, específicamente hablando en las definiciones y criterios de la primera y segunda derivada, para encontrar puntos críticos, máximos y mínimos. Con este enfoque analítico de optimización propuesto se encontraron las dimensiones mínimas teóricas para el volumen de una estufa modelado como un prisma. No obstante, se propuso otras técnicas de optimización utilizando algoritmos metaheurísticos para corroborar que las dimensiones teóricas obtenidas eran las más óptimas para la construcción de la estufa de hidrógeno propuesta, en el cual se basa este proyecto. Dos de los tres algoritmos metaheurísticos implementados en este proyecto se basan en la naturaleza, es decir, se basan en el comportamiento de determinadas especies, por ejemplo el algoritmo Artificial bee colony (ABC) basado en el comportamiento inteligente de los enjambres de abejas en la búsqueda de miel, donde las abejas se comportan como partículas las cuales tienen como función encontrar las mejores condiciones o soluciones a un cierto problema. Debido al teorema No free lunch, el cual menciona que no existe un algoritmo aprendizaje universal que se desempeñe de mejor manera en comparación con otros algoritmos, en otras palabras el desempeño o el performance de varios algoritmos dependerá del problema a desarrollar. Con este en mente, se usaron los algoritmos Artificial Bee Colony (ABC), Sine Cosine Algorithm (SCA), Dung Beetle Optimizer (DBO), los cuales se compararon para ver cuál de ellos tiene un mejor desempeño para encontrar las soluciones al problema.


CONCLUSIONES

Los algoritmos metalúrgicos son bastante eficientes al momento de optimizar las ecuaciones objetivo de cualquier problema que pueda ser analizado, la adaptación con las variables a cada dimensión facilita la ejecución de cualquier proyecto, la inmensidad de códigos que hay para cada problema es inmensa, se generan desde antes del año 2000 pero es el enfoque que le des a estos es donde su capacidad resalta.
Muciño Vallejo Getzemani Ximena, Universidad Tecnológica de Zinacantepec
Asesor: Dr. Hugo Alberto Rojas Hernández, Instituto Tecnológico de Cuautla

EFECTO DE LA POROSIDAD EN LAS PROPIEDADES MECÀNICAS DE ALEACIONES DE ALUMINIO SOLDADAS POR TIG


EFECTO DE LA POROSIDAD EN LAS PROPIEDADES MECÀNICAS DE ALEACIONES DE ALUMINIO SOLDADAS POR TIG

Muciño Vallejo Getzemani Ximena, Universidad Tecnológica de Zinacantepec. Asesor: Dr. Hugo Alberto Rojas Hernández, Instituto Tecnológico de Cuautla



PLANTEAMIENTO DEL PROBLEMA

Las aleaciones de aluminio son utilizadas en diversas áreas como son electrodomésticos, automoción, aeronáutica, ingenierías de construcción, industria aeroespacial, automotriz, ingeniería electrónica, etc. debido a sus propiedades mecánicas que la caracterizan; la ductilidad, dureza, tenacidad por mencionar algunas,  pero lo que muchos desconocen es que al ser soldadas se producen defectos debido a que pueden tener un mal proceso de soldadura, no utilizan adecuadamente los parámetros necesarios para cada tipo de aleación, los gases utilizados no son adecuados. Existen una gran variedad de defectos algunos de ellos es la porosidad, este defecto es uno de las que más se pueden ver en las soldaduras que por consecuencia se obtiene un daño en las propiedades mecánicas, ya que entre más poroso este la soldadura las propiedades mecánicas disminuyen y el riesgo de daños por fatiga sea más grande. Con base a la información ya existente se realizará una investigación más detallada y se llevaran a cabo algunos ensayos mecánicos con los cuales podremos analizar sus propiedades mecánicas y estudiar los defectos provocados por el defecto de soldadura entre ellos uno de los más importantes es la porosidad, con ayuda del microscopio óptico y el microscopio electrónico de barrido podremos ver su comportamiento de la aleación de aluminio.  



METODOLOGÍA

Se obtuvo una pieza de Al6061-T6 de la cual se obtendrán 12 probetas cada una es tratada adecuadamente para cada ensayo que se realizara. Primero la pieza es lijada con papel de carburo de silicio iniciando desde la 220 asta la 2000 para después ser lijada con alúmina y obtener el efecto espejo. Las probetas para ser analizadas en el microscopio óptico, microscopio electrónico de barrido y microdureza Vickers de acuerdo a las normas ASTM. La primera muestra es analizada en el microscopio óptico, cuando la muestra esta con el efecto espejo sele agregará la solución keler para observar su microestructura del Al6061-T6. La segunda muestra será observada en el microscopio electrónico de barrido para saber su composición química del material antes y después de ser soldada. Para el ensayo de mricroduraza se realizará por medio de una máquina de pruebas Vickers para cuantificar la dureza del material antes y después de ser soldada. Las probetas de tensión serán analizadas basándose con la norma ASTM E8 para poder saber cuál la tensión máxima que soporta el material antes de deformarse y su ductilidad del material antes y después de ser soldado.


CONCLUSIONES

Durante la estancia de verano se logró obtener más conocimientos de cómo realizar la caracterización de materiales y como es que funciona cada uno de esos métodos, también el poder conocer sobre un material que se ve a diario en la vida cotidiana como el aluminio y saber que algo que no se ve a simple vista como la porosidad en la soldadura provoca tantos cambios y afectaciones en el material. De igual forma se logró obtener conocimientos de cómo llevar a cabo una buena investigación, así como nuevas técnicas para seleccionar información adecuada y útil.  Cabe mencionar que gracias al verano de investigación e podido mejorar mis habilidades de comunicación y mi confianza al hablar frente al público, también he reforzado mi formación académica.
Munguia Fernandez Nicol Alejandra, Universidad Autónoma de Baja California
Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla

IMPLEMENTACIÓN DE UN SISTEMA PARA MEDIR LA FRECUENCIA DE RESPIRACIÓN HUMANA BASADO EN UN SENSOR TEXTIL Y VESTIBLE


IMPLEMENTACIÓN DE UN SISTEMA PARA MEDIR LA FRECUENCIA DE RESPIRACIÓN HUMANA BASADO EN UN SENSOR TEXTIL Y VESTIBLE

Fuentes Bailón Erick Uriel, Instituto Politécnico Nacional. Moreno Camacho Brenda Paola, Instituto Politécnico Nacional. Munguia Fernandez Nicol Alejandra, Universidad Autónoma de Baja California. Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La frecuencia respiratoria es un parámetro de gran importancia en el ámbito de la salud y el bienestar de las personas, por lo tanto, es de gran importancia realizar un monitoreo constante en diversas situaciones clínicas y cotidianas para obtener un registro adecuado de la salud del paciente. Actualmente, la población mexicana se ve severamente afectada debido al incremento en la concentración de gases tóxicos que afectan en gran medida el sistema respiratorio, especialmente en las grandes ciudades como la Ciudad de México.  Por otro lado, se pueden encontrar diversos dispositivos médicos que tienen como objetivo medir la frecuencia respiratoria humana, sin embargo, la mayoría de ellos tienen un alto costo, son de gran tamaño o necesitan de la una supervisión continua de un profesional de la salud. Además, estos dispositivos frecuentemente tienden a resultar incómodos para el paciente, lo cual genera una limitación a su uso en entornos no médicos. Por ello, se plantea la necesidad de desarrollar un sensor de frecuencia respiratoria basado en el uso del efecto piezorresistivo con el que se pretende mejorar su accesibilidad, portabilidad y precisión además de que pueda ser utilizado tanto por profesionales de la salud como por personas en sus actividades diarias. 



METODOLOGÍA

El primer paso para el desarrollo experimental del proyecto fue investigar y seleccionar el material más eficiente para lograr alcanzar los objetivos, dicho material tendría que tener como característica principal el cambio significativo en su resistividad al ser deformado. Por ello, se comenzó empleando pintura conductiva sobre una tira elástica y se determinaron diferentes patrones para seleccionar el más eficiente. Sin embargo, al momento de ser deformada, la pintura conductiva presentó una fractura la cual generó una discontinuidad eléctrica. Por lo tanto, se optó por usar tela conductora de hilos de plata. Con el cambio de resistividad de la tela se realizaron diversos patrones para elegir el adecuado y se realizó una costura a la tira elástica, al igual que se incluyeron unos broches de presión y de plástico, con la finalidad de tener constante el comportamiento del resorte y poder ajustar el dispositivo a diferentes usuarios.  Para determinar el cambio en la resistencia del material se diseñó un divisor de voltaje en el cual una de las resistencias sería representada por la tela conductora. Al suministrar un voltaje en ambas resistencias podría ser cuantificada la variación en el voltaje del cinturón debido al cambio en su resistencia. Sin embargo, este diseño presentó una variabilidad en las medidas por lo que se decidió utilizar una configuración conocida como puente de Wheatstone debido a que permite convertir un cambio de resistencia en un cambio de voltaje de un transductor, en este caso, el sensor textil, utilizando únicamente tres resistencias conocidas y una resistencia variable (tela conductora). Dado que el voltaje obtenido en el puente de Wheatstone presentaba valores bajos, se empleó un amplificador de instrumentación con la finalidad de amplificar el valor de voltaje medido entre los dos puntos del puente de Wheatstone además de acondicionar la señal obtenida. Después, se procedió a visualizar la señal por medio del software LabVIEW y una DAQ (Data Acquisition System) la cual nos permite digitalizar señales analógicas.   Al comprobar la calidad de la señal obtenida en la interfaz de LabVIEW, se decidió implementar la transmisión de los datos de manera inalámbrica para mejorar la experiencia del usuario y evitar errores en la medición que podrían ser resultado del movimiento excesivo de los cables y sus conexiones. Inicialmente, la transmisión de datos se llevó a cabo mediante el uso del módulo bluetooth HC-05 y la placa de desarrollo Arduino Uno, sin embargo, debido a errores en la vinculación con la computadora se decidió hacer uso de la placa de desarrollo ESP-32 el cual se programó por medio del IDE de Arduino para recibir datos de la señal y después transmitirla, de esta manera fue posible reducir el espacio de los dispositivos lo que mejora la portabilidad.  Con dicha placa se logró realizar la transmisión de datos utilizando el protocolo de comunicación TCP/IP, el cual permite la comunicación entre dispositivos pertenecientes a una misma red, en este caso el ESP32 y una computadora en la cual se encuentra la interfaz de LabVIEW, con el fin de lograr contabilizar las respiraciones por minuto de manera inalámbrica y registrar los datos obtenidos en un archivo de Excel mediante el cual el usuario podría llevar registro de su frecuencia respiratoria y en caso de ser necesario consultarlo con su médico de confianza. 


CONCLUSIONES

Durante el desarrollo de este proyecto adquirimos y desarrollamos conocimientos sobre el acondicionamiento de las señales fisiológicas y el potencial que tiene el principio piezorresistivo para aplicaciones de electrónica flexible en áreas importantes como en la salud. Además de esto el objetivo principal del proyecto se logró satisfactoriamente, transmitiendo la señal obtenida de manera inalámbrica, además de poder llevar a cabo la contabilización de las respiraciones por minuto de un usuario para posteriormente guardar registro de estas en una base de datos. Sin embargo, aunque se cumplió con los objetivos principales, para futuras mejoras se recomienda realizar una mejora en el acondicionamiento de la señal además de mejorar la interfaz para que sea más amigable con el usuario. También, se recomienda el uso de redes neuronales con la finalidad de detectar ciertas anomalías de manera automática. 
Munguia Poblano Erwin, Instituto Politécnico Nacional
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

CATáLOGO DE OBJETOS 3D PARA PUBLICIDAD CON REALIDAD AUMENTADA


CATáLOGO DE OBJETOS 3D PARA PUBLICIDAD CON REALIDAD AUMENTADA

Munguia Poblano Erwin, Instituto Politécnico Nacional. Olarte Astudillo Rodrigo, Instituto Politécnico Nacional. Rodríguez Rodríguez Ángel Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La publicidad siempre ha sido un recurso importante que utilizan las empresas para acercar sus productos a los consumidores. Su finalidad es lograr que los consumidores se sientan más familiarizados con los productos de un fabricante. La industria publicitaria ha estado en constante evolución aprovechando los avances tecnológicos para poder adaptarse a las necesidades actuales de los consumidores. Sin embargo, cuando existen muchas empresas que desean acercar sus productos a los consumidores, estas deben buscar nuevas medidas que logren que sus productos sobresalgan por encima de los competidores. La problemática que se aborda en este proyecto es encontrar una medida para llevar una aproximación realista del producto a los consumidores mediante modelos 3D de los productos y realidad aumentada.



METODOLOGÍA

Para digitalizar un objeto se utilizó el método de proyección estructurada de franjas que requiere un proyector y una cámara. El objetivo del proyector es iluminar el objeto con un patrón de franjas mientras que la cámara captura las fotos. Para realizar la reconstrucción 3D, es necesario calibrar el sistema, donde se obtienen los siguientes parámetros. Matriz Kc y Kp, que representa la configuración de la lente y píxeles del sensor de la cámara y proyector, respectivamente. Matriz Rc y Rp, que representa la rotación que tiene la cámara y el proyector en el espacio, respectivamente. Vector tc y tp, que representa la posición de la cámara y el proyector. La calibración se debe hacer utilizando un patrón de referencia, y tomar varias fotos con diferentes rotaciones del mismo, este esta constituido de cuadros tipo ajedrez con un tamaño de cuadro conocido.   Una vez calibrado el sistema ya estamos listos para digitalizar el objeto. Para ello debemos tomar fotos en el mismo espacio donde calibramos. La función del proyector es emitir el patrón de franjas sobre el objeto mientras que la cámara toma las fotos. El patrón es generado mediante una onda cosenoidal donde vamos variando su frecuencia lo que nos da una apariencia de que las rayas verticales se desplazan, mientras más corrimientos tenga la rejilla obtendremos una mejor construcción del objeto, sin embargo se requerirá mayor tiempo de cómputo.  Una vez capturados los patrones de franjas, se extrae la fase envuelta y al resultado se aplica el proceso de desenvolvimiento de fase. La fase final obtenida es usada para obtener una nube de puntos en 3D del objeto a través de la técnica de triangulación lineal. Posteriormente, la nube de puntos obtenida es exportada en un archivo .ply (Polygon File Format), el cual es un formato de archivo 3D en el cual se almacena objetos gráficos descritos como una colección de polígonos. Cabe señalar que hasta esta etapa solo se tienen nubes de puntos mas no la superficie del objeto. Debido a ello es que se debe realizar un postprocesamiento donde primeramente en una aplicación llamada CloudCompare, se limpia el ruido generado por puntos que son colocados en lugares donde el objeto no debería estar presente de modo que la nube de puntos únicamente sea el objeto digitalizado. Posteriormente se realiza un mallado de modo que el objeto ahora es una superficie la cual es exportada en un archivo .obj para así realizar el modelo 3D uniendo múltiples superficies. La superficie resultante del objeto es procesada en el software MeshLab en el cual es exportada la textura del objeto que tenga la malla para que sean aplicadas a la superficie. Finalmente para realizar el objeto 3D, todas las superficies y texturas que fueron obtenidas con los procedimientos anteriores son importadas en la aplicación Blender, donde estas son unidas para finalizar y exportar el modelo 3D en un archivo .fbx (FilmBox).


CONCLUSIONES

En este proyecto se realizó con éxito la digitalización 3D de objetos mediante la proyección de franjas y posteriormente adaptar a un enfoque de aplicación orientado a la publicidad con realidad aumentada. Los resultados se integraron en una aplicación para celular con android 8.0 o superior. En esta aplicación se visualiza el modelo 3D de los productos digitalizados, esto se hace apuntando a los modelos cargados en la aplicación. Las ventajas de usar esta técnica es que reduce enormemente el tiempo de creación de un modelo 3D. Además, el sistema es sencillo de armar y económico. Cabe mencionar que mientras mejor calidad tengan los dispositivos empleados, mejor será la digitalización. Las complicaciones de emplear está técnica son que no existe un procedimiento eficiente para generar los modelos 3D ya que estos requieren de mucho trabajo de postprocesamiento y perjudican la calidad de los mismos. Además debido al gran número de características que se obtienen del objeto, los modelos 3D requieren mucho espacio de almacenamiento. Como mejoras en trabajo a futuro se propone la creación de un método que genere los modelos 3D de forma automática, así como una optimización en los mismos para reducir el espacio en memoria y generar formas de interacción en la aplicación de realidad aumentada.
Muñiz Galván Andrea Guadalupe, Instituto Tecnológico Superior de Irapuato
Asesor: Esp. Pedro Luis Milian Daza, Instituto Nacional de Formación Técnica Profesional - INFOTEP

APROVECHAMIENTO DE DESECHOS DERIVADOS DE LA QUEMA DE CARBON (CENIZA), PARA EL CONTROL DEL PELIGRO QUÍMICO EN LA TERMOELECTRICA TERMOGUAJIRA, COLOMBIA.


APROVECHAMIENTO DE DESECHOS DERIVADOS DE LA QUEMA DE CARBON (CENIZA), PARA EL CONTROL DEL PELIGRO QUÍMICO EN LA TERMOELECTRICA TERMOGUAJIRA, COLOMBIA.

Muñiz Galván Andrea Guadalupe, Instituto Tecnológico Superior de Irapuato. Asesor: Esp. Pedro Luis Milian Daza, Instituto Nacional de Formación Técnica Profesional - INFOTEP



PLANTEAMIENTO DEL PROBLEMA

La generación de partículas a partir de la combustión de carbón en las termoeléctricas produce grandes cantidades de residuos, entre ellos, la ceniza. Estos residuos, si no se manejan adecuadamente, pueden ocasionar diversos problemas ambientales y de salud pública. En el caso específico de la termoeléctrica Termoguajira Gecelca, ubicada en (Dibulla, La Guajira, Colombia), se presentan los siguientes problemas relacionados con sus residuos de ceniza: Impactos ambientales, Desperdicio de recursos y Afectación de la salud humana. En referencia a investigaciones planteadas, en Colombia se relacionan las afectaciones de carbón y entre ellas están la degradación de ecosistemas y paisajes en la costa norte de Colombia principalmente departamentos de Cesar, Magdalena y Guajira. También una afectación mas es en Cesar, la extracción esta acabando con grandes extensiones de tierra y cuando se explota la piedra que recubre el carbón se dejan expuestos azufre, fosforo y plomo que van directo a la tierra y cuerpos de agua. (Fundación, 2020) Con base a lo anterior y para continuar con la situación planteada se deberá comprender, analizar, aplicar y crear una logística inversa con el fin de aprovechar la problemática y darle un resultado positivo a la investigación. Es por ello que se propone esta investigación, a fin de analizar la efectividad del uso de una logística para el aprovechamiento de una problemática en la Guajira, Colombia.



METODOLOGÍA

La investigación es de tipo aplicada que según (Editorial ETECÉ, 2021) este tipo de investigación se centra en la utilización de los conocimientos y saberes para la resolución práctica de problemas, es decir, para aplicarlos al mundo cotidiano de la humanidad.


CONCLUSIONES

Con la investigacion en proceso y los objetivos planteados se desea obtener una variedad de oportunidades para aprovechar la principal problematica que es la generacion de particulas debido a la quema del carbon y ademas de esta manera se aplicara una logistica inversa y se podra generar energia no contaminante ni dañina para la salud. 
Muñiz Garcia Elian Francisco, Instituto Tecnológico de Tepic
Asesor: Mg. Fabio Ernesto Garcia Ramirez, Fundación Universitaria Tecnológico Comfenalco

ESTUDIO PRELIMINAR DE CORRELACIÓN DE VARIABLES RELACIONADAS CON EL RENDIMIENTO ACADEMICO: UN CASO DE ESTUDIO DE UNA INSTITUCION EDUCATIVA EN CARTAGENA(COLOMBIA)


ESTUDIO PRELIMINAR DE CORRELACIÓN DE VARIABLES RELACIONADAS CON EL RENDIMIENTO ACADEMICO: UN CASO DE ESTUDIO DE UNA INSTITUCION EDUCATIVA EN CARTAGENA(COLOMBIA)

Muñiz Garcia Elian Francisco, Instituto Tecnológico de Tepic. Asesor: Mg. Fabio Ernesto Garcia Ramirez, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

El rendimiento académico es un fenómeno complejo influenciado por varios factores o variables, que pueden tener impacto directo o indirecto. Comprenderlos, permite crear estrategias que mejoren los resultados, para lo cual se han realizado varios estudios que han permitido identificarlos y clasificarlos, tales como: el tipo de curso, el procedimiento de administración de los exámenes y la calidad de los estudiantes y del profesorado (Afrifa, 2023); la autoeficacia (Portento, 2022); la eficacia de los profesores (Akiri, 2013); materiales de enseñanza y aprendizaje inadecuados, método de instrucción, automotivación de profesores y alumnos, aptitud académica de los alumnos, rendimiento académico anterior y reciente, esfuerzo insuficiente, escasa motivación, cualificación y experiencia de los profesores (Ifeoma, 2017); hábitos de vida, estrés y obesidad (Rajendran, 2019); motivación intrínseca (Rodríguez, 2012); apoyo social, motivación, estrés, satisfacción, autoeficacia, ansiedad y depresión, rendimiento académico previo, esfuerzo en el estudio, adaptación, familia y emociones (Tindle, 2021); género (ШАРМИН, 2022); el ambiente de aprendizaje(equipamiento de las aulas, uso de tecnología, recursos bibliográficos y actividades extracurriculares) (Byers, 2018); orientación vocacional (Maganga, 2016), entre otras. Es importante señalar que estos factores pueden variar en función del contexto y de la población estudiada. Por lo tanto, es esencial seguir investigando para identificar los factores que influyen en el rendimiento académico en contextos específicos. El objetivo del trabajo desarrollado a partir de un caso de estudio es el de caracterizar y correlacionar las variables que puedan tener incidencia en los resultados de rendimiento académico de los estudiantes pertenecientes a una Institución Educativa Pública, ubicada en la localidad histórica y del caribe norte, la cual oferta formación en los niveles de primaria, secundaria y media. El desarrollo del estudio tuvo en cuenta los resultados de investigaciones preliminares documentadas previamente en una revisión sistemática, para lo referente al diseño del instrumento de recolección de datos(encuesta) y las diferentes dimensiones y variables que se indagaron; de igual manera, los resultados académicos provenientes de la plataforma académica (Cartagena Evaluadora), correspondientes al año escolar 2022. La metodología empleada responde a un estudio de campo con una muestra de 205 estudiantes, quienes diligenciaron una encuesta de 33 preguntas previamente validada por juicio de expertos, donde se indagaron aspectos referentes a las dimensiones sociodemográfica, académica, recursos tecnológicos e institucional.



METODOLOGÍA

Para el logro del objetivo del estudio, se plantearon las siguientes fases: 1. Fase de Diseño: correspondiente a la construcción del instrumento de recolección de datos (Encuesta), el cual se soporto en un estudio preliminar del estado del arte, de investigaciones similares, que permitieran seleccionar las variables mas apropiadas para el caso de estudio 2. Fase de Validación: correspondiente a someter a revisión mediante el Juicio de Expertos, una primera versión de la encuesta, lo cual permitió realizar ajustes para conformar el instrumento de recolección de datos definitivo. 3. Fase de Correlación: en la cual se sometió el instrumento a pruebas estadísticas para revisar el nivel de correlación entre las preguntas de la encuesta. 4. Fase de Aplicación: corresponde a la realización de la encuesta entre la muestra de estudiantes seleccionados.


CONCLUSIONES

Investigaciones recientes se han centrado en identificar las variables que tienen un impacto significativo en el rendimiento académico. Estas variables abarcan varios aspectos de la vida y la experiencia educativa de un estudiante. Los hallazgos de estos estudios brindan información valiosa para comprender los factores que contribuyen al éxito académico.  Una variable crucial que afecta el rendimiento académico es el nivel socioeconómico. La investigación demuestra consistentemente que los estudiantes de entornos socioeconómicos más altos tienden a desempeñarse mejor académicamente en comparación con los de entornos socioeconómicos más bajos. Factores como el acceso a los recursos educativos, la calidad de las escuelas y la participación de los padres juegan un papel en la configuración de los resultados académicos. Otra variable significativa es la motivación y el compromiso de los estudiantes. Los estudios indican que los estudiantes que están motivados tienen una actitud positiva hacia el aprendizaje y participan activamente en sus estudios se desempeñan mejor académicamente. Factores como la autoeficacia, la orientación a objetivos y el interés en la materia influyen en el nivel de motivación y compromiso de un estudiante. La calidad de las prácticas de enseñanza e instrucción también es crucial para determinar el rendimiento académico. Los métodos de enseñanza efectivos, la gestión del aula y la atención individualizada contribuyen a experiencias de aprendizaje positivas y mejores resultados académicos. Los maestros que brindan explicaciones claras ofrecen apoyo y crean un ambiente de aprendizaje estimulante pueden impactar significativamente el rendimiento de los estudiantes. 
Muñoz Chávez Vania Isabella, Instituto Tecnológico de Pachuca
Asesor: Mg. Andres Mauricio Arguello Vasquez, Fundación Universitaria Empresarial

USO DE TECNOLOGíAS 4.0 Y 5.0 COMO APOYO A PRáCTICAS DE MANUFACTURA SOSTENIBLE.


USO DE TECNOLOGíAS 4.0 Y 5.0 COMO APOYO A PRáCTICAS DE MANUFACTURA SOSTENIBLE.

López Guerrero Mariana, Universidad Tecnologica de León. Muñoz Chávez Vania Isabella, Instituto Tecnológico de Pachuca. Santana Mendoza Pily Fernanda, Universidad Autónoma del Estado de México. Asesor: Mg. Andres Mauricio Arguello Vasquez, Fundación Universitaria Empresarial



PLANTEAMIENTO DEL PROBLEMA

Según el Banco de desarrollo de América Latina y el Caribe, las pymes representan más del 99.5% de las empresas en la región, por lo que estas juegan un papel crucial en el desarrollo económico de los países. En la actualidad, la cuarta revolución industrial ha introducido nuevas tecnologías, metodologías y procesos que han transformado la vida actual. Esto ha llevado a los empresarios a considerar la necesidad de transformación interna para adoptar posturas más competitivas, innovadoras y propiciar el crecimiento en sus respectivos sectores. Sin embargo, no todos poseen el conocimiento necesario sobre las técnicas y lineamientos para implementar estas tecnologías, lo que genera una brecha tecnológica y productiva entre las organizaciones. Por ello es de gran importancia la correcta implementación de estas nuevas tecnologías para respaldar el crecimiento del modelo de negocio en términos de desarrollo, innovación e investigación aplicada. En el ámbito del desarrollo, la adopción de nuevas tecnologías podría impulsar la creación de empleos para personal capacitado y especializado en el manejo de los nuevos procesos, además de optimizar el uso de los recursos internos, lo que se traduciría en ahorros y disminución de costos. Durante el verano de investigación, se realizan investigaciones pertinentes a la innovación tecnológica, así como a las tecnologías 4.0 y 5.0 aplicadas a diferentes ámbitos, principalmente en el entorno empresarial y como herramientas de apoyo en Pymes. Agregando con ello, la formación de un curso de innovación tecnológica, con 8 módulos de información relevante. Además, se entrevista a expertos de distintas áreas, con conocimiento en tecnologías 4.0 y 5.0 como apoyo a prácticas de manufactura sostenible en Pymes.



METODOLOGÍA

Se inicia con la investigación documental de manera individual, para familiarizarnos con el tema de las tecnologías 4.0 y 5.0 en el mundo actual. Así como también, con el uso de las herramientas tecnológicas para realizar las tareas asignadas, por ejemplo la utilización de la IA de Chat GPT. Esta herramienta nos apoyó en el desarrollo de la investigación, donde inicialmente brindamos información para ayudar a contextualizar a la inteligencia, favoreciendo así la eficiencia, veracidad y aproximación a la realidad de las respuestas, de modo que durante el desarrollo pudiéramos ampliar la investigación y generar un aporte desde un punto de vista diferente, apoyándonos en la generación de preguntas, cuestionarios , ejercicios, como también tomando fuentes de información y generando un proceso dinámico dentro del archivo. Una vez familiarizadas, iniciamos con la labor de dar un formato específico a la elaboración de un curso online que abordó temas de la innovación tecnológica, de tal manera que fuera dinámico, estructurado y concreto para el aprendizaje de los próximos aprendices e interesados al curso. Se generó un desarrollo del formato del curso, teniendo un total de 8 módulos, en donde se contempla no solo la instrucción de información, además se considera e invita a la participación y reflexión, ya que el formato se dividió en : el módulo con la información a instruir, un caso de éxito, el taller, un quiz, en donde en el módulo se instruye al participante sobre toda la información, contenidos y características del tema. En el caso de éxito, se muestra un ejemplo de la aplicación del contenido, generalmente de empresas, mostrando su éxito a través de la aplicación de lo visto en el módulo. El taller, donde se invita al participante a ejercitar lo aplicado, invitando a la reflexión y retención del contenido. El quiz, finalmente evalua lo aprendido. A la par, se estuvo trabajando con una selectiva entrevista a personas que estuvieran un poco más familiarizadas con el tema y que a lo largo de su trayectoria, pudieron observar la aplicación de dichos avances tecnológicos en su sector manufacturero. Gracias a esta técnica de recolección de información personal, pudimos obtener un acercamiento de cómo es en tiempo real la relación de innovadoras herramientas y su impacto en la sociedad empresarial en Latinoamérica.


CONCLUSIONES

El haber participado en un verano de investigación Delfín, favoreció a la formación de un curso de innovación tecnológica, que ayudará a transmitir la importancia que tiene la tecnología actualmente en nuestra sociedad, principalmente en las organizaciones. Así mismo cada módulo se profundizó en temas específicos que de alguna manera son parte de las prácticas de manufactura sostenible, mismos que posteriormente se pretende sean compartidos a estudiantes, y fomenten una cultura de innovación en su área de estudio. Se aportó además un registro de conclusiones obtenidas a partir de entrevistas aplicadas a dos Ingenieros Industriales y un Licenciado en Diseño Industrial, como aportación a la investigación Tecnologías 5.0 como apoyo a prácticas de manufactura sostenible en Pymes.
Muñoz de Jesus Brisa Fernanda, Instituto Tecnológico de Chilpancingo
Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur

DISEñO DE UNA APLICACIóN DE APRENDIZAJE DE INGLéS PARA USUARIOS CIEGOS: HAPPYBLINDGLISH


DISEñO DE UNA APLICACIóN DE APRENDIZAJE DE INGLéS PARA USUARIOS CIEGOS: HAPPYBLINDGLISH

Carbajal Perez Amada Sarahi, Instituto Tecnológico de Chilpancingo. Galván Cázares Hugo Alejandro, Universidad de Guadalajara. Muñoz de Jesus Brisa Fernanda, Instituto Tecnológico de Chilpancingo. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur



PLANTEAMIENTO DEL PROBLEMA

En México, la discapacidad visual es la segunda enfermedad más reportada según datos del Instituto Nacional de Estadística y Geografía (INEGI), y de acuerdo con la directora del Hospital de la Ceguera APEC, Valeria Sánchez, en México hay un total de 2 millones 237 mil personas que tienen deficiencias visuales (Scotiabank, 2021). Las aplicaciones para aprender inglés en el mundo son muy usadas y en realidad existe un gran número de ellas, las cuales han sido muy efectivas y han ayudado a muchas personas a comprender mejor el idioma inglés, el cual ha sido un recurso y una herramienta que abre constantemente puertas de trabajo, estudio y sociabilidad para la persona que domine esta herramienta. Sin embargo, estas aplicaciones no suelen estar centradas en usuarios con discapacidad visual.   



METODOLOGÍA

Para realizar este trabajo se llevó a cabo un proceso cualitativo debido al tamaño de la muestra. Los pasos que sigue este modelo constan de diez etapas para lograr el objetivo de la investigación (Hernández et al., 2016). La metodología utilizada para el análisis y diseño se llama MEUXuc (Álvarez, 2019) y se centra en usuarios con discapacidad visual, además de contar con las fases necesarias de la ingeniería de software para llevar a cabo el diseño del proyecto. Se tomó la decisión de hacer uso de la MEUXuc debido no solo a la inclusión de los usuarios objetivo sino de su contemplación en cada una de sus etapas y de la explicación de cada uno de sus métodos. Además, para la evaluación del diseño se utilizaron dos métodos los cuales son: Card Sorting y Thinking Aloud. El método Card Sortnig consiste en el ordenamiento de tarjetas con conceptos concretos que se están analizando y evaluando para posteriormente juntarlos y así obtener la arquitectura de la información (Álvarez, 2019). En este caso se adaptó el método para los usuarios con discapacidad visual, es decir, se utilizó el sistema braille. Se pensó en un menú que fuera intuitivo y fácil de aprender para los usuarios ciegos y se realizó un prototipo físico para que estos pudieran interactuar con el. Mientras que Thinking Aloud es un método en el cual la interacción social es fundamental. Se hizo uso de este explicando cada una de las pantallas a los usuarios para que pudieran reconocerlos y poder evaluar si la ubicación de los objetos en pantalla eran accesibles o no. 


CONCLUSIONES

En base al trabajo anterior se complemento la investigación con aplicaciones existentes para aprender inglés para personas con discapacidad visual, requerimientos funcionales y no funcionales, se definió la base de datos y el lenguaje de programación a usar, se realizaron diagramas para comprender el funcionamiento de la aplicación, se trabajó en una nueva propuesta para la interfaz de un sistema para el aprendizaje del idioma inglés para usuarios con discapacidad visual. También se tomó en cuenta el uso de los colores y su contraste para realizar un diseño que pueda ayudar a personas con baja visión a utilizar el sistema. Las pruebas de interfaces fueron realizadas a personas de baja visión por lo que en un futuro se harán al usuario objetivo que es una persona con ceguera, para mejorar la aplicación cada vez más. Se espera que la aplicación en un futuro sea también para personas de baja visión. Aunque el trabajo era extenso pudimos obtener un avance en la codifcación de algunas pantallas de la aplicación final, por lo que se espera que cuando este trabajo sea retomado se continúe con los aspectos de aprendizaje para las personas con discapacidad visual.
Muñoz González Gerardo Daniel, Universidad de Guadalajara
Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar

DETECCIóN DE ESTRéS A PARTIR DE RESPUESTAS FISIOLóGICAS


DETECCIóN DE ESTRéS A PARTIR DE RESPUESTAS FISIOLóGICAS

López Novoa Leopoldo Benjamín, Universidad de Guadalajara. Muñoz González Gerardo Daniel, Universidad de Guadalajara. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

El estrés es un estado fisiológico alterado en el que el sistema nervioso simpático es sobreestimulado, que causa un deterioro crónico psicológico, físico y conductual [2]. Cuando una persona es sometida a grandes cantidades de estrés y no es atendida, puede distenderse el problema hasta somatizarse en enfermedades del sistema cardiovascular, trastornos afectivos como la depresión, y un decremento generalizado en las funciones ejecutivas. En el panorama laboral y educativo en el que nos encontramos, marcado por la globalidad y la inestabilidad, se observa un alto nivel de complejidad, pues hay una constante demanda de aumento de productividad, es por eso que el estudio del estrés se vuelve relevante. Además, existe gente altamente sensible al estrés (como niños en edades formativas, víctimas de abuso, estudiantes de carreras de alta exigencia) la cual es propensa a sufrir de mayor afección, esto en un entorno escolar puede implicar burnout académico a corto plazo y hasta de enfermedades cardiovasculares a largo plazo. Al ser una problemática tan universal, pues no distingue de sexos ni edades, es oportuna la búsqueda de métodos económicos en la automatización de la detección de estrés y a bajo costo computacional. Es donde cobran importancia los esfuerzos por conocer el estado de la población, para poder prevenir complicaciones de salud y errores por tareas ejecutadas de forma insuficiente. La detección del estrés por señales fisiológicas cobra importancia, pues debido al enmascaramiento voluntario o involuntario de las emociones por parte de los sujetos analizados, la medición de señales fisiológicas llega a ser de más alta fiabilidad.



METODOLOGÍA

Se hizo una revisión de literatura sobre propuestas de implementación de técnicas de machine learning en la detección emocional y del estrés [4], así como técnicas relativas a la inducción ética de estrés en sujetos [3]; se diseñó un protocolo experimental para la adquisición de bioseñales a partir de dos parámetros fisiológicos: Respuesta Galvánica de la Piel (GSR) y fotopletismografía para medir el nivel de irrigación sanguínea en el tejido de los dedos.   El estudio está dirigido para estudiantes de nivel universitario y se realizará en un entorno controlado para asegurar la lectura del nivel fisiológico antes de someter a los participantes a situaciones controladas para provocarles estrés. La metodología empleada para inducir a los participantes en estados de estrés consiste (en esencia) en pedirle con antelación al sujeto que cante una canción, mientras comienza una cuenta regresiva, esta técnica demostró ser casi tan eficiente como el estándar de oro para inducir estrés y ser significativamente menos compleja que esta. La adquisición de la señal GSR es realizada por la lectura del sensor comercial GSR Grove mediante sus electrodos colocados en los dedos de la mano del participante, mientras que la vascularización se medirá utilizando circuitos ópticos construidos por nosotros. Las señales son preprocesadas en el entorno de MATLAB para poder extraer las características. Emplear técnicas de machine learning aprendidas en la estancia para desarrollar un modelo capaz de distinguir las características de una señal producida en un estado de calma.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre diferentes técnicas de machine learning y de cómo llevarlas a la práctica, pero debido que el trabajo que implica este proyecto requiere de la coordinación de diferentes personas, esto aún se encuentra en fase de diseño y no se puede demostrar resultados. Podemos esperar diferentes complicaciones en el proceso de adquisición pero para esto entran en juego los conocimientos adquiridos antes de la estancia en nuestro centro universitario. [1] Gedam, S., & Paul, S. (2021). A Review on Mental Stress Detection Using Wearable Sensors and Machine Learning Techniques. IEEE Access, 9, 84045-84066. doi:10.1109/access.2021.3085502   [2] Kim, H. G., Cheon, E. J., Bai, D. S., Lee, Y. H., & Koo, B. H. (2018). Stress and heart rate variability: a meta-analysis and review of the literature. Psychiatry investigation, 15(3), 235. ISO 690 [3] Brouwer, A. M., & Hogervorst, M. A. (2014). A new paradigm to induce mental stress: the Sing-a-Song Stress Test (SSST). Frontiers in neuroscience, 8, 224. ISO 690 [4] Domínguez-Jiménez, J. A., Campo-Landines, K. C., Martínez-Santos, J. C., Delahoz, E. J., & Contreras-Ortiz, S. H. (2020). A machine learning model for emotion recognition from physiological signals. Biomedical signal processing and control, 55, 101646.    
Muñoz Muñoz Erick, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez

ESTUDIO TéRMICO DE UNA COLUMNA EMPACADA DE DESORCIóN PARA SU OPERACIóN EN ESTADO ESTACIONARIO


ESTUDIO TéRMICO DE UNA COLUMNA EMPACADA DE DESORCIóN PARA SU OPERACIóN EN ESTADO ESTACIONARIO

Muñoz Muñoz Erick, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El proceso de desorción es una operación unitaria dentro de los procesos industriales. El principio del proceso de desorción es la separación o recuperación de una solución líquida a través del contacto directo con una corriente gaseosa. El proceso de desorción tiene diversas aplicaciones una de ellas es la recuperación de bio-butanol el cual tiene aplicaciones de combustible y es aquí donde entra la importancia del proceso de desorción puesto que con este proceso se obtienen mejores resultados de recuperación de sustancia que los que se obtendrían usando filtros. La columna de desorción en este trabajo se pretende utilizar para desorber la solución de MEA dentro del proceso de captura de CO2 postcombustión, poniendo en contacto a contracorriente la solución absorbente de MEA con vapor de agua a través de una columna empacada.  El vapor que se necesita para la desorción representa la energía que se requiere para desarrollar el proceso de desorción. En este trabajo se presenta un análisis térmico del vapor necesario para preparar una columna empacada dentro del proceso de desorción. Para el monitoreo de las temperaturas dentro del proceso de desorción se instrumentó y desarrollo un sistema de adquisición de temperaturas a través de una interfaz gráfica de usuario. Se desarrollaron pruebas experimentales controlando y adquiriendo las variables de proceso temperatura y flujo.



METODOLOGÍA

Se llevo a cabo un previo análisis del proceso de desorción con el fin de visualizar su funcionamiento y cómo se comporta cuando se lleva a cabo el proceso de separación de sustancias, estos aspectos a analizar son vitales debido a que es posible determinar cuáles son aquellas partes del proceso vitales para realizar su monitoreo, de lo cual se dedujo que la temperatura era esencial para este proceso dado a que mediante esta se pueden obtener los resultados de operación del proceso de desorción. Una vez definidas aquellas partes esenciales del sistema, es decir, aquellas partes de las que se llevara el monitoreo, lo siguiente es determinar cuáles son los aspectos que influyen sobre la temperatura por lo que se lleva a cabo una definición de variables, dado a que ya se observó el comportamiento del proceso de desorción es posible terminar dichas variables, las cuales se dividen en 3 grupos, primero tenemos las variables de entrada, estas son las variables que pueden ser controladas en las cuales por un operador. Las variables no controladas, las cuales no pueden ser controladas dado a que se dan por condiciones externas y por ultimo las variables de salida las cuales se obtienen una vez realizado el proceso de desorción. Ya que se tiene el objetivo de monitoreo, se procedió a determinar las herramientas para llevar a cabo dicho monitoreo, llevando a cabo el proceso de instrumentación, el cual consta de la selección adecuada de los instrumentos que será utilizados, dado a que el monitoreo se realizara a temperatura, las herramientas adecuadas para ello son sensores de temperatura. Una vez que fueron seleccionadas las herramientas el siguiente paso del proceso de instrumentación es la calibración de las herramientas, por lo que se utilizó un baño térmico y un sensor RTD para comparar los datos obtenidos de los sensores elegidos, para esta parte de calibración se realizaron monitoreos de diversas temperaturas con el fin de obtener una gran cantidad de datos necesarios para la siguiente parte del proceso. La última parte del proceso de instrumentación es el ajuste de las herramientas, en donde se trabajó con los datos obtenidos de la calibración, se obtuvo el promedio de cada temperatura registrada con el fin de compararla con la obtenida del sensor RTD el cual se encontraba calibrado y tenía una lectura de datos precisa, la comparación fue realizada con el fin de obtener una fórmula de ajuste, con dicha formula fue posible eliminar el margen de error que tenían los sensores a la hora de leer datos. Para visualizar los datos que son obtenidos con las herramientas de monitoreo, es decir, los sensores, se llevó a cabo el desarrollo de un software el cual adquiere los datos y los muestra en graficados en tiempo real, en este trabajo el software es esencial para el monitoreo del proceso de desorción dado a que facilita y automatiza el proceso de analizar los datos que brinda el proceso de desorción, haciendo posible visualizar si hay algún problema con la columna de desorción para solucionarlo en el momento y no al finalizar el proceso. Se llevaron a cabo pruebas experimentales en el proceso de desorción bajo condiciones específicas, variando las variables controladas y registrando las respuestas correspondientes en las variables de salida. Una vez obtenidos los datos, se realiza su recopilación en el software de monitoreo previamente configurado y se procede con su análisis. Con este análisis es posible evaluar el rendimiento de la columna de desorción y determinar la relación entre las variables controladas y las variables de salida, brindando una comprensión más profunda del proceso.


CONCLUSIONES

Al haber finalizado este proyecto, se logró automatizar el proceso de monitoreo de la columna de desorción en operación en estado estacionario con lo cual fue posible evaluar el comportamiento de dicho proceso sin necesidad de esperar a su finalización. Así mismo, se aplicó ciencia de datos para analizar el comportamiento del proceso de desorción y determinar aquellos factores que tienen mayor efecto sobre este proceso lo que sirvió para ajustar la columna de desorción y obtener resultados óptimos de desorción.
Muñoz Silva César Edmundo, Instituto Tecnológico de Tepic
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Albarran Barbosa Jessica Denisse, Universidad Michoacana de San Nicolás de Hidalgo. Ceja Reyes Guillermo, Universidad de Guadalajara. Muñoz Silva César Edmundo, Instituto Tecnológico de Tepic. Naranjo Blanco Francisco Alfonso, Instituto Tecnológico Superior de Los Reyes. Trujillo Jiménez José Alberto, Universidad de Guadalajara. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La población en México ha crecido exponencialmente durante los últimos 70 años. El aumento ha llevado a la necesidad de construir nuevas casas que requieren servicios básicos como agua, drenaje y electricidad. Sin embargo, la obtención de electricidad a través de combustibles fósiles ha generado altas emisiones de Gases Efecto Invernadero y contribuido al calentamiento global. La expansión urbana y el consumo desmedido de recursos naturales han tenido un impacto negativo en el medio ambiente. Para abordar este problema, se presenta el proyecto "Diseño de una Casa Ecológica Autosustentable" (CEA), que busca crear viviendas cómodas y respetuosas con el medio ambiente. Las CEA son una respuesta proactiva al cambio climático y promueven la construcción sostenible para reducir la huella de carbono y contribuir a la estabilidad del clima.



METODOLOGÍA

Durante el desarrollo del proyecto, se llevaron a cabo numerosas investigaciones documentales y sesiones de video sobre diversos temas relacionados, así como sesiones de trabajo colectivo para compartir ideas de lo investigado y tomar decisiones sobre la mejor alternativa. Se trató el uso de energía en edificaciones, se exploraron aspectos fundamentales como la irradiación solar, el viento, la temperatura, el confort térmico, el aprovechamiento del activo solar y la consideración de la visión humana en el diseño. También se estudió el principio del diseño con luz diurna, el tratamiento de aguas grises y la importancia de la ventilación natural en el contexto ecológico. Para enriquecer aún más los conocimientos sobre el tema, se realizó una visita de estudio al Instituto Mexicano de Tecnología del Agua (IMTA), donde se pudo observar en vivo el funcionamiento de dos casas ecológicas diferentes. Además, se conocieron las tecnologías y ecotecnias empleadas en estas viviendas, incluyendo el tratamiento de aguas, lo cual brindó una perspectiva más amplia y valiosa para el diseño de la Casa Ecológica Autosustentable. En el proyecto, se planea equipar la vivienda con tecnología de vanguardia para optimizar la eficiencia energética. Se implementarán estratégicamente paneles fotovoltaicos para captar la energía del sol, que es una fuente de energía renovable, y convertirla en energía eléctrica. Esta electricidad generada será utilizada para alimentar los sistemas de iluminación y los electrodomésticos, promoviendo el uso responsable de la energía. Adicionalmente, se prevé instalar generadores eólicos con eje vertical para aprovechar el viento, complementando la producción energética con otra fuente limpia y renovable.  Con estas acciones, el proyecto de la Casa Ecológica Autosustentable busca no solo promover la adopción de prácticas amigables con el medio ambiente, sino también inspirar y servir como ejemplo para futuras construcciones ecológicas y sostenibles, contribuyendo así a la lucha contra el cambio climático y fomentando un uso más responsable de los recursos naturales. Para garantizar el uso responsable del agua se incorporará un sistema de cosecha de agua de lluvia en techos, que permita captar y almacenar este vital líquido hacia depósitos subterráneos, para ser aprovechado en épocas de escasez, así como un sistema de filtración para obtener agua potable, lo que permitirá disponer de agua pluvial para tareas del hogar, fortaleciendo la auto sustentabilidad del hogar.  A su vez se implementará un sistema tratamiento de aguas grises: estas aguas provenientes de lavamanos, duchas y lavadoras se filtrarán y purificarán con ozono para ser reutilizadas en actividades cotidianas, tales como el riego de jardines y descargas de inodoros, lavado de ropa y el aseo de la casa. Esto no solo reducirá el consumo de agua potable, sino que también contribuirá a disminuir la contaminación ambiental, es importante tener esto en cuenta debido a que Organización Mundial de la Salud (OMS), menciona que una persona requiere de 100 litros de agua al día (5 o 6 cubetas grandes) para satisfacer sus necesidades [5], tanto de consumo como de higiene y lamentablemente en México según datos proporcionados por el Sistema de Aguas de la Ciudad de México (SACMEX), el consumo promedio de agua por persona en la CDMX es de aproximadamente 380 litros por día[6].


CONCLUSIONES

El proyecto ha sido pensado para acoger a una familia de 5 personas, esta vivienda ofrece un ambiente plácido y armonioso mientras mantiene un consumo energético e hídrico por debajo de los estándares establecidos. Su diseño, novedoso y creativo, garantiza no solo el confort térmico sino también una iluminación óptima, brindando una experiencia habitacional única. En vista de nuestro compromiso con el medio ambiente, anhelamos que el Gobierno de la República respalde este proyecto mediante la implementación de Hipotecas Verdes, especialmente destinadas a personas de bajos ingresos. De esta manera, daremos un paso significativo hacia un México autosustentable, donde la armonía entre la naturaleza y el desarrollo humano se vuelva una realidad palpable. Es nuestro propósito fomentar una cultura de conciencia ecológica, donde cada individuo pueda disfrutar de una vivienda que respete y cuide nuestro planeta, forjando así un futuro más prometedor y sostenible para las generaciones venideras, juntos podemos construir un país en armonía con la naturaleza y trascender hacia un futuro próspero y responsable con el medio ambiente.
Muñoz Torres Eduardo Antonio, Instituto Tecnológico de Tepic
Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua

PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.


PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.

Babilonia Meza Nohemi Esther, Fundación Universitaria Tecnológico Comfenalco. García Gálvez Jesús, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Muñoz Torres Eduardo Antonio, Instituto Tecnológico de Tepic. Nieto Mora Stefania, Institución Universitaria Colegio Mayor de Antioquia. Nieves Rivera Pablo Germán, Instituto Tecnológico de Tepic. Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La calidad del agua de las fuentes de abastecimiento se puede ver alterada por diversos factores, cuyo origen puede ser natural o antropogénico. La materia orgánica es uno de los contaminantes que puede encontrarse en los acuíferos por infiltración de aguas negras domésticas o industriales. El pozo de agua potable Tulyehualco, ubicado en la Ciudad de México, presenta un nivel significativo de materia orgánica medida como Demanda Química de Oxígeno (DQO). Debido a lo mencionado anteriormente, es importante buscar alternativas para el tratamiento del agua de dicha fuente de abastecimiento para disminuir la cantidad de materia orgánica presente dado que los métodos convencionales no logran cumplir con este objetivo. En este proyecto se llevó a cabo el método de foto-Fenton homogéneo, donde se implementó peróxido de hidrógeno y un agente oxidante que se obtuvo con hierro extraído de escoria de cobre en presencia de ácido cítrico para formar el complejo de citrato-hierro. Se buscó evaluar las mejores condiciones, por medio de un diseño experimental multifactorial, para lograr la disminución de la materia orgánica del pozo descrito anteriormente. Una vez formado el citrato de hierro y comenzada la reacción foto-Fenton, se liberan radicales hidroxilos (•OH) los cuales reaccionan con el agua problema para eliminar la materia orgánica.



METODOLOGÍA

Para la presente investigación se seleccionó el agua del pozo de Tulyehualco ubicado en la Ciudad de México la cual es distribuida para el consumo humano. Curva de calibración de peróxido de hidrógeno Se tomaron 3 mL de peróxido de hidrógeno al 30% y se aforó a 1 L con agua desionizada en un matraz volumétrico. A partir de esta solución madre se preparó una segunda solución madre en un volumen de medio litro y a una concentración de 250 mg/L. Las soluciones patrón se prepararon a partir de la segunda solución madre, tomando alícuotas de esta última y aforando a 100 mL con agua desionizada en matraces volumétricos. Se procedió a tomar 3 mL de cada uno de los patrones preparados y se depositaron en frascos viales. A cada frasco vial se le agregaron 300 µL de oxisulfato de titanio IV y se homogenizaron. Se realizó la lectura de absorbancia en el espectrofotómetro. La concentración de peróxido de hidrógeno se obtiene a partir de la siguiente ecuación: [H2O2] = (Fd•A)/0.0276 Donde [H2O2] es la concentración de peróxido de hidrógeno en mg•L-1, Fd es el factor de dilución, A es la absorbancia y 0.0276 es la pendiente de la relación de la absorbancia entre la concentración de peróxido de hidrógeno cuyas unidades son mg-1•L. Preparación del complejo citrato-hierro Para la reacción foto-Fenton se utilizó un complejo de citrato-hierro obtenido partir de ácido cítrico y escoria de cobre. Se prepararon 3 L de complejo citrato-hierro, por cada litro se pesó 38.428 g de ácido cítrico y 10 g de escoria de cobre. Se diluyeron los 38.428 g de ácido cítrico en 1000 mL de agua desionizada junto con la escoria de cobre en un vaso de precipitado de 2 L, el cual se cubrió completamente con papel aluminio para evitar una foto-degradación, finalmente so colocó con una agitación de 300 rpm. Montaje de los reactores Los reactores montados se dividen en 3 partes: base, tapa y lámpara. Para cada reactor se usó depósito rectangular de acrílico con dimensiones 9.8 cm x 53.4 cm x 2.9 cm acondicionado con un divisor para el control de flujo del agua. Esta base cuenta con orificios adaptados para que estén conectados para la recirculación de agua problema por medio de una manguera marca Máster Flex y una bomba peristáltica. Se utilizó una lámpara de 15 W (en cada reactor). Se cubrieron con papel aluminio y se introdujeron electrodos del potenciómetro para medir el pH y temperatura durante la operación. Reacción foto-Fenton Se realizó un diseño experimental factorial 2k (k=2 hierro y peróxido) para tratar el agua problema con concentraciones de hierro (13, 71.5, 130 mg/L) y peróxido (65, 357.5, 650 mg/L). Para la toma de muestras se extrajeron del reactor 5 mL cada hora para medir: hierro, peróxido y UV. Al finalizar el tiempo de operación (3-6 horas) se llevó a cabo la caracterización una caracterización completa del agua.


CONCLUSIONES

Al implementar condiciones de 130 mg/L de hierro y 65 mg/L de H2O2 se observó que, en los primeros 60 minutos se consume el 75 % y, entre 120 y 180 minutos hay un residual del orden de 3 mg/L, a los 240 minutos se observa un ligero incremento a 4.5 mg/L, mientras que el hierro permaneció disuelto durante las 4 horas de operación. En el ensayo con 130 mg/L de Fe y 650 mg/L de H2O2 a los 60 minutos se consumió el 60 % del peróxido y se llevó 4 horas para llegar a un residual en 0.5 mg/L, en este ensayo el hierro se también se encontraba disuelto durante el funcionamiento del reactor; caso contrario a lo que ocurría con concentraciones bajas de hierro (13 mg/L), en donde el hierro disuelto disminuía conforme transcurría el tiempo y, al finalizar, se formaba un precipitado de color rojizo característico de este mismo. Por otra parte, el complejo de citrato-hierro proporciona un aumento en el color verdadero. Siendo un aumento del 75 % en condiciones de 130 mg/L de hierro y 650 mg/L de peróxido, 46 % en condiciones de 71.5 mg/L de hierro y 357.5 mg/L de peróxido y un 16 % en condiciones de 13 mg/L de hierro y 65 mg/L de peróxido. Aumenta de manera proporcional al aumentar la dosis de hierro mediante el extracto de citrato de hierro. Se espera con esta investigación encontrar la mejor relación entre hierro y H2O2 para disminuir de manera eficiente la materia orgánica presente en el agua problema evitando la generación de subproductos que pudieran ser más contaminantes. El extracto utilizado como fuente de hierro para generar la reacción Fenton aporta color verdadero por lo que requiere un estudio más detallado para comprobar si este color es fácil de eliminar. Para de esta manera, definir si el extracto de escoria de cobre es apto para su uso en potabilización.    
Murillo Andrade Sebastian Emilio, Instituto Tecnológico de Chihuahua II
Asesor: Mtra. Marcia Leticia Martínez Larios, Universidad de Guadalajara

IMPLEMENTACIóN DE COMPETENCIAS DIGITALES EN LA EDUCACIóN SUPERIOR


IMPLEMENTACIóN DE COMPETENCIAS DIGITALES EN LA EDUCACIóN SUPERIOR

Murillo Andrade Sebastian Emilio, Instituto Tecnológico de Chihuahua II. Asesor: Mtra. Marcia Leticia Martínez Larios, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

No contar, adquirir o desarrollar las Competencias Digitales puede ocasionar una serie de problemas en el mundo actual, donde la tecnología y la digitalización son fundamentales en muchas áreas de la vida. Algunos de los problemas más comunes son los siguientes:   1. Exclusión social: La falta de habilidades digitales puede llevar a la exclusión social, ya que muchas interacciones sociales, empleos y servicios gubernamentales ahora se realizan en línea. Aquellas personas que no pueden acceder o usar la tecnología se quedan atrás y pueden tener dificultades para participar plenamente en la sociedad.   2. Desventaja laboral: En un mundo donde la automatización y la tecnología son cada vez más prevalentes, las personas sin competencias digitales tienen menos oportunidades en el mercado laboral. Muchos trabajos requieren habilidades básicas de computación y el uso de herramientas digitales.   3. Dificultad para acceder a la información: Internet es una fuente inmensa de información y conocimiento, y aquellos que no saben cómo utilizarlo eficazmente pueden tener dificultades para obtener información relevante y actualizada.   4. Riesgos de seguridad: La falta de competencias digitales puede hacer que las personas sean más vulnerables a estafas en línea, robo de identidad y otras amenazas de seguridad informática.   5. Dificultades en la educación: Muchas instituciones educativas han integrado la tecnología en sus programas de estudio, y los estudiantes sin habilidades digitales pueden tener dificultades para seguir el ritmo y realizar tareas académicas.   6. Problemas en la administración personal: La digitalización ha facilitado la gestión de finanzas, trámites y documentación personal. Sin embargo, aquellos que carecen de competencias digitales pueden tener dificultades para realizar estas tareas de manera eficiente y segura.   7. Limitaciones en el desarrollo profesional: Para muchas carreras y profesiones, es crucial mantenerse actualizado con las últimas herramientas y tecnologías digitales. La falta de competencias en este ámbito puede limitar el crecimiento profesional.   8. Menor autonomía y participación ciudadana: La tecnología ha permitido una mayor participación ciudadana en asuntos públicos y en la toma de decisiones políticas. Aquellos que no están familiarizados con las herramientas digitales pueden experimentar dificultades para participar en debates y actividades cívicas en línea.   En resumen, las competencias digitales se han vuelto esenciales para funcionar plenamente en la sociedad actual. La falta de estas habilidades puede generar una brecha digital que excluye a ciertas personas y comunidades, limitando sus oportunidades y su participación en diversos aspectos de la vida moderna. Es fundamental fomentar la alfabetización digital y garantizar que todos tengan la oportunidad de adquirir estas habilidades necesarias.



METODOLOGÍA

Durante este verano, se llevó a cabo una reunión de bienvenida para asegurar un desarrollo óptimo. La asesora, Mtra. Marcia, nos explicó cómo trabajaríamos a lo largo del periodo utilizando la plataforma Google Classroom. Aquí, subiríamos nuestros avances, tendríamos acceso a material de consulta y podríamos compartir puntos de vista después de leer libros seleccionados.   Posteriormente, nos sumergimos en una investigación sobre Competencias Digitales en la Educación a nivel Superior. Investigué en al menos cinco fuentes confiables, abarcando distintas partes del mundo como México, Estados Unidos, Canadá, España, Italia, Francia, Alemania, Rusia y África. Esta experiencia global nos permitió obtener una visión completa sobre el tema y comprender cómo diferentes naciones están fomentando estas habilidades digitales.   La importancia de investigar sobre Competencias Digitales quedó clara, ya que se invierte mucho en ellas. La existencia de marcos de guía y diversos recursos subraya la necesidad de analizar detenidamente estos elementos para construir propuestas de formación, como las planteadas para este verano de investigación. Creemos firmemente que la academia debe mostrar interés en promover estas habilidades y, dentro de sus posibilidades, desarrollar un enfoque de implementación efectivo.


CONCLUSIONES

Durante la estancia de verano pude aprender acerca de las competencias digitales, ya que era un tema que desconocía, gracias a la guía y apoyo de mi asesora, la Mtra. Marcia, logré adquirir conocimientos teóricos de las competencias digitales, ya que pude investigar en diversos sitios acerca de ellas y porque tiene un gran interés en Europa y en organismos internacionales, logré ver que se trata sobre las habilidades que una persona necesita para orientarse, aprender y trabajar en una sociedad digital y esto tiene gran importancia para el desarrollo sostenible, ya que uno de sus objetivos, es la educación de calidad, punto en que las competencias digitales ayudan, estuvimos viendo la manera de implementarlas en la academia, poniendo énfasis en el plan curricular, a través de una materia donde los estudiantes de nuevo ingreso, puedan adquirir estas herramientas y/o incrementarlas para beneficio personal, social y sobre todo profesional, pues dichas herramientas se volverán parte de su formación continua y serán muy necesarias para desenvolverse de una manera eficaz en el trabajo, resultando en el desarrollo de mejores profesionistas que se encuentren a la vanguardia ante los nuevos retos que enfrentamos como sociedad.
Murillo Barrientos Alexis Adrian, Instituto Politécnico Nacional
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

DESCRIPCIóN Y CARACTERIZACIóN PARA EL PROCESAMIENTO DE IMáGENES RUIDOSAS


DESCRIPCIóN Y CARACTERIZACIóN PARA EL PROCESAMIENTO DE IMáGENES RUIDOSAS

Juárez Sevilla Gustavo, Instituto Politécnico Nacional. Murillo Barrientos Alexis Adrian, Instituto Politécnico Nacional. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Al realizar una medición intrínsecamente se adquiere cierto ruido indeseado, lo cual, también sucede al capturar una imagen, ya sea por afectaciones de la luz, limitaciones del sensor de recolección y fallas en la transmisión de los datos. La caracterización e identificación del ruido dentro de imágenes, permite restaurar a las imágenes degradas por el ruido, lo cual, beneficia a campos como la astronomía, microscopía, imágenes médicas, fotografía, televisión, entre otras. 



METODOLOGÍA

Para poder filtrar a una imagen contaminada, es necesario comprender el ruido en las imágenes, por lo que, se crearon 2 códigos en lenguaje Python para simular la agregación de ruido impulsivo (sal y pimienta) y ruido gaussiano, los cuales, fueron aplicados a 6 imágenes de prueba (Aerial, Airplane, Baboon, Peppers, Lena y Bridge) para su posterior comparación. Existen diferentes filtros que realizan el filtrado de una imagen con ruido, sin embargo, se optó por utilizar a los filtros más destacados en la restauración de imágenes, entre ellos, los filtros numéricos (promedio, mediana, gaussiano) y un filtro pasabajas (transformada de Fourier), por lo que fue necesaria realizar su codificación para su posterior aplicación en las imágenes de prueba contaminadas. Por otra parte, también existen los filtros desarrollados en máquinas de aprendizaje, entre ellas la red neuronal convolucional denominada Noise to Void, desarrollada por Alexander Krull&Tim-Oliver Buchholz&Florian Jug en 2019, la cual, se utilizo para eliminar el ruido gaussiano en imágenes, debido a que para esto ha sido entrenada. Además de las imágenes contaminadas de prueba, se utilizaron imágenes contaminadas con un ruido estandarizado, por lo que, utilizando los filtros mencionados, se aplicaron los índices de Similitud Estructural (SSIM) y de Proporción de Señal/Ruido (PSNR), para comparar a las imágenes restauradas con las imágenes contaminadas y las imágenes originales, obteniendo resultados referentes a la efectividad de restauración de cada uno de los filtros.


CONCLUSIONES

Durante la estancia de verano se aprendió acerca del lenguaje de programación Python, el cual, fue utilizado para desarrollar diferentes códigos que fueron de utilidad durante toda la estancia. Además, la efectividad de los programas desarrollados tanto para la agregación de ruido en imágenes, como para el filtrado de estas, permitió la comprensión en la caracterización e identificación del ruido. Por otra parte, los resultados arrojados por los índices de Similitud Estructural (SSIM) y de Proporción de Señal/Ruido (PSNR), mostraron que, para varianzas pequeñas en el ruido gaussiano de una imagen, los filtros numéricos utilizados (promedio, mediana, gaussiano) tuvieron un buen desempeño, sin embargo, su efectividad se reduce a medida que la varianza del ruido gaussiano incrementa. Sin embargo, cuando el ruido en una imagen es del tipo impulsivo, el filtro numérico de mediana presento los mejores resultados en la restauración de las imágenes. El filtro que utiliza a la transformada de Fourier resulto ser más efectivo que los filtros numéricos para filtrar el ruido gaussiano estandarizado con varianzas altas, sin embargo, su efectividad fue menor al aplicarse a imágenes cuyo ruido no estuviese estandarizado. Finalmente, la red neuronal convolucional Noise to Void presento buenos resultados con algunas imágenes contaminadas con ruido gaussiano, sin embargo, también ocurría el caso en el que se creaba un empeoramiento en la imagen, además, al aplicarla a imágenes contaminadas con ruido impulsivo, la red neuronal obtuvo pésimos resultados, al punto de generar una imagen irreconocible.
Murillo Taleno Nelmaris Franieska, Universidad Nacional de Ingeniería
Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo

DESARROLLO DE UN ESTUDIO HACCP EN LA ELABORACION DE MERMELADAS DE PIñA


DESARROLLO DE UN ESTUDIO HACCP EN LA ELABORACION DE MERMELADAS DE PIñA

Murillo Taleno Nelmaris Franieska, Universidad Nacional de Ingeniería. Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

Las mermeladas son alimentos conservados, que se preparan con azúcar, pectina, ácido cítrico, frutas tropicales, que tienen un sabor dulce y de colores vistosos, se consumen de manera directa o pueden ser acompañadas con otros alimentos (pan, galletas, reposterías, otro). Estos productos, al no poder ser almacenados en ambientes fríos y requerir temperatura ambiente, son susceptibles a la contaminación, siendo la proliferación de hongos uno de los problemas más comunes. Por lo que se identifica como una problemática la falta de estudios de HACCP en las microempresas y demás organizaciones que puedan estar relacionadas con la elaboración de mermeladas o de cualquier alimento, el no contar con conocimientos básicos necesarios para iniciar a trabajar bajo los lineamientos que establece un estudio HACCP evita que se tenga un crecimiento de mercado y no asegura la inocuidad de los productos.



METODOLOGÍA

Para el desarrollo de este trabajo, se utilizaron diversas plataformas digitales para impartir clases sobre los conocimientos básicos del método HACCP. Se asignaron actividades como la creación de carteles informativos, la lectura comprensiva de folletos y la revisión de páginas web sobre normativas alimentarias, entre otras tareas. Durante las primeras semanas, el asesor de la investigación estableció un horario de trabajo y sesiones en Meet para revisar las tareas, aclarar dudas y responder cualquier interrogante relacionada con las asignaciones. Una vez que los principales puntos que conforman un estudio HACCP quedaron claros, se procedió a investigar las características generales del producto. Luego, se diseñó el diagrama de flujo y de trabajo, y se completaron tablas de análisis proporcionadas por el investigador para identificar los posibles puntos críticos en la elaboración de la mermelada de piña.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre la aplicación del método HACCP. Esto permitió poner en práctica estos conocimientos en diferentes laboratorios de procesos agroindustriales desarrollados en la UNI, sede Juigalpa. Esta experiencia contribuye a una mejor comprensión de asignaturas como gestión y aseguramiento de la calidad, procesos agroindustriales, agronegocios, mercadeo de productos agroindustriales y otras materias impartidas. Estos avances en la calidad de los estudiantes que adquieren estos conocimientos son atribuidos a los aportes de investigación realizados.
Murrieta Méndez Perla Vianney, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

DESARROLLO DE PROPUESTAS DE MEJORA EN PROCESOS INDUSTRIALES


DESARROLLO DE PROPUESTAS DE MEJORA EN PROCESOS INDUSTRIALES

Gómez Hernández Nelli Guadalupe, Instituto Tecnológico Superior de Guanajuato. López González Norma Lucía, Instituto Tecnológico Superior de Guanajuato. Maldonado Durán Israel, Instituto Tecnológico Superior de Guanajuato. Murrieta Méndez Perla Vianney, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La finalidad de toda organización es cumplir sus objetivos y metas, para que esto sea posible es necesario analizar sus procesos para verificar si existen fallas o áreas de oportunidad que den pauta para implementar propuestas de mejora en función de las problemáticas que se hayan detectado. Esto es de gran relevancia, ya que en México el 75% de las pymes fracasan y cierran sus establecimientos antes de cumplir los dos años de haber iniciado operaciones, definitivamente las micro, pequeñas y medianas empresas deben encontrar en su entorno las herramientas necesarias para mejorar la innovación y la gestión. En la empresa que sirvió como objeto de estudio para el presente trabajo se aplicaron los intrumentos de la Metodología JICA para la recolección de datos, logrando con el análisis de los datos detectar que la pricipal problemática que podría afectar su funcionamiento se encontraba en las áreas de producción y recursos humanos, en la primera se observó que sus problemas principales es que no tienen un mantenimiento del control de ingeniería establecida, no patentan sus productos y no tienen un responsable para el control de equipo e instalación del mismo, mientras que en el área de recursos humanos, existe mal ambiente laboral, no cuenta con algún sistema de apoyo a la superación personal del empleado o si lo tiene no se le esta dando la atención o importancia necesaria, además que a los trabajadores no se les estimula sus capacidades de la manera adecuada.



METODOLOGÍA

La empresa que sirvió como objeto de estudio pertenece al grupo de las pymes y se dedica a la elaboración de productos derivados del Maíz, para la recolección de datos se aplicaron instrumentos que permiten analizar las diferentes área de la empresa, cuyo orden metodológico es el siguiente: Analizar la situación general de la empresa y los factores externos. Realizar diagnósticos sector, se recopilará información de la empresa para posteriormente evaluarlo. Analizar los problemas y beneficios, así como las debilidades e intereses del negocio, y finalmente una comparación entre ellos. Realizar el proceso de planificación y asesoramiento. Realizar un informe de diagnóstico y sugerencias de mejora, así como sus respectivos formaos de apoyo.


CONCLUSIONES

Cuando la organización realiza sus actividades en función de la mejora continua son altas sus posibilidades de sobrevivencia, el proyecto realizado contribuyó de manera importante a la identificación de las áreas en las que se debe poner atención, estó, por lo detectado en el análisis de la información que se recabó sobre el funcionamiento de las diferentas áreas de la empresa, con base en ello  se realizó una propuesta de mejora que conlleva principalmente la aplicación de algunas herramientas de ingeniería industrial cuya finalidad es contrarrestar los puntos negativos encontrados, etre los mas preocupantes están, las necesidades de los colaboradores, el correcto funcionamiento de los procesos así como el involucramiento del personal en las actividades. Teniendo en cuenta que solo es una propuesta, con ello se pueden proyectar que lo beneficios que traerá la aplicación de la propuesta serán, una mayor productividad, liderazgo, identidad corporativa y una comunicación adecuada que ayudarán a alcanzar de manera más sencilla los objetivos y metas de la empresa. 
Naranjo Blanco Francisco Alfonso, Instituto Tecnológico Superior de Los Reyes
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Albarran Barbosa Jessica Denisse, Universidad Michoacana de San Nicolás de Hidalgo. Ceja Reyes Guillermo, Universidad de Guadalajara. Muñoz Silva César Edmundo, Instituto Tecnológico de Tepic. Naranjo Blanco Francisco Alfonso, Instituto Tecnológico Superior de Los Reyes. Trujillo Jiménez José Alberto, Universidad de Guadalajara. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La población en México ha crecido exponencialmente durante los últimos 70 años. El aumento ha llevado a la necesidad de construir nuevas casas que requieren servicios básicos como agua, drenaje y electricidad. Sin embargo, la obtención de electricidad a través de combustibles fósiles ha generado altas emisiones de Gases Efecto Invernadero y contribuido al calentamiento global. La expansión urbana y el consumo desmedido de recursos naturales han tenido un impacto negativo en el medio ambiente. Para abordar este problema, se presenta el proyecto "Diseño de una Casa Ecológica Autosustentable" (CEA), que busca crear viviendas cómodas y respetuosas con el medio ambiente. Las CEA son una respuesta proactiva al cambio climático y promueven la construcción sostenible para reducir la huella de carbono y contribuir a la estabilidad del clima.



METODOLOGÍA

Durante el desarrollo del proyecto, se llevaron a cabo numerosas investigaciones documentales y sesiones de video sobre diversos temas relacionados, así como sesiones de trabajo colectivo para compartir ideas de lo investigado y tomar decisiones sobre la mejor alternativa. Se trató el uso de energía en edificaciones, se exploraron aspectos fundamentales como la irradiación solar, el viento, la temperatura, el confort térmico, el aprovechamiento del activo solar y la consideración de la visión humana en el diseño. También se estudió el principio del diseño con luz diurna, el tratamiento de aguas grises y la importancia de la ventilación natural en el contexto ecológico. Para enriquecer aún más los conocimientos sobre el tema, se realizó una visita de estudio al Instituto Mexicano de Tecnología del Agua (IMTA), donde se pudo observar en vivo el funcionamiento de dos casas ecológicas diferentes. Además, se conocieron las tecnologías y ecotecnias empleadas en estas viviendas, incluyendo el tratamiento de aguas, lo cual brindó una perspectiva más amplia y valiosa para el diseño de la Casa Ecológica Autosustentable. En el proyecto, se planea equipar la vivienda con tecnología de vanguardia para optimizar la eficiencia energética. Se implementarán estratégicamente paneles fotovoltaicos para captar la energía del sol, que es una fuente de energía renovable, y convertirla en energía eléctrica. Esta electricidad generada será utilizada para alimentar los sistemas de iluminación y los electrodomésticos, promoviendo el uso responsable de la energía. Adicionalmente, se prevé instalar generadores eólicos con eje vertical para aprovechar el viento, complementando la producción energética con otra fuente limpia y renovable.  Con estas acciones, el proyecto de la Casa Ecológica Autosustentable busca no solo promover la adopción de prácticas amigables con el medio ambiente, sino también inspirar y servir como ejemplo para futuras construcciones ecológicas y sostenibles, contribuyendo así a la lucha contra el cambio climático y fomentando un uso más responsable de los recursos naturales. Para garantizar el uso responsable del agua se incorporará un sistema de cosecha de agua de lluvia en techos, que permita captar y almacenar este vital líquido hacia depósitos subterráneos, para ser aprovechado en épocas de escasez, así como un sistema de filtración para obtener agua potable, lo que permitirá disponer de agua pluvial para tareas del hogar, fortaleciendo la auto sustentabilidad del hogar.  A su vez se implementará un sistema tratamiento de aguas grises: estas aguas provenientes de lavamanos, duchas y lavadoras se filtrarán y purificarán con ozono para ser reutilizadas en actividades cotidianas, tales como el riego de jardines y descargas de inodoros, lavado de ropa y el aseo de la casa. Esto no solo reducirá el consumo de agua potable, sino que también contribuirá a disminuir la contaminación ambiental, es importante tener esto en cuenta debido a que Organización Mundial de la Salud (OMS), menciona que una persona requiere de 100 litros de agua al día (5 o 6 cubetas grandes) para satisfacer sus necesidades [5], tanto de consumo como de higiene y lamentablemente en México según datos proporcionados por el Sistema de Aguas de la Ciudad de México (SACMEX), el consumo promedio de agua por persona en la CDMX es de aproximadamente 380 litros por día[6].


CONCLUSIONES

El proyecto ha sido pensado para acoger a una familia de 5 personas, esta vivienda ofrece un ambiente plácido y armonioso mientras mantiene un consumo energético e hídrico por debajo de los estándares establecidos. Su diseño, novedoso y creativo, garantiza no solo el confort térmico sino también una iluminación óptima, brindando una experiencia habitacional única. En vista de nuestro compromiso con el medio ambiente, anhelamos que el Gobierno de la República respalde este proyecto mediante la implementación de Hipotecas Verdes, especialmente destinadas a personas de bajos ingresos. De esta manera, daremos un paso significativo hacia un México autosustentable, donde la armonía entre la naturaleza y el desarrollo humano se vuelva una realidad palpable. Es nuestro propósito fomentar una cultura de conciencia ecológica, donde cada individuo pueda disfrutar de una vivienda que respete y cuide nuestro planeta, forjando así un futuro más prometedor y sostenible para las generaciones venideras, juntos podemos construir un país en armonía con la naturaleza y trascender hacia un futuro próspero y responsable con el medio ambiente.
Nava Murillo Odette Alejandra, Universidad Vizcaya de las Américas
Asesor: Dr. Carlos Vicente Tostado Cosío, Universidad de Sonora

TÍTULO: ELABORACIÓN DE BLOCK DE TIERRA COMPACTADA (BTC) CON PERLITA MINERAL Y DOVELAS DE CELULOSA.


TÍTULO: ELABORACIÓN DE BLOCK DE TIERRA COMPACTADA (BTC) CON PERLITA MINERAL Y DOVELAS DE CELULOSA.

Nava Murillo Odette Alejandra, Universidad Vizcaya de las Américas. Asesor: Dr. Carlos Vicente Tostado Cosío, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Se busca innovar utilizando materiales comunes como cemento, tierra, agua, perlita mineral y celulosa. El objetivo es crear piezas que reemplacen el concreto en la construcción de casas, reduciendo los costos y mejorando la eficiencia térmica. Se pretende sustituir el adobe convencional por estas nuevas piezas, manteniendo o incluso mejorando la calidad de los resultados. En cuanto a las dovelas, se busca experimentar con alternativas al casetón tradicional, aprovechando los materiales para reducir la exposición a los rayos ultravioleta y mantener temperaturas frescas en el interior de la vivienda mientras se mantiene un clima normal en el exterior.



METODOLOGÍA

ANTECEDENTES: La tierra ha sido un recurso ancestralmente usado en la construcción de edificaciones por diversas culturas como en Egipto, Perú y Babilonia. En América, los prehispánicos también usaron la tierra para crear viviendas. La técnica de adobe, originada en el Medio Oriente, fue empleada para construir muros y estructuras, con ventajas como alta inercia térmica y uso de recursos locales. La incorporación de materiales orgánicos en la mezcla, como en el adobe, contribuyó a resistencia y durabilidad.   OBJETIVOS: Ver la investigación como oportunidad para moldear futuras necesidades. Utilizar la tierra como alternativa asequible para abordar la escasez de viviendas mediante construcción autosuficiente. OBJETIVOS ESPECÍFICOS: Demostrar funcionalidad y competencia de tierra, concreto y perlita mineral en el mercado. Contribuir con experimentos y pruebas de resistencia para promover materiales orgánicos y renovables en la construcción sostenible. TEORÍA: ADOBE: El adobe es un bloque de tierra moldeado, sin cocer y secado al sol, usado para construir muros, cúpulas, y bóvedas. Presenta ventajas como inercia térmica y bajo impacto ambiental.   PERLITA MINERAL: La perlita natural se utiliza en diversos sectores como construcción, industria petroquímica y horticultura. Contribuye a mejoras en trabajabilidad, peso, contracción por secado y aislamiento térmico. Su uso reduce emisiones de CO2 y consumo de recursos.   BTC (Block Tierra-Cemento): El BTC, innovación creada por Arq. Carlos Vicente Tostado Cosío e Ing. Jesús Fernando García Arvizu, combina perlita mineral, tierra y cemento para crear bloques con alta termicidad, resistencia y ecología. Se compacta y moldea en medidas estandarizadas.   DOVELA DE CELULOSA: Sustituto de casetones en semi-viguetas. Elaborada con celulosa, cemento y agua. Se tritura y humedece el papel, se mezcla con cemento, se coloca en un molde, se esparce y se deja secar. APARATOS, MATERIALES E INSTRUMENTOS UTILIZADOS: Sibarram Carretilla Cubeta de 19 litros Cubeta de 4 litros Probeta para líquidos de laboratorio Flexómetro Cuchara de albañil Guantes Cubre bocas Brocha Martillo Forney LC-4 PROCEDIMIENTO: Para una buena elaboración de un block de btc hay que saber utilizar los materiales de manera adecuada, por lo que, como primer paso, en la primera prueba se humedeció 3 L de perlita mineral con 500 ml de agua, en una cubeta de 19 L para manualmente revolver hasta que quede húmeda completamente. En una carretilla se incorporan 3 L de tierra previamente cernida en una malla   con abertura de ¼ para que quede lo más uniforme, al verter 700 gr de cemento en la cubeta de 4 L junto con la perlita mineral humedecida hasta que quede incorporado. A la tierra anteriormente cernida se le incorpora 500 ml de agua para empezar con la preparación de la tierra y así recibir el cemento con perlita mineral. De manera manual y con ayuda de una cuchara de albañil se revuelve todo lo incorporado hasta lograr una mezcla homogénea, cuando puedas hacer una bola de BTC con la prueba de la mano izquierda se toma una muestra del material húmedo, se comprime y se toma los dedos pulgares e índice y se trata de romper, y al retirar el material nos quedará un rastro de humedad que se secara en menos de 3 segundos, la mezcla habrá quedado lista para ser vertida en la máquina simbarram y comenzar con su proceso de compactación. Después con aceite antiadherente o aceite quemado se lubrica la simbarram para crear una capa protectora para la tierra y así pueda salir fácilmente, posteriormente se incorpora la mezcla de BTC (ara este punto, existen en este experimento variantes de block, así como el block dala, block de 15x30, 20x40 o block lego) se cierra la simbarram y por medio de un método de palanca se ejerce una fuerza para lograr la compactación. Posteriormente, se desmolda el block y se coloca en una superficie plana de manera vertical para su secado de manera natural. Durante 3 días se hace el proceso de curado para que el cemento tenga mayor resistencia. Durante 7 y 14 días se dejan secar para así ir al laboratorio y verificar la resistencia de la cada pieza con las diferentes variantes de tierra, cemento y perlita mineral (Tabla de relación perlita-tierra-cemento).


CONCLUSIONES

Fue un viaje de conocimiento excepcional, explorando de cerca materiales y temas relacionados con cimentaciones y procesos constructivos. Los materiales utilizados, como el block BTC, las dovelas de celulosa en semi-viguetas y otros, resultaron ser palpables y de bajo costo, lo que me llena de satisfacción al innovar con elementos comunes y obtener resultados positivos. Durante la investigación, se logró determinar el porcentaje óptimo de perlita mineral (40%) en el block BTC para garantizar su eficacia y calidad en la construcción.   Este block mostró resistencia y tensión adecuadas, superando las expectativas. Las pruebas también respaldaron las cualidades de las dovelas de celulosa. En resumen, el producto desarrollado en el laboratorio de ingeniería civil tiene un gran potencial y el experimento continúa, brindando resultados claros. Quiero expresar mi gratitud al Arq. Carlos Tostado Cosío y al Ing. Jesús Fernando García Arvizu por su apoyo, enseñanzas y momentos inolvidables con un equipo excepcional. Su contribución ha abierto nuevas oportunidades para nosotros, los investigadores principiantes, en esta prometedora área que seguiremos explorando y que sin duda dará frutos en el futuro
Nava Olmos Diego Esteban, Universidad Mexiquense del Bicentenario
Asesor: Dra. Macaria Hernández Chávez, Instituto Politécnico Nacional

RECORRIDO VIRTUAL POR IXTLAHUACA, ESTADO DE MéXICO


RECORRIDO VIRTUAL POR IXTLAHUACA, ESTADO DE MéXICO

Nava Olmos Diego Esteban, Universidad Mexiquense del Bicentenario. Asesor: Dra. Macaria Hernández Chávez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El turismo virtual se ha convertido en una herramienta cada vez más popular para explorar diferentes destinos desde la comodidad de nuestros hogares. En este sentido, se plantea la necesidad de crear una página web de un recorrido virtual 360° de Ixtlahuaca, Estado de México, utilizando fotografías que se convirtieron imágenes 360°, así como videos de las principales calles, entrevistas con algunos comerciantes del tianguis y de algunos lugares turísticos de Ixtlahuaca con el objetivo de promover el turismo local, mostrar sus atractivos paisajes y brindar una experiencia nueva, por medio de un hipervínculo que se enlaza a Google Maps y da la ubicación y la mejor ruta para llegar a ese lugar.



METODOLOGÍA

Fase 1: Planificación Definición del alcance del artículo, incluyendo la creación de una introducción, el contenido, el responsable de su creación y la inclusión de 2 videos de entrevistas y dos videos sobre Ixtlahuaca. Establecimiento de los objetivos específicos del recorrido virtual 360°, incluyendo la ubicación de Ixtlahuaca. Planificación de las fases de desarrollo y el lanzamiento del sitio web. Fase 2: Diseño Diseño de la estructura y navegación de la página de inicio, incluyendo la introducción, el contenido, los videos de entrevistas, video acerca de Ixtlahuaca y la posibilidad de compartir la página con diversas redes sociales. Diseño de la sección "Puntos de Interés" con las fotos 360 de la Capilla de San Francisco de Asís, Capilla de San Pedro de Ixtlahuaca, Capilla de La Virgen de Guadalupe, Quiosco del centro de Ixtlahuaca, Mercado 1° Septiembre, Terminal de Autobuses de Ixtlahuaca, Parque Mario Moreno, Panteón De Ixtlahuaca, Monumento a Benito Juárez y Monumento al Águila Del Escudo. Diseño de la sección "Experiencias Culturales" con la Feria Municipal y la Fiesta de la Portada. Diseño de la sección "Gastronomía Local" con los diferentes tipos de comida que son Comida Típica, Mariscos Asados, Comida Económica en Ixtlahuaca, Tacos de Barbacoa y Carnitas. Diseño de la sección "Naturaleza y Paisajes" con las fotos de los lugares naturales relevantes que son Parque Ecológico Boca de Ranas, Santa Ana Ixtlahuaca, Las Moras Ixtlahuaca, y Barrio de Shira. Diseño de la sección "Actividades Turísticas" con los diferentes lugares y actividades que son Las Moras (Piscinas), Ex Hacienda de Cantinflas La Purísima, y Parque Ecológico Boca de Ranas. Diseño de la sección "Lugares Municipales" con los lugares de interés del municipio que son Presidencia Municipal, Casa de Cultura, Auditorio Municipal, Biblioteca Digital, y Mercado Municipal 1° De Septiembre. Diseño de la sección de videos, donde se incluirán los videos de Entrevista Relámpago Con Un Comerciante De Frutas Ixtlahuaca #1, Entrevista Relámpago Con Un Comerciante De Frutas Ixtlahuaca #2, Recorriendo Lugares De Ixtlahuaca y Recorriendo Zonas Verdes De Ixtlahuaca. Fase 3: Codificación Codificación de la página de inicio con la introducción, el contenido y los videos de entrevistas. Implementación de la funcionalidad de navegación y visualización de las fotos 360 en la sección "Puntos de Interés". Desarrollo de la funcionalidad de visualización de la información y fotos en las diferentes secciones que son Puntos De Interés, Experiencias culturales, Gastronomía local, Naturaleza y paisajes, Actividades turísticas, Lugares Municipales, y Videos Ixtlahuaca. Integración de los videos de Entrevista Relámpago Con Un Comerciante De Frutas Ixtlahuaca #1, Entrevista Relámpago Con Un Comerciante De Frutas Ixtlahuaca #2, Recorriendo Lugares De Ixtlahuaca y Recorriendo Zonas Verdes De Ixtlahuaca. Fase 4: Pruebas Se realizo pruebas de funcionamiento para ver q la imagen se muestre correctamente, siguiente el paso de dar clic en el botón de Mostar Imagen 360° y acto seguido el botón de VR para mostrar una imagen. Se probo que la barra de navegación mandara a la pagina correspondiente. Fase 5: Lanzamiento Se preparo la página web para que funcionara correctamente, así como subir los archivos a un host gratuito de prueba para subir la página web


CONCLUSIONES

La creación de este recorrido virtual 360° de Ixtlahuaca, Estado de México, representa una oportunidad invaluable para promover el turismo local y brindar una experiencia excepcional a los visitantes virtuales. Además de destacar los lugares emblemáticos y atractivos turísticos del municipio, el recorrido virtual 360° ofrece una serie de beneficios clave que contribuyen al desarrollo turístico y la promoción de Ixtlahuaca: Información detallada: La inclusión de descripciones detalladas y datos interesantes sobre cada lugar destacado en el recorrido virtual enriquece la experiencia del usuario. Los visitantes pueden ubicar los lugares que se muestran de Ixtlahuaca, por medio de un hipervínculo que se enlaza a Google Maps y da la ubicación y la mejor ruta para llegar a ese lugar. Amplia difusión en redes sociales: La integración de botones de compartición en redes sociales facilita que los usuarios compartan el recorrido virtual 360° con sus amigos, familiares y seguidores. Esto genera un efecto a nuevos públicos y expande su alcance de manera significativa. Mayor visibilidad y compatibilidad: Gracias a que el recorrido virtual se puede consultar en línea, llega a un público más amplio, ya que puede consultarse desde un equipo de cómputo de escritorio, laptops, hasta dispositivos móviles, como tabletas y teléfonos celulares; esto permite que aquellos que no pueden visitar físicamente el lugar lo conozcan de forma virtual. Retroalimentación y mejora continua: La página web del recorrido virtual brinda una plataforma para recopilar comentarios y opiniones de los usuarios. Esta retroalimentación valiosa permite realizar ajustes en la experiencia del usuario, optimizar el contenido y agregar nuevos lugares o funcionalidades según las preferencias y necesidades de los visitantes.
Navarro Alfaro Adrian, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Aaron Guerrero Campanur, Instituto Tecnológico Superior de Uruapan

MARCO INTEGRADO Y TENDENCIAS DE LEAN SIX SIGMA COMO CLAVE DE ÉXITO PARA LA MEJORA CONTINUA DE SISTEMAS DE PRODUCCIÓN Y SERVICIOS


MARCO INTEGRADO Y TENDENCIAS DE LEAN SIX SIGMA COMO CLAVE DE ÉXITO PARA LA MEJORA CONTINUA DE SISTEMAS DE PRODUCCIÓN Y SERVICIOS

Méndez Pimentel Andrea, Instituto Tecnológico Superior de Uruapan. Navarro Alfaro Adrian, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Aaron Guerrero Campanur, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el contexto empresarial actual, la búsqueda de la mejora continua en los sistemas de producción y servicios se ha convertido en un objetivo fundamental para mantener la competitividad y satisfacer las demandas de los clientes. Sin embargo, las organizaciones a menudo enfrentan obstáculos como ineficiencias en los procesos, altos costos de producción, variabilidad en la calidad del producto o servicio, y una falta de enfoque en las necesidades del cliente. Estos problemas pueden afectar negativamente la rentabilidad y el éxito a largo plazo de las empresas.   El Marco Integrado de Lean Six Sigma se ha destacado como una metodología efectiva para abordar estos desafíos y lograr mejoras significativas en los sistemas de producción y servicios. No obstante, aún existen interrogantes sobre la eficacia de su implementación en diferentes contextos empresariales y sectores industriales.   Pregunta de investigación: ¿Cómo el Marco Integrado de Lean Six Sigma se ha utilizado como clave de éxito para la mejora continua de sistemas de producción y servicios en distintas organizaciones y cuáles son las tendencias actuales de su aplicación?



METODOLOGÍA

El proyecto se llevará a cabo mediante la recopilación de datos cuantitativos provenientes de diversas bases de datos de revistas indexadas, como Web of Science y Scopus. El objetivo es obtener una muestra representativa de publicaciones científicas relacionadas con Lean Six Sigma. A través de este análisis, se buscará identificar las tendencias de investigación en el campo y determinar la cantidad de publicaciones por año.   Además, se llevará a cabo un análisis para identificar los autores más citados en el ámbito de Lean Six Sigma, así como las revistas científicas más relevantes que publican investigaciones sobre este tema. Esto permitirá comprender cuáles son las principales contribuciones y actores clave en el campo.   Adicionalmente, se realizará un análisis de la distribución geográfica de las publicaciones en el campo de Lean Six Sigma. Esto nos proporcionará una visión más amplia de cómo esta metodología se está implementando en diferentes regiones y países, y cómo está contribuyendo a la mejora continua de sistemas de producción y servicios a nivel global.   Este enfoque basado en datos cuantitativos nos permitirá obtener una visión sólida y objetiva de la evolución de Lean Six Sigma en el ámbito científico y su relevancia en la mejora continua de sistemas de producción y servicios. Con esta información, estaremos en posición de identificar las tendencias actuales y futuras en la investigación de Lean Six Sigma, y evaluar su impacto en la eficiencia, calidad y satisfacción del cliente en diversas organizaciones.


CONCLUSIONES

Los resultados obtenidos han demostrado que el Marco Integrado de Lean Six Sigma es una herramienta efectiva para abordar los desafíos que enfrentan las organizaciones en términos de ineficiencias en los procesos, altos costos de producción y variabilidad en la calidad del producto o servicio. La aplicación de Lean Six Sigma ha llevado a mejoras significativas en la eficiencia operativa, reducción de costos y aumento de la satisfacción del cliente en diversas organizaciones.   Además, el análisis bibliométrico ha permitido identificar las tendencias actuales en la investigación de Lean Six Sigma, destacando su aplicación en diferentes sectores y la integración de tecnología avanzada para la mejora continua. La metodología ha demostrado ser adaptable a diversos contextos empresariales y ha generado un impacto positivo en la calidad de los productos y servicios ofrecidos.   Sin embargo, también se han identificado desafíos en la implementación de Lean Six Sigma, como la resistencia al cambio y la alineación con la cultura organizacional. Estos aspectos deben ser abordados de manera adecuada para asegurar el éxito de la metodología en cada organización.
Navarro Cossío Leonardo Alejandro, Universidad Autónoma de Sinaloa
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

DATA WRANGLING Y ANáLISIS DE DATASET DE CALCULOS RENALES


DATA WRANGLING Y ANáLISIS DE DATASET DE CALCULOS RENALES

Navarro Cossío Leonardo Alejandro, Universidad Autónoma de Sinaloa. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Cada vez que entrenamos un modelo de IA, la calidad de los datos que utilizamos es la base de unos resultados precisos y fiables. La validación de conjuntos de datos se ha convertido en un aspecto fundamental del proceso de desarrollo de modelos, ya que nos permite medir el rendimiento y la generalización de nuestros algoritmos. Sin embargo, para obtener resultados significativos, es esencial seguir las mejores prácticas y estandarizar el proceso de validación. La integridad de los datos se refiere a la coherencia y exactitud de los datos que utilizamos para entrenar y evaluar nuestros modelos. Abarca varios factores clave que deben tenerse muy en cuenta durante la validación del conjunto de datos. Uno de los principales aspectos es la precisión de los datos. Es esencial garantizar que los datos recopilados y etiquetados no contengan errores, incoherencias ni valores atípicos. Garbage-in, garbage-out es una verdad común en la ciencia de datos, que destaca la importancia de comenzar con datos limpios y fiables para obtener resultados significativos. La integridad de los datos está estrechamente relacionada con el concepto de generalización, es decir, con la capacidad del modelo para obtener buenos resultados con datos desconocidos. Para lograr un alto nivel de generalización, es importante comprender las distribuciones entre los conjuntos de datos de entrenamiento y de prueba. Si los datos de prueba se desvían significativamente de la distribución de los datos de entrenamiento, es posible que el modelo no generalice eficazmente, lo que se traducirá en un rendimiento deficiente en aplicaciones del mundo real. Un problema común cuando el modelo ya se ha desplegado es que los datos pueden cambiar de forma natural, lo que se denomina drift. el drift es el cambio a lo largo del tiempo de las propiedades estadísticas de los datos utilizados para entrenar un modelo de aprendizaje automático. Esto puede hacer que el modelo sea menos preciso o funcione de forma diferente a como fue diseñado. Detectar el drift es una importante señal de advertencia de que nuestro modelo puede no ser tan preciso con datos más recientes.



METODOLOGÍA

Para evitar esto, primero debemos determinar si existe alguna desviación en nuestro conjunto de datos, para alcanzar ese objetivo utilizamos Deepchecks una librería python que proporciona las herramientas necesarias para evaluar y mejorar continuamente el rendimiento de los modelos de IA, asegurando la precisión y fiabilidad del modelo validado. Proporciona un soporte completo para probar nuestros conjuntos de datos. En visión por ordenador, no podemos medir el drift directamente en las imágenes porque el píxel individual tiene poco valor en la estimación del drift. Por lo tanto, Deepchecks calcula el drift utilizando varias propiedades de la imagen. La documentación de Deepchecks define las propiedades como "valores unidimensionales que se extraen de las imágenes, las etiquetas o las predicciones. Por ejemplo, una propiedad de la imagen es el brillo, y una propiedad de la etiqueta es el área del cuadro delimitador (para tareas de detección)." Las propiedades de una imagen que Deepchecks utiliza para sus pruebas son la relación de aspecto, el área, el brillo, el contraste RMS, la intensidad media relativa del rojo, la intensidad media relativa del verde y la intensidad media relativa del azul, y comparando estas propiedades entre los conjuntos de datos de entrenamiento y de prueba se puede detectar la desviación. Deepchecks también calcula la puntuación del poder predictivo, que se utiliza para estimar la capacidad de una propiedad de la imagen para predecir la propia etiqueta, y devuelve valores entre 0 y 1, siendo 0 el valor más bajo y valores altos cercanos a 1 podrían significar un sesgo en el conjunto de datos.


CONCLUSIONES

Realizando múltiples Pruebas con Deepchecks y comparando los resultados del dataset de los calculos renales, logramos detectar que este sufría de drift en algunos sectores. Realizando el análisis de los resultados a profundidad, se logró aislar el sector exacto que estaba causando conflicto en las características de las imágenes y que aspectos de estas eran las que causaban desviaciones en los resultados a la hora de trabajar con dicho dataset.
Navarro Guerrero Adriana de Jesús, Universidad de la Costa
Asesor: Mtro. Manuel Cruz Luna, Instituto Tecnológico Superior de Huauchinango

IMPLEMENTACIÓN DE UN SISTEMA DE EVALUACIÓN DIGITAL CON RÚBRICAS PARA MEJORAR LA CALIFICACIÓN DE PRESENTACIONES ESTUDIANTILES


IMPLEMENTACIÓN DE UN SISTEMA DE EVALUACIÓN DIGITAL CON RÚBRICAS PARA MEJORAR LA CALIFICACIÓN DE PRESENTACIONES ESTUDIANTILES

Navarro Guerrero Adriana de Jesús, Universidad de la Costa. Asesor: Mtro. Manuel Cruz Luna, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En el ámbito educativo, la evaluación de proyectos y actividades es subjetiva y poco estandarizada, lo que dificulta medir objetivamente el desempeño de los estudiantes y su mejora. Para abordar este problema, se requiere una herramienta eficaz y estandarizada, como rúbricas digitales, que agilice el proceso de evaluación, permita una calificación más objetiva y brinde retroalimentación detallada a los estudiantes. Esto evitará errores manuales, optimizará el tiempo y facilitará la identificación de áreas de mejora, fomentando un aprendizaje más efectivo y preciso.  



METODOLOGÍA

Se propone un sistema de evaluación digital para mejorar la calificación de presentaciones de alumnos mediante el uso de rúbricas y otros instrumentos. Tambien se realizará un análisis de necesidades y requisitos en colaboración con docentes expertos e investigación de proyectos similares. El sistema incorporará tecnologías modernas y algoritmos inteligentes para garantizar una evaluación objetiva. Se llevarán a cabo pruebas, capacitación y una implementación de prueba en un evento educativo. Además, se establecerá un monitoreo constante y actualizaciones periódicas para mejorar su funcionamiento a lo largo del tiempo.  


CONCLUSIONES

Durante la estancia de verano, avanzamos con análisis, investigación, modelado de interfaz y simulación de base de datos. La adquisición de conocimientos ha sido clave en el progreso logrado. Sin embargo, es importante destacar que proyectos como este requieren más tiempo para su desarrollo completo y efectivo. Seguiremos enriqueciendo nuestro trabajo con esta valiosa experiencia.  
Navarro Medina Dafne Yesenia, Instituto Politécnico Nacional
Asesor: Dra. Siby Inés Garcés Garces, Universidad Libre

HUMEDALES AUTOMATIZADOS CON ENFOQUE EN SOSTENIBILIDAD AMBIENTAL: IMPLEMENTACIóN DE ENERGíA SOLAR Y SENSORES PARA EL TRATAMIENTO DE AGUAS RESIDUALES EN BARRANQUILLA, COLOMBIA.


HUMEDALES AUTOMATIZADOS CON ENFOQUE EN SOSTENIBILIDAD AMBIENTAL: IMPLEMENTACIóN DE ENERGíA SOLAR Y SENSORES PARA EL TRATAMIENTO DE AGUAS RESIDUALES EN BARRANQUILLA, COLOMBIA.

Navarro Medina Dafne Yesenia, Instituto Politécnico Nacional. Asesor: Dra. Siby Inés Garcés Garces, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

En el caño de la Auyama ubicado en la ciudad de Barranquilla, Colombia, se presenta una problemática relacionada con la gran cantidad de aguas residuales que no tienen un tratamiento adecuado, provocando la escasez y la contaminación del agua en algunas zonas de la ciudad, de igual manera repercute en la salud de la población de Barranquilla y en la preservación de los ecosistemas acuáticos. La constante limitación a la disposición de agua limpia para la población local también se debe a la dependencia de los sistemas convencionales de tratamiento de aguas residuales, siendo cada vez más obsoletos ya que siguen utilizando fuentes de energía no renovables, aumentando la huella de carbono e impactando negativamente al medio ambiente. Según el periódico El Heraldo en unta entrevista a Agudelo, quien es docente del departamento de Ingeniería Civil y Ambiental de la Universidad del Norte menciona que Las aguas residuales de gran parte de Colombia llegan al río Magdalena y posteriormente a las playas llevando una alta contaminación en los cuerpos de agua. Otro inconveniente para considerar es la falta de implementación de sistemas que automaticen los procesos de tratamiento de aguas residuales por lo que durante el verano de investigación se estudian las alternativas a pequeña escala para enfrentar las diferentes problemáticas.



METODOLOGÍA

Primero se realizó una investigación preliminar, cuidando con detalle las fuentes de consulta a revisar, la información obtenida estaba relacionada al diseño y funcionamiento de humedales artificiales, las tecnologías de automatización mediante la implementación de sensores con el microcontrolador Arduino y por ultimo los procedimientos de incorporación de paneles solares en sistemas de control de proyectos. De esta manera se adquirieron los conocimientos necesarios para proceder a realizar un análisis de los requisitos del proyecto donde se determino que serían necesarios 2 paneles solares que proporcionaran un voltaje de 12 volts de corriente continua, un regulador de voltaje de 12 volts, un inversor de corriente de 12 volts de corriente continua a 110 volts de corriente alterna, cable para realizar las conexiones, un Arduino, un sensor de CO2, un sensor de humedad, un sensor de temperatura y un sensor de ph. Estos componentes fueron seleccionados para alimentar con energía solar a todo el sistema de humedales, además de medir los parámetros de temperatura, humedad, ph y niveles de CO2 para automatizar el tratamiento de las aguas residuales, Posteriormente se realizó el diseño de los circuitos que conforman el sistema de automatización de humedales, los cuales fueron el circuito de conexión del panel solar al regulador de voltaje, el inversor y la bateria así como el circuito de prueba de los sensores programados en la plataforma de Arduino, después se construyeron los sistemas necesarios para adaptarlos a los humedales en donde se tuvo una estrecha colaboración con estudiantes y profesores de la Universidad libre sede Centro en Barranquilla, ellos participaron en las actividades correspondientes a su área de estudio. Al llegar a la fase de pruebas y ajustes, fue necesario cambiar varios componentes y volver a realizar un análisis de todo el sistema para investigar la mejor forma de implementar el sistema de sensores en el humedal ya instalado en el edificio de la universidad Por último se monitoreo el proceso para documentar todas las etapas realizadas y garantizar que el diseño fue el mas optimo para garantizar un rendimiento adecuado de todos los sistemas cuando este implementado en su totalidad.


CONCLUSIONES

Al termino del periodo de investigación se puede concluir que la automatización de humedales artificiales es una alternativa muy efectiva para realizar un tratamiento más optimo a las aguas residuales, mejorando significativamente la eficiencia del proceso, así como la calidad del agua, eso a mediano y largo plazo representa una contribución a preservar los recursos hídricos. Además, gracias a la implementación de la energía solar se lograrán grandes ahorros a largo plazo.  La visibilidad de esta problemática, así como la investigación para poner en práctica las respectivas alternativas fomenta el interés en participar en las acciones para cumplir los objetivos de desarrollo sostenible, que en este caso seria el ODS 6 Agua y saneamiento.
Navarro Plascencia Valeria, Universidad de Guadalajara
Asesor: Mg. Rodrigo López V., Universidad Santo Tomás

ESTUDIO DE PRóTESIS HíBRIDA DENTAL: MODELADO 3D Y SIMULACIóN COMPUTACIONAL MEDIANTE ANSYS


ESTUDIO DE PRóTESIS HíBRIDA DENTAL: MODELADO 3D Y SIMULACIóN COMPUTACIONAL MEDIANTE ANSYS

Martin del Campo Gutiérrez Itzel, Universidad de Guadalajara. Navarro Plascencia Valeria, Universidad de Guadalajara. Asesor: Mg. Rodrigo López V., Universidad Santo Tomás



PLANTEAMIENTO DEL PROBLEMA

La restauración oral mediante prótesis dentales es esencial para mejorar la calidad de vida de personas que han perdido dientes. Las prótesis híbridas dentales, que combinan implantes y prótesis fijas, ofrecen una solución efectiva y estética. Sin embargo, su eficacia depende de la interacción precisa entre los componentes y los tejidos orales. En este contexto, la biomecánica computacional surge como una herramienta valiosa para optimizar y evaluar el diseño de estas prótesis. El éxito de estas prótesis depende de su capacidad para soportar las fuerzas y tensiones generadas durante el movimiento y las actividades diarias, asegurando una función óptima y evitando posibles complicaciones a largo plazo. El modelado tridimensional de prótesis mediante CAD ofrece una herramienta valiosa para diseñar y representar con precisión estos dispositivos médicos. Sin embargo, es esencial complementar este enfoque con una evaluación biomecánica detallada para comprender cómo las prótesis se comportan en un entorno realista y dinámico. El software ANSYS, con sus capacidades de análisis por elementos finitos, brinda la oportunidad de realizar una evaluación biomecánica avanzada. Por lo tanto, es necesario llevar a cabo un estudio completo que integre el modelado tridimensional mediante CAD y la evaluación biomecánica mediante ANSYS para analizar el rendimiento y comportamiento de una prótesis híbrida en condiciones realistas.



METODOLOGÍA

Investigación sobre Prótesis Híbridas Dentales: Se llevó a cabo una investigación exhaustiva sobre prótesis híbridas dentales, incluyendo materiales utilizados, beneficios y aplicaciones clínicas. Se recopiló información relevante de fuentes científicas y técnicas. Adquisición de la Caja Dental y Mandíbula: Se obtuvo una caja dental de un especialista y una mandíbula previamente impresa en 3D para ser utilizadas en el estudio. Escaneo 3D de la Caja Dental: Se utilizó un escáner 3D y el software Artec Studio para obtener una representación digital tridimensional precisa de la caja dental. Perfeccionamiento del Modelo con SpaceClaim: Mediante el software, se perfeccionó el modelo 3D de la caja dental utilizando las facetas y eliminando imperfecciones para convertirlo en un sólido. Adición de la Barra de Fijación: Se incorporó la barra de fijación, que consta de cuatro implantes, al modelo ensamblado de la caja dental y la mandíbula. Aprendizaje del Software ANSYS: Se adquirieron conocimientos en el uso del software ANSYS a través de tutoriales y material proporcionado por la página oficial del software. Asignación de Materiales: Se asignaron los materiales correspondientes a cada componente del modelo, incluyendo titanio, resina, hueso trabecular, hueso cortical y cobalto-cromo. Ajuste de Contactos y Supresión de Elementos Innecesarios: Se aseguró que cada contacto entre los componentes fuera adecuadamente definido en el modelo y se suprimieron los elementos innecesarios para la correcta realización del análisis. Generación de la Malla: Se generó una malla automática utilizando el programa ANSYS para discretizar el modelo y prepararlo para la simulación computacional. Aplicación de Cargas y Simulación: Se aplicaron las cargas adecuadas en la dirección requerida para obtener resultados de la simulación computacional utilizando ANSYS. Se llevaron a cabo análisis de elementos finitos para evaluar el comportamiento mecánico del modelo de prótesis híbrida dental bajo diferentes condiciones de carga.


CONCLUSIONES

La combinación de estas dos técnicas ha proporcionado una visión multidisciplinaria del comportamiento de la prótesis híbrida, lo que es esencial para asegurar la seguridad y eficacia del dispositivo.  El uso del modelado tridimensional mediante CAD permitió diseñar y representar con precisión la prótesis híbrida, lo que facilitó la comprensión de su geometría y características. Esto es fundamental para garantizar la adaptabilidad del dispositivo, ya que cada prótesis debe ser personalizada según las necesidades específicas del paciente. La evaluación biomecánica mediante ANSYS ha sido un aspecto crucial en esta investigación. Al simular y analizar la interacción de la prótesis híbrida con el tejido óseo circundante bajo diferentes condiciones de carga, se han podido determinar las tensiones y deformaciones en áreas específicas de la prótesis y el hueso. Estos datos han revelado puntos críticos que podrían estar sometidos a estrés excesivo, lo que ha permitido identificar áreas de mejora en el diseño y evitar potenciales problemas de rendimiento y durabilidad.
Navarro Sosa César Antonio, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Mtro. Fernando José Martínez López, Instituto Tecnológico Superior del Sur de Guanajuato

DESARROLLO DE UNA APLICACIóN MóVIL PARA EL CARPOOLING: UNA SOLUCIóN DE TRANSPORTE COMPARTIDO PARA ESTUDIANTES UNIVERSITARIOS


DESARROLLO DE UNA APLICACIóN MóVIL PARA EL CARPOOLING: UNA SOLUCIóN DE TRANSPORTE COMPARTIDO PARA ESTUDIANTES UNIVERSITARIOS

Navarro Sosa César Antonio, Instituto Tecnológico Superior del Sur de Guanajuato. Pérez Avalos Gabriela Monserrat, Instituto Tecnológico Superior del Sur de Guanajuato. Pérez Lara Fatima Vianey, Instituto Tecnológico Superior del Sur de Guanajuato. Sanabria Melecio José Ángel, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtro. Fernando José Martínez López, Instituto Tecnológico Superior del Sur de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los estudiantes universitarios enfrentan problemas con el transporte público debido a su ineficiencia, lo cual se convierte en un obstáculo en términos de tiempo, disponibilidad, costo e inseguridad. Para resolver esto, se propuso crear una aplicación móvil llamada RideSchool, una solución de carpooling seguro entre estudiantes de una misma institución.



METODOLOGÍA

Se eligieron tecnologías como React Native, Google Firebase, y Google Maps, y se optó por utilizar componentes de Paper siguiendo las pautas de Google Material Design. Para el prototipado, se usó Miro, y para el control de versiones, git y GitHub, aprovechando las herramientas y ventajas que ofrecen. El proyecto también incluyó una fase de onboarding diseñada para mejorar la experiencia de usuario desde el primer uso, utilizando la inteligencia artificial Midjourney para generar imágenes. Se implementó autenticación y registro a través de Google Firebase, asegurando la persistencia de la información de la sesión. La aplicación permite solicitar y atender rides, integrando funcionalidades y servicios de Google Maps como puntos de encuentro, búsqueda dinámica de direcciones, y geolocalización. Además, se diseñó una pantalla para visualizar rides solicitados, incorporando opciones para cuotas y comentarios. Se hizo una solicitud por escrito para una prueba piloto en la comunidad estudiantil, con el fin de evaluar la aplicación en un entorno real y recopilar datos de uso, buscando eventualmente expandirse a más instituciones universitarias.


CONCLUSIONES

En conclusión, el desarrollo de RideSchool marca un avance significativo en la asistencia a los estudiantes en el transporte, aún quedan componentes por desarrollar, pero la experiencia ha fortalecido habilidades técnicas y blandas del equipo. La aplicación promete ser una herramienta útil en la vida cotidiana de los estudiantes.
Navarro Sotelo Angel, Universidad Autónoma de Baja California
Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

ADQUISICIóN Y TRANSFORMACIóN DE MAPAS DE PRESIóN A IMáGENES PARA UN PROTOCOLO DE REGISTRO POSTURA DURANTE UNA SIMULACIóN VEHICULAR


ADQUISICIóN Y TRANSFORMACIóN DE MAPAS DE PRESIóN A IMáGENES PARA UN PROTOCOLO DE REGISTRO POSTURA DURANTE UNA SIMULACIóN VEHICULAR

Navarro Sotelo Angel, Universidad Autónoma de Baja California. Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Durante la investigación, se abordó el uso del sensor Boditrak que es un sistema de mapeo de presiones que en conjunto con el software FSA permite evaluar la distribución de presiones. Una vez registrados se realizó el preprocesamiento de datos transformándolos a imágenes, para el análisis de posturas durante la conducción vehicular. Posteriormente a la generación de la información y para garantizar la confidencialidad de los voluntarios que participaron en el estudio, se implementó un método de anonimización para proteger su identidad en la base de datos generada. Se identificaron desafíos en el manejo y procesamiento de los datos generados por el sensor, así como en el procesamiento de imágenes resultantes.



METODOLOGÍA

La metodología utilizada en el estudio involucró varias etapas clave. En primer lugar, se realizó la calibración del sensor Boditrak Seat® mediante el software FSA para asegurar mediciones precisas de las presiones ejercidas por el cuerpo. Luego, se llevó a cabo un protocolo de posturas que buscaba adaptar tres posturas ideales: Plana, Larga lordosis y Corta lordosis. Durante el registro de posturas, se capturaron las presiones utilizando el sensor Boditrak, y simultáneamente se grabaron los videos con la cámara Dragon Touch Vision 3. Las posturas se tomaron en periodos de 1 minuto, seguidos de descansos de 30 segundos entre posturas. La frecuencia de muestreo del software FSA fue de 1 Hz durante todo el registro.Se registraron los tiempos de inicio y finalización de cada postura utilizando la hora de la cámara como referencia de inicio y la del software FSA como referencia de fin de la postura. Posteriormente, se llevó a cabo un protocolo de estrés en conducción vehicular virtual, donde también se realizaron marcas de tiempo al inicio y fin de cada etapa para su análisis durante esa actividad. Para el análisis de datos, se extrajeron manualmente los datos del software FSA hacia Excel para generar un archivo CSV que posteriormente fue procesado en MATLAB. En MATLAB, los datos se organizaron en forma de matriz de 32x32, que corresponde a la forma de presentación de los datos en el software FSA. Las imágenes fueron preprocesadas para segmentar el área que ocupaba el voluntario y eliminar las presiones no deseadas causadas por dobleces en el sensor, o mediciones fuera de la zona de interés. Finalmente, se generó una base de datos anonimizada que incluyó las mediciones de presiones y los videos, protegiendo la identidad de los voluntarios para su uso en futuras investigaciones. En resumen, la metodología utilizada abarcó desde la calibración del sensor hasta la generación de la base de datos anonimizada, permitiendo obtener resultados valiosos para el análisis de posturas y el estudio de la distribución de presiones durante la conducción vehicular.


CONCLUSIONES

En el proceso de preprocesamiento de imágenes, se exploraron diversas opciones de filtrado y se optó por utilizar dos filtros específicos para resaltar las áreas de interés en la imagen RGB. Considerando que la imagen es coloreada en proporción a la intensidad de la presión, se propuso la generación de una máscara binaria basada en rangos de color y posteriormente una segmentación en el espacio de color lab (Luminancia o brillo de la imagen, cantidad de tonos rojos o verdes en la imagen y cantidad de tonos amarillos o azules) que logró obtener una imagen preprocesada con detalles claros y una visualización más nítida de la distribución del peso en el área de interés. Estos filtros demostraron ser efectivos en el análisis de posturas y presiones corporales. En conclusión, el uso del software FSA en conjunto con el sensor BodiTrak ofrece una interfaz amigable para visualizar los datos de presiones. Sin embargo, la falta de drivers para la extracción automática de datos y la incapacidad de grabar periodos de tiempo predeterminados pueden representar desafíos en ciertos escenarios. Se sugiere considerar alternativas para mejorar la integración con otras herramientas de programación y lograr una extracción de datos más eficiente y precisa.
Navarro Torres Andres, Universidad de Guadalajara
Asesor: Dr. Jaime Aguilar .zambrano, Pontificia Universidad Javeriana

SISTEMA INCENTIVO RESPIRATORIO PARA FISIOTERAPIA REMOTA DE PACIENTES CON SECUELA COVID-19


SISTEMA INCENTIVO RESPIRATORIO PARA FISIOTERAPIA REMOTA DE PACIENTES CON SECUELA COVID-19

Dominguez Olmedo Arturo, Instituto Tecnológico de Pachuca. Gómez Correa Edith Alejandra, Universidad de Guadalajara. Mejía Medina Malinche, Instituto Politécnico Nacional. Navarro Torres Andres, Universidad de Guadalajara. Asesor: Dr. Jaime Aguilar .zambrano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

En un contexto postpandemia donde el 12% de las personas afectadas por el virus COVID-19 necesitaría terapia respiratoria nos encontramos con que el dispositivo más utilizado, el Triflo, tenía limitaciones tanto para el fisioterapeuta, aportando poca información sobre el progreso, como para el paciente, despertando poco interés y convirtiendo la rehabilitación en un proceso tedioso y poco atractivo. Identificando esta problemática se llegó a la pregunta ¿de qué forma puede mejorarse este sistema? ¿cómo sería un dispositivo diseñado pensando en el paciente y el fisioterapeuta? UBICU es un sistema incentivo respiratorio para fisioterapia remota para pacientes con secuelas de COVID-19, aunque es útil en la rehabilitación de otras patologías respiratorias. El sistema busca la reexpansión pulmonar mediante la medición del volumen inspirado durante la respiración, incentivado por un videojuego interactivo. El proyecto, liderado por el Dr. Jaime Aguilar Zambrano, se conforma de un equipo interdisciplinario de ingenieros en sistemas, ingenieros electrónicos, ingenieros biomédicos, diseñadores industriales, diseñadores gráficos, y fisioterapeutas, estos últimos de vital importancia en las pruebas clínicas realizadas.



METODOLOGÍA

Después de años de desarrollo, actualmente el proyecto de encuentra en una etapa de pruebas finales, que incluyen un estudio clínico y el licenciamiento para su producción y venta. A pesar de esto, seguían existiendo áreas de mejora, tales como el acople y envolvente del dispositivo, el enriquecimiento de este mediante la inclusión de variables como saturación de oxígeno, así como proveer una opción de monitoreo con videojuego atractivo para el paciente, además de buscar ampliar su uso mediante un sistema de espirometría. Estas tareas se asignaron a los participantes del programa delfín de acuerdo a sus habilidades y áreas de conocimiento. Como trabajo en conjunto se apoyó en la manufactura y ensamble de equipos para el uso en pruebas clínicas con fisioterapeutas y pacientes. Para la implementación y desarrollo aplicados al diseño se realizaron imágenes y video de apoyo con una representación fotorrealista mediante el uso de un modelo 3D con el propósito de explorar el producto mediante la explotación y enfoque a diversas partes del dispositivo. De igual manera se buscó generar propuestas de diseño para el envolvente para un dispositivo placa orificio donde se contiene la placa, componentes electrónicos y batería. Respecto al sistema de monitoreo, se realizó una interfaz gráfica y dinámica. Mediante el diseño de un videojuego sencillo, el software recibe e interpreta datos de flujo, los cuales se ven reflejados en la mecánica de tres monos que suben cada uno una palmera, simulando la mecánica del TriFlow. Se implementan los scripts de cada mono donde se reciben los datos, es decir, se añade una lógica para que los monos suban las palmeras. Para la dinámica de los monos se implementan fórmulas utilizando flujos limites inferiores y superiores, así como la posición de cada mono. Se buscó añadir una nueva variable al equipo mediante el diseño de un oxímetro. Primeramente se realizaron simulaciones de diferentes propuestas de circuitos electrónicos, escogiéndose el que mejor se adecuaba a las necesidades del proyecto: la posibilidad de monitorear los BPM y la oxigenación del paciente al utilizar el dispositivo. Se realizó el diseño de la PCB para su integración a la electrónica actual. La implementación de un sistema de medición inspiración-espiración se trabajó con el objetivo de ampliar los parámetros caracterizables durante la rehabilitación y ampliar los campos de aplicación del dispositivo. Posterior a la propuesta de diferentes versiones del tubo placa orificio, se imprimió en resina el primer prototipo. Las primeras pruebas consistieron en verificar la medición bidireccional del flujo y modificar el software para la adquisición de los datos de espiración.


CONCLUSIONES

En el área de diseño, se realizaron implementaciones que incluyeron propuestas para el cierre del dispositivo, mejora y desarrollo de apoyos visuales como imágenes y videos. También se ajustó el diseño de un instrumento de medida, la placa orificio, que se imprimió usando resina para realizar pruebas. Se abordaron aspectos ergonómicos relacionados con la manipulación del dispositivo y el almacenamiento de sus componentes. Se desarrolló un sistema de seguimiento de la inspiración respiratoria utilizando herramientas informáticas como Unity. Esta implementación brinda una representación visual sencilla y atractiva de las variaciones de flujo y la elección de los flujos límites. Se diseñó un circuito simulado con las especificaciones necesarias, junto con una placa de montaje superficial. Los filtrajes se probaron por separado en un circuito físico, confirmándose su funcionamiento. La simulación, documentación y especificación de los componentes facilitan la implementación completa del circuito en físico y su posterior integración al dispositivo incentivo respiratorio. Por último, utilizando el primer prototipo, se verifico funcionamiento del instrumento placa orificio y el sensor diferencial para determinación del flujo. Además, se ajustó el software para medición de flujo inspiratorio y espiración.
Nazario Castro Alejandro, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero

INTEGRACIÓN DE BASES DE DATOS PHP Y MYSQL


INTEGRACIÓN DE BASES DE DATOS PHP Y MYSQL

Nazario Castro Alejandro, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

El presente estudio tiene como objetivo explorar la integración de bases de datos PHP y MySQL en diversos ámbitos, centrándose en el ámbito educativo, con el propósito de mejorar la gestión de información en plataformas educativas. Se pretende analizar cómo esta integración puede optimizar la recopilación, almacenamiento y recuperación de datos en entornos educativos, brindando eficiencia y agilidad en los procesos de gestión académica y administrativa. Además, se buscará identificar las ventajas y desventajas de esta integración, así como establecer requisitos técnicos y funcionales para implementarla de manera efectiva.



METODOLOGÍA

METODOLOGÍA Y PROCESOS DE DESARROLLO La experiencia de usuario se ha convertido en un elemento diferenciador ente las opciones de aplicaciones y sistemas existentes en el mercado. Ya no se considera suficiente que una aplicación sea efectiva, flexible y de fácil aprendizaje, es preciso que se adapte a situaciones útiles en la vida cotidiana de las personas, que creen experiencias satisfactorias. (Sánchez, 2016 & Guapi Auquilla, M. J., 2018) Se presenta la metodología y los procesos de desarrollo utilizados para la integración de bases de datos PHP y MySQL en páginas y aplicaciones web y con ello permitir una gestión eficiente de datos y una respuesta rápida a las interacciones del usuario. A continuación, se describen los pasos y enfoques empleados en esta integración. 1. Definición de Requerimientos: Identificación de las funcionalidades clave requeridas en la aplicación web mediante reuniones con interesados y clientes. 2. Diseño de la Base de Datos: Creación de un diseño eficiente de la base de datos MySQL, definiendo tablas, campos y relaciones necesarias. 3. Establecimiento de la Conexión PHP - MySQL: Creación de una conexión segura entre las aplicaciones de PHP y la base de datos MySQL. 4. Desarrollo de Consultas e Implementación de Funcionalidades: Creación de consultas SQL y desarrollo de funcionalidades para la interacción con la base de datos. 5. Diseño de la Plataforma: Establecimiento de la estructura de la página web y definición de capas de la aplicación. 6. Desarrollo de la Página y Aplicación Web: Implementación de la lógica del lado del servidor utilizando PHP y tecnologías web como HTML, CSS y JavaScript. 7. Consideraciones de Seguridad, Evaluación y Mejoras Continuas: Realización de pruebas constantes para asegurar el correcto funcionamiento y seguridad del sistema. 8. Documentación: Documentar todo el proceso de integración, incluyendo la estructura de la base de datos, consultas SQL y configuración de la conexión entre PHP y MySQL.


CONCLUSIONES

La integración de las bases de datos PHP y MySQL en aplicaciones web ha tenido resultados positivos, hablando en temas de eficiencia, siendo dinámico, seguro y con mejores experiencias para los usuarios. Los beneficios que se pueden y se obtienen al integrar estas dos tecnologías, junto con sus herramientas han sido de gran importancia en el desarrollo web de hoy en día, por ejemplo, al usar estas tecnologías en un sistema de bases de datos en los posgrados, este resultando ser una gran herramienta. Con esta implementación, las aplicaciones web están preparadas para ofrecer soluciones de calidad y adaptarse a las necesidades cambiantes del entorno digital. RESULTADOS Mayor Eficiencia en la Gestión de Datos: Agilidad en la recuperación y manipulación de información, mejorando la experiencia para los usuarios. Aplicaciones Web Dinámicas y Personalizadas: Experiencias interactivas y acceso a información actualizada en tiempo real. Mayor Flexibilidad y Escalabilidad: Capacidad para adaptarse a las necesidades cambiantes y manejar grandes volúmenes de datos. Seguridad y Protección de Datos: Implementación de medidas para proteger la información sensible y prevenir ataques. Experiencia Mejorada para los Usuarios: Mayor satisfacción y usabilidad, fomentando la retención y lealtad de los usuarios.
Nieto Mora Stefania, Institución Universitaria Colegio Mayor de Antioquia
Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua

PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.


PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.

Babilonia Meza Nohemi Esther, Fundación Universitaria Tecnológico Comfenalco. García Gálvez Jesús, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Muñoz Torres Eduardo Antonio, Instituto Tecnológico de Tepic. Nieto Mora Stefania, Institución Universitaria Colegio Mayor de Antioquia. Nieves Rivera Pablo Germán, Instituto Tecnológico de Tepic. Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La calidad del agua de las fuentes de abastecimiento se puede ver alterada por diversos factores, cuyo origen puede ser natural o antropogénico. La materia orgánica es uno de los contaminantes que puede encontrarse en los acuíferos por infiltración de aguas negras domésticas o industriales. El pozo de agua potable Tulyehualco, ubicado en la Ciudad de México, presenta un nivel significativo de materia orgánica medida como Demanda Química de Oxígeno (DQO). Debido a lo mencionado anteriormente, es importante buscar alternativas para el tratamiento del agua de dicha fuente de abastecimiento para disminuir la cantidad de materia orgánica presente dado que los métodos convencionales no logran cumplir con este objetivo. En este proyecto se llevó a cabo el método de foto-Fenton homogéneo, donde se implementó peróxido de hidrógeno y un agente oxidante que se obtuvo con hierro extraído de escoria de cobre en presencia de ácido cítrico para formar el complejo de citrato-hierro. Se buscó evaluar las mejores condiciones, por medio de un diseño experimental multifactorial, para lograr la disminución de la materia orgánica del pozo descrito anteriormente. Una vez formado el citrato de hierro y comenzada la reacción foto-Fenton, se liberan radicales hidroxilos (•OH) los cuales reaccionan con el agua problema para eliminar la materia orgánica.



METODOLOGÍA

Para la presente investigación se seleccionó el agua del pozo de Tulyehualco ubicado en la Ciudad de México la cual es distribuida para el consumo humano. Curva de calibración de peróxido de hidrógeno Se tomaron 3 mL de peróxido de hidrógeno al 30% y se aforó a 1 L con agua desionizada en un matraz volumétrico. A partir de esta solución madre se preparó una segunda solución madre en un volumen de medio litro y a una concentración de 250 mg/L. Las soluciones patrón se prepararon a partir de la segunda solución madre, tomando alícuotas de esta última y aforando a 100 mL con agua desionizada en matraces volumétricos. Se procedió a tomar 3 mL de cada uno de los patrones preparados y se depositaron en frascos viales. A cada frasco vial se le agregaron 300 µL de oxisulfato de titanio IV y se homogenizaron. Se realizó la lectura de absorbancia en el espectrofotómetro. La concentración de peróxido de hidrógeno se obtiene a partir de la siguiente ecuación: [H2O2] = (Fd•A)/0.0276 Donde [H2O2] es la concentración de peróxido de hidrógeno en mg•L-1, Fd es el factor de dilución, A es la absorbancia y 0.0276 es la pendiente de la relación de la absorbancia entre la concentración de peróxido de hidrógeno cuyas unidades son mg-1•L. Preparación del complejo citrato-hierro Para la reacción foto-Fenton se utilizó un complejo de citrato-hierro obtenido partir de ácido cítrico y escoria de cobre. Se prepararon 3 L de complejo citrato-hierro, por cada litro se pesó 38.428 g de ácido cítrico y 10 g de escoria de cobre. Se diluyeron los 38.428 g de ácido cítrico en 1000 mL de agua desionizada junto con la escoria de cobre en un vaso de precipitado de 2 L, el cual se cubrió completamente con papel aluminio para evitar una foto-degradación, finalmente so colocó con una agitación de 300 rpm. Montaje de los reactores Los reactores montados se dividen en 3 partes: base, tapa y lámpara. Para cada reactor se usó depósito rectangular de acrílico con dimensiones 9.8 cm x 53.4 cm x 2.9 cm acondicionado con un divisor para el control de flujo del agua. Esta base cuenta con orificios adaptados para que estén conectados para la recirculación de agua problema por medio de una manguera marca Máster Flex y una bomba peristáltica. Se utilizó una lámpara de 15 W (en cada reactor). Se cubrieron con papel aluminio y se introdujeron electrodos del potenciómetro para medir el pH y temperatura durante la operación. Reacción foto-Fenton Se realizó un diseño experimental factorial 2k (k=2 hierro y peróxido) para tratar el agua problema con concentraciones de hierro (13, 71.5, 130 mg/L) y peróxido (65, 357.5, 650 mg/L). Para la toma de muestras se extrajeron del reactor 5 mL cada hora para medir: hierro, peróxido y UV. Al finalizar el tiempo de operación (3-6 horas) se llevó a cabo la caracterización una caracterización completa del agua.


CONCLUSIONES

Al implementar condiciones de 130 mg/L de hierro y 65 mg/L de H2O2 se observó que, en los primeros 60 minutos se consume el 75 % y, entre 120 y 180 minutos hay un residual del orden de 3 mg/L, a los 240 minutos se observa un ligero incremento a 4.5 mg/L, mientras que el hierro permaneció disuelto durante las 4 horas de operación. En el ensayo con 130 mg/L de Fe y 650 mg/L de H2O2 a los 60 minutos se consumió el 60 % del peróxido y se llevó 4 horas para llegar a un residual en 0.5 mg/L, en este ensayo el hierro se también se encontraba disuelto durante el funcionamiento del reactor; caso contrario a lo que ocurría con concentraciones bajas de hierro (13 mg/L), en donde el hierro disuelto disminuía conforme transcurría el tiempo y, al finalizar, se formaba un precipitado de color rojizo característico de este mismo. Por otra parte, el complejo de citrato-hierro proporciona un aumento en el color verdadero. Siendo un aumento del 75 % en condiciones de 130 mg/L de hierro y 650 mg/L de peróxido, 46 % en condiciones de 71.5 mg/L de hierro y 357.5 mg/L de peróxido y un 16 % en condiciones de 13 mg/L de hierro y 65 mg/L de peróxido. Aumenta de manera proporcional al aumentar la dosis de hierro mediante el extracto de citrato de hierro. Se espera con esta investigación encontrar la mejor relación entre hierro y H2O2 para disminuir de manera eficiente la materia orgánica presente en el agua problema evitando la generación de subproductos que pudieran ser más contaminantes. El extracto utilizado como fuente de hierro para generar la reacción Fenton aporta color verdadero por lo que requiere un estudio más detallado para comprobar si este color es fácil de eliminar. Para de esta manera, definir si el extracto de escoria de cobre es apto para su uso en potabilización.    
Nieves Rivera Pablo Germán, Instituto Tecnológico de Tepic
Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua

PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.


PROCESOS AVANZADOS DE OXIDACIóN PARA REMOVER MATERIA ORGáNICA EN AGUA DE USO POTABLE.

Babilonia Meza Nohemi Esther, Fundación Universitaria Tecnológico Comfenalco. García Gálvez Jesús, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Muñoz Torres Eduardo Antonio, Instituto Tecnológico de Tepic. Nieto Mora Stefania, Institución Universitaria Colegio Mayor de Antioquia. Nieves Rivera Pablo Germán, Instituto Tecnológico de Tepic. Asesor: Dra. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La calidad del agua de las fuentes de abastecimiento se puede ver alterada por diversos factores, cuyo origen puede ser natural o antropogénico. La materia orgánica es uno de los contaminantes que puede encontrarse en los acuíferos por infiltración de aguas negras domésticas o industriales. El pozo de agua potable Tulyehualco, ubicado en la Ciudad de México, presenta un nivel significativo de materia orgánica medida como Demanda Química de Oxígeno (DQO). Debido a lo mencionado anteriormente, es importante buscar alternativas para el tratamiento del agua de dicha fuente de abastecimiento para disminuir la cantidad de materia orgánica presente dado que los métodos convencionales no logran cumplir con este objetivo. En este proyecto se llevó a cabo el método de foto-Fenton homogéneo, donde se implementó peróxido de hidrógeno y un agente oxidante que se obtuvo con hierro extraído de escoria de cobre en presencia de ácido cítrico para formar el complejo de citrato-hierro. Se buscó evaluar las mejores condiciones, por medio de un diseño experimental multifactorial, para lograr la disminución de la materia orgánica del pozo descrito anteriormente. Una vez formado el citrato de hierro y comenzada la reacción foto-Fenton, se liberan radicales hidroxilos (•OH) los cuales reaccionan con el agua problema para eliminar la materia orgánica.



METODOLOGÍA

Para la presente investigación se seleccionó el agua del pozo de Tulyehualco ubicado en la Ciudad de México la cual es distribuida para el consumo humano. Curva de calibración de peróxido de hidrógeno Se tomaron 3 mL de peróxido de hidrógeno al 30% y se aforó a 1 L con agua desionizada en un matraz volumétrico. A partir de esta solución madre se preparó una segunda solución madre en un volumen de medio litro y a una concentración de 250 mg/L. Las soluciones patrón se prepararon a partir de la segunda solución madre, tomando alícuotas de esta última y aforando a 100 mL con agua desionizada en matraces volumétricos. Se procedió a tomar 3 mL de cada uno de los patrones preparados y se depositaron en frascos viales. A cada frasco vial se le agregaron 300 µL de oxisulfato de titanio IV y se homogenizaron. Se realizó la lectura de absorbancia en el espectrofotómetro. La concentración de peróxido de hidrógeno se obtiene a partir de la siguiente ecuación: [H2O2] = (Fd•A)/0.0276 Donde [H2O2] es la concentración de peróxido de hidrógeno en mg•L-1, Fd es el factor de dilución, A es la absorbancia y 0.0276 es la pendiente de la relación de la absorbancia entre la concentración de peróxido de hidrógeno cuyas unidades son mg-1•L. Preparación del complejo citrato-hierro Para la reacción foto-Fenton se utilizó un complejo de citrato-hierro obtenido partir de ácido cítrico y escoria de cobre. Se prepararon 3 L de complejo citrato-hierro, por cada litro se pesó 38.428 g de ácido cítrico y 10 g de escoria de cobre. Se diluyeron los 38.428 g de ácido cítrico en 1000 mL de agua desionizada junto con la escoria de cobre en un vaso de precipitado de 2 L, el cual se cubrió completamente con papel aluminio para evitar una foto-degradación, finalmente so colocó con una agitación de 300 rpm. Montaje de los reactores Los reactores montados se dividen en 3 partes: base, tapa y lámpara. Para cada reactor se usó depósito rectangular de acrílico con dimensiones 9.8 cm x 53.4 cm x 2.9 cm acondicionado con un divisor para el control de flujo del agua. Esta base cuenta con orificios adaptados para que estén conectados para la recirculación de agua problema por medio de una manguera marca Máster Flex y una bomba peristáltica. Se utilizó una lámpara de 15 W (en cada reactor). Se cubrieron con papel aluminio y se introdujeron electrodos del potenciómetro para medir el pH y temperatura durante la operación. Reacción foto-Fenton Se realizó un diseño experimental factorial 2k (k=2 hierro y peróxido) para tratar el agua problema con concentraciones de hierro (13, 71.5, 130 mg/L) y peróxido (65, 357.5, 650 mg/L). Para la toma de muestras se extrajeron del reactor 5 mL cada hora para medir: hierro, peróxido y UV. Al finalizar el tiempo de operación (3-6 horas) se llevó a cabo la caracterización una caracterización completa del agua.


CONCLUSIONES

Al implementar condiciones de 130 mg/L de hierro y 65 mg/L de H2O2 se observó que, en los primeros 60 minutos se consume el 75 % y, entre 120 y 180 minutos hay un residual del orden de 3 mg/L, a los 240 minutos se observa un ligero incremento a 4.5 mg/L, mientras que el hierro permaneció disuelto durante las 4 horas de operación. En el ensayo con 130 mg/L de Fe y 650 mg/L de H2O2 a los 60 minutos se consumió el 60 % del peróxido y se llevó 4 horas para llegar a un residual en 0.5 mg/L, en este ensayo el hierro se también se encontraba disuelto durante el funcionamiento del reactor; caso contrario a lo que ocurría con concentraciones bajas de hierro (13 mg/L), en donde el hierro disuelto disminuía conforme transcurría el tiempo y, al finalizar, se formaba un precipitado de color rojizo característico de este mismo. Por otra parte, el complejo de citrato-hierro proporciona un aumento en el color verdadero. Siendo un aumento del 75 % en condiciones de 130 mg/L de hierro y 650 mg/L de peróxido, 46 % en condiciones de 71.5 mg/L de hierro y 357.5 mg/L de peróxido y un 16 % en condiciones de 13 mg/L de hierro y 65 mg/L de peróxido. Aumenta de manera proporcional al aumentar la dosis de hierro mediante el extracto de citrato de hierro. Se espera con esta investigación encontrar la mejor relación entre hierro y H2O2 para disminuir de manera eficiente la materia orgánica presente en el agua problema evitando la generación de subproductos que pudieran ser más contaminantes. El extracto utilizado como fuente de hierro para generar la reacción Fenton aporta color verdadero por lo que requiere un estudio más detallado para comprobar si este color es fácil de eliminar. Para de esta manera, definir si el extracto de escoria de cobre es apto para su uso en potabilización.    
Nolasco Espinosa Analletzin, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Leo Alvarado Perea, Universidad Autónoma de Zacatecas

SíNTESIS DE CATALIZADORES DE CUO/ALMCM-41 PREPARADOS POR CVD Y UTILIZADOS EN LA DEGRADACIóN DE FENOL MEDIANTE FOTOCATáLISIS.


SíNTESIS DE CATALIZADORES DE CUO/ALMCM-41 PREPARADOS POR CVD Y UTILIZADOS EN LA DEGRADACIóN DE FENOL MEDIANTE FOTOCATáLISIS.

Nolasco Espinosa Analletzin, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Leo Alvarado Perea, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Las aguas residuales generadas por los sectores industrial y doméstico están contaminadas por una gran diversidad de sustancias que resultan tóxicas para el medio ambiente y la salud. Los fenoles ocupan un lugar prominente entre los mayores contaminantes de agua, debido a su alta toxicidad y a los efectos carcinogénicos y mutagénicos que pueden causar en los seres humanos. Los métodos más comunes para el tratamiento de aguas residuales contaminadas con fenoles utilizan la combinación de procesos biológicos, físicos y químicos. Los procesos biológicos tienden a ser muy demorados y los métodos físicos no implican transformaciones químicas; por lo general, este tipo de procedimientos transfieren componentes de una fase a otra, pero no los eliminan.



METODOLOGÍA

Síntesis de catalizadores de CuO/AlMCM-41 con relación Si/Al = 60 y 150 por el método de CVD[U1]  Para llevar a cabo la síntesis de los catalizadores CuO/AlMCM-41 por deposición química de vapor (CVD) se utilizaron condiciones experimentales obtenidas en trabajos previos del grupo de investigación, en un reactor de vidrio de borosilicato en forma de L.  En este trabajo de investigación, se utilizó fibra de vidrio como cama del material AlMCM-41 que sirve como soporte para depositar la fase activa. Los catalizadores obtenidos fueron evaluados en la fotocatálisis para la degradación de fenol a 40mg/L en un reactor batch de doble pared de 230 mL. Las condiciones experimentales para la síntesis de catalizador por CVD son las siguientes: Masa de soporte: 0.2g. Cantidad de precursor metálico (acetilacetonato de Cu II, C10H14CuO4): 0.02g. Tiempo de reacción: 90 min. Temperatura de deposición: 300°C. Temperatura de sublimación: 190°C Tiempo de tratamiento térmico: 30 min. Flujos de gas: N2 10mL[U1] /min (gas utilizado como pretratamiento del material) O2 30 mL/min (gas oxidante y de arrastre). Para poder llevar a cabo la síntesis de estos catalizadores de CuO sobre Al-MCM-41 se siguen los pasos siguientes: Colocar el material soporte (Al-MCM-41 o MCM-41) en la zona de deposición del reactor. Montar el reactor en el sistema de CVD. Realizar el precalentamiento de  la muestra: una vez que se alcanza la temperatura de sublimación (190°C) y la de deposición (300°C); el precalentamiento consiste en hacer pasar un flujo de N2 de 10 mL/min durante 30 min para eliminar impurezas del material soporte y de las paredes del reactor. Realizar lecturas de temperatura cada 10 min durante 30 min. Cerrar el flujo de N2 y desmontar el reactor. Introducir el precursor metálico de cobre (acetilacetonato de cobre II, C10H14CuO4) en la zona de sublimación del reactor y montarlo nuevamente el sistema de CVD. Se cambia el gas de arrastre a O2 y se estandariza el flujo a 30 ml/min. Comenzar a monitorear el sistema de CVD durante 90 min. Cerrar el flujo de gas y desmontar el reactor. Pesar los restos del precursor metálico de cobre en el reactor. Pesar el catalizador obtenido y etiquetar.              Proceso experimental para la degradación de fenol por fotólisis.                                                                     Las condiciones y parámetros de la reacción de fotocatálisis son las siguientes: Agregar 200 ml de la solución de fenol a 40 mg/L en el reactor de doble pared. Tomar la lectura de la temperatura ambiente y mantenerla constante durante el tiempo de experimentación. Burbujeo de oxígeno constante a 300rpm Lámpara UV (faltan las características de la lámpara) suspendida en posición vertical en el centro del reactor y dentro de un tubo de cuarzo. Toma de muestras de 0.75 ml en el t=0 y cada 15 min durante la primera hora. Posteriormente, durante la segunda hora, cada 30 min y, después, cada hora hasta llegar a un total de 6 h. Espectrofotómetro UV-visible para medir la absorbancia de cada muestra. Realizar las lecturas en celdas de cuarzo de 0.5 7 ml en el espectrofotómetro Interpretar los resultados a 270nm (longitud de onda de absorbancia del fenol)                                          Proceso experimental para la fotocatálisis heterogénea con catalizadores CuO/AlMCM-41 con relación Si/Al = 60 y 150 Agregar 200 ml de la solución de fenol a 40 mg/L en el reactor. Colocar 147 mg de AlMCM-41 Si/Al=150 y/o 102 mg de AlMCM-41 Si/Al=60. Montar el sistema de reacción fotocatalítica Dejar interactuar el catalizador con la solución de fenol durante 40 min con agitación (300 rpm) y en completa oscuridad. Iniciar la reacción con luz UV y O2 y la toma de muestras, tal y como se indicó anteriormente. Burbujeo de oxígeno constante a 300rpm . Toma de muestras de 0.75 mL en el t=0, cada 15min, 30min y cada hora hasta llegar a un total de 6h Colocar la muestra en una centrífuga a 4000 rpm para separar el catalizador de la solución Realizar las lecturas en celdas de cuarzo de 0.7 mL en el espectrofotómetro. Interpretar los resultados a 270 nm (longitud de onda de absorbancia del fenol).   


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos y prácticos sobre la técnica de Deposición Química de Vapor (CVD), así como también del proceso de fotocatálisis heterogénea. Este proyecto de investigación sirvió para iniciar los trabajos experimentales del grupo, para evaluar la degradación fotocatalitica de fenol utilizando catalizadores de CuO/AlMCM-41 sintetizados por el método de CVD, con las condiciones de operación obtenidas en trabajos previos del grupo. Debido a los resultados que se obtuvieron en la degradación fotocatalítica de fenol, es necesario ajustar las condiciones experimentales en la síntesis de catalizadores por el método de CVD:  flujo de O2, mejorar la cama del soporte,etc. Ya que la masa del catalizador obtenido presentó una disminución que puede ser la consecuencia de la tasa de flujo de O2 establecido. La mayor cantidad de deposición de CuO se realizó sobre la fibra de vidrio que sirvió como cama para el material AlMCM-41 y MCM-41, por lo tanto, se sugiere aumentar la cantidad del precursor y el tiempo de reacción con el objetivo de aumentar la deposición de los óxidos de cobre generados sobre el material soporte MCM-41 y, de esta manera, lograr la deposición de  intervalo de 2-6 %p de CuO para mejorar los resultados de degradación fotocatalítica de fenol, de acuerdo a los resultados reportados en la literatura.
Nolasco Martinez Jose Uriel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PIRóLISIS DE MEZQUITE Y COCO A TRAVéS DE CONCENTRACIóN SOLAR


PIRóLISIS DE MEZQUITE Y COCO A TRAVéS DE CONCENTRACIóN SOLAR

Escobedo de la Cruz Glorialicia, Universidad de Sonora. Guerrero Palomares Lessly Yadira, Universidad Estatal de Sonora. Nolasco Martinez Jose Uriel, Benemérita Universidad Autónoma de Puebla. Zumaya Mercado Ciara Gabriella, Universidad de Guadalajara. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La producción de carbón vegetal se lleva a cabo a través de calentar la madera a altas temperaturas con una presencia mínima de oxígeno, cuyo resultado es un material combustible, poroso y con alto contenido en carbono que se aprovecha, mayoritariamente, como combustible, no solo de uso doméstico. A diferencia de la leña, el carbón tiene un mayor poder calorífico, no libera casi nada más que dióxido de carbono; ya que al combinarse el carbón del elemento con el oxígeno del entorno se forma esa reacción química. Sin embargo, su proceso de producción sigue siendo perjudicial hacia el ambiente, por lo que en este proyecto de investigación se busca obtener el mismo resultado mediante un proceso renovable en donde se aproveche la radiación solar en forma de energía solar térmica por concentración solar fototérmica para llevar a cabo la pirolisis de madera de mezquite y sustrato de coco. OBJETIVO  Obtener carbón vegetal mediante un proceso renovable, en este caso energía termosolar por concentración solar fototérmica, cumpliendo con el proceso de pirolisis para materia prima de madera de mezquite y sustrato de coco.



METODOLOGÍA

El proceso de pirólisis es la degradación térmica de una sustancia en ausencia de oxígeno, por lo que dichas sustancias se descomponen mediante calor, sin que se produzcan las reacciones de combustión. Para la obtención del carbón vegetal de coco y de mezquite se plantea el uso de tecnologías de energía solar. Las características básicas para realizar el proceso:  El único oxígeno presente es el contenido en el residuo a tratar. Las temperaturas de trabajo son inferiores a las de la gasificación, oscilando entre 400 °C, 600 ºC y 800 °C en las pruebas realizadas.   Uso de un reactor fijo de acero inoxidable.  Fuente de energía a través de concentración solar fototérmica. La energía que se utilizó para el proceso de la pirolisis es a base de la concentración solar fototérmica, por lo que se considera como un intercambiador de calor que transforma en energía solar a energía térmica a través de una concentración óptica. En la plataforma solar de Hermosillo se cuentan con varios tipos de concentración solar, pero para esta investigación se eligió enfocarse en un horno solar.  El sol es una fuente de energía distante que nos brinda radiación, dicha energía es la que utiliza el helióstato para reflejarla en el espejo parabólico de concentración. Una vez que la radiación es dirigida al concentrador estas son redirigidas hacia el foco de la parábola que en este caso es la posición o es la distancia a la que se encuentra nuestro reactor. Este factor es importante para saber la intensidad de radiación que va a recibir el reactor. En este caso para nuestra muestra se colocó a una distancia de 1.5 m del concentrador.  El análisis que se busca con el proceso de la pirolisis con la concentración solar a través de las distintas pruebas realizadas es ver el comportamiento de acuerdo con las tres temperaturas máximas que se consideraron y compararlos con los resultados obtenidos de cada muestra. A su vez también analizar el porcentaje de fracción volumétrica.  Como resultado del proceso se obtiene:  1. Gas, cuyos componentes básicos son CO, CO2, H2, CH4 y compuestos más volátiles procedentes del cracking de las moléculas orgánicas, así mismo con los ya existentes en los residuos. 2. Residuo líquido, compuesto básicamente por hidrocarburos de cadenas largas como alquitranes, aceites, fenoles, ceras formados al condensar a temperatura ambiente.  3. Residuo sólido, compuesto por todos aquellos materiales no combustibles, los cuales o bien no han sido transformados o proceden de una condensación molecular con un alto contenido en carbón, metales pesados y otros componentes inertes de los residuos.


CONCLUSIONES

A lo largo de nuestra estancia de verano se presentó un descubrimiento principal en la Plataforma Solar de Hermosillo que nos permitió obtener una aplicación de la energía termosolar en el proceso de pirolisis de mezquite y de coco, el cual nos ayudó a determinar las temperaturas y las tasas óptimas de calor a partir de la calidad química del carbón que se obtuvo, ya que según las diferentes variables de temperatura que manejamos se obtuvo una respuesta óptima en la liberación de gases (Metano, Monóxido de Carbono e Hidrogeno). Sin embargo, esta aplicación se obtuvo a base de la concentración solar que nos permitió aplicar metodologías novedosas y utilizar dispositivos especializados que son únicos en su tipo.
Noreña Ceballos Marcelo, Universidad Nacional Abierta y a Distancia
Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California

EXTRACCIóN DE CARACTERíSTICAS DE ECG PARA DETECCIóN SEMIAUTOMáTICA DE FIBRILACIóN AURICULAR


EXTRACCIóN DE CARACTERíSTICAS DE ECG PARA DETECCIóN SEMIAUTOMáTICA DE FIBRILACIóN AURICULAR

Moncada Alvarez Emmanuel, Universidad de Guadalajara. Noreña Ceballos Marcelo, Universidad Nacional Abierta y a Distancia. Valzania Prada Vittoria José, Universidad Autónoma de Bucaramanga. Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La fibrilación auricular (FA) es una arritmia cardíaca común caracterizada por un ritmo cardíaco irregular y rápido. En lugar de tener un ritmo cardíaco regular, como ocurre en un corazón sano, los pacientes con fibrilación auricular experimentan una actividad eléctrica caótica y desorganizada en las aurículas del corazón, que son las dos cámaras superiores. En la fibrilación auricular, las aurículas no se contraen adecuadamente, lo que resulta en una pérdida parcial de la capacidad de bombear sangre de manera efectiva hacia los ventrículos, que son las cámaras inferiores del corazón. Como resultado, la frecuencia cardíaca puede aumentar significativamente y volverse irregular. La fibrilación auricular es el trastorno del ritmo cardíaco más común en adultos. Teniendo un dato de 46,3 millones de personas en el mundo padece de esta enfermedad, donde un 50-87% son asintomáticas. Esta enfermedad puede tener serias implicaciones para la salud, ya que puede aumentar el riesgo de formación de coágulos sanguíneos en las aurículas y su posterior liberación hacia otras partes del cuerpo, aumentando el riesgo de accidentes cerebrovasculares o embolias El diagnóstico de la fibrilación auricular generalmente se realiza mediante la realización de un electrocardiograma (ECG), que muestra la actividad eléctrica del corazón y revela los patrones característicos de la arritmia. Este trabajo tiene como objetivo de manera semi automatizada, detectar dicha patología por sus características únicas o distinguibles de otras patologías cardiacas.



METODOLOGÍA

En el presente estudio, se utilizó MATLAB para procesar las señales de ECG y se implementó un código personalizado que resalta tres características esenciales de la fibrilación auricular (FA). En primer lugar, se evaluó la arritmia, que se refiere a la variación en las pulsaciones por minuto, permitiéndonos detectar cuando el ritmo cardíaco se aleja del estándar o promedio de una persona sana. En segundo lugar, se analizó la irregularidad de los pulsos derivados de la patología. Esta característica es crucial, ya que muestra que el tiempo entre pulsos es completamente aleatorio, lo cual es uno de los aspectos más distintivos de la FA y de gran relevancia para su detección temprana. Finalmente, el código también identificó las ondas fibrilatorias, conocidas como pulsos f, que son oscilaciones de menor tamaño y duración, pero con altas frecuencias, que se pueden encontrar en la línea isométrica de nuestra señal de ECG entre los pulsos reales del corazón. Estas ondas fibrilatorias son indicativas de la presencia de FA y su detección es fundamental para un diagnóstico certero. El algoritmo de detección desarrollado se probó en seis señales de ECG obtenidas de una base de datos, que incluía sujetos sanos y sujetos con otras patologías cardíacas. La efectividad del algoritmo se evaluó en términos de su capacidad para detectar correctamente la presencia de la FA, así como para minimizar los falsos positivos.


CONCLUSIONES

En el presente estudio, se observó que el software desarrollado fue capaz de detectar cuatro de las señales como fibrilación auricular, identificando las tres características esenciales previamente mencionadas. Sin embargo, en las otras dos señales, solo se pudieron detectar dos de las características, lo que sugiere que aún se necesita estudiar y mejorar la generalización del algoritmo para lograr una detección más precisa de estas dos patologías faltantes. En cuanto a los sujetos sanos, los resultados fueron altamente alentadores, ya que el algoritmo mostró una precisión del 100% al descartar la falta de características  de la fibrilación auricular en estas muestras. Esto indica que el algoritmo es capaz de diferenciar de manera efectiva entre una señal de ECG normal y una afectada por fibrilación auricular, evitando confusiones con esta patología. Por otro lado, el algoritmo también demostró una buena capacidad para descartar otras patologías que no son fibrilación auricular, gracias a las características distintivas de esta arritmia, como la irregularidad de los pulsos y la presencia de las ondas f. En particular, se destacó que el algoritmo es capaz de diferenciarse de otras patologías excepto por una derivación de esta que es el aleteo auricular. Aunque los resultados son prometedores, se reconoce que aún queda trabajo por hacer para mejorar la capacidad de generalización del algoritmo y permitir una detección más precisa de las dos señales faltantes. Se sugiere seguir investigando y ampliando el conjunto de datos utilizado para entrenar y validar el algoritmo, con el objetivo de mejorar su sensibilidad y especificidad.
Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Nostroza Hernández Marcos, Universidad Veracruzana
Asesor: Dr. Carlos Escobar del Pozo, Universidad de Colima

ANáLISIS DEL CRITERIO Q COMO PARáMETRO HEMODINáMICO EN ANEURISMAS INTRACRANEALE.


ANáLISIS DEL CRITERIO Q COMO PARáMETRO HEMODINáMICO EN ANEURISMAS INTRACRANEALE.

Nostroza Hernández Marcos, Universidad Veracruzana. Asesor: Dr. Carlos Escobar del Pozo, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Un aneurisma cerebral es una protuberancia formada a partir de un punto frágil en una arteria del cerebro que se expande por la acumulación de sangre lo que aumenta la presión sobre los nervios o el tejido cerebral provocando dolor de cabeza súbito, náuseas, vómitos y en los peores casos, derrames cerebrales que producen secuelas permanentes e incluso la muerte del paciente.  Si bien se han hecho muchos estudios sobre los efectos hemodinámicos que afectan la pared de los vasos deformados, poco se ha profundizado en el comportamiento de la sangre como fluido en movimiento al pasar a través del aneurisma. Durante el verano de investigación se propone analizar el flujo sanguíneo empleando una nueva variable, el Criterio Q, para determinar o descartar la influencia que tienen los vórtices en el riesgo de expansión o rotura de los sacos aneurismáticos, partiendo de la moderna y revolucionaria idea de que el flujo sanguíneo dentro de aneurismas es turbulento y no laminar como se creía. Es posible que una investigación sobre la vorticidad en la sangre no sólo sirva como entrada para estudios que intentan predecir el crecimiento de los aneurismas, sino que también podrían encausar el desarrollo de mejores herramientas y tratamientos clínicos.



METODOLOGÍA

Mediante el uso del software OpenFOAM se realizaron simulaciones numéricas computacionales para recrear la hemodinámica dentro de una aneurisma intracraneal, teniendo en cuenta valores reales   de velocidad de flujo, propiedades de la sangre y las dimensiones del modelo correspondiente al aneurisma, mismo que fue tomado de un sitio de internet que modela la estructura de aneurismas verdaderas que sufren ciertos pacientes. Las simulaciones se validaron implementando un experimento que mide la velocidad de  una partícula dentro de una geometría diseñada arbitrariamente, además de que permite visualizar lo que ocurre dentro de la figura durante el movimiento del fluido. Para efectos de experimentación, se utilizó agua como fluido de trabajo y por consiguiente, en las simulaciones se utilizaron las propiedades del agua y las condiciones que corresponden a la geometría arbitraria. Primero se realizó un análisis de sensibilidad de malla con tres distintos tipos de malla de la geometría de interés, reuniendo los resultados de velocidad que OpenFOAM entrega y posteriormente, compararlos con las mediciones experimentales reales. Observando la enorme similitud entre los resultados de simulación y experimentación, se determinó la confiabilidad de los valores que entrega el software. Esta es la prueba fehaciente de que a través de proceso sencillo pero muy bien pensado para los fines que se requieren, es posible dar certeza a las nuevas herramientas computacionales de hoy en día. Se repitió el proceso de análisis de sensibilidad de malla pero esta vez con dos geometrías de aneurismas a estudiar, con la diferencia principal de que una de ellas reventó y la otra no. Se eligieron estos casos ya que sus diseños son muy parecidos lo que permite una mejor comparación. Configurando en OpenFOAM las propiedades de la sangre como su viscosidad (considerada en este caso como un fluido newtoniano) y velocidad de flujo. Se inició por correr las simulaciones propias del aneurisma que no reventó, calculando el criterio Q. Finalmente se repitió el proceso con aneurisma que si reventó, para comparar y observar los resultados del criterio Q en ambos casos.


CONCLUSIONES

Las simulaciones muestran que tanto en el aneurisma en el que reventó el saco como para el caso en el que no lo hizo, existen vórtices, con una mayor presencia en las regiones donde hay bifurcaciones de la arteria, curvaturas cerradas y en ciertas partes del cuello del aneurisma, especialmente donde la formación del aneurisma genera distorsiones muy pronunciadas en la pared del vaso afectado. Con base en la teoría recopilada y con lo observado en las simulaciones, el equipo de trabajo plantea la hipótesis de que los vórtices si tienen cierta influencia en el desarrollo y colapso de aneurismas intracraneales sin embargo, determinar el impacto verdadero de la vorticidad dentro de aneurismas requiere ahondar más en las simulaciones recreando y comparando más casos usando el criterio Q como el máximo referente. El aporte principal del verano de investigación tanto para el estudiante como para el equipo de trabajo del investigador dirigente, es la reunión de información teórica y la descripción para calcular el criterio Q en aneurismas a través del software OpenFOAM, con una proyección a futuro en la que se pretende retomar esta metodología y aplicarla para profundizar el estudio de aneurismas en investigaciones como la descrita en este reporte y también en otros casos en los que sea viable implementarla.
Novela Puente Ana Georgina, Universidad Vizcaya de las Américas
Asesor: Dra. Alicia Olvera Montejano, Instituto Tecnológico de Colima

SíNDROME DE BURNOUT EN INSTITUCIONES DE EDUCACIóN SUPERIOR. CASO: DOCENTES DE LAS CARRERAS ADMINISTRATIVAS DE LA UNIVERSIDAD VIZCAYA DE LAS AMéRICAS.


SíNDROME DE BURNOUT EN INSTITUCIONES DE EDUCACIóN SUPERIOR. CASO: DOCENTES DE LAS CARRERAS ADMINISTRATIVAS DE LA UNIVERSIDAD VIZCAYA DE LAS AMéRICAS.

Novela Puente Ana Georgina, Universidad Vizcaya de las Américas. Asesor: Dra. Alicia Olvera Montejano, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

El síndrome de agotamiento profesional Burnout, en su forma clínica, fue descrito por primera vez en 1974, por el psiquiatra americano Herbert Freudenberger. Lo definió como un estado de fatiga o frustración que se produce por la dedicación a una causa, forma de vida o relación que no produce el esperado refuerzo (Vélez, 2016). En México, el Síndrome del Burnout afecta al 60% de los trabajadores, en particular aquellos entre 25 y 40 años de edad. Estas estadísticas corresponden a  estimaciones arrojadas en 2016 por la Escala Mexicana de Desgaste Ocupacional (EMEDO) elaborada por la Universidad Nacional Autónoma de México (UNAM). En el marco de esta problemática, es importante estudiar el Síndrome del Burnout en los docentes de las carreras Administrativas de la Universidad Vizcaya de las Américas Campus Colima, debido a que este padecimiento tiene connotaciones afectivas negativas que atañen a los docentes en diferentes niveles como pueden ser: Personal: Afectando su autoestima. Social: Disminuyendo sus relaciones interpersonales. Laboral: Reduciendo su productividad, calidad y servicio a los alumnos. Por lo cual se plantea la pregunta de investigación: ¿Cuál es el grado del Síndrome de Burnout del personal docente que labora en las carreras Administrativas de la Universidad Vizcaya Campus Colima? Mismo que se analizará a través de la evaluación y medición por medio del Instrumento Maslach Burnout Inventory Educator Survey (MBI-ED) (Maslach, Jackson y Schwab, 1986-1987), para investigar mediante sus tres dimensiones de agotamiento emocional, despersonalización y realización profesional que permitirán dar respuesta a la pregunta de investigación planteada Derivado de la pregunta principal, se plantearon las siguientes preguntas secundarias: ¿Los docentes presentan Síndrome de Burnout?  ¿Los docentes presentan indicios de Síndrome de Burnout? ¿Los docentes no presentan Síndrome de Burnout? Objetivo general. Identificar el grado del Síndrome del Burnout del personal docente que labora en las carreras Administrativas de la Universidad Vizcaya Campus Colima



METODOLOGÍA

El presente estudio se basa en una investigación de campo, será del tipo descriptiva, básico, mixto y transversal que se efectuará durante el mes de Julio del 2023 La población objetivo de este estudio está constituida por 19 docentes que pertenecen al cuerpo académico de las carreras Contabilidad, Administración y Finanzas Corporativas de la Universidad Vizcaya de las Américas, campus Colima.  Para medir el grado de Síndrome de Burnout, se tomó el Instrumento Maslach Burnout Inventory Educator Survey (MBI-ED) (Maslach, Jacckson y Schwab, 1986-1987). Este inventario contiene tres dimensiones que son el agotamiento emocional, la despersonalización y realización o logro personal,  El inventario está compuesto por 22 ítems tipo Likert. La dimensión de agotamiento emocional está conformada por 9 ítems. la dimensión de despersonalización. Esta está conformada por 5 ítems, Por último, la dimensión correspondiente a la realización personal consta de 8 ítems. Para la realización del análisis de carácter descriptivo se usó la aplicación de Hoja de Cálculo de Excel. Para poder obtener la información estadística que sustenta la investigación   Los datos se analizaron por medio de χ2 (Chi cuadrada), análisis de varianzas y correlaciones de Pearson, para evaluar la confiabilidad del instrumento se utilizó el  Alpha de Cronbach.


CONCLUSIONES

De acuerdo a la investigación de tipo descriptiva, básica, mixta y transversal aplicada durante el periodo de Julio, en las carreras administrativas de la Universidad Vizcaya de las Américas campus Colima, conformada por 19 docentes,  Se establecieron los grados de burnout de acuerdo con el manual de MBI-ED concluyendo lo siguiente: Para medir la consistencia interna del instrumento MBI-ED sobre esta investigación y obtener indicadores de confiabilidad, se utilizó el modelo de Alfa de Cronbach (α), y así poder comparar los encontrados por Maslach y Jackson (1982). El valor mínimo aceptable para el coeficiente alfa de Cronbach es 0.7; por debajo de ese valor la consistencia interna de la escala utilizada es baja. (Celina y Campo, 2005) Este valor manifiesta la consistencia interna, es decir, muestra la correlación entre cada una de las preguntas. El valor obtenido para esta investigación  como indicador Alfa de Cronbach es de α=0.4130 (Existe una débil relación entre las preguntas) con un valor de correlación Pearson corregido de r=0.4889, mismo que indica una débil relación entre las preguntas. De acuerdo a lo anterior se observa que las respuestas brindadas por los docentes no muestran consistencia y confiabilidad, sin embargo se realizó el análisis e interpretación de acuerdo a los resultados obtenidos. Dando respuesta al objetivo general que se plantea en la investigación que es Identificar el grado del Síndrome del Burnout presentado en los docentes de las carreras administrativas de la Universidad Vizcaya de las Américas Campus Colima, El 47.38% de los docentes se encuentra en nivel bajo de Síndrome de Burnout, el 42.11% cuenta con grado medio y solo el 10.53% tiene un alto grado de Síndrome de Burnout. De esta forma, se indica que el grado del Síndrome de Burnout presentado en los docentes es bajo ya que representa el 47.38 pero con indicios de presentar burnout, debido  a que el 42.11% de los docentes que se encuentran en nivel medio (indicios de burnout). Para avalar los resultados de la investigación, se recomienda realizar otra investigación utilizando otro instrumento con el que podamos contrastar las variables analizadas.
Noyola Zamora Marianne Denis, Instituto Politécnico Nacional
Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California

ADQUISICIóN, PROCESAMIENTO Y ANáLISIS COMPARATIVO DE LAS SEñALES ELECTROENCEFALOGRáFICAS EN PERSONAS AUTISTAS Y NEUROTíPICAS ANTE ESTíMULOS SENSORIALES AUDITIVOS.


ADQUISICIóN, PROCESAMIENTO Y ANáLISIS COMPARATIVO DE LAS SEñALES ELECTROENCEFALOGRáFICAS EN PERSONAS AUTISTAS Y NEUROTíPICAS ANTE ESTíMULOS SENSORIALES AUDITIVOS.

Cárdenas Canales René Patricio, Instituto Politécnico Nacional. Noyola Zamora Marianne Denis, Instituto Politécnico Nacional. Rodriguez Acuña Ricardo, Instituto Tecnológico Superior de Cajeme. Villafuerte Martínez Naomi Arelí, Universidad de Colima. Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El trastorno del espectro autista (TEA) es una condición del neurodesarrollo caracterizada por alteraciones en la comunicación e interacción social, así como en el procesamiento sensorial. Esto representa un desafío significativo para la sociedad debido a su alta prevalencia y las dificultades que su población puede experimentar en diversos aspectos de su vida. Dentro del autismo, se experimentan diferencias en la sensopercepción que pueden variar de un individuo a otro. Algunas personas pueden experimentar una audición típica o tener habilidades auditivas excepcionales, mientras que otras pueden enfrentar dificultades en su procesamiento. El análisis comparativo de la respuesta eléctrica cerebral mediante electroencefalografía (EEG) entre personas autistas y neurotípicas (es decir, sin trastornos neurológicos) frente a estímulos sensoriales auditivos se ha convertido en una herramienta de investigación relevante para comprender las bases neurobiológicas de las diferencias en el procesamiento sensorial entre ambos grupos. Por tanto, surge la necesidad de formular la siguiente interrogante: ¿Existe una diferencia significativa en la respuesta eléctrica cerebral en personas autistas y neurotípicas ante estímulos sensoriales auditivos? Este estudio tiene como objetivo principal comparar las respuestas cerebrales mediante EEG en individuos autistas y neurotípicos al exponerse a estímulos sensoriales auditivos.



METODOLOGÍA

El inicio del proyecto involucró una revisión de la literatura existente con el objetivo de obtener información sobre la reactividad eléctrica cerebral de personas autistas frente a potenciales evocados auditivos y sobre las áreas cerebrales implicadas en el procesamiento de la información sonora. Durante el proceso de consulta, se realizaron pruebas con dos sistemas de EEG disponibles para la investigación el Emotiv EPOC+ de 14 canales y el Open BCI de 8 canales para determinar cuál se adaptaba mejor a las necesidades del proyecto, considerando aspectos como la comodidad, la ubicación y tipo de los electrodos, el formato de la información numérica, la posibilidad de agregar marcadores y los insumos disponibles para su mantenimiento y correcta colocación.  Se tomó una clase enfocada en la sensopercepción y las crisis sensoriales en el trastorno del espectro autista se estableció un protocolo de actuación en caso de que un participante presente señales de malestar o desencadene una crisis durante la presentación de los estímulos auditivos. Para su presentación, los estímulos auditivos se dividieron en dos categorías, con una duración de dieciséis segundos cada uno, y separados con silencios de la misma magnitud. Estas consistieron en diez sonidos cotidianos y diez frecuencias dentro del umbral auditivo, las cuales se determinaron al relacionarse con la regularidad con la cual se presentan en la vida diaria. Para su estandarización, se utilizó una aplicación de celular para medir los decibelios percibidos desde la perspectiva del sujeto de estudio. Para la delimitación de la población, se utilizó el Cuestionario de cociente del espectro autista (Baron-Cohen, 2001), el cual es empleado para cuantificar los rasgos autistas. Se seleccionaron dos personas autistas, y dos personas neurotipicas ambos de la misma edad y sexo. Una mujer autista de veintidós años y un varón autista de dieciséis años, y en contraparte, una mujer neurotípica de veintidós años y un varón neurotípico de dieciséis años. Se les realizó una entrevista sobre su historial clínico y posteriormente se les aplicó el Cuestionario de sensibilidad auditiva (Khalfia y col., 2002). Para el escenario se seleccionó uno de los salones de la universidad y se tomaron las medidas necesarias para eliminar la mayor cantidad de sonidos de fondo durante las pruebas y se utilizó una bocina ubicada a un metro de distancia del sujeto. Antes de iniciar las pruebas, se realizó un ejercicio de respiración con el objetivo de que el individuo se encontrará relajado. Posteriormente, se colocó al sujeto en posición sentado con la bocina a la espalda. Frente a él, se situaron dos observadores, los cuales anotaron las reacciones conductuales que el sujeto de prueba pudiera presentar durante la reproducción de sonidos. Para el procesamiento de los datos, se diseñó un programa en Matlab que separó y filtró las respuestas para poder determinar la potencia y frecuencia de onda percibida durante la presentación de los estímulos, cuestión que ayudará a comparar las señales entre cada grupo de individuos.


CONCLUSIONES

Se espera, a través del análisis de la actividad eléctrica cerebral con la utilización de MATLAB, obtener un mayor entendimiento de los mecanismos subyacentes a las peculiaridades sensoriales observadas en personas autistas, lo que podría contribuir a mejorar la evaluación diagnóstica y el diseño de intervenciones terapéuticas para este trastorno del neurodesarrollo. Además, se espera que los resultados obtenidos puedan ayudar en las necesidades sensoriales individuales de las personas autistas. Este estudio de comparación de la respuesta eléctrica cerebral mediante EEG permitió obtener señales de biopotenciales cerebrales que brindan información sobre las bases neurobiológicas de las diferencias en el procesamiento sensorial en el trastorno del espectro autista. Este enfoque puede proporcionar una visión más profunda de cómo el cerebro de las personas con TEA responde de manera distinta a los estímulos auditivos en comparación con el cerebro de individuos neurotípicos y así crear un ambiente menos abrumador para ellas, lo que contribuiría a su bienestar y rendimiento en distintos contextos. Un mayor entendimiento de los mecanismos subyacentes a las peculiaridades sensoriales observadas en personas autistas puede llevar a una mejora en la evaluación diagnóstica y facilitar el diseño de intervenciones terapéuticas más específicas y efectivas, adaptadas a las necesidades sensoriales individuales de cada persona con TEA.
Nuci Aguilar Josue Roberto, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo

PLAN DE REFORESTACIÓN EN EL ÁREA NATURAL PROTEGIDA EL CERRO DEL ÁGUILA, EN ZONAS POTENCIALES DE RECARGA PARA EL MANANTIAL LA MINTZITA.


PLAN DE REFORESTACIÓN EN EL ÁREA NATURAL PROTEGIDA EL CERRO DEL ÁGUILA, EN ZONAS POTENCIALES DE RECARGA PARA EL MANANTIAL LA MINTZITA.

Nuci Aguilar Josue Roberto, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El Área Natural Protegida del Cerro del Águila se ha visto perjudicada por el constante cambio de uso de suelo, lo cual altera el ciclo hidrológico y la capacidad de recarga del manantial La Mintzita, siendo este manantial una de las principales fuentes de abastecimiento de agua para la ciudad de Morelia, el Cerro del Águila cuenta principalmente con suelos andosoles y luvisoles, estos suelos son vulnerables ante la deforestación, lo cual causa la erosión del suelo, lo que perjudica a la correcta infiltración y recarga del manantial, esto ocasionado por los planteamientos de cultivos, la mala gestión del recurso hídrico, aunado al crecimiento demográfico, lo que ha ocasionado el desplazamiento de la fauna y flora del área.



METODOLOGÍA

Mediante el software Google earth se monitorearon las áreas donde la vegetación arbórea nativa ha sido reemplazada, posteriormente se hizo la selección de las áreas donde se propone realizar la reforestación, siendo un total de 638.57 ha a reforestar, encontradas en la parte suroeste del Área Natural Protegida del Cerro del Águila. Las especies seleccionadas para realizar la reforestación son especies arbóreas que forman parte de la vegetación nativa, ya que estas cuentan con las propiedades ambientales necesarias que permiten su correcto desarrollo. De acuerdo a la Secretaria De Medio Ambiente (2023) las especies arbóreas dominantes en el Cerro del Águila que se encuentran aproximadamente entre las altitudes 2300 y 2600 m.s.n.m. son el Quercus desertícola que llega hasta los 2500 m.s.n.m., el Quercus castanea que llega hasta los 2600 m.s.n.m. y el quercus Obtusata viéndose desde los 2300 hasta los 2800 m.s.n.m. Posteriormente se definió el diseño de la plantación de forma tresbolillo, de acuerdo a la Comisión Nacional Forestal (2010) este diseño se debe utilizar en lugares donde hay pendientes mayores al 20 por ciento, pero también se puede implementar en lugares planos. Como indican Carbo & Vidal (s.f.) las ventajas de este diseño permiten plantar una mayor densidad arbórea, es apropiado para plantaciones intensivas, disminuye la erosión del suelo, los inconvenientes de este sistema es que el marqueo es más complicado a diferencia de otros sistemas. Según Matt (2022) la distancia entre planta y planta en la que se deben plantar los Quercus es entre 20-25 pies aproximadamente, con el fin de que los árboles crezcan y compartan los nutrientes más fácilmente. Se tomo una distancia entre 7 m entre planta y planta. Mediante el uso de software Google Earth se calcularon aproximadamente el total de superficie a reforestar siendo un total de 638.57 ha. Para calcular la densidad de plantas por hectárea se utiliza la siguiente formula: árboles=((M)/((D*D)(0.866))) M = superficie a reforestar, D = distancia entre planta y planta Reemplazando en la formula árboles=((6385700)/((7*7)(0.866)))=150 485.459≈150 485 árboles M = 6385700 m^2, D = 7 m El diseño de la plantación tresbolillo consiste en trazar triángulos equiláteros, en este caso cada triangulo tendrá una distancia de 7 metros entre cada uno de sus vértices, se trazarán triángulos uno tras otro por toda el área donde se planea reforestar, dando un total de 150 485 plantas, poniendo cada planta en cada uno de los vértices formados por las figuras geométricas. Se deberá hacer trabajos previos a la reforestación como realizar la limpieza de la maleza del terreno, la cual consiste en eliminar parte de la vegetación arbustiva y herbácea que representa factores adversos en el establecimiento y desarrollo de la planta, por ejemplo, que compita por luz, agua y nutrientes (Vanegas, 2016, pág. 133). Se realizará un deshierbe de manera manual.   El momento adecuado para realizar la plantación es realizarse una o dos semanas de haber comenzado la temporada de lluvias, cuando el suelo este completamente húmedo, de esta manera la planta tendrá más tiempo para establecerse, con el propósito de que el medio ambiente no somete a la planta a condiciones estresantes, como pueden ser las sequias (Arriaga et al, 1994). Una vez que la reforestación haya terminado se deberá de realizar una inspección general final para realizar las observaciones y verificar que todo esté en orden. Tal como Pronatura México et al (2022) sugiere que se recabe la siguiente información como parte del mantenimiento: Reemplazar las plantas muertas para mantener la densidad de la plantación. Hacer un cajeteo de 20 cm de profundidad con menos de 50cm alrededor de los árboles para conservar la humedad y retirar la maleza. Usar abonos naturales u orgánicos. Hacer brechas cortafuegos. Realizar un cercado por lo menos que dure los primeros 5 años en los cuales la planta se encuentra más vulnerable a la fauna. Podar las ramas más bajas de los árboles para facilitar la supervisión y reducir el reducir los riesgos de incendios. Eliminar la vegetación que perjudique al correcto desarrollo de la planta se recomienda hacerlo en tiempo de secas. De acuerdo a Elías, Pérez & Salmerón (2014) para la evaluación de la plantación se deberá de realizar la estimación del porcentaje de los árboles plantados que siguen vivos; evaluar el estado sanitario para conocer el porcentaje de los árboles que se encuentren sanos, sin daños por plagas o enfermedades; describir y calcular el porcentaje de que tan vigorosos son los árboles que están vivos. Es recomendable que esto se haga anualmente.


CONCLUSIONES

Un plan de reforestación es importante, ya que en él se muestra la identificación de las áreas adecuadas para plantar árboles, la selección de especies, las técnicas de plantación, mantenimiento y evaluación adecuadas,  además de obtener la sensibilización sobre los problemas ambientales, como la deforestación, la degradación de los ecosistemas y la importancia de tomar medidas para proteger y restaurar los recursos naturales, finalmente se espera el incremento de la cobertura forestal nativa, lo cual ayudara a conservar y proteger el equilibrio hídrico y ecológico de la zona.
Nuñez de la Rosa Ever Juan Pablo, Universidad Autónoma de Chiapas
Asesor: Mtro. Carlos Hirashi Valenzuela, Instituto Tecnológico de Sonora

INFLUENCIA DE ESTACIÓN DE AUTOBUSES EN EL TRÁNSITO VEHICULAR DE VIALIDADES ALEDAÑAS


INFLUENCIA DE ESTACIÓN DE AUTOBUSES EN EL TRÁNSITO VEHICULAR DE VIALIDADES ALEDAÑAS

Nuñez de la Rosa Ever Juan Pablo, Universidad Autónoma de Chiapas. Asesor: Mtro. Carlos Hirashi Valenzuela, Instituto Tecnológico de Sonora



PLANTEAMIENTO DEL PROBLEMA

Ciudad obregón, la segunda ciudad más poblada de Sonora, es víctima de uno de los problemas que más ataca a las grandes ciudades, el caos vial. Dicho problema ha sido causado por el constante crecimiento demográfico y una mala planeación urbana que origina una congestión vehicular alrededor de la estación de autobuses C. Faustino Felix. Este inconveniente es causado principalmente por la entrada y salida de autobuses y demás vehículos que tienen como destino esta terminal, ya que transitan las vialidades aledañas pretendiendo accesar o abandonar dicha estación, dificultando el tráfico de la zona, repercutiendo en todos los vehículos que abordan el área. El problema también repercute en los conductores de los autobuses, pues a causa del caos vial, en algunas ocasiones no logran cumplir con los horarios establecidos debido a la demora que enfrentan transitando dentro de la ciudad. Observando desde otra perspectiva esta situación, la ciudad de Tonalá, Chiapas, atraviesa por una situación algo similar. Allí el tránsito todavía no es quizás un problema que preocupe a la población, debido a que es una ciudad en desarrollo, que no cuenta con la fluidez vehicular como para crear aglomeraciones en su interior. Sin embargo, si existe un caso algo particular en la estación de camiones OCC, debido a que su acceso se encuentra ubicada en una calle algo angosta, lo que dificulta que los camiones puedan entrar y salir de la terminal, pues en ocasiones se han llegado a reportar accidentes con vehículos que circulan por la zona. Así mismo, la capital del estado de Chiapas, ha empezado a ser víctima del caos vial que enfrentan las grandes ciudades. Y así como sucede en ciudad obregón, la estación de camiones, pasa a ser parte del problema, pues se encuentra ubicada en una zona muy céntrica. Esto produce que tanto el ingreso como egreso de los autobuses a la ciudad sea muy largo y tedioso, e incluya tramos muy concurridos que ralentizan notoriamente el tránsito de la ciudad en general.



METODOLOGÍA

La recolección de datos fue llevada a cabo mediante un monitoreo en las calles en las cuales se localiza el problema en cuestión, efectuando un control sobre el número y el tipo de vehículos que pasaban por dichos lugares, de modo que se pudiera establecer una relación estos elementos. Esto se realizo en un horario en el cual el trafico fuera denso, de modo que se evidenciara lo más posible el problema. Hecho esto, se procedió a realizar un estudio más a fondo de la ciudad, analizando diversos factores (contexto histórico, cultura, tradiciones, estilo de vida, elementos simbólicos, arquitectura, etc.) que describieran a la población de Cajeme, de modo que la nueva estación de camiones pasara a ser una unidad que demostrara la identidad de la gente que habita la ciudad. Posteriormente, a propuesta del investigador, el Dr. Carlos Hirashi, se contempló un terreno libre ubicado sobre la calle Jalisco, enfrente de la conocida Plaza ley. Se trata de un espacio algo amplio que representa una alternativa muy viable para erradicar las dificultades que los autobuses presentan tanto para ingresar, como para salir de la ciudad. Esto, debido a que el área se encuentra en una zona aislada de las aglomeraciones constantes de tránsito; así como también cuenta con un acceso muy eficaz al boulevard por el cual se sale y se entra a la ciudad. Ya establecido el lugar, se empezó a realizar el diseño de la estación de autobuses tomando en cuenta los elementos antes mencionados, de modo que la gente se sintiera identificada con la estructura y el aspecto de la terminal, y al llegar a ella se sintiera como en casa.


CONCLUSIONES

La estancia realizada en la ciudad de Cajeme, Sonora ha sido de mucho valor académico en mi persona, pues logré adquirir conocimientos que a mi punto de vista representan herramientas que facilitan y amplían mi campo laboral en un futuro. Aborde temas sobre urbanismo que desconocía en su totalidad, así como también desarrolle habilidades de diseño y optimización al momento de llevar a cabo una obra, como lo fue la estación de autobuses. La parte más benéfica para mi es que logre poner en práctica estos conceptos al  diseñar una obra mediante un software (Autocad).
Ochoa Pérez Alan Enrique, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato

PROTOTIPO DE GARAPIñERA SEMIAUTOMáTICA


PROTOTIPO DE GARAPIñERA SEMIAUTOMáTICA

Ochoa Pérez Alan Enrique, Instituto Tecnológico Superior de Guanajuato. Rodríguez Murrieta Luis Ubaldo, Instituto Tecnológico Superior de Guanajuato. Sandoval Rodríguez Edgar Felipe, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El proceso de elaboración del garapiñado se realiza de manera artesanal, lo cual presenta dos problemas principales. Por una parte, no existe un control exacto de la cantidad de ingredientes a utilizar dependiendo del conocimiento de una sola persona, además, que no se esta midiendo la cantidad de calor durante el proceso por lo que todo el proceso no es homogéneo. Por otro lado, al ser una actividad manual requiere de un esfuerzo importante para obtención del alimento pudiendo facilitarse el proceso por medio automatización en el sistema de calentamiento y de mezclado. 



METODOLOGÍA

Hoy en día el proceso de elaboración de garapiñados se realiza comúnmente de manera manual por parte de los artesanos que se dedican a la producción y venta de dicho producto, debido a esto se necesita cierta cantidad de personal involucrado esto dependiendo si es solo un artesano todo el trabajo cae sobre él y en cambio sí es un pequeño negocio que se dedique a la venta y distribución se ocupan más trabajadores, es necesario que dicho personal participe activamente en el tiempo que lleva el proceso en realizarse el cual consta más o menos de 30 minutos teniendo un rendimiento de 290 gramos y pudiendo conservarlos hasta por 6 meses en una bolsa bien sellada según la Profeco. Esto ha venido sucediendo a lo largo de los años en el municipio de Guanajuato y localidades adyacentes donde un gran número de comerciantes se dedican a su venta en el Mercado hidalgo como punto principal, puestos ambulantes e incluso en el transporte público y según la entrevista realizada a Cristian Eduardo Aguilar Murrieta el lleva 13 años en este oficio. Basándonos en los objetivos del proyecto, obtenemos lo siguiente: Recursos:     Equipo de ingeniería mecatrónica 6°A y B (tres personas): 6 horas de trabajo a la semana durante 6 semanas.     Asesor del proyecto (una persona): 6 horas de trabajo a la semana durante 6 semanas.     Revisión de diseño, cálculos y fabricación (tres personas): 7 horas de trabajo a la semana durante 6 semanas.     $2000 de materiales, componentes y herramientas. Entregables:     Formato de protocolo a mediados de noviembre.     Maquina semiautomática, fabricadora de garapiñados. Hoja de ruta del proyecto y cronograma (Sexto semestre):     19 de junio: Reorganización del equipo, por cambios en la cantidad de integrantes.     21 de junio: Retomar el formato del semestre anterior para realizar correcciones.     24 de junio: Definir justificación, Objetivos específicos y generales, y portada.     segunda semana de Junio: Entregar avance de formato protocolo de proyecto.     27 de junio: Revisar correcciones propuestas por docentes.     27 de junio: Realizar las correcciones indicadas.     29 de junio: Entrega de formatos para participar en verano Delfín.     5 de julio: Implementación de circuito para regularización de velocidades.     13 de julio: Corregir el balanceo dinámico del prototipo.     19 de julio: Corrección y actualización de los documentos del prototipo.      24 de julio: Corregir el balanceo dinámico del prototipo y agregar un sistema de elevación al motor.     27 de julio Acoplar una resistencia para calentar los ingredientes.     30 de julio: Probar la maquina ya en forma con los detalles agregados.     30 de julio: Registrar los datos de la prueba de acuerdo con la curva de caramelización.     1 de agosto: Corregir los inconvenientes que surjan con el prototipo.     Realizar la exposición y documentos para presentar el proyecto.     Presentar el proyecto con los resultados y conclusiones.   Fuera de alcance:     Máquina multiusos fabricadora de garapiñados y otros elementos.     Elaborar una máquina a gran escala


CONCLUSIONES

Se hizo uso de la curva de caramelización para encontrar la temperatura en la que el caramelo llega a su punto ideal. Se realizo el diseño de la estructura en un software CAD y posteriormente implementarlo en físico El motor que se usó solo realiza el proceso de mezclado el cual ayuda a que todo el cacahuate reciba el recubrimiento del azúcar y que este no se pegue, este tiene adjunto una varilla de acero inoxidable, así como las aspas del mismo material. Se elaboraron garapiñados de forma manual para poder medir tiempos, temperatura y cantidad y así poderlas compararlas con las pruebas realizadas en el prototipo.  Hasta el semestre anterior se habían cumplido los puntos anteriores. Se realizaron pruebas con el prototipo, se tomaron muestras de los cacahuates en cada parte del proceso de caramelización, se empezó a elaborar nuevamente la estructura en perfil-t 225 calibre 18, se empezó a corregir el balanceo dinámico y se empezaron a rediseñar los agitadores dado que los anteriores presentaron problemas al momento del mezclado.   La curva de caramelización se ajusta a una curva lineal de manera inicial buscando un tendencia del comportamiento, pero debido a la naturaleza del caramelo, la temperatura varía. Ese comportamiento debe tomarse en cuenta.  Este es un proyecto multidisciplinario que por la innovación en el proceso de la elaboración de garapiñados y de otros dulces que tengan el mismo proceso. Es bastante versátil debido a que cualquier persona siguiendo una hoja de instrucciones puede elaborar dicho dulce. Aún se seguirá trabajando y mejorando en los siguientes semestres y que el proceso a realizar sea lo más optimo posible, está dirigido a pequeños negocios e incluso a nosotros mismos para comenzar a emprender. Se deben corregir errores de diseño para que el prototipo pueda realizar nuevamente las pruebas de elaboración de garapiñados. Es un proyecto joven, sin embargo, para el período tan corto que fue el verano y con la inversión monetaria de los integrantes se consiguió tener un buen avance.   
Ochoa Sierra Fernanda, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE PRODUCCIóN EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU.


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE PRODUCCIóN EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU.

Ayala Romero Daniela, Instituto Tecnológico Superior de Uruapan. Ochoa Sierra Fernanda, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

RESUMEN: La productividad de las empresas públicas está íntimamente relacionada con las políticas gubernamentales de carácter popular insertas en la planeación nacional, para un mejor uso de los recursos humanos y materiales con los que cuenta la nación. El Service Level Management es uno de los cinco componentes fundamentales del área de prestación de servicios ITIL, y su comprensión es fundamental para garantizar el cumplimiento del nivel de servicio ofrecido tanto a clientes, usuarios y proveedores.



METODOLOGÍA

DMAIC Definir: Barreras encontradas (Falta de maquinaría, organización administrativa, operatividad, control de materiales) Acciones emprendidas (estandarización, tiempos, muestreos, análisis de los flujos de los procesos, priorización de atención a reportes) Medir: Muestreos en base a tiempos de trabajo Productividad Características de los tipos de reportes Analizar: Diferentes tipos de reporte El proceso de producción de los diferentes tipos de reportes Mejorar Tiempos en los procesos de producción Aumentar la atención de reportes por día, con finalidad de terminación Establecer políticas para atención a reportes como: Criterios de importancia en base al tiempo (primeras entradas primeras salidas), zona, tipo de reporte y gravedad de afectación social. Estandarización de tiempos en concluir un reporte operativamente. Proponer sistema de pago por destajo. Controlar: Flujos de salida y entrada de material en cuanto a cantidad y costo


CONCLUSIONES

Resultados A través de la metodología aplicada, algunos resultados obtenidos y por definir dentro del proyecto en la Institución Pública y de Servicios CAPASU, se describen de la siguiente forma: * Diagramas de flujo de todos los procesos * Estándar de tiempos del proceso * Formato de hoja del material utilizado por día * Muestreo de productividad * Tabla de características de tipos de reporte * Catálogo de materiales del departamento de producción.
Ochoa Vazquez Sabas, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

AUTOMATIZACION DE LOS SGC DE LA CASA CERTIFICADORA NORMIA MEDIANTE GOOGLE Y POWER APPS


AUTOMATIZACION DE LOS SGC DE LA CASA CERTIFICADORA NORMIA MEDIANTE GOOGLE Y POWER APPS

Ochoa Vazquez Sabas, Instituto Tecnológico de Ciudad Juárez. Rodriguez Figueroa Ana Margarita, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema La calidad dentro de una empresa es importante porque permite diferenciarse de la competencia, ofrecer un producto o servicio de mayor valor y mejorar la satisfacción y lealtad de los clientes. Todo esto se traduce en un mayor beneficio para la empresa. La empresa debe contar con los siguientes controles de Calidad: Sistema de Control de Calibración de los diferentes equipos dentro de la empresa, ya que cuentan con fechas vencidas de calibración por no llevar un control de tiempos. Sistema de Control de Documentos esto para tener información actualizada, formatos que cambian de revisión, cambios de procesos, hojas de inspección, la creación de nuevos formatos etc. Sistema de Control de quejas de Clientes, esto para tener un orden y dar prioridad y agilidad a cada una de ellas. Un Sistema para documentar los hallazgos en las Auditorias Internas dentro de la empresa.



METODOLOGÍA

Metodología Después de realizar un estudio se definió el proyecto elaborando una breve introducción sobre la empresa, y las soluciones para cada uno de los problemas. Con las herramientas de las Google y Power Apps, se puede controlar cada uno de los problemas ya mencionados. Sistema de Control de Calibración de los diferentes equipos dentro de la empresa, con la herramienta de Calendario se puede programar fechas de calibración para cada uno de los equipos registrándolos en un Excel para llevar un control de Calibración.   Sistema de Control de Documentos esto para tener información actualizada, formatos que cambian de revisión, cambios de procesos, hojas de inspección, la creación de nuevos formatos etc. Se agrega información a Drive con la ayuda de Sistemas de la Información para poner un candado, esto para que solo puedan ver la información y no puedan modificarla. Toda persona tendrá acceso a los diferentes formatos, tablas de revisión, Diagramas, dibujos etc. Sistema de Control de quejas de Clientes, esto para tener un orden y dar prioridad y agilidad a cada una de ellas. Implementar el uso de correo y programar juntas por medio de Meet o Teams y dar seguimiento a las diferentes quejas, esto es muy importante ya que si una queja viene de otro estado o país se pueda tomar esa video llamada y ver el problema y la solución sin necesidad de salir del centro de trabajo ahorrando costos. Un Sistema para documentar los hallazgos en las Auditorías Internas dentro de la empresa. Aquí se implementa el uso de Drive y Calendario, para esto se subirá toda evidencia en la nube y el calendario lo usaremos para programas juntas ya sea en una sala de la empresa o por medio de Teams, Meet o Zoom.  


CONCLUSIONES

Conclusiones Durante la estancia de verano se logró adquirir conocimientos para solución de los diferentes que atacan a la empresa por medio de las herramientas que nos ofrece las Google y Power Apps, implementando estas aplicaciones se da la mejora continúa dando solución a cada uno de los problemas.
Ojeda Xiqui Alejandro, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Kelsey Alejandra Ramírez Gutiérrez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SEGUIMIENTO DE SEñALES DE TRáNSITO UTILIZANDO HASHES PERCEPTUALES


SEGUIMIENTO DE SEñALES DE TRáNSITO UTILIZANDO HASHES PERCEPTUALES

Carrillo Partida Alicia Lizbeth, Universidad Autónoma de Nayarit. Ojeda Xiqui Alejandro, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Kelsey Alejandra Ramírez Gutiérrez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la conexión constante a internet a través de diversos dispositivos ha transformado nuestra forma de interactuar con el entorno. Los automóviles autónomos ofrecen ventajas al contar con sistemas avanzados de reconocimiento de objetos en movimiento, como semáforos y señales de tránsito. Según datos del INEGI, en 2022 hubo aproximadamente 377 mil accidentes en el tránsito terrestre, resaltando la importancia de buscar soluciones para reducirlos. A pesar de los métodos existentes para el reconocimiento de señales, es necesario mejorarlos, considerando la necesidad de realizar estos reconocimientos de manera rápida y efectiva para evitar accidentes. El desafío principal es desarrollar un sistema altamente eficiente y preciso que pueda procesar información en tiempo real, tomando decisiones rápidas y seguras mientras se conduce. La variabilidad en las condiciones de visibilidad, como el clima adverso o señales parcialmente ocultas, también es un factor a considerar, ya que podría afectar diferentes sistemas de reconocimiento y seguimiento. Además, se debe tener en cuenta la capacidad de adaptación del sistema a los cambios en las regulaciones de tráfico y la aparición de nuevas señales, lo que requiere flexibilidad y capacidad de aprendizaje. En resumen, el desarrollo de un sistema de reconocimiento de señales de tránsito efectivo, rápido y adaptable es esencial para mejorar la seguridad vial y reducir accidentes. Para ello, proponemos la implementación de funciones Hash que permitan un reconocimiento automático mediante un análisis de vídeo. Estas funciones tienen la ventaja de ser rápidas y eficientes al comparar imágenes.



METODOLOGÍA

La metodología para el desarrollo del programa de seguimiento de señales de tráfico mediante el uso de hashes perceptuales se describe a continuación: Selección de tecnología de desarrollo: Se elegirá la tecnología de programación más adecuada para la implementación del programa Diseño de las funciones hash perceptuales: Se definirán los algoritmos para implementar las funciones A-Hash, D-Hash y P-Hash. Estos algoritmos se basarán en una secuencia común de preprocesamiento, extracción y cuantización de características Diseño del banco de pruebas: Se establecerá un conjunto de imágenes de señales de tráfico representativas para crear el banco de pruebas. Cada imagen estará asociada a un identificador único y un hash perceptual correspondiente Implementación de los métodos de hash: Se procederá a implementar las funciones Ahash, Dhash y Phash utilizando los algoritmos diseñados previamente. Cada función hash será organizada en una clase para facilitar su uso y reutilización Almacenamiento de señales de tránsito: Se almacenan las señales de tránsito en una base de datos. Cada señal se compone por un identificador, una posición en la escena y el hash perceptual. Esto permitirá que el programa tenga una forma de trabajar con múltiples señales Método de comparación: Se creará un método de comparación que utilizará la imagen base de referencia y comparará las demás imágenes utilizando la distancia de Hamming normalizada propuesta en las funciones Hash definidas en el punto 4. Se irán descartando las imágenes que no tengan una coincidencia. Esto se hará para una mejor eficiencia en el sistema de seguimiento. Manipulación de vídeos: Se carga el video donde se debe notar una señal de tránsito, dicho video será procesado y de él se extraerán las imágenes necesarias para la identificación, este proceso lleva los siguientes pasos: Se obtienen las coordenadas iniciales de la señal a seguir en el video Se almacena la señal de acuerdo con el paso 5 Cada ciertos frames, por cada señal, se calculan los vecinos de cada señal registrada considerando a una señal base Se actualiza la imagen base de la señal conforme las coincidencias en movimiento Seguimiento de señales en video: Para el seguimiento de la señal, con los datos extraídos en el punto anterior se procesan las zonas de interés del vídeo de acuerdo con el punto 4, este proceso sigue los siguientes pasos: Cada región vecina extraída de la escena será comparada con la base de datos En dicha escena se encontrará cada señal que será analizada en movimiento En la comparación de la imagen con la base de datos se encuentra la similitud aprovechando la robustez de la función Teniendo la similitud coincidente se actualiza el registro de la señal para su seguimiento Evaluación del rendimiento: Se realizarán pruebas exhaustivas para evaluar el rendimiento y la precisión del programa de seguimiento de señales de tránsito. Se ajustarán los parámetros y algoritmos según sea necesario para mejorar la eficiencia y la robustez del sistema Con esta metodología, se podrá desarrollar un programa eficiente para el seguimiento de señales de tráfico utilizando hashes perceptuales.


CONCLUSIONES

Durante esta estancia de verano, se lograron cumplir satisfactoriamente los objetivos propuestos en el plan de trabajo. El programa de seguimiento utilizando las funciones Hash permite analizar señales base en vídeos, y ha demostrado ser un avance significativo al lograr el seguimiento de la señal y almacenar su última coincidencia exitosamente aún a pesar de cambios en las condiciones ambientales. De las pruebas realizadas utilizando el banco pruebas con las funciones de hash perceptual AHash, PHash y DHash se obtuvo el seguimiento de las señales de tránsito. La función Hash perceptual que nos dio un mejor resultado en el seguimiento fue la función Phash debido a su robustez. Es relevante destacar que el programa actual representa un hito importante en el camino hacia un trabajo a largo plazo, donde se aspira a implementar inteligencia artificial capaz de reconocer automáticamente el tipo de señal y clasificarla para su incorporación al código desarrollado.
Olarte Astudillo Rodrigo, Instituto Politécnico Nacional
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

CATáLOGO DE OBJETOS 3D PARA PUBLICIDAD CON REALIDAD AUMENTADA


CATáLOGO DE OBJETOS 3D PARA PUBLICIDAD CON REALIDAD AUMENTADA

Munguia Poblano Erwin, Instituto Politécnico Nacional. Olarte Astudillo Rodrigo, Instituto Politécnico Nacional. Rodríguez Rodríguez Ángel Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La publicidad siempre ha sido un recurso importante que utilizan las empresas para acercar sus productos a los consumidores. Su finalidad es lograr que los consumidores se sientan más familiarizados con los productos de un fabricante. La industria publicitaria ha estado en constante evolución aprovechando los avances tecnológicos para poder adaptarse a las necesidades actuales de los consumidores. Sin embargo, cuando existen muchas empresas que desean acercar sus productos a los consumidores, estas deben buscar nuevas medidas que logren que sus productos sobresalgan por encima de los competidores. La problemática que se aborda en este proyecto es encontrar una medida para llevar una aproximación realista del producto a los consumidores mediante modelos 3D de los productos y realidad aumentada.



METODOLOGÍA

Para digitalizar un objeto se utilizó el método de proyección estructurada de franjas que requiere un proyector y una cámara. El objetivo del proyector es iluminar el objeto con un patrón de franjas mientras que la cámara captura las fotos. Para realizar la reconstrucción 3D, es necesario calibrar el sistema, donde se obtienen los siguientes parámetros. Matriz Kc y Kp, que representa la configuración de la lente y píxeles del sensor de la cámara y proyector, respectivamente. Matriz Rc y Rp, que representa la rotación que tiene la cámara y el proyector en el espacio, respectivamente. Vector tc y tp, que representa la posición de la cámara y el proyector. La calibración se debe hacer utilizando un patrón de referencia, y tomar varias fotos con diferentes rotaciones del mismo, este esta constituido de cuadros tipo ajedrez con un tamaño de cuadro conocido.   Una vez calibrado el sistema ya estamos listos para digitalizar el objeto. Para ello debemos tomar fotos en el mismo espacio donde calibramos. La función del proyector es emitir el patrón de franjas sobre el objeto mientras que la cámara toma las fotos. El patrón es generado mediante una onda cosenoidal donde vamos variando su frecuencia lo que nos da una apariencia de que las rayas verticales se desplazan, mientras más corrimientos tenga la rejilla obtendremos una mejor construcción del objeto, sin embargo se requerirá mayor tiempo de cómputo.  Una vez capturados los patrones de franjas, se extrae la fase envuelta y al resultado se aplica el proceso de desenvolvimiento de fase. La fase final obtenida es usada para obtener una nube de puntos en 3D del objeto a través de la técnica de triangulación lineal. Posteriormente, la nube de puntos obtenida es exportada en un archivo .ply (Polygon File Format), el cual es un formato de archivo 3D en el cual se almacena objetos gráficos descritos como una colección de polígonos. Cabe señalar que hasta esta etapa solo se tienen nubes de puntos mas no la superficie del objeto. Debido a ello es que se debe realizar un postprocesamiento donde primeramente en una aplicación llamada CloudCompare, se limpia el ruido generado por puntos que son colocados en lugares donde el objeto no debería estar presente de modo que la nube de puntos únicamente sea el objeto digitalizado. Posteriormente se realiza un mallado de modo que el objeto ahora es una superficie la cual es exportada en un archivo .obj para así realizar el modelo 3D uniendo múltiples superficies. La superficie resultante del objeto es procesada en el software MeshLab en el cual es exportada la textura del objeto que tenga la malla para que sean aplicadas a la superficie. Finalmente para realizar el objeto 3D, todas las superficies y texturas que fueron obtenidas con los procedimientos anteriores son importadas en la aplicación Blender, donde estas son unidas para finalizar y exportar el modelo 3D en un archivo .fbx (FilmBox).


CONCLUSIONES

En este proyecto se realizó con éxito la digitalización 3D de objetos mediante la proyección de franjas y posteriormente adaptar a un enfoque de aplicación orientado a la publicidad con realidad aumentada. Los resultados se integraron en una aplicación para celular con android 8.0 o superior. En esta aplicación se visualiza el modelo 3D de los productos digitalizados, esto se hace apuntando a los modelos cargados en la aplicación. Las ventajas de usar esta técnica es que reduce enormemente el tiempo de creación de un modelo 3D. Además, el sistema es sencillo de armar y económico. Cabe mencionar que mientras mejor calidad tengan los dispositivos empleados, mejor será la digitalización. Las complicaciones de emplear está técnica son que no existe un procedimiento eficiente para generar los modelos 3D ya que estos requieren de mucho trabajo de postprocesamiento y perjudican la calidad de los mismos. Además debido al gran número de características que se obtienen del objeto, los modelos 3D requieren mucho espacio de almacenamiento. Como mejoras en trabajo a futuro se propone la creación de un método que genere los modelos 3D de forma automática, así como una optimización en los mismos para reducir el espacio en memoria y generar formas de interacción en la aplicación de realidad aumentada.
Olguin Garcia Andrea, Universidad Tecnologica de León
Asesor: Mtro. Héctor Daniel Núñez Cuevas, Universidad Tecnologica de León

DESARROLLO DE HERRAMIENTAS PARA EL ENTRENAMIENTO EN AUTOMATIZACIóN DE PROCESOS


DESARROLLO DE HERRAMIENTAS PARA EL ENTRENAMIENTO EN AUTOMATIZACIóN DE PROCESOS

Casique Alvarez Alejandra, Universidad Tecnologica de León. Dominguez Valencia Abril Yunuen, Universidad Tecnologica de León. Gonzalez Marín Juan Daniel, Universidad Tecnologica de León. Olguin Garcia Andrea, Universidad Tecnologica de León. Asesor: Mtro. Héctor Daniel Núñez Cuevas, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La automatización de procesos industriales es la integración de diferentes tecnologías como: diseño de maquinaria, equipo electrónico, software y hardware computacional, que sean capaces de llevar todo tipo de procesos de producción, selección y control de manera autónoma; es decir, que haga mínima la participación del personal. La necesidad de diseñar equipo para el entrenamiento en el tema de automatización de procesos se origina desde el momento en que se requiere aprender a utilizar los diferentes elementos que pueden conformar un sistema automatizado especialmente para el alumnado de la carrera de ingeniería en sistemas productivos; el alumnado que toma esta materia comprende los conceptos teóricos y prácticos en la utilización del software especializado en los temas de automatización tales como el uso de simuladores como Fluid-SIM, el cual tiene como objetivos crear, simular, y aprender a realizar la conexión de circuitos electroneumáticos, electrohidráulicos, digitales y electrónicos. Sin embargo, al momento de realizar las conexiones en la parte práctica de la asignatura, el uso constante y los errores propios del proceso de aprendizaje, causan el deterioro apresurado de los equipos y debido al control y flujo de recurso económico, se ha complicado la adquisición del material necesario para cubrir los requerimientos de la asignatura. Durante algunos cuatrimestres se ha intentado costear un panel de entrenamiento para que el alumnado pueda aplicar de la mejor manera los conocimientos teóricos obtenidos durante la materia de automatización, lamentablemente, a pesar de tener diferentes cotizaciones de la celda de entrenamiento no ha sido posible obtenerla, pues no se cuenta con los recursos económicos necesarios, ya que estos equipos tienen un costo elevado. Por lo anteriormente mencionado surge la alternativa de diseñar y posteriormente fabricar un panel de entrenamiento o celda de entrenamiento, con el equipo necesario que esté al alcance de las posibilidades económicas de la universidad esperando una reducción de costos de al menos un 30% del costo de una celda comercial.



METODOLOGÍA

Detección de las necesidades de las hojas de asignatura de la materia de Automatización de procesos. Definición de la hipótesis a demostrar con el proyecto mediante una lluvia de ideas del equipo de investigación. Planeación las actividades a realizar mediante un diagrama de Gantt. Determinación los roles de cada integrante del equipo destacando las habilidades de cada uno. Diseño del boceto conceptual del panel de entrenamiento. Práctica con equipo de neumática, electroneumática y PLC. Elaboración del diseño de la estación en SolidWorks. Listado de los insumos requeridos para el proyecto. Cotización con proveedores de la región los materiales necesarios para el montaje de la celda. Elección de los proveedores que mejor se adapten a las necesidades del proyecto.


CONCLUSIONES

Durante la estancia de verano, se logró adquirir conocimientos teóricos para la comprensión de la materia de automatización, así como prácticos para el uso correcto de los equipos como lo son las válvulas, electroválvulas, cilindros de efecto simple y doble efecto, módulos de relevadores y fuentes de voltaje. Aplicando dichos conocimientos en el diseño de la celda de entrenamiento que cumpla con los requerimientos para permitir al alumnado obtener el conocimiento necesario en el área de automatización, sin embargo, dicha celda no será fabricada en este periodo debido al tiempo requerido para ello y los recursos económicos necesarios. Es importante mencionar que la hipótesis planteada en un inicio se cumple pues la inversión total proyectada para la fabricación de la celda o módulo de entrenamiento para la fabricación se presupuesta alrededor de los MX$90,000 Incluyendo el gasto estimado del tablero de control de la celda, mientras que la compra de una celda didáctica de manufactura, de los fabricantes más populares el precio ronda entre los $300,000. - a $500,000. - pesos mexicanos, siendo que la inversión para la fabricación de la celda diseñada en este proyecto representa un 22.5% del precio de la celda comercial, sin embargo, también es importante identificar las ventajas y desventajas que brinda este proyecto ante la adquisición de una celda de automatización comercial. Ventajas de la fabricación de una celda de automatización: Reducción de costos de adquisición. Facilidad de modificaciones y adecuaciones de acuerdo a las necesidades. Comprensión plena del funcionamiento de la celda de manufactura por parte de los diseñadores alumnos. La misma fabricación de la celda crea un conocimiento relacionado a la materia de Automatización de Procesos Libertad de diseño y equipo modular para posteriores actualizaciones o mejoras. Elección de tamaño según necesidades. Posible inclusión de materias relacionadas con el estudio de métodos. Desventajas de la fabricación de una celda de automatización: El tiempo para manufacturarla. El interés del alumnado para aprender sobre esta y poder fabricarla. La obtención de cada uno de los equipos y materiales necesarios. El tiempo de espera para la obtención de cada equipo. Posibles fallos por la fabricación de la celda debido al proceso natural de aprendizaje. Ventajas de la compra de una celda comercial: Una celda comercial es comprada y entregada sin necesidad de fabricación o modificación personal. No hay preocupación y dificultad por el diseño y obtención de los equipos. Vienen con manuales de uso y soporte técnico Tienen garantía por fallas o daños de fábrica. Desventajas de la compra de una celda comercial: El costo de adquisición es muy elevado. El diseño, funciones y finalidad de la celda no pueden ser modificados. Las refacciones solo se pueden obtener con la empresa donde se compra la celda. El mantenimiento debe ser especializado.
Olivares Ariza Abril Corina, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara

EVALUACIÓN FOTOCATALITICA DE LOS COMPUESTOS ZNO, ZRO2 Y MGO EN DISTINTAS PROPORCIONES PARA LA DEGRADACIÓN DE PARACETAMOL


EVALUACIÓN FOTOCATALITICA DE LOS COMPUESTOS ZNO, ZRO2 Y MGO EN DISTINTAS PROPORCIONES PARA LA DEGRADACIÓN DE PARACETAMOL

Olivares Ariza Abril Corina, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alejandro Perez Larios, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

A lo largo del tiempo, la humanidad ha buscado mejorar su calidad de vida, especialmente su bienestar físico, a través de investigaciones y el desarrollo de medicamentos. Sin embargo, en la actualidad, los fármacos han comenzado a ser un problema emergente al entrar al medio ambiente al no metabolizarse completamente. Los ecosistemas acuáticos son los más afectados, mostrando problemas de salubridad sin mejoras significativas según la Organización Mundial de la Salud. Los fármacos, conocidos como contaminantes emergentes, no son tratados adecuadamente antes de ser liberados en los mantos acuíferos debido a la falta de políticas públicas. Como resultado, es común encontrar estos contaminantes en aguas superficiales, subterráneas, suelos e incluso en el agua potable. Los Procesos de Oxidación Avanzados (AOPs) se presentan como una solución efectiva para la degradación de estos contaminantes, especialmente los procesos fotocatalíticos, que utilizan óxidos metálicos a escala nanométrica como catalizadores. Estos procesos transforman los contaminantes en dióxido de carbono, agua y compuestos inorgánicos. En particular, el paracetamol (acetaminofén o APAP), ampliamente utilizado como medicamento analgésico, también se convierte en un problema cuando se encuentra en pequeñas cantidades en el agua potable, causando efectos crónicos en la salud. Si bien existen métodos fisicoquímicos y de biodegradación para reducir su concentración, se han realizado pocos estudios sobre el uso de fotocatalizadores para eliminar productos químicos farmacéuticos. La presencia de fármacos en el medio ambiente se ha convertido en un desafío significativo, y los Procesos de Oxidación Avanzados, especialmente con los procesos fotocatalíticos, ofrecen una posible solución para abordar este problema emergente. Sin embargo, se requiere más investigación en el uso de fotocatalizadores para eliminar productos farmacéuticos y proteger la salud pública y el medio ambiente.



METODOLOGÍA

Materiales. Se adquirió el Paracetamol, de una farmacia comercial, en forma de pastilla. El agua purificada y los cinco fotocatalizadores: ZnO, ZrO2, ZrO2-MgO-ZnO al 0.1, 0.5, 1% fueron sintetizados y proporcionados por el Dr. Pérez Larios Alejandro (Universidad de Guadalajara). Experimentación. Se molió una pastilla de paracetamol empleando un mortero, al observar que las partículas formaban un polvo fino, se procedió a pesar 0.03357 g y posteriormente se diluyo en 1 L de agua purificada para poder generar una concentración de 30 ppm (2x10-3 M). Esta solución se aireo durante 24 h empleando una bomba de aire con agitación continua. Se colocaron 0.3 L de dicha solución en un reactor de vidrio pyrex en donde se le añadieron 0.1 g de fotocatalizador. Se dejó reposar la solución 30 min con aireación y agitación continua para observar si existían procesos de adsorción. Posteriormente, la experimentación se llevo a cabo incidiendo la solución con luz UV-C (250 nm) durante 6 h. Se tomaron alícuotas de 0.0003 L cada 30 min con un filtro para evitar que los fotocatalizadores fueran removidos de la solución. Análisis. Para analizar el nivel de degradación del fármaco, se empleó un espectrofotómetro marca SHIMADZU UV-VIS UV-2600. 


CONCLUSIONES

El presente estudio analizó cinco fotocatalizadores correspondiendo a ZnO, ZrO2 y a su mezcla con MgO en distintas proporciones (0.1, 0.5,1) para degradar Paracetamol. Se encontró que el compuesto más eficiente fue el ZnO al degradar al fármaco en un 66. 5527% en un total de 6 h. Se observó que el ZrO2 por sí solo es un fotocatalizador muy ineficiente al degradar el Paracetamol, sin embargo, su combinación con otros químicos puede mejorar en cierto grado su eficacia. Al no existir pruebas de degradación de Paracetamol con ZrO y las mezclas trabajadas, no fue posible comparar los datos. A pesar de que el ZnO fue el mejor fotocatalizador, se considera que todos los óxidos no son aptos para la degradación de paracetamol puesto que, a las 6 h, no se encontraron resultados satisfactorios (degradación del medicamento en un 80%) a pesar de estar expuestos a UV-C. Sí sé desease cambiar el tipo de luz (UV-A, UV-B), puede suponerse en un aumento en el tiempo de degradación debido a que la longitud de onda incidente puede tardar más en degradar la molécula. Se considera que el gasto energético también es un factor por considerar, ya que, por estar bajo radiación continua, los costes económicos pueden elevarse significativamente.
Olivares Gaspar Jose Manuel, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Tizoc López López, Universidad Michoacana de San Nicolás de Hidalgo

CONTROL Y MONITOREO DE MOTOR DE INDUCCION JAULA DE ARDILLA (MIJA) MEDIANTE INSTRUMENTACION VIRTUAL CON LABVIEW.


CONTROL Y MONITOREO DE MOTOR DE INDUCCION JAULA DE ARDILLA (MIJA) MEDIANTE INSTRUMENTACION VIRTUAL CON LABVIEW.

Olivares Gaspar Jose Manuel, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. Tizoc López López, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la industria y en diversas aplicaciones, los motores de inducción jaula de ardilla (MIJA) son ampliamente utilizados debido a su simplicidad, confiabilidad y bajo costo operativo. Sin embargo, para asegurar un funcionamiento óptimo y eficiente, es crucial implementar un sistema de control y monitoreo adecuado que permita supervisar en tiempo real las variables relevantes del motor, así como ajustar y optimizar sus parámetros operativos. El control y monitoreo tradicional de los motores de inducción jaula de ardilla generalmente se realiza mediante dispositivos físicos y sistemas cableados. Esto puede ser costoso, propenso a errores y limitar la flexibilidad y portabilidad del sistema. La falta de un enfoque más avanzado y automatizado conduce a varios desafíos: a) Limitaciones de monitoreo en tiempo real: La falta de instrumentación virtual impide una monitorización precisa y en tiempo real de variables clave, como corriente, voltaje, velocidad, temperatura, entre otras. b) Falta de adaptabilidad y flexibilidad: Los sistemas cableados convencionales dificultan realizar ajustes rápidos y cambios en el control del motor para optimizar su funcionamiento en diferentes condiciones. c) Dificultades en el diagnóstico de fallos: La falta de datos detallados y registros históricos dificulta la identificación temprana de posibles fallas y problemas en el motor. d) Alto costo de implementación y mantenimiento: Los sistemas tradicionales de control y monitoreo pueden requerir inversiones significativas en hardware y mantenimiento, lo que afecta la viabilidad económica del proyecto.



METODOLOGÍA

El objetivo principal del proyecto es desarrollar un sistema de Control y Monitoreo de Motor de Inducción Jaula de Ardilla (MIJA) mediante Instrumentación Virtual con LabVIEW que aborde las limitaciones mencionadas anteriormente. Los objetivos específicos incluyen: a) Diseñar una interfaz gráfica amigable: Desarrollar una interfaz gráfica interactiva utilizando LabVIEW que permita a los usuarios monitorear y controlar el motor de forma intuitiva. b) Implementar la instrumentación virtual: Utilizar LabVIEW para adquirir, procesar y visualizar datos en tiempo real sobre diversas variables del motor, como corriente, voltaje, velocidad, temperatura, etc. En este caso nos estaremos enfocando en la velocidad del motor. c) Establecer un sistema de control adaptable: Diseñar y configurar algoritmos de control que permitan ajustar los parámetros operativos del motor de manera dinámica para optimizar su rendimiento en diferentes condiciones. e) Evaluar el rendimiento y eficacia: Realizar pruebas y comparaciones con el control y monitoreo tradicional para evaluar la eficacia y la mejora en el rendimiento del motor. Siguiendo los objetivos que tenemos que cumplir el primer paso para poder lograr este proyecto será el seleccionar los componentes y materiales que necesitaremos, es decir, moteres, variadores de frecuencia, tarjetas a utilizar, etc… Después de haber seleccionado nuestros materiales haremos pruebas conectando estos para observar su funcionamiento. Después de observar este, deberemos entonces hacer pruebas de comunicación con la tarjeta que usaremos para este proyecto que será el Arduino UNO en esta ocasión, haremos pruebas con salidas y entradas digitales, analógicas, PWM, etc… Después de leer el manual del variador de frecuencia nos daremos cuenta que hay que modificar algunos parámetros para poder controlarlo de manera externa, siendo principalmente los parámetros de la fuente de mando y el parámetro de consigna de frecuencia, se hicieron pruebas de arranque y paro del motor, haciéndolo de manera externa y después implementando la instrumentación virtual logrando esto pasamos a lo siguiente. Después de poder arrancar y parar el motor se hizo lo necesario para poder controlar la frecuencia de manera externa, para esto utilizamos una salida PWM de nuestra tarjeta, comandada desde nuestra interfaz virtual, nos encontramos con el problema de que el control de la frecuencia iba de 0 volts a 10 volts y nuestro PWM de salida de nuestra tarjeta era de 0v a 5v, para esto un amplificador no inversor utilizando un circuito operacional modelo U741, con esto pudimos adaptar nuestro PWM de 0 a 10 volts, teniendo esto realizado se procedió con la siguiente estaba.  La siguiente etapa fue la medición de las revoluciones por minuto, para esto se requirió un sensor HALL el cual se le adapto al eje del motor para poder utilizarlo, se adaptó utilizando materiales que se encontraban en el laboratorio, se hicieron pruebas para poder obtener las RPM´s del motor con un tiempo de censado de 500 milisegundos, para esto utilizamos temporizadores y se requirió hacer un pequeña investigación sobre filtros de señales, ya que sin estos nos se lograba obtener una correcta medición de esta variable, finalmente se pudo obtener correctamente esta medición, llegaba el momento de implementar todo junto en el interfaz del LabVIEW y asi fue, se implementó el arranque y paro, el control de velocidad y la medición de esta misma. El siguiente paso es implementar el control PID para este parámetro, esta etapa es la etapa final del proyecto, etapa en la que me encuentro ahora mismo, se tendrá que hacer pruebas para poder implementar este tipo de control y hacer que el parámetro se estabilice exitosamente.


CONCLUSIONES

Durante la estancia de verano se logró adquirir bastos conocimientos sobre el funcionamiento de los equipos utilizados y lo más importante, se logro poner en práctica todos los conocimientos y experiencias previas que fueron necesarias para la realización del proyecto, actualmente me encuentro en la etapa final del proyecto, es decir, en la parte de la implementación del control PID, con esto puedo decir, que las demás etapas del proyecto se completaron exitosamente, el arranque y paro, la variación de la velocidad y el monitoreo de la velocidad.    
Olivares Navarro Carolina Milagros Esther, Universidad César Vallejo
Asesor: Dr. Leonel Paredes Madrid, Universidad Antonio Nariño

USAGE OF MULTI VOLTAGE MEASUREMENTS IN FORCE SENSING RESISTORS TO ENHANCE THEIR ACCURACY


USAGE OF MULTI VOLTAGE MEASUREMENTS IN FORCE SENSING RESISTORS TO ENHANCE THEIR ACCURACY

Olivares Navarro Carolina Milagros Esther, Universidad César Vallejo. Asesor: Dr. Leonel Paredes Madrid, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

Uso de mediciones de múltiples voltajes en resistencias sensibles a la fuerza para mejorar su precisión



METODOLOGÍA

El estudio es de naturaleza experimental.


CONCLUSIONES

El estudio se centró en mejorar la precisión de sensores basados en Polímeros Conductores Compuestos (CPCs) mediante el uso de mediciones de voltaje múltiple.
Olivares Ramírez Rogelio, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

SISTEMA DE ALIMENTACIóN A CELDA DE HIDROGENO CON CORRIENTE DIRECTA


SISTEMA DE ALIMENTACIóN A CELDA DE HIDROGENO CON CORRIENTE DIRECTA

Olivares Ramírez Rogelio, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se realizó la implementación de una celda seca de hidrogeno a un automóvil de combustión interna buscando obtener una reducción en el consumo de combustible y en las emisiones contaminantes. La celda seca de combustible se alimenta de corriente directa habitualmente tomada de la batería del auto, debemos de cuidar que en los momentos críticos como en el del arranque la celda de combustible no sea un impedimento para que la batería funcione, es por esto que se hace un análisis del sistema eléctrico buscando una alternativa adecuada para el control de la celda.



METODOLOGÍA

Investigación y revisión del control de carga del alternador para obtener la línea de carga para medir el amperaje y corroborar si es apto para alimentar la celda de hidrogeno, la elaboración del circuito de alimentación eléctrica para la celda seca de hidrogeno.  Diseño del sistema de alimentación para la celda seca de hidrogeno y diagrama eléctrico para alimentación eléctrica con corriente directa. Adquisición de los materiales y pruebas iniciales Implementar la celda de hidrogeno con las mejoras realizadas en el compartimiento de un auto a gasolina con inyección electrónica. Realización de pruebas del sistema en su conjunto.


CONCLUSIONES

Se realizo la integración de la celda seca de hidrogeno al automóvil con combustión interna, logrando obtener una mezcla de hidrogeno y gasolina en la cámara de combustión. Para esto se tuvo que implementar un sistema de conducción eléctrica a la celda adecuado, que tomara energía en los momentos adecuados sin afectar el arranque del motor, ni disminuir la capacidad de la batería. En el transcurso de la elaboración del proyecto se determinó que al tomar la electricidad directamente de la batería beneficia a la celda ya que no se hace mucho recorrido el flujo eléctrico por lo que no hay disminución del voltaje y amperaje, la implementación de un interruptor para activar y desactivar la celda seca de hidrogeno fue la mejor opción para el correcto funcionamiento de la batería ya que la celda utiliza mucha energía eléctrica e interfería al arrancar el motor disminuyendo el voltaje necesario para el arranque.
Olivera Bautista Fátima Jhareydi, Instituto Tecnológico de Jiquilpan
Asesor: M.C. Tizoc López López, Universidad Michoacana de San Nicolás de Hidalgo

COMPORTAMIENTO TÉRMICO DE LIB’S AL CONTROLAR CICLOS DE CARGA Y DESCARGA UTILIZANDO INSTRUMENTACIÓN VIRTUAL


COMPORTAMIENTO TÉRMICO DE LIB’S AL CONTROLAR CICLOS DE CARGA Y DESCARGA UTILIZANDO INSTRUMENTACIÓN VIRTUAL

Olivera Bautista Fátima Jhareydi, Instituto Tecnológico de Jiquilpan. Asesor: M.C. Tizoc López López, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las baterías de iones de litio (LIB's) han demostrado ser una tecnología versátil y eficiente en diversos campos, desde dispositivos electrónicos portátiles hasta sistemas de almacenamiento de energía a gran escala. Sin embargo, uno de los desafíos clave en su aplicación es el comportamiento térmico durante los ciclos de carga y descarga, ya que el calor generado en el proceso puede afectar significativamente su rendimiento, vida útil y, en casos extremos, ocasionar situaciones de seguridad. Para abordar estas cuestiones, se han implementado sistemas de gestión de baterías (BMS) basados en sensores físicos para supervisar y controlar el funcionamiento de las baterías. No obstante, la instrumentación tradicional tiene limitaciones en términos de precisión, velocidad de respuesta y costos asociados con la instalación y mantenimiento de sensores físicos. En este contexto, la instrumentación virtual se presenta como una alternativa prometedora para monitorear y controlar los ciclos de carga y descarga de las LIB's. Esta técnica utiliza modelos matemáticos y algoritmos de estimación para obtener información sobre el comportamiento térmico sin depender exclusivamente de sensores físicos, lo que podría proporcionar mediciones más precisas y en tiempo real. En conclusión, este trabajo de investigación se enfocará en el estudio del comportamiento térmico de las baterías de iones de litio al controlar ciclos de carga y descarga utilizando instrumentación virtual. 



METODOLOGÍA

Antes de realizar las conexiones correspondientes para poner en marcha el sistema y la instrumentación virtual, se hizo una investigación de cada uno de los componentes requeridos para las pruebas, estos componentes se obtuvieron del esquema propuesto por el investigador  al inicio de la estancia. Estos elementos fueron: LabVIEW 2023 Q1 Arduino Uno Baterias de iones de litio Sensor de temperatura LM35 Sensor de corriente ACS712 Sensor de voltaje FZ0430 Modulo relé Cargador TP4056 Resistencia 5W 6ꭥ J Se realizaron un total de 62 pruebas, cada una con valores distintos de tiempo para poder tener resultados más exactos, siendo el menor tiempo de 30 segundos y el mayor de 45 minutos. Con ayuda de una cámara fototérmica se podía apreciar la temperatura a la que subía la resistencia durante la descarga de la batería. Esta información era muy util ya que permitía analizar en tiempo real el comportamiento del sistema. Los primeros resultados eran muy inexactos debido al poco tiempo de carga y descarga, además se tuvo que cambiar la resistencia inicial ya que la descarga era muy lenta. Una vez que se hicieron los cambios correspondientes los resultados fueron más concisos, sin embargo, requería de periodos más prolongados de tiempo para ver un cambio representativo en el voltaje de la batería. Una vez que los datos de todas las pruebas estaban resguardados se procedió a graficarlos para analizar el comportamiento de las variables de interés que en este caso fueron corriente, voltaje y temperatura. Por último solo se documentó el proceso de esta investigación, así como las conclusiones obtenidas.  


CONCLUSIONES

Durante los ciclos de carga y descarga, se observó un aumento gradual en la temperatura de las baterías de LIBs. Esto se debe al efecto Joule generado por la resistencia interna de las celdas y a los procesos de transferencia de carga en el electrodo. La capacidad de las baterías de LIBs se vio afectada por el comportamiento térmico. Se observó una disminución en la capacidad efectiva a medida que la temperatura aumentaba, lo que puede atribuirse a la disminución de la eficiencia de las reacciones electroquímicas en condiciones de alta temperatura. El monitoreo continuo de la temperatura de las baterías de LIBs durante los ciclos de carga y descarga es crucial para garantizar su seguridad y rendimiento óptimo. Se identificaron rangos de temperatura seguros y se recomienda implementar sistemas de control y protección térmica para evitar daños y riesgos asociados a temperaturas extremas. La instrumentación virtual permitió la adquisición de datos en tiempo real y la visualización de tendencias y patrones de comportamiento térmico. Esto facilita la detección temprana de anomalías o situaciones de riesgo, lo que a su vez posibilita la toma de decisiones informadas para garantizar un uso seguro y eficiente de las baterías de LIBs.
Olmos Romero Nydia Naomi, Universidad de Colima
Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo

DESARROLLO DE APLICACIóN WEB PARA PROCESO ADMINISTRATIVOS


DESARROLLO DE APLICACIóN WEB PARA PROCESO ADMINISTRATIVOS

Canché Gómez Andy Allen, Consejo Quintanarroense de Ciencia y Tecnología. Larios Bravo Cristian Armando, Universidad de Colima. Olmos Romero Nydia Naomi, Universidad de Colima. Silva Vazquez Ruben Abraham, Universidad de Colima. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El manejo de la información en grandes volúmenes tiene como cargo el saber administrar estas cantidades de una manera eficiente, sencilla y eficaz. Las tecnologías de la información tienen como propósito ayudar al usuario a mantener un orden y manipular esta información de manera sencilla y concisa para él. Nuestro trabajo comienza en desarrollar herramientas para manipular esta información y facilitar el uso de las funcionalidades del sistema al usuario.  



METODOLOGÍA

Para la elaboración de este proyecto se recurrió al uso de diversas tecnologías y herramientas: el framework de PHP Laravel, JavaScript junto con sus frameworks JQuery.js y Node.js, tanto como el Bootstrap. Primeramente, se realizó una inspección del sistema para analizar la funcionalidad del sistema junto con la valoración de las mejoras y requerimientos a implementar, así como para seguir un estándar para vistas y los nombres de los componentes, controladores, modelos, migraciones, entre otros. Resultó indispensable el diseño de una representación visual de la estructura de la base de datos a implementar en el sistema, para posteriormente trasladar dicho diseño de manera lógica en forma de código. Una vez establecida la base de datos (relaciones, tipos de datos a utilizar, etc.) se comenzó a sobre llevar el desarrollo de las interfaces de usuario (frontend) y la lógica detrás de estas (backend). Adicionalmente se establecieron los tipos de usuarios que harán uso del sistema, así como los permisos y restricciones. En el transcurso de la estancia de investigación se pusieron en práctica todos aquellos conocimientos previos del framework Laravel con los que contamos, adicionalmente utilizamos nuevas tecnologías y herramientas que nos fueron de gran ayuda para la realización del proyecto; por ejemplo, la utilización de BitBucket, Git y Github para el control de versiones eficiente nuestro trabajo.


CONCLUSIONES

El aprender diferentes estándares y protocolos de programación fue una parte integral de nuestro aprendizaje durante el desarrollo del sistema, así como tomar en consideración las aportaciones del investigador al aplicar los conocimientos adquiridos. Por otro lado, el sobrellevar los distintos requerimientos solicitados para el sistema fue uno de los mayores retos a los que nos enfrentamos, ya que es un sistema bastante extenso sin embargo las especificaciones siempre fueron claramente indicadas.
Olvera Calderón Claudia Yomara, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán

ESTANDARIZACIóN DEL PROCESO DE OBTENCIóN DE UNA BEBIDA DESTILADA A PARTIR DE AGUAMIEL


ESTANDARIZACIóN DEL PROCESO DE OBTENCIóN DE UNA BEBIDA DESTILADA A PARTIR DE AGUAMIEL

Olvera Calderón Claudia Yomara, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

Actualmente el aguamiel (jugo de agave) ha perdido su valor de mercado debido a la introducción de bebidas altamente distribuidas comercialmente, como la cerveza, representa más del 54% consumo total de etanol combinado con una amplia gama bebidas alcohólicas en el mundo, por otro lado los bajos precios del aguamiel no han generado una relevante ganancia económica para los productores, aunado a que los cultivos del maguey han sido utilizados para otros fines. Por lo tanto, la comercialización de aguamiel no ha recibió mucha atención en México y en otras partes del mundo. En comunidades cercanas a la ciudad de Chalchicomula, Puebla se está buscando la manera de poder aprovechar y darle un valor agregado a la materia prima del aguamiel, la mayor problemática que se presenta es la demanda y oferta que existe ya que esta no se aprovecha  al 100%, siendo que de ella se puede derivar una amplia gama de productos. Por lo que durante el verano de investigación se busca aprovechar esta materia prima (aguamiel) estandarizando un proceso para la obtención de una bebida destilada.



METODOLOGÍA

Investigación en documentación científica (libros, tesis, artículos, normas etc.) en distintos buscadores académicos sobre los temas referentes al proyecto Se realizó una investigación documental científica, los documentos utilizados (libros, tesis, artículos, normas etc.) fueron obtenidos mediante distintas herramientas como buscadores académicos y bibliotecas. Estandarización de un proceso de fermentación y destilado para aguamiel Se utilizó como materia prima el aguamiel, el cual se obtuvo gracias a productores de comunidades cercanas a la ciudad de Chalchicomula, Puebla. Ya con la materia prima se estandarizo un proceso para obtener una bebida destilada a partir de aguamiel. Metodología a nivel laboratorio El proceso se llevó a cabo en el Laboratorio de Usos Múltiples del Instituto Tecnológico Superior de Ciudad Serdán (ITSCS). El proceso se dividió en dos partes: fermentación y destilación. Se trabajó con una fermentación anaerobia. La fermentación contenía 500 ml de aguamiel, 20% de azúcar del aguamiel a fermentar, 0.4‑0.5 de levadura (hidratada con agua a 25 °C‑30 °C) por litro de aguamiel y se dejaron reposar durante 4 días a una temperatura de 23°C ‑25°C. Se midieron los grados brix así como también el pH del aguamiel puro, de la mezcla del aguamiel con el azúcar y la levadura. Una vez concluido el tiempo de fermentación, se midió la cantidad de fermento obtenido, además de medir los parámetros de grados brix, pH, viscosidad, densidad y grados de alcohol. Posterior a este proceso se realizó la primera destilación (destilación simple) en donde primero se armó el equipo, el cual estaba constituido por: un soporte universal, un tripie, una tela de asbesto, un matraz de destilación, un refrigerante, mangueras, un termómetro,  tapones mono y bihoradados, además de un matraz Erlenmeyer para colectar el producto. El destilado obtenido tras realizar la primera destilación (destilación simple), se vuelve a destilar. Se realizó la segunda destilación (destilación fraccionada) en donde se tomó en cuenta cuando las temperaturas se estabilizarán, en cuestión de cambio debía de cambiarse el matraz Erlenmeyer para así, poder obtener la cabeza (metanol y aceites más volátiles), cuerpo (etanol, lo deseado) y cola (agua y sustancias arriba de los 92°C de ebullición). Metodología a escala piloto El proceso se llevó a cabo en el Laboratorio de Usos Múltiples del Instituto Tecnológico Superior de Ciudad Serdán (ITSCS). El proceso se dividió en dos partes: fermentación y destilación. Se trabajó con una fermentación anaerobia, la cual contenía aguamiel (previamente colocado a un proceso de pasteurización por 30 min con el objetivo de eliminar compuestos que pudieran afectar el proceso de fermentación), la cantidad de azúcar necesaria para que el aguamiel indicara  24° Brix, 0.4‑0.5 de levadura (hidratada con 20 ml de agua entre un rango de 25 °C‑30 °C) por litro de aguamiel y se dejaron reposar durante 4 días a una temperatura de 23°C ‑25°C. Se midieron los grados brix así como también el pH del aguamiel puro, de la mezcla del aguamiel con el azúcar y la levadura. Una vez concluido el tiempo de fermentación, se midió la cantidad de fermento obtenido, además de medir los parámetros de grados brix, pH, viscosidad, densidad y grados de alcohol. Posteriormente se trabajó con un prototipo experimental  de un sistema de destilacion, con una capacidad de 5 litros, se utilizó un intercambiador de calor de doble tubo (refrigerante) y se colecto el producto (alcohol) en un matraz Erlenmeyer de 1 litro, esto después de haber realizado los cortes pertinentes para poder obtener cabezas, cuerpos y colas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los temas de aguamiel y destilación, para posteriormente ponerlos en práctica a dos escalas, escala laboratorio y escala piloto, se realizaron distintas pruebas para verificar que variables llegan a afectar en la fermentación alcohólica y al mismo tiempo como estas afectaban en cuanto a la graduación de alcohol que se obtenía tras realizar la destilación simple y la destilación fraccionada. Es un proceso que conlleva tiempo ya que la fermentación puede verse afectada por la temperatura del ambiente, ya que si esta no se encuentra dentro de cierto rango tarda más días en terminar el proceso de fermentación. Se trabajaron con los rangos de temperatura de acuerdo a los rangos obtenidos bajo experimentación para las condiciones de la zona.   Al ser un trabajo extenso aún se encuentra en la fase de fermentación y no se pueden mostrar los datos y el producto obtenido. Se espera la obtención exitosa del cuerpo (alcohol) con el proceso que se estandarizo para la producción del destilado de aguamiel a escala piloto, de igual manera se espera continuar con la escala a nivel semi industrial estableciendo los parámetros finales del proceso.
Olvera Rico Luis Ernesto, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN EL áREA DE INGENIERíA EN CONSTRUCCIóN EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN EL áREA DE INGENIERíA EN CONSTRUCCIóN EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU

Olvera Rico Luis Ernesto, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Independientemente de su tamaño o propósito, la productividad es un elemento crucial en el triunfo de cualquier empresa. El objetivo principal es siempre generar resultados de la más alta calidad. Por lo tanto, es imperativo priorizar la búsqueda de una eficiencia y eficacia óptimas en todos los aspectos de las operaciones de la organización. La medición de la productividad a menudo se descuida a pesar de su importancia crítica. Es imperativo que las empresas evalúen de manera objetiva y rigurosa su productividad, entendiendo los factores en los que se basa e identificando áreas de mejora; Para así mismo mejorar la atención al cliente y garantizar su cumplimiento.



METODOLOGÍA

DMAIC: Definir: Barreras encontradas (Mala distribución de materiales, Falta de plan de mantenimiento, orden de los reportes y falta de equipo de protección personal). Medir: Muestreos de productividad de  trabajo. Analizar: Caracteristicas de los tipos de reportes correspondientes al área. Mejorar: Situar criterios a los tipos de reportes, al hacer plan de trabajo ordenarlos por zonas y tiempo de que se hizo el reporte. Controlar: Plan de mantenimiento para la cortadora, matriz de equipo de proteccion personal, esquema de distribucion correcta de materiales.


CONCLUSIONES

Los resultados obtenidos a traves de la metodologia aplicada y por definir dentro de la Institución pública y de servicios CAPASU son: Diagramas de flujo de los procesos, Muestreo de productividad, Plan de mantenimiento preventivo de la cortadora, matriz de equipo de protección personal, esquema de una correcta distribucion de materiales orden de plan de trabajo semanal más conveniente.
Ordaz Dehesa Julio César, Instituto Politécnico Nacional
Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESARROLLO DE UN CONVERTIDOR DE TRES NIVELES PARA LA EMULACIóN Y GENERACIóN CONTROLADA DE FALLOS EN REDES ELéCTRICAS MONOFáSICAS


DESARROLLO DE UN CONVERTIDOR DE TRES NIVELES PARA LA EMULACIóN Y GENERACIóN CONTROLADA DE FALLOS EN REDES ELéCTRICAS MONOFáSICAS

Ordaz Dehesa Julio César, Instituto Politécnico Nacional. Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se desarrolla un convertidor de tres niveles basado en una fuente conmutada capaz de generar señales de fallo típicas presentes en la red eléctrica. El proceso consiste en el diseño, simulación e implementación del convertidor utilizando una tarjeta DSP STM32 NUCLEO-F746ZG y una tarjeta puente H-MOSFET actuando como inversor. El circuito de control se implementa mediante Simulink, emulando varios fallos típicos encontrados en las redes eléctricas. También se ha desarrollado un sistema de adquisición de datos basado en VHDL que utiliza una FPGA GENESYS2 para analizar y registrar las señales de fallo emuladas.



METODOLOGÍA

Etapa de potencia y emulador de fallos Este estudio presenta el diseño de un convertidor de tres niveles con el objetivo principal de manejar mayores niveles de potencia y emular eficazmente los fallos que puedan producirse en la red eléctrica. El convertidor de tres niveles utiliza un puente completo H-MOSFET, que proporciona tres posibles niveles de conmutación. Sistema de control El sistema de control desarrollado permite añadir perturbaciones de fase, lo que posibilita tanto cambios de fase bruscos y suaves como oscilaciones de frecuencia. Además, pueden emularse variaciones de amplitud, lo que facilita la reproducción de fallos de sag y swell y parpadeos de amplitud. Además, pueden introducirse alteraciones en el offset, lo que permite emular otros tipos de flickers y fallos de CC. La emulación de fallos en un sistema eléctrico es un proceso destinado a generar condiciones de fallo o situaciones anómalas que podrían producirse en la red eléctrica. Se elige la placa DSP STM32 NUCLEO-F746ZG, basada en un procesador ARM, por sus amplias capacidades y facilidad de programación a través de SIMULINK. La programación utilizada sirve tanto para la simulación como para la implementación en el DSP; sin embargo, se ejecuta dentro de un ciclo de interrupción que se sincroniza con el temporizador SPWM. Las instrucciones están diseñadas para que el periodo de muestreo y el ciclo de conmutación sean iguales. Utilizando algoritmos de control adecuados, el sistema puede simular con precisión diversos fallos, como parpadeos, caídas de tensión, sobretensiones y armónicos. Sistema de adquisición de datos El proceso de adquisición de la señal constó de dos etapas esenciales. En primer lugar, se configuró una FPGA utilizando código VHDL para establecer una comunicación bidireccional entre la FPGA y otros dispositivos, permitiendo la transmisión y recepción de datos. Este código implementó la funcionalidad de los módulos de comunicación Rx (recepción) y Tx (transmisión) para facilitar el intercambio de información entre la FPGA y el PC, utilizado principalmente para la adquisición de señales. Además, es posible comunicar los parámetros de adquisición de la FPGA desde MATLAB.


CONCLUSIONES

Se desarrolló un convertidor de tres niveles capaz de generar señales de fallo típicas presentes en la red eléctrica. Utilizando una tarjeta DSP STM32 NUCLEO-F746ZG y una tarjeta puente H-MOSFET, se implementó un circuito de control en Simulink para emular con precisión diversos fallos eléctricos. Además, se diseñó un sistema de adquisición de datos basado en VHDL y FPGA para registrar las señales de fallo emuladas, proporcionando oportunidades para mejorar la calidad y estabilidad del suministro eléctrico e idear estrategias de control más eficientes. Este enfoque abre nuevas vías en la investigación y el desarrollo de sistemas de control para la emulación de fallos, permitiendo la optimización de los sistemas de distribución de energía.
Ordoñez Saavedra Maximiliano, Instituto Tecnológico de Reynosa
Asesor: Dr. Hector Hugo Aviles Arriaga, Universidad Politécnica de Victoria

DESARROLLO DE MÓDULOS PARA LA ESTIMACIÓN DE POSICIÓN Y CONTROL DE DIRECCION PARA ROBOT AUTOMINY IMPLEMENTANDO FILTROS KALMAN Y CONTROL P.I.D.


DESARROLLO DE MÓDULOS PARA LA ESTIMACIÓN DE POSICIÓN Y CONTROL DE DIRECCION PARA ROBOT AUTOMINY IMPLEMENTANDO FILTROS KALMAN Y CONTROL P.I.D.

Arenas Perdomo Juan Manuel, Universidad Simón Bolivar. Hernández Oaxaca Haziel, Instituto Tecnológico de Reynosa. Ordoñez Saavedra Maximiliano, Instituto Tecnológico de Reynosa. Asesor: Dr. Hector Hugo Aviles Arriaga, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

Al inicio de la estancia, el coche autónomo Jaguares (UPV-UNAM) carecía de un módulo para calcular o estimar su posición en un mapa. Específicamente, no tenía conocimiento de su ubicación en los ejes X e Y, ni de su orientación θ (theta). Sin este módulo, el vehículo solo podía reconocer las marcas blancas en una pista, similar a cómo un robot limpiador detecta las paredes en una habitación. El robot limpiador se mueve de un lado a otro, a veces quedando atrapado en ciertas áreas y sin saber qué partes ya ha limpiado, lo que impide una limpieza eficiente. De manera análoga, el coche autónomo no puede estimar trayectorias eficientes, y enfrenta una situación similar a una persona caminando en un cuarto oscuro. Sin la capacidad de ubicarse, el coche se enfrenta a un entorno complejo y peligroso, donde no puede navegar de manera óptima, lo que representa un desafío significativo.



METODOLOGÍA

Los objetivos específicos del proyecto se establecieron, como la implementación de la estimación de posición en los ejes X e Y, así como la orientación θ (theta) del coche autónomo. Se determinaron los requisitos técnicos y funcionales para el desarrollo de los módulos, incluyendo los sensores disponibles en el coche, la frecuencia de actualización de los datos y las restricciones de hardware y software. Se realizó una revisión bibliográfica sobre filtros Kalman, control P.I.D. y técnicas de estimación de posición para vehículos autónomos. Se adquirieron las herramientas y software necesarios, como Webots para la simulación del coche autónomo, ROS para la integración de componentes y OpenCV para el procesamiento de imágenes. Se configuró el entorno de desarrollo con Ubuntu, ROS y las herramientas adicionales necesarias para el desarrollo del coche autónomo. Se instaló Webots para la simulación del coche autónomo y la validación de los módulos desarrollados. Se llevó a cabo un estudio y análisis del coche autónomo AutoMiny, comprendiendo su estructura y arquitectura, revisando la documentación y el código fuente disponible, e identificando los sensores disponibles y su funcionamiento, así como la comunicación con los demás componentes del sistema. Se desarrolló el módulo de estimación de posición con filtro Kalman extendido, implementando el filtro Kalman para estimar la posición del coche autónomo utilizando los datos de los sensores disponibles, como las marcas blancas de la pista y otros sensores de localización, y se configuraron los parámetros del filtro Kalman para lograr una estimación precisa y robusta de la posición y orientación del vehículo. También se desarrolló el módulo de control P.I.D., implementando el control P.I.D. para el control de dirección del coche autónomo, con el objetivo de seguir la trayectoria de forma suave y precisa, y se ajustaron los parámetros del control P.I.D. para lograr una respuesta óptima y reducir el error de seguimiento de la trayectoria. Se integraron los módulos de estimación de posición y control P.I.D. en el coche autónomo AutoMiny, utilizando ROS para gestionar la comunicación entre los componentes, y se realizaron pruebas en el entorno simulado (Webots) para verificar el funcionamiento de los módulos y validar la precisión de la estimación de posición y el control de dirección. Se evaluó el rendimiento de los módulos mediante pruebas y análisis de resultados, identificando posibles problemas y errores, y realizando correcciones y ajustes necesarios para mejorar el rendimiento del coche autónomo. Se evaluó la escalabilidad de los módulos para su implementación en un coche autónomo real, teniendo en cuenta las diferencias entre el entorno simulado y el mundo real, y se realizaron pruebas y ajustes adicionales para adaptar los módulos al coche autónomo real (AutoMiny). Se documentó todo el proceso de desarrollo, desde la investigación hasta la implementación y las pruebas, y se preparó una presentación con los resultados obtenidos y los logros alcanzados durante el proyecto.


CONCLUSIONES

En conclusión, el desarrollo de módulos para la estimación de posición y control de dirección en el coche autónomo AutoMiny mostraron ser utiles, los modulos ayudaron a que el coche autonomo avanzara en linea recta sin casi desviarse y el modulo de estimación lograba representar de manera precisa la ubicación y orientacion en la que el coche se encontraba
Orihuela Garcia Jennifer Alejandra, Universidad de Guadalajara
Asesor: Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla

ANáLISIS ESTRUCTURAL DE MATERIALES BIOCERáMICOS Y SEMICONDUCTORES


ANáLISIS ESTRUCTURAL DE MATERIALES BIOCERáMICOS Y SEMICONDUCTORES

Orihuela Garcia Jennifer Alejandra, Universidad de Guadalajara. Asesor: Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el campo de la biocerámica y los semiconductores, existe una problemática relacionada con la escasez de materiales adecuados para satisfacer las crecientes demandas de la industria tecnológica y médica. Estos dos campos son fundamentales para el desarrollo de tecnologías avanzadas y aplicaciones médicas innovadoras. Sin embargo, enfrentan desafíos significativos que limitan su impacto y progreso. Por ejemplo, los biocerámicos y semiconductores disponibles actualmente pueden tener ciertas limitaciones en términos de sus propiedades y funcionalidades. Algunos biocerámicos pueden no ser lo suficientemente biocompatibles o no tener la resistencia necesaria para ciertas aplicaciones médicas. En el caso de los semiconductores, pueden tener restricciones en cuanto a su capacidad de procesamiento o consumo de energía.  Para resolver estos problemas se requiere de mayor investigación, desarrollo y enfoque en la búsqueda de soluciones. Superar estos desafíos puede abrir el camino para avances significativos en áreas clave de la ciencia y la tecnología, impulsando el progreso en la medicina y la electrónica.    



METODOLOGÍA

Un paso importante dentro de la investigación  de nuevos materiales es su análisis estructural, que fue nuestro principal objetivo en este verano.  Se estuvo trabajando con hidroxiapatita, que es un material biocerámico con diversas aplicaciones. Para su análisis se usaron técnicas como AFM  (Microscopio de Fuerza Atómica) que es una técnica avanzada de microscopía que permite obtener imágenes y mediciones a escala nanométrica al explorar la superficie de muestras utilizando una punta extremadamente fina y sensible que mide las fuerzas interatómicas.  Para analizar nuestra muestra por AFM fue necesario que se encontrara completamente seca y  añadir partículas de plata para obtener mejores resultados. Se colocó una cantidad de la muestra en un portaobjetos y se puso bajo el microscopio.  Otra técnica utilizada fue Raman que permite estudiar la interacción de la luz con las moléculas. Proporciona información sobre las vibraciones moleculares, permitiendo identificar y analizar sustancias químicas y materiales, y revelando detalles sobre su estructura y composición molecular.   Para analizar nuestra muestra a través de esta técnica  fue necesario colocarla completamente seca en un portaobjetos y llevarla al laboratrio Central del IFUAP dentro de la BUAP para realizar  las mediciones. Se llevaron 9 muestras en total de estos materiales. Cabe mencionar que las muestras de hidroxiapatita fueron dopadas con diferentes iones metálicos con el fin de comparar cada uno de ellos respecto a la hidroxiapatita pura.  Una vez obtenidos los resultados se trabajó con ellos en Origin donde se graficaron e  identificaron los diferentes modos fonónicos del material.Para poder identificar los modos vibracionales se hizo una búsqueda bibliográfica de estos materiales Finalmente se analizaron nuestras muestras por difracción de rayos X (XRD) que es una técnica de análisis que utiliza rayos X para estudiar la estructura cristalina de materiales sólidos. Al incidir rayos X sobre una muestra, estos se difractan de acuerdo con la disposición atómica del material, produciendo un patrón característico. La técnica de XRD es ampliamente utilizada para identificar fases cristalinas, determinar tamaños de cristales y analizar estructuras cristalinas. Una vez obtenidos los resultados se trabajó en Origin para identificar los diferentes planos cristalinos de cada muestra con ayuda de la bibliografía encontrada de cada material.    


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos muy relevantes dentro de la investigación de materiales, como lo fueron las técnicas de caracterización que utilizamos y el uso del programa Origin para analizar posteriormente estos resultados. De acuerdo con la biografía algunas de las muestras necesitan ser tratadas nuevamente para obtener un material más puro. Por el momento trabajaremos a distancia en la redacción de un artículo científico que se publicará para la BUAP en la revista RD_ICUAP  
Orozco Cárdenas Jesús Emmanuel, Universidad de Colima
Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE ENSAYOS NO DESTRUCTIVOS PARA CARACTERIZAR PAVIMENTOS FLEXIBLES


ANáLISIS DE ENSAYOS NO DESTRUCTIVOS PARA CARACTERIZAR PAVIMENTOS FLEXIBLES

Flores Navarrete Denia Grisel, Universidad Autónoma de Guerrero. Orozco Cárdenas Jesús Emmanuel, Universidad de Colima. Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años México ha presentado grandes extensiones de kilómetros en la Red de Carretera Federal, sin embargo, estas carreteras requieren siempre de un gran mantenimiento y evaluaciones para determinar su estado actual. Los ensayos NO destructivos y los avances tecnológicos se han convertido en una forma útil de determinar el estado del pavimento disminuyendo la afectación al tráfico. Dado lo anterior y buscando evaluar las condiciones estructurales y funcionales de los pavimentos, se implementa dos ensayos específicos NO destructivos teniendo en consideración lo siguiente: Determinar las deflexiones para evaluar la condición estructural en pavimentos flexibles utilizando un equipo de alto rendimiento como el Deflectómetro de Impacto (FWD. Analizar el resultado de uniformidad y la localización de saltos en la superficie del pavimento para determinar la aceptación de la carretera en construcción o determinar estímulos y sanciones mediante el uso de un Perfilógrafo tipo California.  A fin de poner en práctica las técnicas anteriores, se realizaron ensayos de campo de las dos técnicas arriba descritas; en el caso de la medición de deflexiones se realizo en el tramo km 3+000 al km 16+500 de la autopista Zamora-Ecuandureo, para la segunda técnica se evaluó el tramo Avenida 5 de Febrero (km 2+200 al km 2+800) en la ciudad de Querétaro. 



METODOLOGÍA

Identificar el sito en el que se realizará el ensayo debido a una revisión preliminar sobre el estado del pavimento. Preparar el equipo necesario para realizar el ensayo, considerando el procedimiento y/o Normativa aplicable. Realizar las distintas mediciones con los equipos adecuados y calibrados para determinar la condición superficial y la condición estructural de un pavimento flexible. En gabinete realizar el postproceso de los datos obtenidos con las mediciones tomadas por los equipos y realizar los cálculos respectivos. Interpretar los resultados del cálculo y proponer una solución a la problemática que se presenta en el pavimento.


CONCLUSIONES

Dado los resultados obtenidos en el ensayo del índice de Perfil que se obtuvo del tramo medido fue de 27.57 cm/km, lo que supera la condición establecida de acuerdo a la Norma NIT-SCT: N-CTR-CAR-1-04-006 donde indica el índice de perfil promedio diario mayor de 24 cm/km requiere hacer una corrección. Por otro lado, el resultado obtenido de las deflexiones nos permite identificar que la capacidad estructural del pavimento donde se realizó el ensayo se considera en una condición REGULAR de acuerdo con la Normativa NIT-SCT: N-CVS-CAR-1-03010/17.
Orozco Garcia Kenia Estefania, Instituto Tecnológico de Tepic
Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE PROTOTIPOS PARA INTERIORES DE AUTOS UTILIZANDO CáSCARA DE HIGUERILLA, COMO ALTERNATIVA SOSTENIBLE EN LA INDUSTRIA AUTOMOTRIZ.


DESARROLLO DE PROTOTIPOS PARA INTERIORES DE AUTOS UTILIZANDO CáSCARA DE HIGUERILLA, COMO ALTERNATIVA SOSTENIBLE EN LA INDUSTRIA AUTOMOTRIZ.

Orozco Garcia Kenia Estefania, Instituto Tecnológico de Tepic. Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El uso de materiales tradicionales en la fabricación de interiores de automóviles, como el plástico, ha contribuido al aumento de la contaminación, el agotamiento de recursos naturales y la generación de residuos. Por lo tanto, existe una necesidad urgente de investigar y desarrollar alternativas sostenibles para reducir el impacto ambiental de la industria automotriz. Se busca proponer una solución utilizando residuos agroindustriales como la cáscaras de higuerilla, como materias primas para la fabricación de prototipos de interiores de automóviles. La cascara de higuerilla es un subproducto agrícola que generalmente se desecha, pero que presenta propiedades mecánicas y térmicas prometedoras para su uso en aplicaciones industriales, incluidos los interiores de automóviles.



METODOLOGÍA

En primer lugar, se procedió a secar las semillas de higuerilla al aire libre hasta que alcanzaron el nivel de humedad adecuado. Luego, se separó cuidadosamente la cáscara de higuerilla de las semillas. Posteriormente, se molió y se tamizó utilizando una malla No.60 para obtener un tamaño de partícula uniforme de 0.250 mm. Se procedió a pesar 20 gramos de alcohol polivinílico (PVA), cáscara de higuerilla y papel reciclado. A continuación, se mezclaron los 20 gramos de PVA con 180 ml de agua hasta obtener una solución homogénea mediante el uso de un oscilador. Una vez homogeneizada la solución de PVA, se añadieron la cáscara de higuerilla y el papel reciclado, mezclándolos hasta obtener una pasta uniforme. Para dar forma a los prototipos, se colocó la pasta sobre una malla y se extendió cuidadosamente para obtener películas delgadas y uniformes. Estas películas dejaron secar en un ambiente seco durante 24 horas para lograr una adecuada consolidación y resistencia del material.


CONCLUSIONES

Mediante el desarrollo de esta investigación, se ha logrado conseguir una formulación adecuada para la elaboración de biopelículas que pueden ser útil para generar prototipos de interiores de automóviles utilizando cáscaras de higuerilla, alcohol polivinílico y papel reciclado como materiales sostenibles. La combinación resultó en una biopelícula resistente de medidas de 17.5 cm de ancho y 19 cm de alto con un espesor de 0.3 milímetros. Lo que sugiere que esta formulación podría ser una alternativa viable a los materiales convencionales utilizados en la fabricación de interiores de autos
Orozco Ortega Wendy Elizabeth, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre

ANALíTICA DE DATOS EN NúMERO DE ZONAS DE CARGUE Y DESCARGUE PúBLICAS, SEñALIZADAS Y ADAPTADAS AL TIPO DE VEHíCULO E INFRAESTRUCTURA DE RECIBO DE MERCANCíAS, VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.


ANALíTICA DE DATOS EN NúMERO DE ZONAS DE CARGUE Y DESCARGUE PúBLICAS, SEñALIZADAS Y ADAPTADAS AL TIPO DE VEHíCULO E INFRAESTRUCTURA DE RECIBO DE MERCANCíAS, VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.

Guillen Castro Thania Judith, Instituto Tecnológico de Ciudad Juárez. Orozco Ortega Wendy Elizabeth, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Considerando la gran relevancia que tiene para Bogotá D.C. el corredor logístico Avenida Centenario conocido como calle 13 que hace posible el suministro de bienes y servicios en toda la zona, y en especial nos concentramos en transporte de alimentos y productos agrícolas, lo que genera una entrada de 12.514 camiones y salida de alrededor de 12.744 camiones, incrementando el volumen vehicular de carga pesada en el sector. Este corredor no se encuentra en condiciones óptimas, para albergar tan alto flujo vehicular, estas condiciones se ven reflejadas en la mala señalización, deficiente demarcación vial, no existen andenes delimitados, así como los factores tanto culturales, logístico y de infraestructura que influyen en la deficiente movilidad. Estos vehículos generan así congestionamiento vial, lo que a su vez influye en diversas problemáticas, que reflejan una situación cada vez más compleja, en donde no solamente se ven impactadas la calidad de vida, sino, la productividad y competitividad del sistema productivo presente en la zona.



METODOLOGÍA

Inicialmente se realizó la selección de artículos relevantes para poder recopilar información específica de las zonas ideales de cargue y descargue, y posteriormente se realizó una ficha metodológica que nos proporcionó información resumida y concreta, para definir los puntos a detallar. Durante el proceso de investigación y análisis de la información inicial se procedió a ubicar y caracterizar el tramo vial del estudio de acuerdo a los flujos de tránsito actuales sobre el corredor, con el apoyo de Google Earth se realizó el mapeo de los principales puntos seleccionados a investigar y con la ayuda de Microsoft Forms se realizó la recopilación de información mediante una lista de chequeo. En este mismo contexto tomamos en cuenta los siguientes parámetros para la lista de chequeo, es decir, la zona de cargue y descargue cuenta con… Rampa nivelable: Dispositivo fijo o móvil destinado a cubrir el espacio entre un muelle de carga. Topes para evitar el golpeo de los vehículos de carga. Guías para el parqueo adecuado de vehículos de carga. Sistema de bloqueo de vehículos para evitar su movimiento durante la operación. Sistemas electrónicos de señalización: Conjunto de señales lumínicas y acústicas que, por una parte, indican al operario del muelle si se puede iniciar la carga o descarga. La iluminación necesaria para la operación. Señalización del tiempo especifico de permanencia para la operación. Suficiente área para la operación. Calidad de pavimento ideal para la operación. Mediante la revisión y el levantamiento de información del sitio se pretendió validar los riesgos en el momento de operación ya que son parte fundamental del propósito del proyecto, que es iniciar un observatorio para uno de los principales ejes viales de transporte de carga en la ciudad de Bogotá ya que es primordial para generar información pertinente para la toma de decisiones del sector con el fin de mejorar el servicio y la eficiencia. El análisis estuvo enfocado en las características de la vía y su riesgo para los usuarios, así como la importancia de la correcta señalización de las zonas de cargue y descargue, ya que en ocasiones los lugares de destino de los productos o mercancías, no están acondicionados para recibir a los vehículos de carga, lo que incide en la descarga o carga de estos lo cual genera inconvenientes en el flujo vehicular.


CONCLUSIONES

Teniendo en cuenta los análisis y resultados anteriormente presentados, a partir de las encuestas y de la información obtenida, se identifico que el no contar con zonas adecuada para el desarrollo de estas actividades presenta grandes problemas como los que ya se encuentran vigentes hoy en día, es decir, el tiempo, trafico, accidentes, entre muchos otros más. Durante esta estancia encontramos algunas similitudes y diferencias en cuanto a la situación en nuestro país, que se podrían sugerir para remediar un poco la operación y esperamos avance significativo en el desarrollo del tablero de información.
Orozco Sahagún Ignacio, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

FORMACIóN DE PELíCULAS DE QUITOSANO-AUNPS/MWCNTS-COOH CON PROPIEDADES SEMICONDUCTORAS.


FORMACIóN DE PELíCULAS DE QUITOSANO-AUNPS/MWCNTS-COOH CON PROPIEDADES SEMICONDUCTORAS.

Gonzalez Solis Leticia Lizette, Universidad de Guadalajara. Lopez Castro Andrea del Carmen, Universidad de Guadalajara. Orozco Sahagún Ignacio, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los nanotubos de carbono de pared simple son materiales ideales como semiconductores tipo-p en celdas solares, sin embargo, su producción aún es costosa. Como alternativa, los nanotubos de pared múltiple, pueden usarse como remplazo debido a que son de mucho menor costo. Sin embargo, debido a que no presenta propiedades ópticas en el intercalo del UV-visible, contribuye a la disminución en la eficiencia de la celda. Como alternativa, para aumentar las propiedades ópticas de los nanotubos de pared múltiple, se plantea dispersar nanopartículas de oro-quitosano en la superficie de los nanotubos de pared multiple para que absorba en un intervalo mayor de longitudes de onda y aumenta su eficiencia. Dichas nanopartículas deben estar distribuidas homogéneamente, por lo tanto, se plantea la funcionalización de los nanotubos de carbono, para permitir la interacción con las nanopartículas de oro y poder formar sistemas nanoestructurados.



METODOLOGÍA

Síntesis de nanopartículas de oro La síntesis de nanopartículas de oro (NPsAu) se realizó mediante el método descrito por Israel et al., 2020. Para sintetizar las NPsAu, se preparó una solución al 2% en peso de CH3CO2H. Posteriormente, se preparó una solución al 0.5% de quitosano disuelto en la solución de CH3CO2H. Posteriormente se mezclaron, la solución de HAuCl4·3H2O en y solución de quitosano, se sónico por un lapso de 16 min utilizando el equipo Qsonica sonicators con una amplitud de 20%. Oxidación de MWCNTs Los MWCNTs fueron oxidados, para funcionalizarlos con ácidos carboxílicos y grupos hidroxilo. Para ello, se prepararon dos soluciones ácidas de 4 M de HNO3 y 10 M de H2SO4. Enseguida, se realizó una mezcla con un volumen de 20ml a una relación 1:3 de las soluciones y se adicionaron 100 mg de MWCNTs, posteriormente se realizaron lavados con agua bidestilada hasta obtener un pH aproximado de 6. Para cuantificar la cantidad formada de ácidos carboxílicos, se realizó una titulación ácido fuerte-base fuerte. Las concentraciones utilizadas de NaOH y HCl fueron 0.05M para ambos ácidos. Para comenzar la titulación, los MWCNTs fueron colocados en la solución de NaOH, se añadió el ácido clorhídrico hasta mantener un pH constante. Una vez finalizado se graficaron los datos para así obtener el valor de Pka, para identificar la cantidad de ácidos carboxílicos obtenidos. Formación de una película nanoestructurada de PAM/Chitosan-AuNPs/(MWCNT-COOH) Las películas se realizaron con distintas muestras para determinar su funcionalidad. Para su preparación, se realizó una polimerización de acrilamida (AM)-acido acrílico (AA) 80:20 (relación en peso m/m) utilizando 100gr de agua bidestilada y como iniciador 1% de persulfato de potación a base del peso de la mezcla AM-AA a una temperatura de 60 °C en atmosfera inerte, hasta lograr una mezcla viscosa. Se utilizaron recipientes caja Petri con un diámetro de 3 cm y se colocó una solución de AM-AA en cada recipiente (aproximadamente 5gr), en una estufa a 35 °C se colocaron durante 6hr hasta lograr una película media seca, después se le añadieron 4.5 gr de la solución de nanoestructuras Chitosan-AuNPs/(MWCNT-COOH) se dejaron secar por 1 día en la estufa a 35 °C.   Caracterización Espectrofotometría UV-Visible Para identificar la longitud de onda de absorción de las NPsAu, se usó espectrofotometría de UV-Visible en un equipo (Varian Cary 300 UV-Visible Spectrophotometer).   Calorimetría diferencial de barrido Este equipo se uso para identificar la diferencia en la temperatura de transición vítrea que tenía el copolímero puro y el copolímero con nanoestructuras, debido a la interacción física. Se realizo la medición de esta mediante un calorímetro diferencial de barrido (DSC Perkin Elmer 6).   Impedancia Electroquímica Para determinar la conductividad eléctrica a diferentes temperaturas y resistencia eléctrica de las películas de Poli(AM-AA) se usó impedancia química en un equipo HIOKI, IM3590 Chemical Impedance Analyzer. Para la conductividad eléctrica, cada una de las películas fueron puestas en un termoagitador para transferir calor, se realizaron las mediciones a diferentes temperaturas para obtener el efecto de la conductividad. Posteriormente, en este mismo equipo se realizaron pruebas de resistencia eléctrica, se realizaron las mediciones a cada una a diferentes cambiando la frecuencia eléctrica. TEM y SEM Las nanopartículas de oro fueron identificadas por Microscopía electrónica de Transmisión en un equipo Jeol 1010. Las muestras fueron preparadas colocando una dispersión de NPsAu y colocadas en rejillas de cobre de 200 mallas. Para la identificación de las nanoestructuras Chitosan-AuNPs/(MWCNT-COOH), se usó microscopía electrónica de barrido en un equipo Tescan Mira 3 MLU. Las muestras fueron preparadas realizando un corte transversal a la película, después de haber sido colocadas en nitrógeno líquido por dos minutos.


CONCLUSIONES

La longitud de onda de absorción máximo o superficie de resonancia de Plasmon de todas las réplicas de las NPsAu sintetizadas (537nm), demuestran reproducibilidad del proceso de síntesis.  Además, la distribución de absorción, hace posible que pueda ser absorber en un amplio rango de longitudes de onda, lo que permitirá aumentar la eficiencia en una celda, necesitando menos energía para pasar de la banda de valencia a la banda de conducción. La obtención de las nanopartículas pudo ser demostrada a partir de SEM y TEM. El aumento en la temperatura de transición vítrea, demuestra la interacción física de las nanoestructuras con la superficie de copolímero. El aumento en la conductividad eléctrica de las nanoestructuras demuestra que se comportan como un semiconductor, ya que a medida que aumenta la temperatura muestran menor resistencia a la conducción eléctrica.
Orozco Van Juan Sebastian, Universidad Autónoma de Occidente
Asesor: Dr. Enrique García Trinidad, Universidad Tecnológica Fidel Velázquez

IMPLEMENTACIóN DEL MIDDLEWARE ROS PARA EL DESARROLLO DE UN PROTOTIPO VIRTUAL DEL BRAZO ROBóTICO KAUDA COMO HERRAMIENTA PARA LA ENSEñANZA SOBRE ROBóTICA EN ESPACIOS DE EDUCACIóN SUPERIOR


IMPLEMENTACIóN DEL MIDDLEWARE ROS PARA EL DESARROLLO DE UN PROTOTIPO VIRTUAL DEL BRAZO ROBóTICO KAUDA COMO HERRAMIENTA PARA LA ENSEñANZA SOBRE ROBóTICA EN ESPACIOS DE EDUCACIóN SUPERIOR

Orozco Van Juan Sebastian, Universidad Autónoma de Occidente. Asesor: Dr. Enrique García Trinidad, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

Dada el futuro brillante predicho para áreas de trabajo como la robótica, se necesita que los estudiantes latinoamericanos de ingenierías relacionadas con ese campo de conocimiento puedan ponerse al tanto de las últimas tendencias en el desarrollo de robots. Por ende, se requiere que los estudiantes tengan a su disposición los recursos necesarios para que puedan afinar sus conocimiento. Sin embargo, muchos de estos dispositivos requieren configuración para ser usados para fines educativos. En el marco de ese contexto, se propuso realizar la simulación de un brazo robótico Kauda dentro de esta estancia de investigación.



METODOLOGÍA

Con apoyo del manual, se analizó la conexión entre las piezas STL disponibles, las cuáles de convirtieron a piezas de SolidWorks (que son archivos SLDPRT), con el fin de realizar el ensamblaje del modelo tridimensional virtual. Ese ensamblaje fue necesario para obtener el formato URDF (Universal Robot Description Format) del Kauda, el cual es el formato que ROS acepta para visualizaciones y simulaciones. La conversión fue realizada mediante el add-in SolidWorks to URDF exporter disponible en SolidWorks. Después de ser convertidos, se utilizó el URDF en conjunto con herramientas como RViz y Gazebo, con el fin de visualizar y simular el robot respectivamente. En la visualización con RViz, se estableció que se realizó una descripción adecuada del robot Kauda en el URDF, que puede ser usado para futuras aplicaciones en Gazebo, como planeación de trayectorias. Por otro lado, en la simulación con Gazebo, el robot demostró ciertas dificultades, como movimientos aleatorios, probablemente debido a que no se adaptó el URDF a las diversas variables físicas que pueden presentarse en Gazebo, tales como la fricción y la gravedad. Sin embargo, no se profundizó más en corregir eso debido a que se consideró prioritario usar el URDF en conjunto con el paquete MoveIt, pues, así se podría tener la cinemática inversa del Kauda, que puede ser utilizada (en conjunto con controladores de nivel medio) para aplicaciones de planeación de trayectorias. Finalmente, se usó el asistente de configuración de MoveIt, una herramienta disponible en ese paquete, para obtener los archivos necesarios que contengan los beneficios mencionados anteriormente. Para ello, se necesito un entendimiento conceptual sobre cómo el robot funciona la estructura física del robot, pues ese dicha información es la que se introduce en el asistente de configuración. Cabe destacar que hubo algunos errores en la configuración del Kauda en el asistente de MoveIt, puesto que no se tuvo en cuenta que el gripper debe ser configurado con sus piezas como separado, en vez de una pieza conjunta.


CONCLUSIONES

Como resultados, se ha dejado una base para que el robot Kauda sea usado en futuras aplicaciones de visualización y simulación, en programas como Rviz y Gazebo respectivamente. Así mismo, se implementó el paquete MoveIt para que se pueda profundizar en temas como cinemática inversa y diseño de controladores de nivel medio en espacios educativos. No obstante, debido a limitación de tiempo de la estancia, aún existe muchas mejoras que se le puede realizar al prototipo virtual, por ejemplo, la definición detallada de los movimiento posibles en el gripper. A futuro, se recomienda profundizar en esos detalles para una simulación óptima para fines educativos.
Orozco Velazquez Angelina, Universidad de Guadalajara
Asesor: Dr. Pablo Lopez Albarran, Universidad Michoacana de San Nicolás de Hidalgo

TABLERO HíBRIDO SUSTENTABLE


TABLERO HíBRIDO SUSTENTABLE

Orozco Velazquez Angelina, Universidad de Guadalajara. Asesor: Dr. Pablo Lopez Albarran, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La madera es un material natural de uso cotidiano, muy sensible a ataques de agentes degradantes como lo son los factores ambientales y los agentes xilófagos, por ende, se necesitan tratamientos con sustancias externas para extender su duración. Los tableros están formados por un numero impar de chapas de madera o fibras vegetales y son encoladas entre si con adhesivos termoendurecibles que varían según la calidad frente a la humedad que se quiere dar al tablero. La madera o las fibras vegetales aportan el carácter ecológico, elástico y resistente, mientras que el material polimérico elimina los problemas de higroscopicidad (propiedad de absorber la humedad) y con ello las variaciones dimensionales, además de los problemas con xilófagos, hongos e insectos; así como las pérdidas de color que sufre por la exposición a la luz; es por lo que los composites resultan un material resistente, estable, elástico y durable. Dependiendo del porcentaje de madera y plástico las  características del producto serán más elásticas o plásticas. El problema existente en la industria de los tableros es la alta exposición al formaldehido, ya que se emplea como entrecruzante del agente encolante entre las fibras, siendo un factor de riesgo en ambientes laborales genera pérdidas progresivas de la olfacción,  cáncer nasofaríngeo y de pulmón, ocurre generalmente por accidentes, negligencia o ignorancia. Durante el verano de investigación se elaboró un adhesivo para encolar fibras de coco y tablones de madera, con el que se busca ir desplazando la presencia del formaldehido en la fabricación de tableros.



METODOLOGÍA

Se elaboro un tablero sustentable a partir de fibras de coco y tablones de madera encolados con un adhesivo libre de formaldehido en los laboratorios de la Facultad de Ingeniería en Tecnología de la madera en la Universidad Michoacana de san Nicolas de Hidalgo. Para la elaboración del adhesivo se llevó a cabo siempre en la plancha de calentamiento y agitación con una temperatura de 115 °C y una agitación constante, primero añadimos el glioxal en un vaso de precipitado y dejamos calentar, después agregamos las escamas de fenol y mantenemos en agitación, a continuación, incorporamos poco a poco la lignina, esto para que se pueda disolver fácilmente evitando que se generen grumos, permanece en agitación hasta que obtenga una consistencia uniforme y finalmente agregamos unas gotas de catalizador con las cuales notaremos un cambio en la viscosidad del adhesivo. Para la formación del tablero sustentable, se emplearon colchoncitos de fibras de coco y tablones de madera con diferentes medidas, pero uniformes a las dimensiones del tablero. Una vez listo el adhesivo se colocó en una pistola rociadora para facilitar la distribución del adhesivo entre el material; primero se colocó una capa de las hojuelas de madera a continuación se rocío un poco de adhesivo y se alineó un colchoncito de fibras de coco acompañado con más adhesivo, para finalizar la primera capa del tablero colocamos nuevamente las hojuelas de madera y repetimos este proceso según las capas deseadas para el tablero, en este diseño obtuvimos un tablero de seis capas. Finalmente,  pasado un tiempo de 24 horas pasamos a la prensa con una capacidad de 50 psi, durante un periodo de 10 minutos a una temperatura de 140 °C para llegar a un tablero con características similares a los tableros comerciales.


CONCLUSIONES

En la estadía de verano en la facultad de Ingeniería en Tecnología de la madera, adquirí conocimientos teóricos y prácticos, sobre la elaboración de adhesivos para tableros ecológicos; así como la función y sustitución del formaldehido por lignina como entrelazante para polimerizar el adhesivo, sin embargo, esta línea de investigación es muy reciente, por lo que no hay mucha información antecedente y aún está en desarrollo por lo que no podemos mostrar los datos obtenidos. Hasta el momento el proceso refleja buenos resultados en la elaboración del tablero encolado con el adhesivo a base de lignina, tanto así que  cuenta con características físicas similares a  los tableros comerciales a base de formaldehido. También conocí la composición de la madera, la estructura de las macromoléculas y los extraíbles, así como los usos potenciales de estos, que expandieron mi pensamiento de que la madera solo se emplea en la elaboración de muebles y papel. Además de lo anterior también aprendí  el proceso de extracción del  ADN al aserrín para determinar el tipo de madera al que corresponde y por último evaluamos el comportamiento del hongo Trametes versicolor en presencia de la medicarpina como agente antifúngico, el cual inhibe el desarrollo del hongo.
Orozco Zepeda Emmanuel Alejandro, Instituto Tecnológico de Colima
Asesor: Mtra. Margarita Molinero Hernandez, Instituto Tecnológico de Colima

PROPUESTA DE UNA ESTRATEGIA DE DIFUSIóN DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICAS DE LA INDUSTRIA 4.0


PROPUESTA DE UNA ESTRATEGIA DE DIFUSIóN DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICAS DE LA INDUSTRIA 4.0

Orozco Zepeda Emmanuel Alejandro, Instituto Tecnológico de Colima. Asesor: Mtra. Margarita Molinero Hernandez, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, las instituciones públicas de nivel superior enfrentan desafíos significativos en cuanto a la difusión de su oferta educativa y servicios a través de medios digitales. La industria y educación 4.0 han traído consigo una revolución digital que ha transformado el paradigma educativo. Los estudiantes digitales buscan experiencias de aprendizaje más interactivas y personalizadas, lo que exige una adaptación efectiva por parte de las instituciones educativas. A pesar de las oportunidades que ofrece la industria 4.0 en el ámbito educativo, muchas instituciones públicas de nivel superior aún no han logrado aprovechar completamente sus ventajas en la estrategia de difusión de contenido digital. Existen obstáculos que dificultan esta implementación. El primer problema es la falta de adaptación a las preferencias y demandas de los estudiantes digitales. Aunque la tecnología está disponible, muchas instituciones no han implementado adecuadamente herramientas que podrían mejorar la experiencia de los estudiantes y captar su atención de manera más efectiva. Otro problema es la competencia en el mercado educativo. La digitalización ha ampliado la oferta de educación, lo que compite con las instituciones públicas de nivel superior. Sin una estrategia de difusión adecuada y uso de tecnologías, se corre el riesgo de perder la posición competitiva. Ante estos desafíos, es esencial plantear una investigación que aborde la siguiente pregunta: ¿Cómo pueden las instituciones públicas de nivel superior aprovechar las herramientas tecnológicas de la industria 4.0 en su estrategia de difusión de contenido digital para mejorar la comunicación con los estudiantes digitales, destacar en el mercado educativo y optimizar los recursos destinados a la promoción de su oferta educativa?



METODOLOGÍA

Cuenta con el diseño de una encuesta, utilizada para la recolección de datos, aplicada al estudiantado del Instituto Tecnológico de Colima en el periodo Enero - junio 2023, y con la obtención, análisis e interpretación de los datos y resultados obtenidos. Posteriormente con base en los resultados de la encuesta definir la información que debe contener la promoción de la oferta educativa y los medios o plataformas de uso frecuente de los usuarios. Se realizó un censo en el desarrollo de la investigación con una población de estudio con los estudiantes del TecNM Campus Colima inscritos en el semestre enero - junio 2023, con una población total de alumnos inscritos de 2571, y una muestra resultante fue de 618 alumnos, representando el 25% de la población total. El instrumento de recolección de información fue una encuesta digital, que facilitó la ejecución y eliminó las barreras geográficas, alcanzando la muestra deseada. Las preguntas se desarrollaron en cinco categorías: lugar de procedencia, conocimiento de la institución, medios de comunicación, información de interés y uso de redes sociales. Con el fin de facilitar el análisis de los resultados obtenidos por medio del instrumento de recolección de datos, se realizó el proceso de ajuste, adaptación y agrupación de las respuestas obtenidas, para que los resultados puedan ser comparables. Se trata de una investigación de corte cualitativa con un alcance correlacional, ya que tiene como objetivo identificar los canales de comunicación, así como la información requerida para la toma de decisiones, en la creación de contenidos digitales y selección de herramientas eficaces de la industria 4.0. A través de estas herramientas tecnológicas de la industria 4.0, es posible innovar la estrategia de difusión de contenido digital de la oferta educativa y demás servicios de las instituciones públicas de nivel superior. En esta propuesta se consideraron como variables independientes los canales de comunicación y las características sociodemográficas del público objetivo; como variables dependientes, las herramientas tecnológicas utilizadas y las estrategias de difusión de contenido digital.  Variables Independientes: Canales de comunicación utilizados por los estudiantes: Medios digitales, como redes sociales y páginas web, que los estudiantes utilizan para obtener información sobre la oferta educativa de las instituciones. Características sociodemográficas de los usuarios: Incluye datos como edad, género, ubicación geográfica y nivel educativo de los estudiantes. Estos datos sirvieron para segmentar el público objetivo y adaptar la estrategia de difusión. Variables Dependientes: Herramientas tecnológicas de la industria y educación 4.0: Se trata del conjunto de tecnologías avanzadas, que se utilizarán para innovar la estrategia de difusión de contenido digital. Las estrategias de difusión de contenido digital para la oferta educativa: Engloba todas las acciones y enfoques utilizados en la campaña de difusión digital, desde la creación de contenidos hasta la interacción con los usuarios mediante anuncios publicitarios y chatbots.  


CONCLUSIONES

Gracias a los resultados obtenidos durante la investigación, se logró conocer los medios digitales más utilizados por los estudiantes y los intereses relevantes de la información que desean conocer dentro de la convocatoria de admisión de la institución. Esta información se reveló como un factor crucial para el desarrollo de la estrategia de difusión, permitiendo seleccionar de manera precisa ciertos tipos de herramientas de la industria 4.0. La integración de plataformas de difusión de información digital potenciará la efectividad de la estrategia, brindando una experiencia más interactiva y personalizada a los estudiantes. Durante el desarrollo de la investigación, se llegó a la conclusión de que aprovechar las ventajas de la industria 4.0 en la difusión de la oferta educativa en instituciones públicas de nivel superior es de vital importancia. La adaptación a las preferencias de los estudiantes digitales se presenta como un factor fundamental para mantener la relevancia y competitividad en el mercado educativo actual.
Ortega Estrada Carlos Eduardo, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Andrea Tamayo Londoño, Institución Universitaria Colegio Mayor de Antioquia

VALORIZACIÓN ENERGÉTICA Y MATERIAL DE BIOMASAS


VALORIZACIÓN ENERGÉTICA Y MATERIAL DE BIOMASAS

Ortega Estrada Carlos Eduardo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Reyes Vazquez Erika Janneth, Instituto Tecnológico de Matamoros. Asesor: Mg. Andrea Tamayo Londoño, Institución Universitaria Colegio Mayor de Antioquia



PLANTEAMIENTO DEL PROBLEMA

Los reactores anaerobios de flujo ascendente, o por sus siglas en ingles Upflow Anaerobic Sludge Blanket (UASB) son sistemas en ausencia de oxígeno donde con la ayuda de microorganismos se logra degradar parte de la materia orgánica presente en distintos residuos líquidos, logrando así remover gran parte de contaminación y transformarlo en biogás y un subproducto líquido conocido como biol, el cual está siendo estudiado con fines agroindustriales.   Objetivo General Conocer la digestión anaerobia como proceso para la valorización energética y material de biomasas residuales, a partir del seguimiento a la producción de biogás y la obtención, caracterización y aplicación del efluente líquido (biol).   Objetivos Específicos Indagar sobre los usos agronómicos del biol mediante bioensayos. Formular un biomaterial a base de biochar y biol para usos   agronómicos. Aplicar técnicas moleculares para la caracterización del biol. Ajustar parámetros en el diseño del reactor UASB para la   obtención   del biol. Modelar los parámetros operacionales del reactor UASB.



METODOLOGÍA

Módulo uno: USOS AGRONÓMICOS Planta control Planta biol + agua Planta biol+ agua + micorriza Planta biol Pesar el suelo Medir pH y conductividad eléctrica Germinar las semillas de maíz Plantas las semillas del maíz Llevar a cabo el registro Módulo dos: DESARROLLO DE BIOMATERIALES Biochar de distintas biomasas (maíz, de caña de azúcar, de arroz y de quinoa) De una previa técnica de pirolisis se pesaron 20 g de cada una de las biomasas Impregnación con el biol a una relación 1:40, por lo que se adicionaron 800 mL de biol a cada muestra por 24 h Filtración al vacio Secado al horno por X h Preparación del suelo (medición de pH y CE) Pesar 60 g de suelo Adicionar X g de biochar Realizar capacidad de retención de agua Incubación por 30 días Módulo tres: CARACTERIZACIÓN MOLECULAR Preparación de la muestra de biol Rompimiento de las membranas y estructuras Separación de fases Extracción de ADN Lectura de ADN y ARN Módulo cuatro: DISEÑO DE UN BIOREACTOR Identificación de las variables de diseño Dimensionamiento del reactor en base a correlaciones de diseño Dibujo del reactor empleando softwares de dibujo 3D Impresión 3D Módulo cinco: MODELADO DE UN BIOREACTOR Muestreo del reactor Determinación de parámetros (pH, ST, SV y AGV) Registro y análisis de datos Obtención de curvas de superficie y tablas


CONCLUSIONES

Resultados Mod 1: Las plantas en tratamiento con biol no tuvieron un crecimiento notorio a comparación a las plantas control. Mod 2: Los biochars están en espera de resultados de caracterización para determinación de iones como fósforo, calcio, nitrógeno y potasio. Mod 3: La lectura de ADN fue óptima. Mod 4: Se logró imprimir diferentes partes de un bioreactor como el separador de tres fases, el embudo, el filtro y las tapas con la tecnología 3D. Mod 5: Los datos mostrados en la determinación de parámetros no permitieron un óptimo modelado u obtención de curvas. Conclusión A lo largo de la estancia se estuvieron trabajando diversos proyectos con distintos docentes, donde el proyecto de la docente a cargo fue el pilar para el desarrollo de los demás proyectos. Por medio del reactor anaerobio granular de flujo ascendente se obtuvieron dos salidas aprovechables, el biogás y el efluente líquido, conocido como biol, este último fue la base para la realización a distintos proyectos, tales como la impregnación de biochar de distintas biomasas con biol y aplicación de biol como fertilizante orgánico.
Ortega Fajardo David, Instituto Politécnico Nacional
Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

SISTEMA AUTOMATIZADO PARA DETECCIóN DE POSTURAS EMPLEANDO SENSORES INERCIALES EN áNGULOS DE COLUMNA VERTEBRAL.


SISTEMA AUTOMATIZADO PARA DETECCIóN DE POSTURAS EMPLEANDO SENSORES INERCIALES EN áNGULOS DE COLUMNA VERTEBRAL.

Ortega Fajardo David, Instituto Politécnico Nacional. Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

     El presente trabajo de investigación se centra en la automatización de registros con un sistema de detección de posturas mediante el uso de sensores inerciales, profundizando en el trabajo Prototipo de reconocimiento de la postura al estar sentado utilizando un sistema basado en redes neuronales a través de datos de sensores de presión en el asiento, trabajado en el Laboratorio de Instrumentación y Procesamiento de Señales (LIPS) perteneciente a UPIITA del IPN y tomando como base la metodología propuesta por el trabajo conjunto de la universidad de Queensland y la universidad de Oxford.      El protocolo de registro de postura se centra en la integración de un sistema arnés-sensores con cuatro sensores IMU para la obtención indirecta de ángulos en 4 puntos  en la espalda, durante una simulación de conducción. Se generaron registros de postura mediante la participación de 17 voluntarios y posteriormente se realizó el procesamiento tanto de los datos individuales como grupal, con el propósito detectar las tres posturas propuestas: Plana (P), Larga Lordosis (LL) y Corta Lordosis (CL) durante las pruebas de conducción en simulación.



METODOLOGÍA

       Adaptando con velcro un arnés de escalado y con dispositivos asados en el uso de IMUs adheridos a lo largo de la columna del voluntario, se generó un sistema arnés-sensores como medio de obtención de ángulos de columna de manera indirecta. Los cuatro sensores fueron colocados entre las vértebras de referencia T1, T5, T10, L3 y S2.      A partir de los resultados de la primera semana de registro, se planteó una segunda versión de protocolo de toma de registros con el objetivo de mejorar el proceso de registros. Registrando los intervalos de tiempo de los registros, se identifica la toma de posturas de referencia P, LL y CL con piernas dobladas en ángulo recto y extendidas para dar paso a las posteriores pruebas de manejo en simulación. Utilizando el protocolo establecido y eliminando la información no viable, se obtuvieron 8 registros íntegros de posturas correspondientes a 8 voluntarios.      Utilizando Matlab como software de procesamiento de datos, se obtuvieron las diferencias entre los valores de ángulos obtenidos por los 4 sensores, para obtener los registros de ángulos T, TL y L a lo largo de la etapa de registros de la etapa de referencia y posteriormente en las pruebas de manejo de cada voluntario. Con base en los intervalos de tiempo registrados se hicieron las segmentaciones necesarias para la obtención de vectores de valores de ángulos para las seis posturas de referencia tomadas por voluntario. Con lo anterior se hizo una normalización de los vectores para la obtención de intervalos de confianza.      Posteriormente se generó un algoritmo para la detección de posturas a lo largo de las pruebas de manejo tomando en cuenta los intervalos de confianza reportados el trabajo  Klaus, 2015 y Morales, 2021 y los obtenidos en este protocolo. Se realizó un programa de etiquetado y prevalencia respecto al total del muestreo.      Adicionalmente, se generó un algoritmo de validación para la detección de ángulos por imagen. Al colocarse dos marcadores de color brillante en cada dispositivo del sistema arnés-sensores y visualizar al voluntario sagitalmente, el algoritmo genera los 4 vectores y obtiene los ángulos T, TL y L de la postura del paciente.


CONCLUSIONES

      Se obtuvieron los algoritmos necesarios para generar por voluntario: Gráficas de registro de ángulos T, TL y L durante las simulaciones de prueba de manejo por voluntario. Gráficas segmentadas para las seis posturas de referencia. La generación de un vector para etiquetado de posturas. Prevalencia porcentual de posturas respecto al tiempo para el tiempo de registro considerado. Gráfica de detección de posturas en el tiempo para las pruebas de manejo utilizando como base intervalos de confianza.      Se exploró la posibilidad de utilizar los intervalos de confianza como métrica única en el conjunto de voluntarios, sin embargo, no se obtuvieron resultados satisfactorios, lo que ratifica la necesidad de preparar el sistema de manera personalizada.      Los programas lograron calcular los ángulos de los planos asociados a la columna vertebral, se despliegan, se obtuvieron su estadístico y con ellos permitió conocer mejor el comportamiento de los ángulos durante todo el proceso del registro. Se generó un programa capaz de identificar los ángulos en imágenes, pero se observó que en ese caso, la dependencia de mantener al sujeto en el foco  de la cámara y garantizar que se mantuviera el plano durante cambios de la postura, requieren mejorar la estrategia de seguimiento. En cuanto al uso de los IMUs se propuso inicialmente considerar los intervalos de confianza para las posturas de referencia, pero al aplicar en la etapa de manejo o cambiar la posición de las piernas, se ven seriamente afectados los resultados para cada participante, por lo que considera como área de oportunidad estudiar la relación entre medidas antropométricas y los ángulos de postura generados por voluntario.
Ortega Ramírez Eduardo Daniel, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington

PROPUESTA DE UN PROTOTIPO FUNCIONAL QUE POR MEDIO DE UNA APLICACIóN MóVIL PERMITA EL APROVECHAMIENTO DE AGUAS PLUVIALES MEDIANTE UN ECOMURO, PARA HABITANTES VULNERABLES DE LA ZONA ANDINA DE COLOMBIA.


PROPUESTA DE UN PROTOTIPO FUNCIONAL QUE POR MEDIO DE UNA APLICACIóN MóVIL PERMITA EL APROVECHAMIENTO DE AGUAS PLUVIALES MEDIANTE UN ECOMURO, PARA HABITANTES VULNERABLES DE LA ZONA ANDINA DE COLOMBIA.

Dominguez Mondragon Maria Belen, Tecnológico de Estudios Superiores de Jocotitlán. Ortega Ramírez Eduardo Daniel, Instituto Tecnológico Superior de Irapuato. Rodriguez Hurtado Diego Andres, Universidad de Pamplona. Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

La pluviosidad encontrada en Colombia es alta comparada con otros países esto dado por la gran cantidad de vegetación que se encuentra en el lugar además de estar rodeado por dos océanos, la cantidad de lluvia va desde los 1000 mm de lluvia en los lugares más áridos, hasta llegar a los 12,700 mm en las locaciones con más lluvia (Jaramillo Robledo & Chaves Córdoba, 2000), Este líquido es útil para satisfacer la demanda dada la gran cantidad de precipitación que se da en el país, cómo lo es también el uso de aguas pluviales la cual es una buena alternativa, según los datos dados según el Ministerio de Ambiente y Desarrollo sostenible la precipitación en la zona Andina va en descenso, pero se mantiene dentro del promedio (MinAmbiente, 2020) y la cual no es aprovechada por gran parte de  la población Colombiana, ya que el país cuenta con abundantes recursos, lo que lleva a las personas a mantenerse en un estado de confort, por lo que no se preocupan y no ponen en uso estos sistemas de almacenamiento de aguas pluviales (BAUTISTA ARÉVALO & SÁNCHEZ SÁNCHEZ, 2018). La zona Andina por su impacto poblacional, político, administrativo y económico y por contar con ejes de circulación y transporte; se constituye en el territorio que más población migrante atrae por motivos relacionados con desplazamiento forzado, motivos laborales, entre otros; esta  población llega especialmente a las capitales departamentales y en particular a las grandes ciudades como Bogotá, Distrito capital de Medellín, Cali y Bucaramanga. Muchas de las personas que son desplazadas por algunos de los motivos mencionados anteriormente  no cuentan con recursos económicos que les permitan llegar a las ciudades y pagar un arriendo, se ven forzados a ubicarse en las zonas más extramurales de estas ciudades,  construyen sus casas de forma empírica, con madera y zinc.  Al estar ubicadas en estas zonas que son consideradas zonas de alto riesgo, no cuentan en su gran mayoría con servicios públicos mínimos vitales que le permitan tener una mejor calidad de vida. El almacenamiento de aguas pluviales para esta zona se puede realizar por medio de un contenedor hecho a base de botellas plásticas tipo PET (lo cual permitiría extender la vida de este producto y desacelerar su transición a basura) lo que dará segundo uso a estas y así ayudar a reducir el impacto ambiental de estas, en la zona andina ha ido aumentando por el rápido crecimiento en la producción y uso del plástico, combinado con los modelos económicos lineales que no tienen en cuenta las externalidades como lo son los residuos; esta agua recolectada ayudará a la población de la región andina ubicada en las zonas más deprimidas por medio de la aplicación móvil poder saber cuántos litros de agua tiene y cómo la podría usar mejor de acuerdo con sus necesidades más apremiantes.



METODOLOGÍA

Se inicio haciendo la búsqueda en la base de datos académicas para buscar trabajos académicos relevantes relacionados a la problemática, se dio lectura de artículos académicos y manuales especializados. Esto para tener los fundamentos necesarios para diseñar el prototipo funcional del ecomuro, sabiendo que este ya existía y lo que se hizo fue hacer una mejora implementando los sensores con IOT, es decir con una aplicación móvil, siendo un gran reto debido que se tenia que innovar considerando que esta no existía.


CONCLUSIONES

Luego de una extensa investigación, nos encontramos varios referentes con respecto al funcionamiento de ecomuros, cualidades, mejoras inclusive aditamentos, pero no fue posible rastrear o encontrar un referente que estuviera interesado en unir el internet de las cosas con un ecomuro, dándonos una línea completamente nueva para nuestra investigación y siendo un gran reto. No bastaba con solo darle inteligencia o conectar el internet al ecomuro, debíamos conseguir una mejora que, de valor, una que ayude a que más personas se quieran unir a nuestra apuesta y que una vez decidan probarlo puedan cambiar sus hábitos arraigados por años. La aplicación que puede ser utilizada en Cualquier tipo de teléfono, de cualquier tipo de gama (desde la gama baja, hasta gama alta), permite al usuario conocer el estado actual del llenado del muro, conocer este porcentaje de agua y para que pudiese utilizarlo, y sobre todo cuanto le habría costado adquirir esta agua del servicio público o adquirirla de alguna manera dándonos su respectivo ahorro representado. Por ende la implementación del proyecto del ecomuro aporta una gestión a la economía del hogar de las familias más vulnerables de la Zona Andina, este proyecto se llevó a cabo con el intercambio culturas entre los estudiantes colombianos y los mexicanos, dándonos una perspectiva diferente funcionando ambas culturas para dar un resultado fructífero para beneficio de la población con el uso apropiado de los ODS, estos nos permitieron tener un conocimiento más amplio y apropiado para el uso de estos, mencionando que se presentaron diferentes retos, sin embargo, se cumplieron obteniendo el resultado esperado a lo largo del desarrollo de este.  
Ortega Valdivia Danna Carely, Instituto Tecnológico de Tepic
Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo

POTENCIAL DE VIABILIDAD PARA LA IMPLEMENTACIÓN DE UNA PLANTA DE APROVECHAMIENTO DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN EN TEPIC


POTENCIAL DE VIABILIDAD PARA LA IMPLEMENTACIÓN DE UNA PLANTA DE APROVECHAMIENTO DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN EN TEPIC

Ortega Valdivia Danna Carely, Instituto Tecnológico de Tepic. Asesor: Mg. Angélica María Hernández Gómez, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción es una de las áreas de mayor generación de recurso en el país, esta se encuentra todos los días en funcionamiento y creación de nuevos proyectos, los cuales al llevarse a cabo producen una cantidad importante de residuos sólidos; también denominados como RCD’S (Residuos de la construcción y la demolición). En Nayarit los RCD’S únicamente se utilizan como rellenos sanitarios, aunque en la mayoría de los casos estos ni siquiera son aprovechados y terminan en vertederos, donde ocuparía un espacio considerable y liberarían sustancias nocivas al medio ambiente. Por ende, en la búsqueda de soluciones sostenibles para hacer frente al creciente desafío de los RCD’S en Nayarit, se pretende analizar el potencial de viabilidad para la implementación de una planta de aprovechamiento de residuos de construcción y demolición en Tepic.



METODOLOGÍA

Durante este proyecto se pretende valorar la prefactibilidad técnico-económica de una planta de aprovechamiento de residuos de construcción y demolición en Tepic. Para poder desempeñar esta actividad se llevo a cabo una búsqueda y recopilación de información secundaria con respecto a la generación de RCD’S en Nayarit, con base a los datos obtenidos por medio de fuentes institucionales, logramos plantear el tamaño de nuestra empresa, el estudio y segmentación del mercado, los diferentes productos que tendríamos a la venta y los posibles volúmenes a vender. En función a dichas cantidades, se pudieron predecir los posibles ingresos, costos de operación y mantenimiento que tendría la planta de aprovechamiento de residuos de construcción y demolición en Tepic. Basándose en los ingresos y egresos económicos obtenidos anteriormente, así como la consideración e implementación de la inflación y depreciación anual en México se logró generar un estado de resultados a partir de una estimación de flujos económicos con un horizonte de proyecto de 20 años. En este flujo económico se calcularon valores importantes como el EBITDA, EBIT, los impuestos, el NOPAT, la inversión, el flujo de caja operativo y libre, se determino la tasa de interés, además de la obtención del VPN y el TIR. Posteriormente se llevó a cabo la evaluación de los flujos económicos por medio de la simulación Montecarlo con ayuda del programa de computadora @RISK; donde evaluamos 1000 escenarios de probabilidades de éxito y fracaso para nuestra empresa. En esta ocasión, la simulación Montecarlo evidencio que dentro de un intervalo de confianza del 90% se esperaría obtener un VPN de $907,926.63 USD, lo que nos indicaría que la planta de aprovechamiento de residuos si tiene potencial de aplicabilidad en Tepic Nayarit.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos para la elaboración de flujos de caja, así como su correcta evaluación con ayuda de simulación Montecarlo. En esta ocasión se recopilo información con respecto a los posibles ingresos y costos de operación para una planta recicladora en Tepic, y se pudo concluir lo siguiente: Es factible implementar una planta de aprovechamiento en Tepic si: se vende el 100% del producto para obtener un VPN de $907,955.93 USD. En caso de que la planta solo venda el 50% se espera un VPN de $-97,421.11 USD. La ganancia máxima que se espera es de $907,926.63 USD. La simulación Montecarlo evidencio que en un intervalo de confianza del 90% se esperaría obtener un VPN de $907,926.63 USD que indica que la planta si tiene potencial de aplicabilidad.
Ortiz Alvarez Arturo, Instituto Tecnológico de Morelia
Asesor: Mtro. Miguel ángel Núñez Cárdenas, Instituto Tecnológico Superior de Uruapan

SOLDADURA DE ESTRUCTURAS METáLICAS


SOLDADURA DE ESTRUCTURAS METáLICAS

Ortiz Alvarez Arturo, Instituto Tecnológico de Morelia. Asesor: Mtro. Miguel ángel Núñez Cárdenas, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

  Es muy frustrante el no tener conocimientos de propiedades físicas y medidas exactas de piezas que soldaremos hasta no tener una pieza en físico ya terminada. Un soldador se tiene que esperar hasta el final de la soldadura para poder ver el cómo queda su pieza soldada. El que tan pesada estará, que medidas tendrá, como se ve con acabados específicos superficiales entre más cosas.  



METODOLOGÍA

Realizamos 7 diferentes diseños industriales, los cuales constan de bases de cama, domos y puertas eléctricas. En el diseño 1 utilizamos las medidas de 80 de largo x 59.5 de ancho con una separación del piso de 7. La cabecera tiene una medida de 37 desde el piso y la parte donde reposarán los pies de 20.4. Utilizamos 3 diferentes materiales, tubo rectangular de 80x40x4, tubo circular de 48.3x5 y las partes de madera de 1.5 cm de espesor. Buscamos una base de cama bastante resistente, hicimos algunas modificaciones por cuestión de estética. En el diseño 2 tenemos más medidas en el plano, lo cual facilita la creación del diseño. Empezamos con 152 cm de ancho por 206 cm de largo a una altura del piso de 28 cm. La separación de los tubos es de 8.5 cm y con medidas de 6 cm de ancho. Las patas de la base las pusimos a 75 cm y desde el piso hasta la cabecera tiene una altura de 45.5 cm + 96 cm que son de los tubos de vista. Utilizamos las medidas de tubería rectangular 50x30x3.2 para los tubos de la base de la cama, tubería rectangular 50x30x2.6 para la cabecera, tubería rectangular para el margen de cama una medida de 60x40x4 y para finalizar tubería circular 21.3x3.2 para los tubos verticales de la cabecera y reposa pies. Este diseño es un poco más ligero que el anterior en cuestión de medidas de la base de la cama, pero como este no tiene acabados rústicos por la madera se adiciona más material de soldar en cabecera y reposa pies. En el diseño 3 podemos ver como los planos contienen buena información para poder elaborar el diseño, lo único que le faltaría seria la división de los tubos de la base. Tenemos que es una base de cama de 55.5 de ancho por 79de largo con patas de base de 12, una cabecera de 39.5 de alto con dos cuadrados de 12 por 25.5 como vista. La hicimos con tubo circular 48.3x5 la base de cama, armazón y cabecera, de 42.4x2.6 tubos de refuerzo, 40x4 diseño de vista. Esta base le pusimos madera de 1cm de espesor tanto como en la cabera como en los reposadores de pies. El diseño 4 lo hicimos parecido al 2, solo que la cabecera tiene ligeras modificaciones. Para modificarla un poco más decidí hacerla más ancha, estilo King size, ósea el doble de la individual. Utilizamos las medidas de tubería rectangular 50x30x3.2 para los tubos de la base de la cama, tubería rectangular 50x30x2.6 para la cabecera, tubería rectangular para el margen de cama una medida de 60x40x4 y para finalizar tubería circular 21.3x3.2 para los tubos verticales de la cabecera y reposa pies. En el diseño 5 cambiamos a un domo, el cual tenía muy pocas medidas y tocó poner unas lo más aproximado posible a los industriales. Utilizamos tubos rectangulares de 300x200x8 para el armazón y tubos rectangulares de 250x150x10 como soporte. Le pusimos vidrio tratando de asemejar lo más posible al diseño original. El diseño 6 fue el más complicado de todos, ya que las formas y medidas de las piezas no concordaban a las del plano, al final decidí por hacer la compuerta como si fuera eléctrica dándole una vista como si fuera una malla. Utilizamos tubo circular 21.3x2.3 para la malla y para la base tubo rectangular 100x50x4. En el diseño 7, este diseño lo creamos muy similar al diseño 5, solo que tanto como medidas como acabados si los modificamos, este tipo de domo es más grande que el otro, este tipo de domo lo podríamos ocupar para viveros o para casas como una buena distribución. Ocupamos tubo rectangular 400x200x10 y vidrio que transparentara la parte superior. No solo hicimos el trabajo de 7 diseños en soldadura, sino que también realizamos 5 cursos diferentes de SolidWorks, los cuales son: Introducción a SolidWorks. SolidWorks Básico. SolidWorks Profesional. Soldadura de Estructuras metálicas. Interpretación de Planos. Estos cursos fueron de mucha ayuda para realizar el trabajo final, mas que nada nos ayudaron a utilizar de forma profesional el software.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de diseños de piezas y planos en software de SolidWorks. Con este conocimiento podemos hacer cualquier pieza que se requiera y también podemos hacer sus planos. Con la ayuda de SolidWorks podemos dar una idea de cómo se vería un diseño final, en la soldadura podemos varios perfiles dependiendo para que queremos la pieza. De igual forma podemos ver las propiedades físicas de la pieza. No solo hicimos piezas, los cursos también cuentan con un apartado teórico el cual ayuda bastante para comprender más lo que estamos haciendo. Es muy importante tener la habilidad de leer planos ya que, si sabemos leer correctamente un plano, al momento de diseñar será más fácil y rápido por eso es de vital importancia tomar este curso si es que nos queremos especializar en creación de piezas.
Ortiz Cano Alberto, Instituto Tecnológico de Morelia
Asesor: Mg. Yunellis del Carmen Burgos Pereira, Fundación Universitaria Tecnológico Comfenalco

MODELO RELACIONAL PARA ACTIVIDADES INNOVADORAS Y LA PRODUCTIVIDAD EMPRESARIAL DE LAS EMPRESAS DEL SECTOR CONSTRUCCIÓN CARTAGENA DE INDIAS


MODELO RELACIONAL PARA ACTIVIDADES INNOVADORAS Y LA PRODUCTIVIDAD EMPRESARIAL DE LAS EMPRESAS DEL SECTOR CONSTRUCCIÓN CARTAGENA DE INDIAS

Gonzalez Santiago Carlos Alberto, Tecnológico de Estudios Superiores de Jocotitlán. Ortiz Cano Alberto, Instituto Tecnológico de Morelia. Sánchez Huerta Víctor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Yunellis del Carmen Burgos Pereira, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

En Cartagena de Indias, Colombia, las empresas prestadoras de servicios de mantenimiento industrial y de construcción se adaptan a las necesidades específicas de la región y ofrecen una variedad de características y servicios. Algunas de las características comunes de estas empresas en Cartagena de Indias son las siguientes:  Experiencia y especialización: Las empresas de mantenimiento industrial y de construcción en Cartagena de Indias suelen tener experiencia en proyectos tanto a nivel local como nacional e internacional. Cuentan con personal capacitado y especializado en diferentes áreas técnicas, como electricidad, mecánica, automatización, soldadura, entre otros. Amplio rango de servicios: Estas empresas ofrecen una amplia gama de servicios para cubrir las necesidades de mantenimiento y construcción de diversas industrias. Esto puede incluir mantenimiento preventivo y correctivo de maquinaria y equipos, reparaciones, instalaciones eléctricas, proyectos de ingeniería, montaje y desmontaje de estructuras, entre otros. Cumplimiento de normas y estándares: Las empresas prestadoras de servicios de mantenimiento industrial y de construcción en Cartagena de Indias se adhieren a las normas y estándares de calidad, seguridad y medio ambiente establecidos tanto a nivel local como internacional. Esto garantiza la ejecución de trabajos de forma segura y confiable.  Uso de tecnología y equipos modernos: Estas empresas emplean tecnología avanzada y equipos modernos en sus proyectos. Pueden utilizar herramientas de diagnóstico, software especializado, maquinaria de última generación y materiales de calidad para garantizar la eficiencia y la calidad en sus servicios.  Flexibilidad y adaptabilidad: Las empresas se adaptan a las necesidades específicas de cada cliente y ofrecen soluciones personalizadas. Pueden trabajar en diferentes sectores, como petroquímica, minería, manufactura, energía, construcción civil, entre otros.  Cumplimiento de plazos y presupuestos: Estas empresas se comprometen a cumplir con los plazos acordados y a trabajar dentro de los presupuestos establecidos. Tienen la capacidad de gestionar proyectos de diferentes tamaños y complejidades, asegurando la entrega oportuna y eficiente.  Servicio de atención al cliente: Las empresas de mantenimiento industrial y de construcción en Cartagena de Indias brindan un servicio al cliente de calidad, con atención personalizada y una comunicación fluida. Están comprometidas en satisfacer las necesidades y expectativas de sus clientes.



METODOLOGÍA

La metodología define el camino a seguir para alcanzar los objetivos propuestos, y debe identificar y describir el uso de métodos, procedimientos, técnicas analíticas cualitativas y cuantitativas que se utilizarán para alcanzar cada uno de los objetivos específicos.  Según Neill & Córtez (2018), los métodos utilizados en la investigación científica pueden dividirse en métodos lógicos y métodos empíricos.  En los primeros se encuentran los métodos deductivos, método inductivo, método hipotético deductivo, y en los segundos se encuentran la observación, medición y experimentación.  Se recomienda redactar la metodología por objetivo específico y definir para cada uno de ellos, el procedimiento, técnica o herramienta a utilizar, por ejemplo, observaciones, encuestas, entrevistas, diseños de experimentos, simulaciones, validaciones, pruebas, ensayos y otros, las variables a analizar cuando aplique y la información o datos que aspira a obtener y los resultados. Debe ser incluido en la metodología, la identificación del acompañamiento realizado por el actor asociado (cuando aplique) en las diferentes etapas del proyecto, indicando las acciones a realizar y los resultados que se obtendrán en su ejecución.  


CONCLUSIONES

En la industria metalmecánica y petroquímica, hay varias maquinarias y tecnologías de la industria 4.0 que se están implementando o están por implementarse para mejorar la eficiencia, la productividad y la seguridad, algunas son: ·        Internet de las cosas. ·        Robótica avanzada. ·        Fabricación aditiva. ·        Realidad aumentada. ·        Analítica de Datos y big data. En los sistemas de gestión de la cadena de suministro se buscará satisfacer las necesidades de formación en las áreas de Talento Humano, Corporativa, seguridad y salud, acceso a mercados, gestión de activos, mantenimiento, inventarios y herramientas ofimáticas.  
Ortiz Flores Damaris Itzel, Instituto Tecnológico de Pachuca
Asesor: Mg. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena

RECICLAJE TéRMICO COMO ESTRATEGIA DE REUTILIZACIóN DE RESIDUOS PLáSTICOS Y FIBRAS VEGETALES DE LA ACTIVIDAD BANANERA EN EL CENTRO ACUíCOLA Y AGROINDUSTRIAL DE GAIRA


RECICLAJE TéRMICO COMO ESTRATEGIA DE REUTILIZACIóN DE RESIDUOS PLáSTICOS Y FIBRAS VEGETALES DE LA ACTIVIDAD BANANERA EN EL CENTRO ACUíCOLA Y AGROINDUSTRIAL DE GAIRA

Cruz Rodriguez Diana, Instituto Tecnológico de Pachuca. Ortiz Flores Damaris Itzel, Instituto Tecnológico de Pachuca. Salazar Fernandez Maricielo del Carmen, Universidad César Vallejo. Asesor: Mg. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena



PLANTEAMIENTO DEL PROBLEMA

La industria del plástico ha aumentado su nivel de producción significativamente, generando cerca de 400 millones de toneladas por año, sin embargo, solo el 9% es reciclado mientras que la disposición final de 19 a 23 millones de toneladas de plásticos termina en botaderos. Cada año Colombia genera 1.400.000 toneladas de plástico al año en todas sus presentaciones, cientos de toneladas de estos residuos terminan en los ríos y mares del país. El Magdalena Santa Marta emite una carga estimada de 16.700 toneladas de plásticos por año que terminan en el Mar Caribe.   En el Centro Acuícola y Agroindustrial de Gaira (CAAG), hay gran demanda de botellas PET (Polietileno Tereftalato) generado por el consumo de aprendices, funcionarios e instructores en promedio 1.689 usuarios que producen 4.720 kg anuales de residuos sólidos aprovechables; entre ellos un 62% de plásticos (Informe Mediciones 2022 Sistema de Gestión Ambiental CAAG). Debido a esto, se ha generado una problemática, ya que existe una incorrecta disposición de los residuos sólidos e inexistencia de estrategias que hagan transformación o reaprovechamiento a los residuos generados.



METODOLOGÍA

La Metodología planteada se fundamenta en los planteamientos de las Normas: ASTM D1037: 12 y la Norma ASTM D143-21; que, aunque no son directamente aplicadas a madera plástica, son desarrolladas para madera y se realizará una adaptación del método para obtener resultados confiables en el prototipo.   Clasificación de residuos Para dar inicio al desarrollo del proyecto, se recolectaron residuos plásticos pertenecientes a tres tipos diferentes de clasificación; Polietileno Tereftalato (PET), Poliestireno (PS) y Polipropileno (PP). Dichos residuos se obtuvieron de los contenedores de reciclaje ubicados dentro del Centro Acuícola y Agroindustrial de Gaira. Posteriormente se extrajeron las etiquetas y las tapas de las botellas de PET que fueron recolectadas; para después realizar la reducción de tamaño de los envases de PET, las bolsas de PS y los fragmentos de LDPE, de esta forma se obtuvieron piezas plásticas de aproximadamente 1cm X 1cm.   Limpieza y desinfección de residuos plásticos Previamente, se realizó la limpieza y desinfección de los diferentes tipos de plásticos de forma mecánica (frotar y enjuagar con agua) y química (utilización de agua, detergentes y detergentes enzimáticos para reducir la carga microbiana y partículas de polvo).   Recolección de la fibra vegetal de banano Se recolectaron dos vástagos de banano de 6 y 9 meses de edad ubicados en el CAAG, los cuales fueron trasladados al centro de acopio en donde se realizó el acondicionamiento de la fibra vegetal de banano, separando las capas de fibras del vástago. Posteriormente, dichas capas fueron distribuidas sobre una superficie plástica y se dejaron a temperatura ambiente durante 48 horas para eliminar la humedad.   Secado de la fibra vegetal de banano Después de las 48 horas el vástago pasó por un proceso de cortado, el cual se llevó a cabo con ayuda de equipos manuales con la finalidad de obtener trozos de 10 a 15 cm de longitud para posteriormente, poderse colocar en charolas de acero inoxidable que se colocaron dentro de un horno de secado ubicado en la planta de alimentos del CAAG. El proceso de secado se realizó durante 8 horas a una temperatura de 45°C.   Pruebas Fisicoquímicas Para realizar los cálculos de humedad se utilizó un método de pesaje, en donde se tomaron muestras de la fibra de banano recién cortada y se colocaron en un horno a 105°C durante 8 horas y se calculó el % Extracto seco e indirectamente el % Humedad, este procedimiento se repitió 2 veces para poder sacar un promedio. Adicionalmente se realizó en un equipo analizador de humedad halógeno localizado en el laboratorio de físico química, en donde se sometieron 2.742 g de muestra de fibra de banano en el equipo a 105°C durante 15 minutos y se obtuvo una humedad de 93.64%, siendo el promedio final de humedad de 94.26%.   Pruebas Microbiológicas Se realizaron pruebas microbiológicas a la materia prima empleada, con el propósito de conocer qué microorganismos se encuentran presentes en los materiales que se manipulan durante el proceso. Se utilizaron dos medios de cultivos: Agar Cromocult en la primera prueba microbiológica y Agar nutritivo para la segunda prueba, asimismo se procedió a realizar diluciones seriadas con agua peptonada utilizando muestras de la materia prima a trabajar.   Pulverización de fibra vegetal de banano Al tener obtener fibras vegetales desecadas se procedió a triturar con ayuda de un triturador de mandíbulas ubicado en el laboratorio de ciencias ambientales se redujo la fibra vegetal hasta 2 cm de tamaño.


CONCLUSIONES

A lo largo de la estancia de verano para la investigación, los resultados obtenidos fueron muy gratificantes, ya que se enriquecieron los conocimientos académicos y culturales de cada uno de los integrantes que apoyaron con el desarrollo del proyecto abordado, resaltando algunos aspectos se pueden mencionar: la búsqueda de la literatura en diversas fuentes electrónicas, conocimientos prácticos aprendidos en los laboratorios del CAAG, reflexión y apreciación de la cultura colombiana, degustación de gastronomía propia de la costa del mar Caribe, entre otros.   Es importante destacar que se trabajó con un proyecto nuevo y financiado por el estado, el cual pertenece a la línea programática: 82 - Fomento de la innovación y desarrollo tecnológico en las empresas;  por lo cual aún se encuentra en proceso la compra de equipos para facilitar la molienda y fundición de los plásticos, por ende nuestros resultados se basan en la obtención de un prototipo conformado por residuos plásticos y fibra vegetal del banano elaborado de manera artesanal siguiendo los protocolos de limpieza y desinfección, los cuales fueron objeto de nuestra estancia y se establecieron en el plan de trabajo, asimismo teniendo en cuenta la contaminación de emisiones generadas en el proceso de fundición de la materia prima.
Ortiz Leon Jorge, Instituto Tecnológico de La Piedad
Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN


DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN

García Espinoza Cecilia Janeth, Instituto Tecnológico de La Piedad. Hernández Pérez Jorge Daniel, Instituto Tecnológico de La Piedad. Martínez Zárate Andres, Instituto Tecnológico de La Piedad. Ortiz Leon Jorge, Instituto Tecnológico de La Piedad. Rodriguez Martinez Ivette Jocelyn, Instituto Tecnológico de La Piedad. Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las heladerías ofrecen a sus clientes la opción de personalizar sus helados con diversas combinaciones de ingredientes, lo que resulta en una experiencia gastronómica más satisfactoria. Sin embargo, la gestión manual de las opciones disponibles puede llevar a errores en la facturación, tiempos de espera prolongados y una experiencia del cliente poco organizada. El desafío radica en la implementación de un sistema en la Heladeria WOW que permita a los clientes seleccionar y combinar de manera intuitiva los elementos que desean agregar a sus helados, incluyendo frutas, salsas y toppings, garantizando que el proceso sea rápido, preciso y eficiente



METODOLOGÍA

La metodología empleada para este tipo de proyecto fue necesaria una combinacion de cuantitativa para el desarrollo del sistema, como el análisis de los datos relacionados con la facturación y los pedidos y junto con cualitativa para el diseño de la interfaz de usuario y en la obtención de la retroalimentación de los usuarios, realizando entrevistas o encuestas a los clientes para comprender su experiencia y opinión sobre la usabilidad del sistema, la facilidad de personalización, y su satisfacción general con la opción de seleccionar diferentes ingredientes para sus helados.


CONCLUSIONES

De la presente investigación y el desarrollo del sistema de personalización de helados con registro y facturación ha sido un proceso enriquecedor y exitoso que ha permitido satisfacer las necesidades y preferencias de nuestros clientes de manera eficiente y personalizada. A través de la combinación de una metodología ágil que nos brindó flexibilidad y adaptabilidad, así como la utilización de enfoques cuantitativos y cualitativos en la investigación, logramos alcanzar los objetivos establecidos y brindar una experiencia única a nuestros usuarios.La implementación de una interfaz de usuario amigable y accesible ha permitido que nuestros clientes puedan seleccionar con facilidad los componentes de sus helados
Oseguera Nuñez Williams Yeremi, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Ma. del Carmen Chávez Parga, Universidad Michoacana de San Nicolás de Hidalgo

EFECTO DEL PH EN FERMENTACIONES DE TRES CEPAS DE GIBBERELLA FUJIKUROI


EFECTO DEL PH EN FERMENTACIONES DE TRES CEPAS DE GIBBERELLA FUJIKUROI

Oseguera Nuñez Williams Yeremi, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Ma. del Carmen Chávez Parga, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Evaluar los cambios significativos de tres cepas de Gibberella fujikuroi (CDBB H-270, CDBB H-972, CDBB H-984), durante un intervalo de 72 horas de fermentación a nivel matraz en cuatro niveles de pH (3, 3.5, 4, 4.5), con el objetivo de observar la condición más favorable para generar una mayor producción de pigmentación rojiza característica del metabolito secundario Bikaverina.                        



METODOLOGÍA

La metodología se llevó a cabo en dos etapas: en la primera etapa se observó la pigmentación en las cuatro fermentaciones (C-1: pH 3, C-2: pH 3.5, C-3: pH 4 y C-4: pH 4.5), mediante un registro fotográfico cada 24 horas, hasta finalizar las fermentaciones con un tiempo de 72 horas. En la segunda etapa, se cuantificó el consumo de sustrato mediante una técnica colorimétrica, en un espectrofotómetro UV-VIS, se seleccionó la fermentación, cuyos resultados cualitativos presentaron mayor pigmentación característica de la formación de Bikaverina, y se calcularon los parámetros cinéticos utilizando el modelo de Monod.        


CONCLUSIONES

Se presentó una adecuada producción de las diversas cepas, en el cual se obtuvieron resultados favorables, sin embargo, sé demostrando que la cepa CDBB H-972, obteniendo una coloración naranja-café oscura en un tiempo de fermentación de 72 horas. Con los parámetros de agitación constante de 200 RPM, en una temperatura de 28 °C ± 7° y con un pH de 4. Se demostró que se genera una menor pigmentación al tener bajos niveles de pH (3) y se presenta una disminución del pigmento al presentar un pH de 4.5, teniendo como un margen de pH 4±0.2 para una producción de pigmento adecuada.                
Oseguera Oseguera Borjas Angel Guadalupe, Instituto Politécnico Nacional
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DETECCIóN DE PLACAS VEHICULARES EN EL CENTRO UNIVERSITARIO DE CUVALLES


DETECCIóN DE PLACAS VEHICULARES EN EL CENTRO UNIVERSITARIO DE CUVALLES

Oseguera Oseguera Borjas Angel Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Al implementar un sistema de detección de placas, se puede identificar rápidamente vehículos desconocidos o no autorizados que intentan ingresar al campus escolar, lo cual nos puede ayudar a prevenir situaciones de riesgo y potenciales amenazas para la seguridad de los estudiantes. Por lo que en este proyecto se busca desarrollar un sistema de detección de placas de vehículos utilizando tecnologías de visión por computadora y aprendizaje automático. El sistema se encargará de identificar las placas de matrícula de los vehículos en tiempo real, con el objetivo de utilizarse para el acceso del estacionamiento de la unidad académica.



METODOLOGÍA

Recopilación de los datos. Se busca obtener los datos de entrenamiento para la red neuronal, los cuales son las placas vehiculares del estacionamiento y el etiquetado con las coordenadas de las mismas. Se toman las fotografías de las placas de algunos vehículos. Se etiquetan las imágenes con makesense. Se divide las imágenes a la mitad, esto con el objetivo de utilizar la mitad para entrenamiento (training) y la otra mitad utilizarla para la prueba (test).   Entrenamiento del algoritmo Yolov8 para realizar la detección de las placas. Con los datos de entrenamiento se realiza el entrenamiento del modelo de reconocimiento. Se crean las carpetas de training y test, y así dentro de estas se crean las carpetas de image y label, así mismo dentro de estas carpetas se colocan las imágenes y sus etiquetas correspondientes. Se crea un archivo .yaml con las rutas de las carpetas de training y test. Se utiliza el archivo yaml para generar nuestro modelo de reconocimiento.   Creación del código para detectar las placas con la cámara Web. Con el modelo de reconocimiento y con la librería de OpenCv de Python se realiza el reconocimiento de las placas de los automóviles. Se crea un código para abrir la cámara de nuestro computador  Se pasa cada frame de nuestro modelo a través del modelo de entrenamiento; En caso de reconocer una placa vehicular, se genera un recuadro que encierra dicho objeto.   Conexión con las cámaras de seguridad. A través de programas externos se realiza la conexión de las cámaras con la computadora. A través de un software del fabricante de las cámaras de seguridad, se realiza la conexión con las mismas.


CONCLUSIONES

Para finalizar se destaca la importancia de una placa con una mayor potencia, todo esto con el objetivo de tener una mayor fluidez con el programa en cuestión, esto debido a que la placa utilizada en las pruebas realizadas, carecía de velocidad de procesamiento.
Osorio Bautista Fátima Diane, Universidad de Guadalajara
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

DESARROLLO DE UNA INTERFAZ PARA EL ANáLISIS DE RECURSO EóLICOS EN YUCATáN


DESARROLLO DE UNA INTERFAZ PARA EL ANáLISIS DE RECURSO EóLICOS EN YUCATáN

Mendez Gomez Evelin Alondra, Universidad de Guadalajara. Osorio Bautista Fátima Diane, Universidad de Guadalajara. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La energía eólica emerge como una solución para generar electricidad de forma sostenible. El uso de simuladores y la realización de pruebas previas antes de poner en funcionamiento parques eólicos son fundamentales. Algunas razones importantes son: evaluación de viabilidad nos permite analizar el comportamiento del viento y la capacidad de generación de energía en una ubicación especifica antes de invertir en la construcción de parque eólico, además de su eficiencia, la seguridad y la confiabilidad de estas instalaciones. Ayudan a tomar decisiones informadas, reducir riesgos, mejorar la eficiencia y maximizar el rendimiento de la generación de energía eólica. Yucatán cuenta con una gran cantidad de vientos constantes y fuertes, especialmente en su costa.  Estos vientos en la costa en promedio pueden oscilar entre 6 y 8 m/s durante todo el año. Aunque las mediciones precisas pueden variar según la ubicación y la altitud específica teniendo en cuenta otros factores meteorológicos dentro de Yucatán. La implementación de parques eólicos en Yucatán sería una decisión estratégica que aprovecharía el potencial eólico de la región, diversificaría la matriz energética, reduciría las emisiones de carbono, generaría beneficios económicos.



METODOLOGÍA

Los objetivos principales de esta interfaz son facilitar la exploración de la dirección y velocidad del viento, estimar la distribución probabilística mediante la función de densidad de probabilidad de Weibull y permitir la extrapolación de datos para diferentes alturas sin la necesidad de mediciones durante un año completo. Para la realización de este proyecto el primer paso consistió en obtener los registros históricos de velocidad y dirección del viento de diferentes estaciones meteorológicas (NASA y UNAM) ubicadas en Yucatán con coordenadas de 20.515640, -88.907929. Para luego vaciar en un archivo Excel y realizar una base de datos y darle un acomodo más limpio y coherente. Para después realizar análisis estadísticos, esto con la ayuda de diferentes fórmulas, en este estudio energético se obtuvieron datos como la de la potencia eólica disponible y la función de densidad de probabilidad de Weibull para modelar la distribución de velocidades del viento en diferentes meses del año. Además de Estimar los parámetros de la función de Weibull para obtener información sobre las velocidades promedio y la variabilidad del viento en la región. Luego se realizó un análisis de los parámetros para poder interpretar los valores de k y c y de esta forma comprender la forma y escala de distribución de velocidad del viento, en donde el valor de k determina la forma de la curva, donde valores sean más grandes indican una curva puntiaguda en cambio mientras valores más pequeños indican una curva ancha y plana, mientras tanto el valor de c representa la velocidad de viento a la que la probabilidad de ocurrencia es máxima. Después teniendo en cuenta los objetivos del proyecto y las necesidades de los usuarios potenciales. A partir de ello, se diseñó la estructura general de la interfaz, identificando las secciones clave, como la rosa de los vientos, tablas de frecuencia, histogramas y curvas de velocidad, que serían mostradas al usuario. Luego se utiliza el lenguaje de programación Python y utilizar librerías como matplotlib y optar por tkinder como nuestra biblioteca principal para la creación de la interfaz gráfica, entre otras herramientas apropiadas para el diseño de la interfaz gráfica. Consecuentemente se llevó a cabo la implementar la visualización de datos mediante una estrecha relación con los datos que previamente se habían recopilados de la velocidad, dirección, frecuencia que se tenían en las estaciones meteorológicas que se tomó como referencia en el estado de Yucatán. Estas conexiones se realizaron mediante la utilización de líneas de código con algoritmos de lectura, permitiendo así cargar datos relevantes y poder actualizar los gráficos y tablas de forma dinámica. Para estimar los otros parámetros se utilizó las funciones de Weibull escritas en códigos. Esta interfaz permite a los usuarios interactuar añadiendo un archivo que nos sirve como base asi nos permite utilizar parámetros estimados de la función de Weibull para extrapolar las velocidades del viento a diferentes alturas y además nos permite variar el diámetro de un aerogenerador y saber su área de barrido.


CONCLUSIONES

El desarrollo de la interfaz en Python ha sido un desafío gratificante, y los resultados obtenidos han superado todas las expectativas planteadas inicialmente. Mediante su uso, los usuarios pueden explorar con facilidad la dirección y velocidad del viento en la región, visualizar la distribución de velocidades utilizando la función de densidad de probabilidad de Weibull y obtener estimaciones mensuales de velocidades promedio. La posibilidad de extrapolar datos para diferentes alturas de referencia ha demostrado ser una característica especialmente valiosa, ya que evita la necesidad de realizar costosas mediciones durante largos períodos de tiempo. Además de que ha resultado ser sólido y preciso, lo que ha sido corroborado a través de pruebas exhaustivas y validaciones con datos reales. La función Weibull proporciona una herramienta valiosa para caracterizar la distribución del viento en la región, permitiendo una comprensión más profunda de sus características y patrones estacionales. Es fundamental destacar que el éxito de esta investigación no habría sido posible sin la colaboración y apoyo de diversas instituciones y expertos en el campo. La disponibilidad de datos confiables y la retroalimentación recibida han sido invaluables para garantizar la precisión y relevancia de los resultados obtenidos.
Osorio Zaragoza Angeles Joana, Universidad Autónoma del Estado de México
Asesor: Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango

AUTOMATIZACIóN DE SISTEMA DE RIEGO PARA HONGO SETA.


AUTOMATIZACIóN DE SISTEMA DE RIEGO PARA HONGO SETA.

Osorio Zaragoza Angeles Joana, Universidad Autónoma del Estado de México. Asesor: Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la cuidad de Huachinango, se encuentra el Instituto Tecnológico Superior de Huachinango que está desarrollando diferentes proyectos para poder demostrar conocimientos teóricos, así como prácticos. En el instituto se están desarrollando diferentes líneas de investigación, pero en este caso, el tema de interés es el cultivo de hongo seta.    El hongo seta debe crecer en un ambiente húmedo por esto, es importante el riego para que se desarrolle de manera adecuada y algunas de las herramientas que garantizan el empleo correcto del agua, son sistemas automatizados que deben esparcir el riego de manera fina y se tengan resultados efectivos como menciona la fundación Luis Maria Martinez, IAP (2012) Por lo antes mencionado en el ITSH requiere implementar la automatización del riego de hongo seta para disminuir las labores manuales. Por ello se propone, la creación de un prototipo de sistema de riego para el hongo el cual, brinde los índices de temperatura y humedad dentro del invernadero, así como el encendido o apagado del sistema de riego realizando la investigación teórica para obtener mejores resultados para poner en funcionamiento la automatización en el invernadero con el cultivo del hongo seta.



METODOLOGÍA

La metodología utilizada en este proyecto es cuasiexperimental debido a las variables teóricas que se analizan y también se manipularon de manera práctica. Al comienzo, se realizó una tabla comparativa con cinco autores donde se retoman los casos de éxito con los prototipos de sistemas de riego y para comenzar con la evaluación de estos sistemas. Una vez analizados elementos como el costo, eficiencia, funcionamiento y el tipo de placa utilizada (Arduino por ejemplo). Comienza la evaluación de cada uno de sus componentes y características decidir con que herramientas comenzar a trabajar para desarrollar un prototipo de sistema de riego para el hongo seta. En primer lugar, se establecieron preguntas básicas. ¿Qué información se requiere en el proceso? ¿Qué información se va a generar? ¿Cómo se verá reflejada? Una vez obtenidas las respuestas de este planteamiento se comenzará con el desarrollo de una pequeña aplicación móvil para tener una interfaz que se comunique además que reciba datos y pueda enviar señales de encendido y apagado. Análisis de datos. Para realizar la comunicación entre los distintos dispositivos se priorizan las variables de temperatura y humedad en el desarrollo del sistema de riego eligiendo que se medirá con los dispositivos DHt11, un módulo bluetooth HC-05 y la placa Arduino UNO, donde se integran las variables en común creando así la conexión entre ellos para compartir los datos. Posteriormente, se comienza con el modelado del proceso. Se retoman las variables analizadas para poder desarrollar una conexión entre el sensor de humedad (DHT11) y la aplicación móvil. Generación de la aplicación. Una vez identificados los elementos que se imprimen en pantalla se comienza con la construcción de la aplicación para después comenzar con las pruebas del funcionamiento básico requerido y se obtiene como resultado el apk de la aplicación; De manera paralela, se implementa el código en la placa Arduino para la lectura de los datos y finalmente, se da de alta el módulo bluetooth para poder establecer la conexión entre el celular y la aplicación. Pruebas y entrega. Una vez generada la construcción de la aplicación, se visualiza que cumpla con la visualización básica del sistema y que haga lecturas de manera correcta, así como que también envíe señales de encendido y apagado a una bomba de agua de 5V. Por consiguiente, se realizada la implementación de la aplicación teniendo como resultado un prototipo de un sistema de riego para que pueda ser escalado en un futuro cercano.


CONCLUSIONES

El prototipo del sistema de riego para el hongo seta cuenta con algunas deficiencias por el tiempo en que se desarrolló además que se comenzó la propuesta sin una base precedente al proyecto; Aunque el prototipo cumple con la función de las medidas de humedad y temperatura claramente, puede ser implementado de mejor manera en el futuro; Como se menciona dentro de las limitaciones del proyecto, no se cuentan con todos los materiales ni las instalaciones adecuadas para el momento en el que se realiza el prototipo del sistema de riego, por ello se decidió utilizar una mini bomba de 5V que utilizo aparte una fuente externa igual de 5V. La mini bomba puede ser sustituida después por una bomba presurizadora de 120V la cual tendrá que ser adaptada para que la placa de Arduino funcione correctamente y no se queme. Añadiendo de manera importante que, después de realizar un análisis en conjunto con otro investigador a cargo del diseño del sistema de riego por nebulización, se llegó a la conclusión de que es recomendable solamente realizar una vez al día el riego en el invernadero de hongo seta, ya que los niveles de humedad que se encuentra Huauchinango son los adecuados para el correcto crecimiento del hongo y por el contrario, si se aumenta el riego habrían perdidas y por ende, pondría en riesgo el cultivo de hongo. También se debe tomar en cuenta que, para poder obtener los datos actualizados, se debe tener un servidor y por ello para poder administrar la base de datos requiere de más personas para su desarrollo de este y lograr realizar las tareas tanto en el frontend como en el backend para dar así un mejor seguimiento a cada una de las especificaciones además del cuidado específico para el montaje de los componentes físicos pues de lo contrario, si aumenta el riego habrían perdidas y por ende, pondría en riesgo el cultivo de hongo.
Ospina Ceron Diego Alejandro, Universidad Autónoma de Occidente
Asesor: Dr. Otniel Portillo Rodríguez, Universidad Autónoma del Estado de México

IMPLEMENTACIóN DE UN SISTEMA VIBROTáCTIL QUE REDUCE EL RIESGO DE CAíDA EN LAS PERSONAS DE LA TERCERA EDAD.


IMPLEMENTACIóN DE UN SISTEMA VIBROTáCTIL QUE REDUCE EL RIESGO DE CAíDA EN LAS PERSONAS DE LA TERCERA EDAD.

Ospina Ceron Diego Alejandro, Universidad Autónoma de Occidente. Asesor: Dr. Otniel Portillo Rodríguez, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Muchos de los problemas del envejecimiento, están relacionados con el desgaste de ciertas articulaciones y huesos, por ejemplo los huesos tienden a volverse menos densos debido a la pérdida moderada de la densidad ósea, y en mayores proporciones se denomina osteoporosis, en el caso de las mujeres, aumenta después de la menopausia, ya que se producen menos estrógenos, causando una mayor probabilidad de fractura ( Richard G, 2022). Con el paso del tiempo el problema tiende a reflejarse más entre las personas mayores de edad, dado ya que el cuerpo tiende a absorber menos calcio y vitaminas de los alimentos ingeridos durante la madurez de la vejez, acelerando el proceso de perdida de densidad. Entre los huesos más afectados son el fémur, los extremos del brazo, muñeca y los huesos de la columna vertebral ( Richard G, 2022). Este es un problema muy común en el mundo, ya que según la OMS Las caídas son la segunda causa mundial de muerte por traumatismos involuntarios y que los mayores de 60 años son quienes sufren más caídas mortales (Organización mundial de la salud, 2021), en México un estudio del Multicéntrico Salud, Bienestar y Envejecimiento (SABE México) realizado por la secretaria de salud señala que la prevalencia puntual de caídas de las personas entrevistadas que refirieron en el año estudiado, de 26.5% con tendencia a incrementarse con la edad ( Lozano Dávila, Calleja Olvera, De Las Deses, & Trujillo de los Santos, 2017). Se puede entonces concluir que el desarrollo de un sistema capaz de medir las desviaciones de ciertas vértebras, a su vez también cierto parámetro en específicos, logra alcanzar la prevención o alerta de caída del paciente en el caso de una prueba, como idea principal se busca que el sistema cumpla con las características principales tanto en ergonomía como en precio, ya que se busca que sea lo más factible y eficiente posible.



METODOLOGÍA

Principalmente se consultó la documentación pertinente respecto al desarrollo de dispositivos vibrotáctiles en personas, se tomaron en cuenta, referencias respecto a la sensibilidad de la piel, respecto a la edad y la modulación de la frecuencia. Se recabó información, sobre dispositivos portátiles, MCU capaces de manejar y procesar gran cantidad de datos en un tiempo determinado, posterior a esto se inició con la realización de un programa, base, con el fin de probar los parámetros documentados.


CONCLUSIONES

•Gracias a lo anterior, hemos podido comprobar que es posible diseñar un sistema portable, ergonómico, eficiente y que al día de hoy hay muchos dispositivos Low costo y ultra Low Energy en el mercado, que son capaces de cumplir con los objetivos esperados. Complementando lo anterior, con el avance de las nuevas herramientas tanto en inteligencia artificial, es posible diseñar un algoritmo capaz de reducir el error a la hora de definir y detectar ciertas enfermedades, hablando de enfermedades neurodegenerativas y de ser posible en el área de la rehabilitación prevenir la caída en personas adultas y mejorando desde lo descrito la calidad de vida.
Ovando Pérez Alexis Yerai, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEñO, MODELADO Y SIMULACIóN DE UN ROBOT MANIPULADOR DE 3 GRADOS DE LIBERTAD EN CONFIGURACIóN CILíNDRICA.


DISEñO, MODELADO Y SIMULACIóN DE UN ROBOT MANIPULADOR DE 3 GRADOS DE LIBERTAD EN CONFIGURACIóN CILíNDRICA.

Ovando Pérez Alexis Yerai, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los procesos actuales de la industria requieren de sistemas robóticos precisos y fiables para la correcta elaboración de productos en líneas de producción. Sin embargo, para conseguir un óptimo desempeño del robot, es necesario desarrollar un control adecuado y conocer la descripción matemática más aproximada al sistema robótico a analizar.  Por ello, se realizó un simulador basado en MATLAB de un robot manipulador de 3 grados de libertad en configuración cilíndrica, partiendo del modelado de sistemas dinámicos, planteamiento de métodos de control, así como el diseño mecánico usando software de diseño.  



METODOLOGÍA

Para el desarrollo del simulador, el periodo de la estancia se separó en fases, para poder aprender las bases de lo que implica un sistema de control, así como el modelo y diseño del robot.  Sistemas de control: Partiendo de las bases de las estructuras de control, se diseñaron controladores PD y el análisis de control adaptable, así como el control en espacio de estados.  Cinemática directa de robot manipulador: Usando el algoritmo Dennavit-Hartenberg, se consiguen las matrices de transformación, que determinan las posiciones generalizadas del robot en un plano XYZ.  Modelo dinámico: Usando las posiciones generalizadas, se puede obtener el modelo dinámico del sistema usando las ecuaciones de Euler-Lagrange.  Diseño CAD: Partiendo de las consideraciones físicas del robot, se diseña en SolidWorks las piezas del robot, para conseguir las masas y distancias necesarias para los algoritmos de control.  Simulación en MATLAB: Teniendo el modelo matemático del robot, el sistema de control y el diseño CAD, se forman los bloques de programación para la construcción del simulador. 


CONCLUSIONES

Como resultado de las diferentes investigaciones y clases realizadas, se consiguió armar el simulador del robot manipulador de 3 grados de libertad en configuración cilíndrica.  El simulador puede mostrar al robot y las trayectorias deseadas, y mediante los cálculos realizados por el sistema de control, se puede tener un movimiento deseado dentro de un espacio de trabajo dado por las limitantes físicas del robot.  Con este simulador, se comprende la importancia del diseño mecánico, un buen modelado matemático y un control adecuado, para poder implementarlo de manera segura en una industria o bien hacer una experimentación académica. 
Ovando Torrez Luis Angel, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

TRANSPORTE DE MULTIPLES AGENTES AEREOS CON CARGA UTIL SUSPENDIDA


TRANSPORTE DE MULTIPLES AGENTES AEREOS CON CARGA UTIL SUSPENDIDA

Ovando Torrez Luis Angel, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el transporte de carga en áreas urbanas y rurales enfrenta desafíos significativos en términos de eficiencia y accesibilidad. Los medios tradicionales de transporte terrestre se ven limitados por el congestionamiento del tráfico, la infraestructura insuficiente y los altos costos de mantenimiento. Por otro lado, el uso exclusivo de drones para entregas de carga se ve limitado por su autonomía, capacidad de carga y restricciones regulatorias en zonas pobladas. En este contexto, surge la necesidad de explorar nuevas soluciones innovadoras para el transporte de carga que combinen la versatilidad y alcance de los drones con la estabilidad y eficiencia del transporte por cable suspendido. La idea de utilizar drones en conjunto con un sistema de cable suspendido podría ser una solución potencial para superar las limitaciones actuales. Sin embargo, este enfoque también presenta una serie de desafíos técnicos y operativos que deben abordarse para garantizar su viabilidad y seguridad, así como la eficiencia de poder satisfacer la necesidad en la industria.



METODOLOGÍA

Para realizar el proyecto del modelo de transporte de carga, se realizaron los siguientes puntos que con detalle tuvieron su avance conforme el itinerario estaba planteado, Revisión bibliográfica y análisis de casos similares: se inició la investigación revisando estudios y proyectos previos relacionados con el transporte de carga con drones y sistemas de cable suspendido. Analizar casos de éxito y desafíos encontrados para extraer lecciones aprendidas y buenas prácticas. Definición de requerimientos y objetivos: se estableció con detalle los requerimientos del sistema, como la capacidad de carga, distancia máxima de transporte, tipos de carga a transportar, velocidades requeridas y requisitos de seguridad. También se definen los objetivos específicos de la investigación (qué queremos alcanzar con este nuevo sistema de carga). Diseño del dron: uan vez realizando la investigacio y el enriquecimiento del estado del arte y de especificar los objetivos, se  realizó un diseño específico para el dron que cumpla con los requerimientos de carga y autonomía necesarios para el transporte. También se considera el diseño de los elementos de suspensión y sujeción de la carga al dron todo en manos de un software de simulacion grafica.  Selección y diseño del sistema de cable suspendido: seguido de eso, se evaluaron diferentes opciones de sistemas de cable suspendido, considerando factores como la longitud del cable, la altura de vuelo, el tipo de soportes y los resultados que arrojan la literatura , teniendo en cuenta que para el modelo matemático se usó el método de Newton-Euler para el modelo del sistema de carga, con calculo dinámicos de acuerdo a las ecuaciones mecánicas de movimiento del dron, así como un apoyo grafica al plantear un diagrama de cuerpo libre donde se busca una estabilidad entre las fuerzas que interactúan entre si durante el vuelo. Desarrollo de sistemas de navegación y seguimiento: se implementaron sistemas de navegación y seguimiento para que el dron pueda seguir de manera precisa el recorrido del cable suspendido y mantener una posición estable durante el transporte de carga en este caso un GPS y un sensor de posición. Simulaciones y pruebas en laboratorio: mediante el modelo creado en software se realizó una simulación y prueba en laboratorio para validar el diseño del sistema de cable suspendido, el dron y el modelo de carga. Esto permite identificar posibles problemas y realizar ajustes antes de las pruebas en condiciones reales. Futuros alcances: Al mantener los resultados obtenidos en simulación y tener una respuesta optima para el control del vuelo durante el transporte de carga, se espera realizar de forma experimental las pruebas en campos o áreas controladas para evaluar el funcionamiento del sistema en condiciones cercanas a la realidad, esto ocurrido en las instalaciones del centro de investigación y teniendo una buena respuesta, se pasará a las pruebas reales en zonas urbanas, así mismo se pueda realizar una optimización de nuestro sistema después de analizar el rendimiento de este para luego tener mejoras en los resultados cercanos a los que se quieren llegar.


CONCLUSIONES

En el periodo de estancia se pudieron realizar varias técnicas para el modelo y sistema de transporte. La combinación de drones y sistemas de cable suspendido permite superar desafíos de congestión del tráfico y limitaciones en la autonomía de vuelo de los drones, abriendo nuevas posibilidades logísticas.  Los resultados obtenidos en las pruebas en laboratorio  y simulacion han sido satisfactorios, demostrando la viabilidad técnica del enfoque propuesto. A medida que se superen los desafíos técnicos y regulatorios, se espera que esta solución innovadora contribuya significativamente al avance y mejora del transporte de carga en un futuro cercano.
Pabón Córdoba Jair Andrés, Universidad de Investigación y Desarrollo
Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla

DISPOSITIVOS DE RECOLECCIóN Y DISTRIBUCIóN DE AGUA PLUVIAL EN CASAS HABITACIóN.


DISPOSITIVOS DE RECOLECCIóN Y DISTRIBUCIóN DE AGUA PLUVIAL EN CASAS HABITACIóN.

Gallardo García Diego, Benemérita Universidad Autónoma de Puebla. Mendoza Gonzalez Manuel Alejandro, Benemérita Universidad Autónoma de Puebla. Pabón Córdoba Jair Andrés, Universidad de Investigación y Desarrollo. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, 113.9 millones de personas tienen acceso al agua, mientras que 26.1 millones (18.6 %) de habitantes no tienen acceso al agua. En 2015, el 94.4 % de la población tenía cobertura de agua entubada en vivienda. Para 2012 se estimó que 685 mil muertes eran atribuibles a agua y saneamiento inadecuados. La mayoría de sistemas de recolección de lluvias no cuentan con medidores de calidad del agua. La medición de distintas variables como la conductividad eléctrica, densidad, pH (grado de acidez o alcalinidad), dureza total, dureza cálcica, contenido de calcio, alcalinidad total, alcalinidad parcial e hidróxida ayudan a determinar si el agua cumple con los parámetros establecidos para el consumo humano.



METODOLOGÍA

Proponer medidores de calidad de agua accesibles para sistemas de recolección de aguas pluviales. Aporte práctico: Implementación de un medidor de calidad del agua en SCALL. 1. Identificar las consecuencias del uso del agua contaminada. 2. Investigar los distintos medidores que existen actualmente. 3. Dar una comparativa sobre los dispositivos modulares comerciales


CONCLUSIONES

La investigación se ha enfocado en identificar opciones que ofrezcan un óptimo desempeño y precisión. Los medidores PC/EC-983, Yosoo, 5in1 (Generic) y Q-DH12, no incluyen tecnología Wifi en sus características. Asimismo, ninguno de estos medidores cuenta con medidores de gravedad específica (GE), lo que implica que no pueden proporcionar mediciones relacionadas con la densidad del agua y por otra parte, el modelo W2839 es una opción económica pero que solo mide el pH. El medidor Yosoo resulta ser una opción costosa y, lamentablemente, no cumple con la mayoría de los parámetros de la tabla. Los modelos YY-W9909 y PH-W218 destacan como las mejores opciones disponibles. Ambos dispositivos ofrecen mediciones precisas de todas las variables. Sin embargo, una ventaja significativa es que el modelo PH-W218 es un 19% más económico que el modelo YY-W9909.   Considerando la relación costo-beneficio, concluimos que el modelo  es la mejor opción por debajo del presupuesto de 2 mil pesos mexicanos. Al ofrecer la misma funcionalidad que el modelo YY-W9909 a un precio más accesible, el PH-W218 satisface nuestras necesidades de monitoreo de calidad del agua de manera eficiente y económica. Su rendimiento confiable y asequible lo convierte en la elección ideal para garantizar un análisis preciso y efectivo del agua en un sistema de captación de agua de lluvia.  
Pacheco Martinez Vanessa, Universidad Politécnica de Sinaloa
Asesor: Dra. Carmen Elizabeth Camacho Ortiz, Universidad Politécnica de Sinaloa

VIDEOJUEGO CON ENFOQUE EDUCATIVO PARA EL APRENDIZAJE DE LA SEGURIDAD VIAL


VIDEOJUEGO CON ENFOQUE EDUCATIVO PARA EL APRENDIZAJE DE LA SEGURIDAD VIAL

Pacheco Martinez Vanessa, Universidad Politécnica de Sinaloa. Asesor: Dra. Carmen Elizabeth Camacho Ortiz, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

  La seguridad vial es un asunto importante en cada momento de traslado, sin embargo, es común en México que la única ocasión en se le toma en cuenta es al hacer el examen para conseguir una licencia de conducir, examen que solo puede ser llevado a cabo con la mayoría de edad.



METODOLOGÍA

Es importante educar en las leyes y normas de vialidad desde la infancia, por ello en este proyecto de investigación se crea una herramienta accesible a todas las edades que libere de la presión física de las consecuencias reales de una conducción poco segura y que además recompense como consecuencia de una conducción segura, creando así conexiones memorables y amenas con las reglas de conducción; es decir se diseña un videojuego 3D desarrollado en Unity.


CONCLUSIONES

En este proyecto de investigación, se elaboró un project design document o documento de sieño del proyecto, el cual indica las pautas del funcionamiento del juego, siendo su objetivo visitar una lista de puntos importantes respetando las leyes de tránsito y seguridad vial para acumular puntos y subir de nivel, su jugabilidad indica que se controlará un auto en tercera persona con las flechas del teclado, deberá llegar a cada objetivo y esperar medio segundo para confirmar su visita, efectos visuales, efectos de sonido, entre otros detalles como el título. Posteriormente se agregaron parte de los comportamientos como controles de movimiento y animación, se programó una cámara para seguir al personaje principal a modo de tercera persona, se creó una lista de locaciones para funcionar como objetivo junto a un script que les ordena de distinta forma cada que el juego inicia. Se creo además, un script que contiene y mezcla aleatoriamente las locaciones cada que la partida inicia. Como todo gran proyecto se requiere tiempo y un equipo con más integrantes para poder culminarse, sin embargo el evance que se tiene hasta el momento le ha dado una dirección en la cual puede seguir avanzando.
Pacheco Rosales Victor Manuel, Instituto Tecnológico de Tepic
Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar

PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER


PHONETIC DETECTION FOR HOMOPHOBIC SPEECH SPREADERS ON TWITTER

Dominguez Herrera Denilson de Jesus, Instituto Tecnológico de Tepic. Duran Sanchez Juan Manuel, Instituto Tecnológico de Tepic. Marmolejo Sandoval Estefanía, Instituto Tecnológico de Tepic. Montoya Valdez Edwin Ramón, Instituto Tecnológico de Tepic. Pacheco Rosales Victor Manuel, Instituto Tecnológico de Tepic. Asesor: Dr. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

En la era digital, las redes sociales se han convertido en un espacio de interacción y expresión para millones de personas en todo el mundo. Sin embargo, junto con la libertad de comunicación y la facilidad de compartir ideas, también ha surgido un lado oscuro marcado por el anonimato y la impunidad. Específicamente, las redes sociales, con políticas menos restrictivas, como Twitter, han demostrado ser un terreno fértil para la propagación de mensajes ofensivos y discriminatorios, especialmente hacia la comunidad LGBTQ. La comunidad LGBTQ ha luchado históricamente por la igualdad de derechos y el reconocimiento de su identidad y orientación sexual en muchas sociedades. A pesar de los avances en los últimos años, persisten actitudes intolerantes y homofóbicas que encuentran su refugio en el entorno virtual. Las personas con prejuicios hacia esta comunidad suelen utilizar un lenguaje común caracterizado por palabras ofensivas y despectivas para expresar su discriminación y hostilidad. El impacto social y emocional del discurso de odio dirigido a personas LGBTQ es considerable. La exposición constante a mensajes discriminatorios puede provocar un daño emocional significativo, reforzar la invisibilidad y estigmatización de la comunidad y, en casos extremos, contribuir a la pérdida de autoestima y calidad de vida de las personas afectadas. Por lo tanto, es crucial implementar medidas efectivas para salvaguardar la integridad y el bienestar de la comunidad LGBTQ y de todos los usuarios de las redes sociales.  



METODOLOGÍA

1.- Descripción de los datos El conjunto de datos de PAN 2021 para perfilar a quienes difunden discurso de odio en Twitter se compone de 200 tweets por autor en formato XML, cada uno con un identificador de autor único. Este conjunto de datos incluye textos en español e inglés. 2.- Integración Se utilizan modelos de incrustación de sílabas fonéticas y fonemas para la transformación de caracteres fonéticos, entrenados con los corpus CESSESP para español y BROWN para inglés. Se extraen frases de estos corpus para generar vectores de palabras. Luego se extraen sílabas de cada palabra del vector y se transforman en su representación fonética IPA mediante la función transliterate de Epitran. Para las incrustaciones de fonemas, se realiza la representación fonética IPA de cada carácter de la palabra utilizando la función trans_list de Epitran. En cuanto a las características léxicas, el sentimiento inicial del mensaje se determina mediante SenticNet 5, que analiza expresiones de varias palabras relacionadas con conceptos emocionales. Se determinan otras características léxicas siguiendo métodos descritos en otras fuentes. 3.- Transformación de datos En este proceso, se concatenan los tweets de cada usuario para generar un único documento por perfil. Luego se limpian los textos, sustituyendo hashtags, menciones, URLs y emojis por las palabras "hashtag", "mention", "URL" y "emoji" respectivamente. Se eliminan caracteres especiales, signos de puntuación (excepto punto y coma), paréntesis y números. Luego se identifican y cuentan palabras globalmente reetiquetadas. Finalmente, el conjunto de datos se divide en un 70% para entrenamiento y un 30% para pruebas. 4.- Extracción de Caracteristicas Esta fase se enfoca en la extracción de características léxicas y fonéticas. La extracción de características léxicas involucra el análisis del uso de palabras, hashtags, menciones, URLs, emojis, la polaridad, el uso frecuente de partes del discurso y palabras odiosas. Por otro lado, la extracción de características fonéticas se divide en tres tareas: sílabas fonéticas, frecuencias fonéticas y fonemas. En relación a las sílabas fonéticas, se carga en memoria las sílabas fonéticas entrenadas. Luego, se extraen las frases de cada mensaje y las palabras de cada frase. A continuación, se obtienen las sílabas de cada palabra y se codifican en IPA. Usando el modelo de sílabas fonéticas incrustadas, se obtiene el vector de características de cada sílaba. Finalmente, se promedian los vectores de características en un único vector. 5.- Ajustes En la fase de configuración, se ajustan los parámetros de hardware de la máquina, como procesadores e hilos, y se pueden configurar diferentes escenarios para el uso de clasificadores. El sistema puede ajustarse para almacenar vectores de palabras y clasificadores. Durante todos los experimentos, se utilizó el 70% de los datos para el entrenamiento y el 30% restante para las pruebas. Basándose en trabajos previos realizados en el PAN, se examinaron varios clasificadores como la Regresión Logística (LR), Bosques Aleatorios (RF), Árbol de Decisión (DT), Bagging (BG), Gradient Boosting (GB) y AdaBoost (AB).      


CONCLUSIONES

En conclusión, este proyecto de investigación se centró en abordar el problema de la homofobia y el discurso de odio hacia la comunidad LGBT+ en las redes sociales, particularmente en Twitter. La detección automática de perfiles que propagan mensajes ofensivos es una tarea crucial para promover un entorno en línea más inclusivo y seguro. Para lograr este objetivo, se emplearon técnicas de procesamiento del lenguaje natural y aprendizaje automático, como el uso de características léxicas y fonéticas específicas. Estas técnicas permitieron analizar y recopilar una muestra representativa de mensajes con contenido homofóbico y entrenar un modelo capaz de identificar con una efectividad del 70% si un mensaje es homofóbico o no. Sin embargo, al ser un trabajo extenso aún no se cuenta con los modelos completamente entrenados, y por lo tanto no se puede mostrar un resultado enteramente certero por el momento. Pero es importante resaltar que estos hallazgos pueden ser de gran utilidad para las plataformas de redes sociales y la comunidad en general, ya que permiten identificar y enfrentar de manera más eficiente los discursos de odio en línea.  
Padilla Marquez Karina, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

VEHíCULOS AéREOS NO TRIPULADOS


VEHíCULOS AéREOS NO TRIPULADOS

Martinez Ortega Elizabeth, Instituto Tecnológico Superior de Huauchinango. Padilla Marquez Karina, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los Vehículos Aéreos no tripulados (UAV, por sus siglas en inglés) son aeronaves que operan sin tripulación humana a bordo y son controlados remotamente por un piloto o de manera autónoma a través de sistemas de navegación y algoritmos inteligentes. Estos dispositivos también son conocidos como drones.  El control y posicionamiento de un dron es la problemática que se abarca en este verano de investigación, este problema surge debido a la naturaleza compleja y dinámica de estas aeronaves no tripuladas. Algunos problemas comunes en el control y posicionamiento de un dron son la estabilidad y control, ya que los drones son sistemas inestables y requieren controladores precisos para mantener una posición estable y lograr movimientos precisos. Por eso, en el verano de investigación se busca implementar una ley de control y posición en los drones que ayude a mitigar los problemas ya mencionados. 



METODOLOGÍA

La ley de control y posición para un dron fue realizada en Simulink el cual es una herramienta de simulación y modelado basada en bloques, desarrollada por MathWorks, que es parte del software MATLAB. Simulink proporciona una interfaz gráfica de usuario lo que permite construir modelos de sistemas dinámicos y sistemas de control utilizando bloques funcionales que representan diferentes componentes y comportamientos del sistema. Los bloques se conectan entre sí para formar un diagrama de bloques que representa la estructura y las relaciones del sistema.   El diseño de esta ley implicó seguir una metodología sistemática para diseñar, simular y ajustar los controladores necesarios. A continuación, describimos el proceso general que se siguió para poder realizar el trabajo:  1. El primer paso que seguimos para la elaboración de este trabajo fue hacer una revisión del estado del arte, posterior a esto entender el funcionamiento de un dron y la realización de un análisis del sistema dinámico del dron.  2. Definir un modelo matemático que represente el sistema dinámico y las características del dron estas características que incluye aspectos como la masa, momentos de inercia, torques, ángulos (roll, pich y yaw), coeficientes de empuje y arrastre, errores de seguimiento y velocidad angular, los cuales fueron proporcionados por un artículo de investigación.  3. Después se continuo con la comprensión de las ecuaciones que se necesitan utilizar para poder hacer la ley de control y posición, utilizándose las que se muestran a continuación  Dinámica del movimiento traslacional.  Dinámica del movimiento de rotación.  Movimiento de rotación a partir de las ecuaciones de Euler.  Finalmente, se realizaron pruebas y ajustes, pruebas de la simulación para verificar el comportamiento del control, orientación y el posicionamiento del dron. Así como también observar el comportamiento en diferentes situaciones y ajustar los parámetros para mejorar su desempeño y cumplir con los requerimientos establecidos.  Con estos pasos, pudimos diseñar y simular un sistema de control y posicionamiento para un dron en Simulink MATLAB, lo que nos permitió mejorar habilidades en el campo del control de sistemas dinámicos y la simulación de vuelo.


CONCLUSIONES

El proceso de diseñar y crear una ley de control y posicionamiento de un dron simulado en Simulink ha sido una experiencia enriquecedora. En este verano de investigación, se adquirieron conocimientos y habilidades fundamentales en el control de sistemas dinámicos y la simulación de vuelo de drones.  En conclusión, la creación de una ley de control y posicionamiento de un dron en Simulink ha sido una valiosa oportunidad para adentrarse en el mundo del control de sistemas dinámicos y la simulación de vuelo. Los conocimientos obtenidos en este proyecto tienen un alto potencial para contribuir al desarrollo de tecnologías avanzadas en el campo de los drones y aplicaciones similares, permitiendo enfrentar con confianza los retos futuros en la industria de la aviación no tripulada.  
Padilla Real Mayra Alejandra, Instituto Tecnológico de Tepic
Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana

MODELO DE CO-CREACIóN DE UNIDADES FAMILIARES DE PRODUCCIóN SOSTENIBLE Y SUSTENTABLE CON ENFOQUE INTERDISCIPLINARIO BASADO EN SABERES ANCESTRALES. BUSCA SALVAGUARDAR LOS SABERES ANCESTRALES PARA LA PRESERVACIóN DE LOS RECURSOS NATURALES, CULTURALES Y SOCIALES.


MODELO DE CO-CREACIóN DE UNIDADES FAMILIARES DE PRODUCCIóN SOSTENIBLE Y SUSTENTABLE CON ENFOQUE INTERDISCIPLINARIO BASADO EN SABERES ANCESTRALES. BUSCA SALVAGUARDAR LOS SABERES ANCESTRALES PARA LA PRESERVACIóN DE LOS RECURSOS NATURALES, CULTURALES Y SOCIALES.

Maldonado Ibarra María Nayary, Instituto Tecnológico de Tepic. Padilla Real Mayra Alejandra, Instituto Tecnológico de Tepic. Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA La expension desmedida de las zonas urbanas han afectado de manera considerable a las zonas rurales, llevandolas a la segregacion sociespacial, la perdida ancestral, el aumento de la pobreza y el amuento del desempleo, a dichas zonas se les llama interfaces territoriales. Usme y cienega son las zonas de estudio en esta investigacion. Dicha investigacion busca la preservaciòn de indentidad cultural, brindar herramientas y metodologìas para conservar las multiples formas de representacion de tradiciones, de esta misma manera, busca el impulso al turismo cultural como la proteccion del entrono natural y rural, transmitiendo el conocimiento ancestral: por medio de la documentacion de saberes, asegurando lapreservacion y salvaguarda del conocimiento ancestral de las comunidades, lo que ayuda a manteder vivas las tradiciones y costumbres de las comunidades.  



METODOLOGÍA

La investigacion propuso un modelo co-creacion de unidades familiares de produccion sostenible y sustentable con enfoque interdisciplinario basado en saberes ancestrales. Buscando la salvaguarda de los saberes ancestrales para la preservacion de los recursos naturales, culturales y sociales.  Este modelo posibilita la intefracion multifdisciplinaria de areas del conocimiento como lo son: la agricultura, la ganaderia, la arquitectura, la economia y las finanzas. Se encontraron ciertos competidores con respecto a los entregables de dicha investigacion, mas no del modelo. Se crearon diferentes objetos de uso, planos arquitectonicos, tesisi y documentos, material audiovisual como un documental que gano un premio, recetas ricas nutrimentalmente.   


CONCLUSIONES

Durante la estancia, se logoro desarrollar nuevas capacidades y adaptar nuevas herramientas para la busqueda de informacion y la construccion de un informe de vigilancia tecnologica, como de un anexo referenciado. La ingenieria busca la solucion eficaz y eficiente para problemas que muchas veces suelen ser complejos, y dicha investigacion que engloba distintas areas nos desafio a desarrollar habilidades para la resolucion de dichos problemas. Como a la concientizacion de problemas sociales, y la responsabilidad que tenemos nosotros como ingenieros industriales crear un mundo mas equitativo.
Padilla Sandoval Valeria, Universidad de Guadalajara
Asesor: M.C. Agustín Jaime Navarro, Universidad Tecnológica de Nayarit

PROPUESTA PARA LA MICRO GENERACIóN DE ENERGíA ELéCTRICA EN EL RíO “EL NARANJO” DE SANTA CRUZ DE MIRAMAR, SAN BLAS, NAYARIT.


PROPUESTA PARA LA MICRO GENERACIóN DE ENERGíA ELéCTRICA EN EL RíO “EL NARANJO” DE SANTA CRUZ DE MIRAMAR, SAN BLAS, NAYARIT.

Padilla Sandoval Valeria, Universidad de Guadalajara. Vázquez Padilla Anahí Montserrat, Universidad de Guadalajara. Asesor: M.C. Agustín Jaime Navarro, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Durante el verano de 2023 se desarrolló en la Universidad Tecnológica de Nayarit (UTN) una investigación perteneciente a la línea de Energía asequible y no contaminante, siendo este viable para la producción de energía limpia y gratuita para la población de Santa Cruz de Miramar, San Blas, Nayarit, México, aportando generación eléctrica que se requiere para el funcionamiento de dos cuartos fríos de yaca. El presente proyecto nació de un programa desarrollado en la Universidad Tecnológica de Nayarit, llamado Impulso Social, cuyo objetivo es La universidad en el territorio. Como punto de partida, docentes y administrativos seleccionados fueron capacitados en la técnica INCA RURAL; luego de capacitación e investigación de campo se hizo la aplicación del método INCA RURAL en Santa Cruz de Miramar. Santa Cruz de Miramar es una población rural ubicada en México en la Riviera Nayarit y es una localidad perteneciente al municipio de San Blas, la cual cuenta con ríos permanentes, donde el agua fluye de manera habitual durante todo el año. Se encontró un lugar en el río El Naranjo que reúne la mayoría de las condiciones para que, con una inversión económica baja, se pueda aprovechar el potencial de la energía mecánica del agua para transformarla en energía eléctrica mediante un generador. Inicialmente se tuvo la idea de diseñar un tubo con reducciones en su diámetro, esto con la finalidad de aumentar la velocidad del agua en su salida, y con ese chorro accionar una turbina Pelton. Finalmente, la propuesta evolucionó hacia la implementación de un tornillo helicoidal siendo un caso exitoso en España de la empresa Sinfín Energy, pues las condiciones en las que ellos lo aplicaron son semejantes a las medidas de altura con las que el enrocamiento los pobladores de Santa Cruz de Miramar ya cuenta. 



METODOLOGÍA

En este proyecto se buscó generar microenergía aprovechando la potencia mecánica del agua. Se realizaron propuestas de diseños que incluían tanto turbinas Pelton accionadas desde una garganta con reducción de diámetro, como tornillos helicoidales, con el objetivo de utilizar el agua del río El Naranjo que llega a un dique ubicado en la localidad de Santa Cruz de Miramar, San Blas, Nayarit, México. La investigación se dividió en dos vertientes fundamentales para lograr los objetivos, la primera consistió en investigación teórica realizada dentro de las instalaciones de la Universidad Tecnológica de Nayarit, y la segunda trató de investigación de campo. Dentro de la primera parte, lo que se hizo fue analizar, examinar y evaluar de forma general ambas propuestas, con lo que obtuvimos una comprensión más profunda y precisa de sus componentes características e implicaciones, por lo que la propuesta dominante fue la del tornillo helicoidal. Para llevar a cabo el diseño de las turbinas y tornillos, se empleó el software AutoCAD, el cual permitió crear a escala real los planos y representaciones gráficas necesarias para visualizar y analizar las estructuras. Además, se utilizó el software ANSYS para simular ciertas partes de los diseños y evaluar su comportamiento bajo diferentes condiciones y cargas. Esta simulación ayudó a comprender mejor el funcionamiento de la garganta y el torque que tendrían los tornillos, así como a optimizar su rendimiento. Para asegurar la eficiencia de los diseños, se realizaron cálculos mediante fórmulas pertinentes, considerando factores como la velocidad del agua, la altura de caída y las medidas y proporciones estándar tanto de la turbina como del tornillo. Ahora bien, en la segunda parte y para no solo tener un panorama con la información recabada y las teorías meramente salidas de cálculos, se realizaron visitas tanto al río como a la CMIC (Cámara Mexicana de la Industria de la Construcción), donde pudimos contrastar y experimentar lo referente a la primera parte con los datos, resultados e ideas salidas y expuestas de la realidad. Dentro de la evaluación, se tomó en cuenta un caso real donde la empresa Sinfin Energy utilizó un tornillo helicoidal para producir energía. Este caso sirvió como referencia para validar la viabilidad y efectividad de la propuesta ganadora, brindando resultados reales y respaldando la decisión de implementar el tornillo helicoidal en el proyecto de microgeneración de energía hidroeléctrica. 


CONCLUSIONES

Durante el proyecto enfocado en energías asequibles y no renovables, perteneciente a la estancia del Verano Delfín 2023 realizada en la Universidad Tecnológica de Nayarit, se logró realizar una propuesta de microgeneración de energía eléctrica en el río El Naranjo de Santa Cruz de Miramar. Al transcurrir de las semanas y los avances obtenidos se concluyó que, de acuerdo con las condiciones del río y los tiempos disponibles, el tornillo helicoidal en diagonal es el indicado para llevarse a cabo. El tornillo de Arquímedes se utiliza como una forma de aprovechar la energía cinética del agua en movimiento para generar electricidad. La generación con energía hidráulica es una forma de energía limpia y respetuosa con el medio ambiente. No produce gases de efecto invernadero ni contribuye al cambio climático, lo que ayuda a reducir la huella de carbono y mitigar los impactos ambientales. Esta investigación resultó interesante, puesto que el proyecto va mucho más allá que solo la teoría, pues va encaminado hacia la implementación y con ello la obtención de resultados beneficiosos para una comunidad y el medio ambiente en general, además de tener alto potencial en ser un proyecto escalable para fines semejantes.
Pajaro Cavadia Daniela Alejandra, Universidad de la Costa
Asesor: Mg. Alberto Enique Mercado Sarmiento, Corporación Universitaria Americana

PROPUESTA DE MóDULOS DIDáCTICOS FABRICADOS CON MATERIAL RECICLABLE PARA LA ENSEñANZA DE FíSICA A NIVEL SECUNDARIO EN COLOMBIA.


PROPUESTA DE MóDULOS DIDáCTICOS FABRICADOS CON MATERIAL RECICLABLE PARA LA ENSEñANZA DE FíSICA A NIVEL SECUNDARIO EN COLOMBIA.

Hernández Sierra Johan André, Instituto Tecnológico Superior de Guanajuato. Pajaro Cavadia Daniela Alejandra, Universidad de la Costa. Asesor: Mg. Alberto Enique Mercado Sarmiento, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, la enseñanza de la física a nivel secundario enfrenta desafíos significativos. Uno de los principales problemas es la falta de recursos didácticos adecuados que permitan a los estudiantes comprender los conceptos teóricos de manera práctica e interactiva (Elenes, 2016). Además, existe una creciente preocupación por el impacto ambiental y la generación de residuos debido al uso indiscriminado de materiales no reciclables en la elaboración de los recursos educativos (Materiales Escolares y Su Impacto Ambiental, 2022).



METODOLOGÍA

La selección realizada entre los prospectos a experimentos que estaban dentro de los datos fue desarrollada a través de la aplicación de una metodología de observación realizada por el docente investigador, así como, los colaboradores desarrolladores. Esto convirtio nuestra investigación en una de tipo cualitativa dado los resultados obtenidos.    


CONCLUSIONES

Este proyecto de investigación ha sido diseñado con el propósito de proponer una innovadora y sostenible solución para mejorar el proceso de aprendizaje de la asignatura de Física a nivel bachillerato, a través de la revisión y selección de experimentos caseros  fabricados con material reciclable por los mismos estudiantes, que aborden la temática de presión, presión del aire y presión hidrostática. Se busca que el alumno de bachillerato tenga una base sólida acerca de los temas de presión, dado que, estos conocimientos funcionaran como inicio de temas de complejo análisis en los que se limitaran los recursos didácticos, pero, que con la correcta aplicación y desarrollo permite al estudiante ejecutar una enseñanza de aprender haciendo, así como, aprendizaje en base a problemas
Palacio Castillo Daniel Santiago, Universidad Autónoma de Manizales
Asesor: Dra. Santos Adriana Martel Estrada, Universidad Autónoma de Ciudad Juárez

MECANISMOS DE MUERTE CELULAR PRODUCIDOS POR NANOPARTíCULAS BASADAS EN CARBONO


MECANISMOS DE MUERTE CELULAR PRODUCIDOS POR NANOPARTíCULAS BASADAS EN CARBONO

Palacio Castillo Daniel Santiago, Universidad Autónoma de Manizales. Yepes Mendoza Maileth Yoelis, Universidad Simón Bolivar. Asesor: Dra. Santos Adriana Martel Estrada, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Resumen:  El número de publicaciones relacionadas con el uso de nanopartículas crece año con año. No obstante,  es importante enfatizar el problema de la citotoxicidad de dichas partículas.  Los mecanismos de muerte celular producidos por nanopartículas basadas en carbono han sido estudiados ampliamente,  pero no hay un documento que condense los resultados de múltiples estudios en donde se aborde dicha problemática. 



METODOLOGÍA

En la presente investigación se recopilaron datos de 80 publicaciones, incluyendo revistas y libros,  desde 2012 a 2022 encontradas en bases de datos como Elsevier, Google Scholar, Springerlink y Ebsco para analizar los diferentes mecanismos de muerte celular reportados en investigaciones previas.    Se enfatizó la búsqueda en la necrosis y apoptosis reportada en investigaciones en donde utilizaron nanotubos de carbono, fullereno, el grafeno, los puntos cuánticos de carbono y nanodiamantes.


CONCLUSIONES

De acuerdo con la información recopilada, se pudo determinar que las diferentes nanopartículas basadas en carbono cuentan con la propiedad de acarreamiento de fármacos al sitio de unión, lo cual es importante al momento de tratar enfermedades como el cáncer, dado que facilita la distribución del medicamento sin efectos secundarios indeseados.    De igual forma, se determinó que todas estas nanopartículas son capaces de generar un mecanismo de muerte celular en común llamado apoptosis, este es conocido como muerte celular programada, el cual es un proceso celular genéticamente mediado por las células que inducen su propia muerte en respuesta a determinados estímulos.   Se logró determinar que los cinco tipos de nanopartículas basadas en carbono son capaces de producir muerte celular y, además, servir como tratamiento potencial para el tratamiento del cáncer. No obstante, no hay información suficiente para declarar si el mecanismo de muerte celular predominante producido es la apoptosis o necrosis, por lo que son importantes investigaciones futuras para evaluar su factibilidad como acarreador de fármacos. 
Palacios Gaxiola Angela Fernanda, Universidad de Guadalajara
Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca

APLICACIÓN DE REDES NEURONALES PULSANTES PARA LA LOCOMOCIÓN DE UN ROBOT HEXÁPODO INSPIRADO EN LA BIOMECÁNICA DE INSECTOS


APLICACIÓN DE REDES NEURONALES PULSANTES PARA LA LOCOMOCIÓN DE UN ROBOT HEXÁPODO INSPIRADO EN LA BIOMECÁNICA DE INSECTOS

Palacios Gaxiola Angela Fernanda, Universidad de Guadalajara. Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

La locomoción en terrenos complejos y cambiantes representa un desafío fundamental en el campo de la robótica. La necesidad de desarrollar sistemas de locomoción adaptativos y eficientes ha llevado a la inspiración en la biomecánica de organismos vivos. Los hexápodos, con sus seis patas, ofrecen una interesante perspectiva para el diseño de robots que puedan moverse de manera ágil y estable en entornos diversos, incluso en entornos no estructurados Por su parte, las redes neuronales pulsantes (SNN) emergen como una poderosa herramienta para el control y coordinación de movimientos en robots. Las SNN imitan el comportamiento de las neuronas biológicas, permitiendo un procesamiento de información dinámico y altamente reactivo. El propósito de este proyecto es implementar un algoritmo de control basado en redes neuronales pulsantes para la simulación de un hexápodo inspirado en la biomecánica de insectos en un entorno virtual. Se busca desarrollar una locomoción adaptativa que permita al hexápodo simular el movimiento y comportamiento de insectos reales, incluidos los patrones de locomoción de un insecto palo y del insecto palo amputado, en respuesta a diferentes estímulos del entorno. Para lograrlo, se empleará la plataforma Coppelia Robotics como entorno de simulación. El algoritmo de control basado en SNN se implementará en una placa Arduino, permitiendo que el hexápodo tome decisiones de movimiento y coordinación en tiempo real. La información generada por la red neuronal será transmitida mediante comunicación serial a la simulación del hexápodo en Coppelia Robotics, lo que permitirá una interacción dinámica entre la controladora neuronal y el entorno virtual.



METODOLOGÍA

En la fase inicial, se realizó una exhaustiva investigación sobre diferentes simuladores de robots hexápodos disponibles en el mercado. Se evaluaron diversas opciones en términos de funcionalidad, realismo, capacidad de simulación de entornos complejos y facilidad de uso. Tras analizar las ventajas y desventajas de cada alternativa, se tomó la decisión de utilizar Coppelia Robotics como simulador principal debido a su amplia gama de características y su capacidad para ofrecer un entorno realista y adaptable para la simulación del hexápodo. A continuación, se llevó a cabo una revisión detallada de la literatura científica sobre redes neuronales pulsantes y su aplicación en el campo de la robótica. Se estudiaron los principios fundamentales de las SNN y se comprendió cómo estas imitan el funcionamiento de las neuronas biológicas para lograr un procesamiento dinámico de información. Además, se investigaron los patrones de locomoción de insectos, con un enfoque particular en el movimiento de un insecto palo y del insecto palo amputado, con el fin de obtener una base sólida para el diseño de los patrones de movimiento del hexápodo. Se procedió a implementar la red neuronal pulsante en una tarjeta Arduino. Se utilizó Arduino para implementar la red y se realizaron pruebas para asegurar su correcto funcionamiento utilizando diferentes patrones de locomoción inspirados en los movimientos de un insecto palo y el insecto palo amputado La última etapa consistió en establecer la comunicación serial entre la tarjeta Arduino y el simulador Coppelia Robotics. Se desarrolló un protocolo de comunicación para que la red neuronal pulsante pudiera enviar datos de control al simulador, y este pudiera recibirlos y responder adecuadamente. Esta comunicación serial garantizó una interacción dinámica y sincronizada entre la controladora neuronal y el entorno virtual del hexápodo.


CONCLUSIONES

Durante la investigación inicial, se evaluaron diferentes simuladores de robots hexápodos, y la elección de Coppelia Robotics se demostró acertada debido a su versatilidad y realismo, lo que permitió una simulación más precisa y adaptable del hexápodo en entornos complejos. Sin embargo, se enfrentaron dificultades técnicas en Coppelia Robotics debido a la falta de familiaridad con el simulador, lo que afectó la percepción y visualización de los movimientos de las patas del hexápodo en el entorno virtual. Además, se presentaron problemas de sincronización en la comunicación serial entre Coppelia y Arduino, lo que resultó en la pérdida de algunos valores de control, afectando la precisión de los movimientos del robot. Además, se observó una discrepancia entre el movimiento del hexápodo en el simulador y el robot real, específicamente en la simulación del movimiento arrastrado del insecto amputado. Esto podría ser mejorado con una calibración más precisa del modelo virtual y una adaptación más realista de las condiciones físicas. A pesar de los desafíos encontrados, se logró con éxito la implementación del algoritmo de control basado en redes neuronales pulsantes para la locomoción del robot hexápodo en el simulador Coppelia Robotics. La interacción efectiva entre la red neuronal y el modelo del hexápodo en el entorno virtual representa un avance significativo en la aplicación de la inteligencia artificial en la robótica y abre nuevas posibilidades para el desarrollo de sistemas de locomoción adaptables y eficientes en entornos complejos y cambiantes.
Palacios Montes Maria Fernanda, Universidad Mexiquense del Bicentenario
Asesor: Mtra. Sandra Lilia Torres Trejo, Universidad Tecnológica Fidel Velázquez

ANáLIS Y EVALUACIóN DE NECESIDADES DE LAS TECNOLOGíAS EMERGENTES EN EL ECOMMERCE  PARA PYMES


ANáLIS Y EVALUACIóN DE NECESIDADES DE LAS TECNOLOGíAS EMERGENTES EN EL ECOMMERCE  PARA PYMES

Hernández Millán Daniel, Universidad Mexiquense del Bicentenario. Palacios Montes Maria Fernanda, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Sandra Lilia Torres Trejo, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

A medida que se actualizan las tecnologías las cuales se aplican en los comercios, surge la preocupación sobre cómo aprovechar de forma eficiente y efectiva estas tecnologías para mejorar la experiencia del cliente, aumentar la administración, la reducción de tiempos, el fácil acceso de información y así mismo maximizar los resultados comerciales. Sin embargo, se enfrentan diversas amenazas en su implementación y administración de forma general. Preguntas que pueden ayudar a resolver el problema ¿Qué medidas de seguridad utilizas para proteger los datos de tus clientes y transacciones?  ¿Qué tecnologías estarías de acuerdo con usar en tu negocio?



METODOLOGÍA

Se utilizo la metodología de investigación tecnológica con el  propósito de incorporar la innovación y promover el conocimiento y  las necesidades  para la implementación de tecnologías emergente en las Pymes, garantizando su comercio para satisfacer las necesidades del usuario final. La metodología de la investigación tecnológica desarrollada en la investigación: 1. Identificación de la problemática. 2. Formulación del problema de investigación. 3. Identificación del objeto de la investigación. 4. Identificación del campo específico de la investigación. 5. Formulación del objetivo de la investigación. 6. Formulación de la hipótesis de la investigación. 7. El estado del arte. 8. Elaboración del modelo teórico-conceptual.


CONCLUSIONES

La metodología de investigación tecnológica es importante para las Pymes porque les permite incorporar la innovación y promover el conocimiento y las necesidades para la implementación de tecnologías emergentes, como en el caso de Big Data, el Internet de las cosas, la Inteligencia Artificial y el machine Learning, puede mejorar significativamente un negocio y ofrecer una experiencia mejorada para los clientes. Sin olvidar que es fundamental la seguridad de los datos y transacciones para construir la confianza y proteger la privacidad de los clientes. Esto garantiza que las Pymes puedan satisfacer las necesidades del usuario final y mantenerse competitivas en el mercado. También ayuda a las Pymes a identificar oportunidades y amenazas en su posición tecnológica, adquirir y desarrollar recursos, asimilar tecnologías y aprender de la experiencia y ayuda a las Pymes a establecer diferentes modelos para una gestión eficiente de la tecnología
Palacios Saldaña Brian Arath, Universidad Tecnologica de León
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.


FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.

Aguirre Mena Federico de Jesus, Universidad Tecnologica de León. Castellanos Luevano Oswaldo, Universidad Tecnologica de León. Cruz Ramirez Oscar Mauricio, Universidad Tecnologica de León. Duarte Hernández Daniel, Universidad Tecnologica de León. Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Perez Soto Jose Saul, Universidad Tecnologica de León. Rodríguez Galaviz Brian Axel, Universidad Tecnologica de León. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proyecto reforzará la interacción con diferentes periféricos y dispositivos, como el módulo de biometría de huella digital, el módulo GPS y el sensor de carga de la batería. También se reforzará el diseño y montaje de un circuito adecuado para conectar y gestionar estos componentes.  



METODOLOGÍA

El objetivo de este proyecto es integrar una serie de sensores en un vehículo eléctrico para mejorar la seguridad y funcionalidad del mismo. Los sensores que se utilizarán son: Sensor de biometría de huella digital: Este sensor se aseguró para autenticar al conductor y permitir el acceso al vehículo. La huella digital del conductor se almacenará en una base de datos y se comparará con la huella digital escaneada para conceder o denegar el acceso. Posicionamiento global GPS: Se implementará un módulo GPS para obtener la ubicación precisa del vehículo. Esto permitirá realizar funciones como seguimiento en tiempo real, registro de trayectos y localización en caso de robo o emergencia. Sensor de estado de carga de batería: Para garantizar la eficiencia y seguridad del vehículo eléctrico, se obtendrá un sensor para medir el nivel de carga de la batería. Esto permitirá al conductor tener una estimación precisa del alcance del vehículo antes de necesitar una recarga. El microcontrolador ATMega328P será el cerebro del sistema, encargado de procesar los datos de los sensores y controlar las diferentes funciones del vehículo. Para lograrlo, se programará el microcontrolador en lenguaje C o algún lenguaje de programación compatible.


CONCLUSIONES

Al finalizar el proyecto, se tendrá un vehículo eléctrico más seguro y funcional, con capacidades avanzadas de autenticación, localización y supervisión del estado de la batería. Esto contribuirá a mejorar la experiencia del usuario y fomentará el uso de vehículos eléctricos como una opción de movilidad más sostenible.
Palma Avila Fernando, Universidad Autónoma de Baja California
Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla

MEMBRANA ANTICORROSIVA A BASE DE óXIDO DE GRAFENO Y áCIDO POLILáCTICO


MEMBRANA ANTICORROSIVA A BASE DE óXIDO DE GRAFENO Y áCIDO POLILáCTICO

Franco Morales Santiago Said, Instituto Tecnológico de Morelia. Madueño Navarrete Daniel, Universidad de Guadalajara. Palma Avila Fernando, Universidad Autónoma de Baja California. Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla. Co- Asesor: Mtra. Erika Muñoz Gracia, Benemérita Universidad Autónoma de Puebla. Estudiantes:  Palma Ávila Fernando, Universidad Autónoma de Baja California. Daniel Madueño Navarrete, Universidad de Guadalajara. Santiago Said Franco Morales, Instituto Tecnológico de Morelia.          La corrosión es un fenómeno destructivo y costoso que afecta a una amplia variedad de materiales, como lo son los de naturaleza metálica y sus aleaciones, los cuales son ampliamente utilizados en diversas aplicaciones industriales y estructurales debido a sus características mecánicas. A pesar de sus muchas ventajas, muchos de estos materiales son altamente sensibles a la corrosión, lo que limita su vida útil y su eficacia en entornos hostiles. Para enfrentar este desafío, la industria ha buscado constantemente nuevas tecnologías y métodos para mejorar la resistencia a la corrosión metálica. Entre las posibles soluciones, el uso de recubrimientos anticorrosivos ha demostrado ser una estrategia efectiva para proteger la superficie del material contra la degradación causada por agentes corrosivos. En este contexto, el óxido de grafeno y el ácido poliláctico han surgido como materiales prometedores para desarrollar membranas anticorrosivas. El óxido de grafeno, derivado del grafeno, ha demostrado una alta resistencia mecánica y una excelente conductividad, mientras que el ácido poliláctico, un polímero biodegradable, presenta propiedades de barrera frente a sustancias corrosivas. La combinación de estas dos sustancias podría generar una membrana altamente efectiva y eco-amigable para proteger de la corrosión a la superficie donde esta sea colocada. Sin embargo, a pesar del potencial prometedor de esta tecnología, aún existen diversos desafíos técnicos y científicos que deben abordarse para lograr una aplicación comercial viable.  



METODOLOGÍA

Se utilizó una solución de Óxido de grafeno (OG) sintetizado por el método de Hummers y ácido poliláctico (PLA) con el fin de crear una película que funcionara como una membrana anticorrosiva. Mismos materiales que ya se encontraban disponibles en el edificio de Dirección de Innovación y Transferencia de Conocimiento (DiTCo), mismo en el que se trabajó.  Para la sintetización de la membrana se utilizaron 0.25 g de PLA para diluirse con 0.005 g de OG en 5 ml de cloroformo, el recipiente en el que se colocó la muestra fue agitado manualmente durante 1 hora con el fin de diluir lo más posible la solución, después se coloca sobre probetas del mismo tamaño para obtener películas de la misma longitud, en este caso del mismo diámetro. Cabe destacar que fueron utilizadas 8 probetas para los diferentes tiempos de incidencia en el 3M HCl y diferente estructura de membrana,  pues fueron evaluadas con y sin OG, es decir: PLA - 0h, PLA + OG - 0h,  PLA - 24h, PLA + OG - 24h, PLA - 48h, PLA + OG - 48h, PLA - 72h y PLA + OG - 72h. Una vez colocadas, se dejan secar al aire libre por otra hora para no provocar un secado tan drástico que dañe la composición de la estructura ya que después de ser secado a temperatura ambiente se lleva al horno a 80°C para terminar de secar y obtener la película.  Mientras las muestras quedan listas procedemos con la preparación del 3M HCl la cuál constituye una concentración de 29.26 ml de HCl + 70.73 ml de agua destilada (AD) para obtener 15 ml de 3M HCl para probar cada una de las muestras en sus respectivos tiempos de inmersión. Finalmente ya estando listas las películas se sumergen en recipientes de vidrio herméticamente cerrados, sin embargo consideramos importante que las muestras cumplieran su tiempo simultáneamente con el fin de evitar algún daño a las mismas, para esto se sumergió primero la muestra de 72h y pasando 24h se sumergió la de 48 y al transcurso de otras 24h se sumergió la de 24h. La muestra de 0h no fue introducida al ácido, se utilizó como referencia para medir daños en las películas. Transcurridas las 72h  se retiran las películas de sus respectivos envases y se lavan con agua del grifo para retirar cualquier residuo de ácido y se enjuagan con AD para posteriormente dejar secando al aire libre y evaluar. Para obtener las conclusiones se utilizó la técnica de Difracción de Rayos X (DRX), Microscopía Electrónica de Barrido (MEB) y Espectroscopía de Infrarrojo.  


CONCLUSIONES

Durante la estancia de verano se logró concluir que en efecto la membrana es funcional y resistente a la corrosión, pues gracias a las técnicas mencionadas anteriormente no fue observado un deterioro de gran magnitud con el aumento del tiempo de inmersión; no obstante es necesaria una revisión bibliográfica antes de ponerla en marcha como recubrimiento en determinado material, para verificar su adherencia a la superficie del mismo.  
Palma González Ishtar Yudenitch, Universidad Nacional de Ingeniería
Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa

IMPACTOS AMBIENTALES POR ESCORRENTíA EN LA CUENCA SUR DEL LAGO XOLOTLáN, MANAGUA, NICARAGUA.


IMPACTOS AMBIENTALES POR ESCORRENTíA EN LA CUENCA SUR DEL LAGO XOLOTLáN, MANAGUA, NICARAGUA.

Palma González Ishtar Yudenitch, Universidad Nacional de Ingeniería. Asesor: Mg. Nadia Judith Olaya Coronado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La Cuenca Sur del Lago Xolotlán, ubicada en Managua, enfrenta una problemática ambiental significativa debido al exceso de escorrentía que se ha incrementado en los últimos años. La escorrentía se refiere al flujo superficial de agua que se produce como resultado del escurrimiento de precipitaciones y que no se infiltra adecuadamente en el suelo ni es retenida por la vegetación. Este fenómeno hídrico ha desencadenado diversos impactos ambientales que afectan al medio ambiente y la población. El desarrollo urbano acelerado y la expansión de proyectos agrícolas han provocado la remoción de la cobertura vegetal en las áreas medias y altas de la cuenca, así como la deforestación de bosques para abrir espacio a nuevas urbanizaciones y cultivos. Estas acciones han alterado significativamente la capacidad del suelo para retener y filtrar el agua de lluvia, generando un aumento en los caudales de escorrentía, a la vez que la contaminación también se ha agravado debido al arrastre de sedimentos y residuos sólidos y líquidos hacia el lago, incrementando los niveles de contaminantes y comprometiendo la calidad del agua.



METODOLOGÍA

En el presente proyecto de investigación se utilizó la metodología de revisión sistemática y el trabajo de campo: • Búsqueda de Documentos: Se utilizó un enfoque de búsqueda amplio para identificar estudios, informes técnicos, tesis que abordaran la problemática de la escorrentía en la Cuenca Sur del Lago Xolotlán. • Selección-Evaluación: Se seleccionaron cuidadosamente los documentos más relevantes y pertinentes para el estudio. Se incluyeron estudios científicos y fuentes confiables para garantizar la validez de los resultados. •Análisis-Síntesis: La síntesis de los resultados permitió establecer patrones y tendencias en los impactos ambientales observados. • Matriz de Información: Se elaboró una matriz para organizar la información recopilada en la revisión bibliográfica y el trabajo de campo. Esta matriz permitió comparar los resultados de los diferentes estudios y fuentes. • Trabajo de Campo: Para complementar la revisión bibliográfica, se llevaron a cabo visitas de campo a las áreas identificadas como vulnerables ante la escorrentía.  • Propuesta de Medidas de Mitigación: Con base en los hallazgos de la investigación, se propusieron medidas de mitigación y acciones correctivas para abordar los impactos ambientales de la escorrentía.


CONCLUSIONES

Analizando los resultados se tiene que: Según Bello & Huete (2019), en su trabajo evaluaron el parámetro cobertura vegetal original, y se determinó que en la parte alta y media de la subcuenca III se presenta un bajo porcentaje de semejanza entre ambas coberturas vegetales, debido a la alta tasa de deforestación a que han sido sometidas las áreas de bosques en la zona, además que en la parte media de la cuenca la vegetación original ha sido reemplazada por la producción en pequeña escala de cultivos provocando una extrema reducción de la cobertura vegetal. En la parte baja de la cuenca no existe ninguna semejanza entre ambas coberturas vegetales debido a la urbanización que provocó una reducción de la cobertura vegetal original. Asimismo, según Flores Meza (2014), en su trabajo Vulnerabilidad de la Zonas Urbanas de Nicaragua ante las Inundaciones provocadas por el Cambio y la Variabilidad Climática, el manejo inadecuado de cuenca provoca incremento en el escurrimiento, lo cual causa las inundaciones en las partes baja. Gracias a estos hallazgos se concluye: Las causas identificadas del exceso de escorrentía incluyen la remoción de cobertura vegetal, la deforestación de bosques debido a proyectos urbanos y agrícolas, el uso de cauces como vertederos ilegales y la formación de sedimentos. Las consecuencias de la excesiva escorrentía son la erosión de suelos, la disminución de la infiltración en acuíferos, inundaciones y deslaves, así como la contaminación de los cuerpos de agua. Para la mitigación de los daños en las áreas vulnerables, se proponen medidas como la reforestación en la parte alta de la cuenca, en la parte media donde el uso es casi totalmente agrícola, urge la promoción de cultivos de cobertura, uso de abono orgánica y la protección de cárcavas en la parte baja de la cuenca. En resumen, el exceso de escorrentía en la Cuenca Sur del Lago Xolotlán es una problemática ambiental multifacética que afecta a la infraestructura, el suministro de agua, el medio ambiente y la economía de la región.Se destaca la necesidad de tomar acciones concretas para abordar esta situación enfatizando la importancia de la planificación sostenible y la participación ciudadana en la protección y conservación de este valioso recurso natural, proponiendo un Ordenamiento y usos del suelo, que contiene acciones relacionadas con el fortalecimiento de los procesos de planificación de la ciudad, mejoramiento integral de barrios precarios, regeneración urbana del centro tradicional, intervenciones en espacio público, vivienda y transporte y movilidad. A la vez, la reducción de la vulnerabilidad ante fenómenos naturales y adaptación al cambio climático, que incluye acciones relacionadas con la conservación y recuperación de la cobertura forestal, desarrollo de infraestructura para el manejo de la escorrentía superficial de la ciudad, y reforzamiento de construcciones vulnerables.  
Palma Montoya Dulce María, Instituto Tecnológico Superior de Irapuato
Asesor: Dra. Jazmín Cortez González, Instituto Tecnológico Superior de Irapuato

SOFTWARE DE OPTIMIZACIóN ESTOCáSTICA PARA ESQUEMAS DE DESTILACIóN CON PRESIóN OSCILANTE


SOFTWARE DE OPTIMIZACIóN ESTOCáSTICA PARA ESQUEMAS DE DESTILACIóN CON PRESIóN OSCILANTE

Palma Montoya Dulce María, Instituto Tecnológico Superior de Irapuato. Vargas Mendoza Yolanda Itzel, Instituto Tecnológico Superior de Irapuato. Asesor: Dra. Jazmín Cortez González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se presenta el desarrollo de un software de optimización programado en una interfaz gráfica de usuario. El algoritmo de optimización implementado es el Boltzmann Univariate Marginal Distributión  Algorithm (BUMDA), que es capaz de seguir la trayectoria de la función objetivo y salir de óptimos locales, a través de un mecanismo de reinicialización de la varianza. Se implemento una técnica de manejo de restricciones que permite encontrar de forma rápida la zona factible y que eventualmente converge a los mejores diseños que cumplen con las restricciones establecidas para el caso particular. Este software es capaz de optimizar sistemas de destilación por presión oscilante (PSD) de mezclas azeotrópicas binarias. De acuerdo a los casos resueltos la interfaz propuesta es una herramienta intuitiva, innovadora y fácil de utilizar.



METODOLOGÍA

La metodogía de este proyecto se encuentra dividida en los siguientes dos puntos: 1. Desarrollo de la interfaz: Esta etapa del proyecto, se enfocó en diseñar y construir la interfaz del sistema. Para decidir qué lenguaje de programación utilizar, se analizaron diversas opciones y finalmente se optó por utilizar dos lenguajes principales: Java y C++ (Matlab).  Java fue elegido debido a su versatilidad y capacidad para desarrollar aplicaciones robustas y multiplataforma. Al utilizar Java, se asegura que la interfaz sea compatible con diferentes sistemas operativos y dispositivos, lo que facilita su implementación en diversos entornos. Además, Java ofrece una amplia gama de bibliotecas y herramientas que permiten la creación de componentes visuales y una interfaz de usuario atractiva y amigable. Por otro lado, se optó por incorporar C++ para interactuar con Matlab, ya que Matlab es ampliamente utilizado en el ámbito científico y de ingeniería debido a su capacidad para realizar cálculos numéricos y análisis avanzados. Al utilizar C++ como puente entre Java y Matlab, se facilita la comunicación y el intercambio de datos entre estos dos entornos. En esta etapa, también se diseñó la interfaz visual del sistema. El diseño visual es una parte esencial de cualquier aplicación, ya que determina cómo los usuarios interactuarán con el sistema y cómo percibirán la información presentada. Se tuvieron en cuenta principios de usabilidad, accesibilidad y estética para asegurar que la interfaz sea fácil de usar y atractiva para los usuarios. Además, se llevó a cabo la implementación de los componentes visuales de la interfaz. Esto implica la creación de botones, cuadros de texto, gráficos, tablas y otros elementos visuales que permiten a los usuarios interactuar con el sistema y recibir información de manera clara y efectiva. Se prestaron especial atención a la disposición y la organización de estos elementos para asegurar una experiencia de usuario fluida y satisfactoria. 2. Implementación de la interfaz: Esta fase, se centra en establecer la comunicación entre los diferentes componentes del sistema: el optimizador, el evaluador y la base de datos. El optimizador juega un papel crucial en el sistema, ya que es responsable de encontrar las soluciones óptimas para el problema en cuestión. Para lograr esto, el optimizador utiliza algoritmos y técnicas de optimización avanzadas. Además, el optimizador actúa como una interfaz entre Matlab, Excel y el simulador secuencial modular. Por un lado, el optimizador se comunica con Matlab para aprovechar sus capacidades de cálculo numérico y análisis. Esta comunicación se logra mediante el uso de C++ como mencionamos anteriormente. Por otro lado, el optimizador también interactúa con Excel para importar y exportar datos. Excel es ampliamente utilizado para el manejo de hojas de cálculo y datos, por lo que se utilizó como una forma eficiente de intercambiar información con otras herramientas y permitir a los usuarios trabajar con datos en un entorno familiar. Además, el optimizador se conecta con el simulador secuencial modular, lo que le permite obtener información sobre el rendimiento del sistema y evaluar la calidad de las soluciones propuestas. Esta evaluación se basa en métricas y criterios predefinidos, que ayudan a determinar qué soluciones son óptimas y cuáles necesitan mejoras. Por último, la base de datos es utilizada para almacenar información relevante para el funcionamiento del sistema, como configuraciones de simulación, resultados anteriores, parámetros relevantes, entre otros. La implementación de la comunicación con la base de datos permite acceder y actualizar los datos de manera eficiente, asegurando que el sistema esté siempre actualizado y pueda trabajar con la información más reciente.  


CONCLUSIONES

En este estudio, se ha presentado un software innovador para la optimización de destilación con presión oscilante (PSD) en mezclas azeotrópicas binarias. Proporciona una representación visual de los parámetros clave en el diseño de estos sistemas. El software incluye dos características importantes: una técnica de manejo de restricciones autoadaptativa para encontrar la zona factible y una reinicialización de la varianza para evitar óptimos locales. Estas características mejoran el desempeño del software, reducen el esfuerzo de cómputo y mejoran la calidad de la solución. Los resultados de las pruebas experimentales demuestran claramente los beneficios de esta interfaz gráfica. Se observa una mejora en la eficiencia de separación y una reducción del consumo de energía, lo que resalta la efectividad del software.
Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez

PROYECTO_INVESTIGACIóN_CISCO


PROYECTO_INVESTIGACIóN_CISCO

González Cobarrubias Iran Ramses, Instituto Tecnológico Superior de Apatzingán. León González Jorge Eduardo, Instituto Tecnológico Superior de Apatzingán. Marin Espinosa Juan Eduardo, Instituto Tecnológico Superior de Apatzingán. Palomares Samano Kevin Brandon, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. carlos Blancas blancas, Universidad Tecnológica Fidel Velázquez



PLANTEAMIENTO DEL PROBLEMA

la configuracion de antenas es un problemas para muchas personas por el hecho de que muchas veces los han instalado de forma erronea en algunos hogares o lugares publicos. esto pasa porque en los sitios donde han sido instalados no son lo correctos, ya que muchas veces se tiene que en el lugar instalado tienen muchas interferencias. Entonces aqui mostaremos unos metodos los cuales nos ayudaran a poder instalar  de forma seguro una antena o router de red.



METODOLOGÍA

a continuacion se mostrara como configurar un protocolo llamado EIGRP: Para poder habilitar el proceso de EIGRP, se utiliza el comando de configuración global **router eigrp **, donde **asn** corresponde al número del sistema autónomo. El valor de ASN es de 16 bits, por lo que puede ir de 1 a 65535: Para nuestro caso, el ASN que utilizaremos será 10. Si uno de los routers posee un sistema autónomo diferente a 10, estos routers nunca harán vecindad Ahora que se tiene configurada la instancia de EIGRP, se deben habilitar las interfaces para que trabajen con este protocolo. Esto se realiza a través del comando network.  si está habilitado el terminal monitor en la línea donde estamos conectados (vty o consola). Para poder ver las redes que saben los routers, se usa el comando show ip route, pero si queremos ver las redes aprendidas por EIGRP, se le agrega eigrp al final del comando. En la tabla de enrutamiento, las rede que son aprendidas por EIGRP se les asigna la letra D, pero, ¿Por qué no es la letra E? Eso se debe a que cuando salió EIGRP, estaba el protocolo EGP vigente, por lo tanto, este usaba la E,  Como se puede ver, R1 y R2 conocen las redes 172.16.1.0/24 y 172.16.2.0/24 solamente usando el comando network 172.16.0.0 (por falta de imagenes ya que no pueden poner en este apartado, no se es muy explisitiva la explicacion de esta metodologia)


CONCLUSIONES

Con esta investigación esperamos que se pueda informar tanto a nosotros como a la gente sobre la instalación de sistemas de redes Cisco, principalmente antenas, la serie de procesos que se deben llevar a cabo, metodologías para plantear la instalación y cotización de los productos necesarios y la configuración de la misma, así poder garantizar una serie de instrucciones sencillas para permitir a la gente instalar sus propias antenas y satisfacer las necesidades del usuario. Logramos adquirir conocimientos que nos serán de utilidad al momento de ejercerlos en una situación de la vida real, la investigación se centra en la instalación de sistemas de redes, antenas, y computo de redes en general, la información fue proporcionada por Cisco y otros medios como libros acerca de redes, se espera poder ejercer estos conocimientos de manera sabia y responsable. Aprendimos principalmente la teoria basica de los componentes de una red, los equipos que utilizaremos y los protocolos que podremos seguir al realzar una red general.
Palomino Venegas Paola Estefania, Universidad de Guadalajara
Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara

EVIDENCIA DE TRANSFERENCIA DE MASA EN EL PROCESO LAVADO DE HUEVO, EN OCOTLÁN JALISCO


EVIDENCIA DE TRANSFERENCIA DE MASA EN EL PROCESO LAVADO DE HUEVO, EN OCOTLÁN JALISCO

Alvarez Rodríguez Esmeralda, Universidad de Guadalajara. Palomino Venegas Paola Estefania, Universidad de Guadalajara. Palomino Venegas Yolanda Zarahi, Universidad de Guadalajara. Rojas Reyna Elisa María, Universidad de Guadalajara. Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El huevo es un alimento frecuente en la dieta mexicana, con múltiples formas de preparación y gran aceptación. Sin embargo, pueden ser causantes de enfermedades trasmitidas por alimentos (ETA), el huevo se ha asociado a salmonelosis, pese a ser un producto compuesto en mas del 90% por carbonato de calcio, una mínima cantidad de carbonato de magnesio y otros compuestos de baja proporción entre ellos sustancias orgánicas, es susceptible de transportar bacterias como Salmonella spp., motivo por el cual representa un riesgo sanitario. La fuente de estas bacterias proviene comúnmente del excremento de la gallina, el cual puede adherirse a la superficie del cascaron al momento de la salida del huevo o cuando el huevo queda expuesto en el nido. La cascara cuenta con una película que cumple una función de protección para el huevo de microorganismos del exterior por lo que la mayoría de los huevos no está contaminado por dentro. En algunos casos durante los procesos de recolección o transporte se le llegan a generar fisuras en la cascara no visibles a simple vista. Para poder llevar este producto al mercado es sometido a un proceso de lavado en el cual se siguen unas serie de pasos con el fin de evitar una contaminación del huevo, sin embargo, en algunas ocasiones no se realiza la limpieza de manera adecuada lo que puede provocar una contaminación interna del huevo, principalmente enterobacterias, siendo la salmonelosis la principal.



METODOLOGÍA

La siguiente metodología es experimental-descriptiva 1. Selección de los huevos sucios. 2. Sumergir los huevos en agua potable, 3 durante 15 minutos, 3 durante 30 minutos y otros 3 durante 1 hora para simular el lavado que se le da al huevo para la venta en tiendas. 3. Secar los huevos con un trapo seco. 4. Rotular los huevos para identificar cada muestra, marcando con LA1, LB1 y LC1 los de 15 minutos, con LA2, LB2 y LC2 los de 30 minutos y por último con LA3, LB3 y LC3 los huevos sumergidos durante 1 hora. 5. Pesar los huevos y registrarlo. 6. Preparar la solución de azul de metileno agregando el 95% en volumen de agua destilada y el 5% en volumen de azul de metileno al 1%, tomar una muestra y hacer prueba de colorimetría con GLX. 7. Rotular 3 vasos de precipitado con LA, LB y LC respectivamente y agregar la misma cantidad de la solución de azul a cada uno. 8. Sumergir los huevos al mismo tiempo y dejar reposar durante 15 minutos, 30 minutos y 1 hora respectivamente y dejarlos secar durante aproximadamente 24 horas. 9.  Al pasar cada uno de los 3 tiempos tomar una muestra de cada solución para hacer pruebas de colorimetría en la GLX y registrar los resultados. 10. Ya una vez secos los huevos anotar las observaciones de tinción en la bitácora para proceder a pesarlos y registrarlo. 11. Quebrar cada huevo por la sección transversal vertical con la ayuda de un objeto metálico, cada uno en una caja petri de vidrio. 12. Anotar las observaciones de cada uno de los huevos, así como las dimensiones de cada manchita de azul de metileno presentes en el contenido y en el interior de la cáscara. 13. Observar en el estereoscopio las manchas de azul de los huevos y las cáscaras para observar a más detalle.  


CONCLUSIONES

La cáscara de huevo permite la transferencia de masa a través de ella, este intercambio puede estar constituido por partículas o microorganismos, lo cual nos lleva a inferir el riesgo de contaminación química y por microorganismos patógenos. Al observar los cascarones bajo un estereoscopio se puede notar que los huevos sometidos al proceso de lavado mostraron una porosidad más notoria que en el cascaron sin lavar. En varias ocasiones las manchas resaltaban bastante, dejando ver una cantidad considerable de azul de metileno. Se concluye que es imprescindible tomar medidas sanitarias correctas, tanto para empresas grandes como pequeños comerciantes. Mediante las experimentaciones realizadas, el conocimiento aumentó, se logró fomentar el trabajo en equipo, siempre con respeto, tomando en cuenta cada opinión, así como de parte de la investigadora que nos llevó de la mano en este proyecto.
Palomino Venegas Yolanda Zarahi, Universidad de Guadalajara
Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara

EVIDENCIA DE TRANSFERENCIA DE MASA EN EL PROCESO LAVADO DE HUEVO, EN OCOTLÁN JALISCO


EVIDENCIA DE TRANSFERENCIA DE MASA EN EL PROCESO LAVADO DE HUEVO, EN OCOTLÁN JALISCO

Alvarez Rodríguez Esmeralda, Universidad de Guadalajara. Palomino Venegas Paola Estefania, Universidad de Guadalajara. Palomino Venegas Yolanda Zarahi, Universidad de Guadalajara. Rojas Reyna Elisa María, Universidad de Guadalajara. Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El huevo es un alimento frecuente en la dieta mexicana, con múltiples formas de preparación y gran aceptación. Sin embargo, pueden ser causantes de enfermedades trasmitidas por alimentos (ETA), el huevo se ha asociado a salmonelosis, pese a ser un producto compuesto en mas del 90% por carbonato de calcio, una mínima cantidad de carbonato de magnesio y otros compuestos de baja proporción entre ellos sustancias orgánicas, es susceptible de transportar bacterias como Salmonella spp., motivo por el cual representa un riesgo sanitario. La fuente de estas bacterias proviene comúnmente del excremento de la gallina, el cual puede adherirse a la superficie del cascaron al momento de la salida del huevo o cuando el huevo queda expuesto en el nido. La cascara cuenta con una película que cumple una función de protección para el huevo de microorganismos del exterior por lo que la mayoría de los huevos no está contaminado por dentro. En algunos casos durante los procesos de recolección o transporte se le llegan a generar fisuras en la cascara no visibles a simple vista. Para poder llevar este producto al mercado es sometido a un proceso de lavado en el cual se siguen unas serie de pasos con el fin de evitar una contaminación del huevo, sin embargo, en algunas ocasiones no se realiza la limpieza de manera adecuada lo que puede provocar una contaminación interna del huevo, principalmente enterobacterias, siendo la salmonelosis la principal.



METODOLOGÍA

La siguiente metodología es experimental-descriptiva 1. Selección de los huevos sucios. 2. Sumergir los huevos en agua potable, 3 durante 15 minutos, 3 durante 30 minutos y otros 3 durante 1 hora para simular el lavado que se le da al huevo para la venta en tiendas. 3. Secar los huevos con un trapo seco. 4. Rotular los huevos para identificar cada muestra, marcando con LA1, LB1 y LC1 los de 15 minutos, con LA2, LB2 y LC2 los de 30 minutos y por último con LA3, LB3 y LC3 los huevos sumergidos durante 1 hora. 5. Pesar los huevos y registrarlo. 6. Preparar la solución de azul de metileno agregando el 95% en volumen de agua destilada y el 5% en volumen de azul de metileno al 1%, tomar una muestra y hacer prueba de colorimetría con GLX. 7. Rotular 3 vasos de precipitado con LA, LB y LC respectivamente y agregar la misma cantidad de la solución de azul a cada uno. 8. Sumergir los huevos al mismo tiempo y dejar reposar durante 15 minutos, 30 minutos y 1 hora respectivamente y dejarlos secar durante aproximadamente 24 horas. 9.  Al pasar cada uno de los 3 tiempos tomar una muestra de cada solución para hacer pruebas de colorimetría en la GLX y registrar los resultados. 10. Ya una vez secos los huevos anotar las observaciones de tinción en la bitácora para proceder a pesarlos y registrarlo. 11. Quebrar cada huevo por la sección transversal vertical con la ayuda de un objeto metálico, cada uno en una caja petri de vidrio. 12. Anotar las observaciones de cada uno de los huevos, así como las dimensiones de cada manchita de azul de metileno presentes en el contenido y en el interior de la cáscara. 13. Observar en el estereoscopio las manchas de azul de los huevos y las cáscaras para observar a más detalle.  


CONCLUSIONES

La cáscara de huevo permite la transferencia de masa a través de ella, este intercambio puede estar constituido por partículas o microorganismos, lo cual nos lleva a inferir el riesgo de contaminación química y por microorganismos patógenos. Al observar los cascarones bajo un estereoscopio se puede notar que los huevos sometidos al proceso de lavado mostraron una porosidad más notoria que en el cascaron sin lavar. En varias ocasiones las manchas resaltaban bastante, dejando ver una cantidad considerable de azul de metileno. Se concluye que es imprescindible tomar medidas sanitarias correctas, tanto para empresas grandes como pequeños comerciantes. Mediante las experimentaciones realizadas, el conocimiento aumentó, se logró fomentar el trabajo en equipo, siempre con respeto, tomando en cuenta cada opinión, así como de parte de la investigadora que nos llevó de la mano en este proyecto.
Palomo Garcia Emily Jazel, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

LA CULTURA DE LA CALIDAD COMO HERRAMIENTA DE GESTIÓN INTERNA Y ADAPTACIÓN AL ENTORNO. UN ESTUDIO DE CASOS MÚLTIPLES EN EMPRESAS LATINOAMERICANAS. CASO: APLICACIÓN DEL BENCHMARKING EN LA GESTIÓN DE LA AGENCIA DE TRANSPORTES CMC EN LA CIUDAD DE GUASAVE, SINALOA


LA CULTURA DE LA CALIDAD COMO HERRAMIENTA DE GESTIÓN INTERNA Y ADAPTACIÓN AL ENTORNO. UN ESTUDIO DE CASOS MÚLTIPLES EN EMPRESAS LATINOAMERICANAS. CASO: APLICACIÓN DEL BENCHMARKING EN LA GESTIÓN DE LA AGENCIA DE TRANSPORTES CMC EN LA CIUDAD DE GUASAVE, SINALOA

Palomo Garcia Emily Jazel, Instituto Tecnológico de Piedras Negras. Reyes Sanchez Dayan Pamela, Universidad César Vallejo. Salgado Álvarez Evelyn America, Instituto Tecnológico de Ciudad Juárez. Zavala López Quetzali Daniela, Universidad Politécnica de Texcoco. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La agencia de Transportes CMC es una empresa de paquetería y carga situada en el municipio de Guasave, Sinaloa; teniendo envíos en toda la zona norte y central del país caracterizada por su calidad en el ámbito de la logística, constantemente busca mantenerse a la vanguardia respecto al resto de compañías dedicadas al mismo rubro, derivando en la necesidad de buscar constantemente nuevas ideas y modelos que le permitan mantener su posicionamiento, analizando las cualidades y necesidades de la agencia de transporte se optó por implementar la herramienta para la gestión de calidad Benchmarking con el fin de incrementar la productividad y calidad de su servicio tomando como punto de comparación a la empresa Mercado Libre.



METODOLOGÍA

En primera instancia se realizó una comparativa en el modelo de negocios de mercado libre respecto a su proceso de envíos analizando detalladamente los siguientes puntos en común de ambos negocios Procesamiento de las cargas Logística del servicio Administración de contenedores y almacén Trazamientos de rutas Sistema de Navegación Inspección y mantenimiento de vehículos Monitoreo de las rutas  Evaluación de entrega del cliente Cada uno de estos aspectos fue evaluado en una escala de 1 a 5 para medir el nivel de rendimiento con base encuestas realizadas por personal interno y consumidores, si existía una diferencia en un punto específico donde Mercado Libre tuviera una nota superior se detectaba una oportunidad de mejora, en primera instancia la comparativa arrojo que el tipo de contenedores implementados por Mercado Libre estaban diseñados con un procesos ergonómico adaptados al tipo de mercancía las cuales requerían ciertas características para evitar cualquier tipo de maltrato durante su traslado, los contenedores estaban clasificados de acuerdo al material de carga, plásticos, maderas, metal, entre otros; en base a ello se tomó medida diversificar los tipos de contenedores para el transporte de mercancías específicas que permitan entregar cargas en mejores condiciones. El siguiente punto de comparación donde existió una diferencia significativa fue en el sistema de navegación, la propuesta utilizada por Mercado Libre permite realizar entregas de forma agilizada seleccionando un trayecto preestablecido dónde pueden evitarse retrasos por tráficos o congestionamiento vial, se trata de un software avanzado que gestiona las rutas más óptimas para manejar, indicando las horas adecuadas de circulación para coordinar los descansos de los conductores optimizando los tiempos de entrega y garantizando un mejor calidad, posterior a ello se trabajó en un sistema de navegación para la compañía CMC que utiliza un algoritmo similar que permita reducir el mayor número de incidencias y retrasos durante el transporte de mercancías.  Otra área de oportunidad encontrada fue el monitoreo de rutas, una de las problemáticas habituales en la compañía CMC es el hecho de que tanto los monitoristas cómo los ruteros en ocasiones olvidan recibir el sello de entrega que valida cuando un envió fue realizado, esto es un punto de alto rigor debido a que si se omite debe regresarse nuevamente al destino para obtenerlo, situación que genera una pérdida de tiempo y dinero para la compañía, tomando como referencia nuevamente el método empleado en Mercado Libre dónde la validación para cargamentos de dicha magnitud ahora se realiza de forma digital utilizando unos celulares que los transportistas llevan con una clave por parte del cliente y un número de carga, los datos se vacían en el sistema una vez la carga ha sido entregada llevando un control total de los envíos.  Cómo última observación se consideró la evaluación de entregas del cliente; ambas empresas utilizan el clásico sistema de una lista de cualidades que el cliente califica en base a su experiencia, mientras que en CMC sólo se calificaba de forma general el envío, en Mercado Libre adicionalmente se califica al transportista de forma individual, no solía considerarse un punto relevante evaluar al repartidor, pero posteriormente termino llevándose a la práctica calificando aspectos como: Actitud del repartidor, estado de la mercancía, tiempo de entrega, comunicación, ahora incluso cuando se trata de clientes frecuentes ellos pueden solicitar un repartido en particular con base en su experiencia previa si el servicio les pareció de su agrado, fortaleciendo en el proceso la relación de cliente a empresa.


CONCLUSIONES

Las mejoras introducidas permitieron lograr un incremento en el nivel de satisfacción del cliente, redujo notablemente los gastos de transporte, el nuevo sistema de rutas ha optimizado considerablemente los tiempos de entrega aumentando la productividad de la compañía CMC. La selección de la metodología BenchMarking resultó sumamente favorable, considerando que Mercado Libre es la empresa de E-commerce más grande de Latinoamérica con uno de los sistemas de entrega por excelencia a nivel mundial resultó un excelente punto de comparación, permitiendo extraer atributos favorables de este negocio para fortalecer los puntos débiles de la empresa de transportes y cargas CMC. La evaluación de personal y la opción para seleccionar un transportista de forma predilecta han logrado atraer a un mayor número de clientes, la necesidad de seguir compitiendo en la industria logística y la aplicación de herramientas para la gestión de la calidad seguirán ayudando a mantener el posicionamiento de este negocio en el futuro.
Paniagua Hernández Emmanuel, Instituto Tecnológico de Morelia
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

IMPLEMENTACIÓN DE CONTROL AUTOMÁTICO POR MEDIO DE CUATERNIONES APLICADOS A DRONES


IMPLEMENTACIÓN DE CONTROL AUTOMÁTICO POR MEDIO DE CUATERNIONES APLICADOS A DRONES

Fernández Orozco Irving, Instituto Tecnológico de Morelia. Paniagua Hernández Emmanuel, Instituto Tecnológico de Morelia. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de control de vuelo despiertan un gran interés debido a su gran complejidad de poder generar un vehículo aéreo totalmente autónomo siendo uno de los objetivos principales eliminar la necesidad de un piloto calificado para el manejo de este tipo de vehículos y a su vez la creación de una técnica de vuelo capaz de facilitar el vuelo y las aplicaciones de estos mismos. Han existido diversos controladores de vuelo, pero siempre coincide en que sufren con el bloqueo del cardán, el cual consiste en la pérdida de un grado de libertad, que ocurre cuando los ejes de dos de los tres rotores se colocan en paralelo imposibilitando el movimiento rápido del dron para la ejecución de las ordenes que se le programen a su vez que bloquea el sistema de rotación de los motores.



METODOLOGÍA

Por medio del hardware Pixhawk 2.4.8 que es una controladora de vuelo que funciona con el software PX4 o Ardupilot, donde es software libre para controlar cualquier tipo de multi-rotores o drones, por lo tanto, nos da la posibilidad de configurar cualquier tipo de Firmware para que funcione de la manera que se desee. Para la creación del firmware programado a las necesidades requeridas, es necesario trabajar con Matlab para todos los cálculos matemáticos, a su vez, de una creación de base de datos para guardar dichos resultados de los cálculos hechos en el software. Después se pasa a la simulación del sistema hecho con ayuda de un subsistema de Matlab llamado Simulink, donde se crea con ayuda de toolchains  y nuevos bloques de construcción que se pueden descargar por medio de internet y que sean compatibles con el hardware que se está trabajando en este caso con la Pixhawk. Una vez hecho todas las instalaciones necesarias y todos los prerrequisitos para el uso de este software y hardware se proceden a su construcción y a su guardado en una memoria MicroSD; y para que este sistema sea posible su ejecución se usó el software QGroundControl, que realiza la configuración de la UAV que se usará, así como la herramienta que ayuda a al hardware al leer el sistema creado. Finalmente se arma el dron, (en este caso, un quadrotor) que se usará para la prueba del software hecho poniendo sus necesarios sensores en este caso, el GPS, buzzer y motores sin escobillas, así como muchos repuestos ya que las pruebas nunca salen como se tiene en la teoría y aparte se necesita controlar todo mediante un control PID. Cabe destacar que dentro del laboratorio existe el material y las piezas requeridas para armar distintos tipos de multi-rotores, en dicho caso se armaron desde quadcópteros, hexacópteros tanto de pequeñas como de grandes dimensiones, y, por último, un octacóptero, todos estos en una configuración de plus (‘+’).


CONCLUSIONES

Se observó que el código de MATLAB puede construirse en la Pixhawk siempre que se usen las versiones en donde se realizó el programa para tener un correcto funcionamiento con los drivers en la computadora, además de que existen varios programas de prueba para poner en vuelo al drone, ya sea una prueba de altura, de sensores o en completo con los demás componentes del drone. Además de conocer los alcances que tiene el Simulink como herramienta para programar vuelos en este tipo de tarjetas a las necesidades que se requieran ya sean recreativos o con fines de investigación como lo es en este caso. Sin embargo, se recomienda que para un mejor funcionamiento y tener pruebas de vuelos más actualizadas, es necesario pasar todos los programas de MATLAB a una versión más reciente como la 2023a, debido a la mayor existencia de controladores y, sobre todo, soluciones dadas en foros y páginas web más actualizadas y eficaces; además del uso de controladores Pixhawk más recientes para evitar problemas de funcionamiento por el tiempo de uso, y de drivers actualizados en la computadora. Respecto a la Pixhawk se observó que es un controlador con grandes alcances puesto que se puede implementar tanto en drones multi-rotores, de ala fija o mixtas gracias al uso de softwares como el QGroundControl y Mission Planner, además de simplificar las conexiones entre esta y los demás elementos que son los motores con sus Controladores Electrónicos de Velocidad (ESC’s), el receptor RC, el GPS, entre otros, simplificando el armado de un drone a comparación de usar un controlador de vuelo convencional. Por último, se puede mencionar que el QGroundControl puede corregir problemas de drivers y funcionamiento de la Pixhawk cuando entra en un error, o mejorar el desempeño de esta cuando sea requerido, por lo que lo convierte en un programa muy recomendado para las pruebas de vuelo con una misión de vuelo hecha en MATLAB; mientras Mission Planner se recomienda para planes de vuelo ya definidas en el mercado o en internet. Cabe destacar que en ambos softwares se puede programar el tipo de drone a implementarse, ya sea por el número de hélices que tendrá, y también si tendrá una configuración plus (‘+’), equis (‘x’), u otra, ya que de esto afectará el comportamiento que tendrán los motores al mover el drone. Agradeciendo la oportunidad de implementar estas misiones en los drones, y el armado de estos y las pruebas de vuelo que se llevaron a cabo, se adquirió una gran experiencia en el mundo de los drones dentro de la investigación que jamás se había visto durante la carrera en persona.
Pantoja Gavidia María Paulina, Instituto Politécnico Nacional
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

ANáLISIS DE MATERIALES COMPUESTOS EN UN CONO-NARIZ DE UN AVIóN MFI-17


ANáLISIS DE MATERIALES COMPUESTOS EN UN CONO-NARIZ DE UN AVIóN MFI-17

Pantoja Gavidia María Paulina, Instituto Politécnico Nacional. Tapia Salas Ariana Rossell, Instituto Politécnico Nacional. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Durante mucho tiempo, las empresas de aviación han llevado a cabo diversas investigaciones sobre la aplicación de materiales compuestos en las estructuras de vehículos voladores. Estos han sido una alternativa sustituta de los materiales metálicos en la fabricación de diversos componentes de aeronaves, incluyendo aquellos que son no estructurales, semi-estructurales y estructurales. En la actualidad, los materiales compuestos desempeñan un papel fundamental debido a su ventaja única de permitir cambios dirigidos en sus propiedades para adaptarse a las necesidades estructurales específicas. Su adopción ha demostrado ventajas significativas en términos de peso, rendimiento y durabilidad, impulsando así una notable evolución en la industria aeronáutica y un papel destacado en la construcción de modernas aeronaves eficientes y seguras.



METODOLOGÍA

A partir del modelo del avión MIF-17, se procedió a diseñar el cono-nariz utilizando dos métodos principales en el software CAD SolidWorks: sólido revolución y superficie. En el primer método, se creó un modelo sólido del cono-nariz y se realizó un análisis estático utilizando Aluminio 6061 como material, debido a su amplio uso en la industria aeronáutica. Este análisis permitió evaluar la resistencia y la integridad estructural de la pieza. Por otro lado, se generó una superficie del cono-nariz y se llevó a cabo un análisis estático utilizando materiales compuestos. Se realizaron dos análisis con distintos materiales: primero con fibra de vidrio y posteriormente con fibra de carbono. Ambos materiales compuestos son ampliamente utilizados en la fabricación de componentes aeronáuticos debido a su alta resistencia y ligereza. En cada caso, se emplearon 8 capas con variación de ángulos (0°, 45°, 90° y -45°) para conformar la estructura laminada. El análisis estático realizado para cada configuración permitió determinar la resistencia, rigidez y estabilidad del cono-nariz en diversas situaciones operativas. Los resultados obtenidos de ambos métodos se compararon y analizaron para identificar la configuración óptima en términos de rendimiento y eficiencia estructural. En cuanto al análisis finito, se consideraron dos condiciones importantes. En primer lugar, se aplicó una fuerza externa en dirección hacia la nariz del cono, con una magnitud de 99.5143N. Esta fuerza representa el arrastre calculado bajo condiciones estándar de vuelo. En segundo lugar, se modeló una sujeción fija en la base del cono, simulando así su conexión con el resto del avión. Mediante el análisis de estas condiciones, se pudo evaluar el comportamiento estructural del cono-nariz bajo cargas realistas de vuelo, lo que permitió determinar la viabilidad y la eficiencia del diseño en ambas configuraciones (sólido y superficie) y con los diferentes materiales compuestos utilizados.


CONCLUSIONES

El diseño y análisis del cono-nariz del avión MIF-17 ha proporcionado una perspectiva esclarecedora sobre su comportamiento estructural bajo condiciones operativas representativas. La utilización de métodos de análisis finito ha permitido evaluar con precisión las respuestas del cono-nariz ante cargas aerodinámicas y restricciones de sujeción, brindando información esencial para la optimización de su diseño. La comparación entre diferentes configuraciones y materiales ha arrojado resultados significativos. En cuanto a los desplazamientos máximos, la fibra de carbono exhibió una mayor rigidez en comparación con la fibra de vidrio y el Aluminio 6061. Esta característica es valiosa en términos de estabilidad y rendimiento durante el vuelo, ya que los desplazamientos excesivos podrían afectar la aerodinámica y la funcionalidad del cono-nariz. En términos de seguridad, la fibra de carbono demostró ser el material más resistente, con el mayor factor de seguridad entre las opciones evaluadas. Este hallazgo sugiere que la fibra de carbono podría ser preferible en escenarios donde la resistencia a la carga es una prioridad clave. Se puede concluir que la integración de materiales compuestos reforzados con fibras en el diseño del cono-nariz resulta en una notable mejora de sus capacidades técnicas. Esta alternativa se muestra más viable en comparación con el empleo de materiales tradicionales como el Aluminio 6061.
Paredes Cuan Alicia Lizbeth, Universidad de Guadalajara
Asesor: Mg. Lewin Andrés López López, Universidad del Valle

DISEÑO DE UNA INTERFAZ GRÁFICA PARA MONITOREO DE ECG, BASADO EN EL CHIP ADS1298 CON VISUALIZACIÓN EN PC Y PLATAFORMA WEB


DISEÑO DE UNA INTERFAZ GRÁFICA PARA MONITOREO DE ECG, BASADO EN EL CHIP ADS1298 CON VISUALIZACIÓN EN PC Y PLATAFORMA WEB

Paredes Cuan Alicia Lizbeth, Universidad de Guadalajara. Asesor: Mg. Lewin Andrés López López, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

  La tecnología se ha convertido en una parte esencial de nuestra vida diaria, revolucionando la forma en que interactuamos y nos comunicamos. Uno de los campos donde ha tenido un impacto significativo es la atención médica, donde las innovaciones tecnológicas abren posibilidades para mejorar la detección y el cuidado de diversas afecciones.   El proyecto desarrollado aprovecha la tecnología inalámbrica, específicamente Bluetooth y WiFi, como medio para transmitir las señales ECG de los pacientes. El electrocardiograma (ECG) permite obtener información de la actividad del corazón en forma de ondas, que se pueden capturar como señales eléctricas, para lo cual existen dispositivos especializados como el ADS1298, que pueden conectarse, mediante acondicionamiento apropiado, a los electrodos para la toma de un diagnóstico.   La novedad de la propuesta consiste en llegar más lejos que la sola transmisión de datos, por lo cual se tiene como objetivo llevar un registro visual detallado de las señales ECG para generar en un aplicativo, apoyado por una interfaz gráfica de uso sencillo, el análisis y la interpretación de los resultados por medio de algoritmos de visión artificial. Esto proporcionará una valiosa herramienta tecnológica para los especialistas médicos y pacientes, lo que les permitirá identificar patrones y tendencias a lo largo del tiempo, mejorando la rapidez en el diagnóstico y el tratamiento. Este proyecto aporta significativamente a la atención temprana, o detección de anomalías cardiacas como hecho fundamental para brindar tratamientos efectivos y evitar complicaciones mayores. Con el uso de la visión artificial y la transmisión inalámbrica de los datos, se mejoran las medidas preventivas de las enfermedades cardiacas, consideradas una de las mayores causas de muerte a nivel mundial (Linschmann et. al, 2023).   Algunos estudios analizados en bases de datos especializadas incluyen prototipos portátiles para la adquisición y almacenamiento de señales EEG, ofreciendo oportunidades en neurociencia y diagnóstico médico, así como dispositivos de electrocardiograma (ECG) de 12 canales para una plataforma basada en el chip ADS1298, como apoyo al diagnóstico médico en el área cardíaca (Schouten et al, 2022). Otros trabajos como (Nguyen, 2023) presentan formas de hacer un dispositivo portátil para el monitoreo continuo de signos vitales, brindando una herramienta práctica para evaluar el estado de salud durante periodos de tiempo específicos. Los trabajos revisados tienden a mejorar el diagnóstico médico y la salud en general, de forma que se logre con este proyecto aportar al ODS 3 de Salud y Bienestar de la población a nivel mundial.  



METODOLOGÍA

La metodología será Design Thinking, cuyas fases se enfocan en: Empatizar: Abordó la situación problemática en términos de la salud y el bienestar con tecnología de tipo biomédico. Definir: Se identificaron los datos relevantes necesarios para monitorear señales ECG (Electrocardiograma) provenientes de equipos distribuidos y se definió una arquitectura de sistema adecuada para la transmisión, almacenamiento y visualización de estos datos en una estación central. Idear: Se creó una interfaz visual intuitiva y amigable que reciba datos de manera inalámbrica a través de Bluetooth y WiFi. Además, se consideraron diversas opciones para leer y procesar los datos del chip ADS1298. Prototipar: Se hizo un prototipo funcional utilizando dispositivos ESP y Arduino, que permite la comunicación entre ellos y la lectura de las señales ECG del ADS1298. Se hará especial énfasis en la optimización de la interfaz visual para integrar el sistema. Probar: Se someterá el sistema a un conjunto de pruebas y se espera mejorar la respuesta y confiabilidad en la transmisión de los datos.   Cada iteración Design Thinking contribuirá al proceso de diseño y desarrollo, permitiendo la creación de un producto final que ofrezca beneficios significativos para los pacientes y personal médico, principales beneficiados del proyecto.


CONCLUSIONES

  El desarrollo de una interfaz para el monitoreo de los signos vitales representa un aporte significativo en el ámbito de la atención médica, sumado a la conectividad y comunicación efectiva con otros dispositivos mediante tecnologías avanzadas como Bluetooth y WiFi. Esto constituye un avance hacia el diagnóstico inteligente para los pacientes.   La plataforma Web brinda a los pacientes la posibilidad de visualizar sus propios datos de salud, fomentar una mayor participación en su cuidado y bienestar y analizar por medios gráficos los resultados de su estado cardiaco, lo que ayuda a los pacientes a tomar decisiones informadas sobre su estilo de vida y beneficiar sus tratamientos.   En conclusión, el trabajo realizado para concebir esta interfaz de monitoreo de signos vitales ha sentado las bases para una atención médica más avanzada y personalizada, mediante el enlace de conexión con otros dispositivos y la creación de plataformas Web dedicadas al seguimiento de la salud. Gracias a esta innovación, tanto profesionales médicos como pacientes van a tener una herramienta que mejora la calidad de la atención médica y promueve un mayor empoderamiento en el cuidado personal de la salud.   Linschmann, O., Uguz, D. U., Romanski, B., Baarlink, I., Gunaratne, P., Leonhardt, S., Walter, M., & Lueken, M. (2023). A Portable Multi-Modal Cushion for Continuous Monitoring of a Driver’s Vital Signs. Sensors, 23(8), 4002. https://doi.org/10.3390/s23084002   Nguyen, T., Duong, T., Omer, H., Sulieman, A., & Bradley, D. A. (2023). The Design and Construction of a 12-Channel Electrocardiogram Device Developed on an ADS1293 Chip Platform. Electronics, 12(11), 2389. https://doi.org/10.3390/electronics12112389   M. Schouten, P. van de Maat, K. Nizamis & G. Krijnen (2022). Evaluating 3D printed sEMG electrodes with silver ink traces using in-situ impedance measurements". IEEE Sensors, Dallas, TX, USA. https://doi.org/10.1109/SENSORS52175.2022.9967266  
Paredes Ortega Mayra Zenid, Instituto Tecnológico Superior de Huauchinango
Asesor: Esp. José Antonio Martínez Domínguez, Instituto Tecnológico Superior de Huauchinango

PROPUESTA DE DISEñO DE UN SISTEMA FOTOVOLTAICO AUXILIAR DE CARGA PARA UN CARRO ELéCTRICO


PROPUESTA DE DISEñO DE UN SISTEMA FOTOVOLTAICO AUXILIAR DE CARGA PARA UN CARRO ELéCTRICO

Paredes Ortega Mayra Zenid, Instituto Tecnológico Superior de Huauchinango. Asesor: Esp. José Antonio Martínez Domínguez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

" Propuesta de diseño de un sistema fotovoltaico auxiliar de carga para un carro eléctrico" De acuerdo con la línea de investigación que lleva el asesor del proyecto, decidimos realizar una investigación y desarrollar un proyecto en el área de energías renovables. Por tal razón se propone realizar una propuesta e diseño de un sistema fotovoltaico auxiliar de carga para un carro eléctrico, el cual se realizara con la ayuda de un software de diseño como Solid Works. El objetivo será aprovechar de una manera óptima la energía solar mediante un sistema fotovoltaico basado en un panel solar que de acuerdo a su funcionamiento  coincidirá con la posición del sol. Por otro lado ser capaces  de seleccionar los materiales para su construcción.  



METODOLOGÍA

Durante el desarrollo de este  proyecto se dio inicio con diseños en bosquejo y borradores en una bitàcora, para analizar su funcionamiento, así como verificar cómo sería el diseño que se propondría diferente de acuerdo a la investigación que ya se había realizado. Después de realizar los bosquejos, pasamos al proceso de selección del modelo a utilizar y el que era más viable para su correcto funcionamiento, de igual manera se colocaron las medidas tomando como referencia un carro Jetta A4 modelo 2005, teniendo en cuenta medidas de manera estàndar. El modelo del panel solar consta de 6 módulos de forma triangular que al abrir el mecanismo forma un hexágono. El sistema fotovoltaico incluirá un servomotor para posicionar al sistema de acuerdo con la posición en la que se encuentre el sol, de tal manera que se pueda aprovechar al máximo la radiación solar. Posteriormente a ello durante el transcurso de la semana 3 en adelante se comenzó con el diseño con el software Solid Works para el cual el asesor auxilio con videos tutoriales para reconocer el uso del mismo. De igual manera me asesore con el Ingeniero Edgar Solís personal docente del instituto y especialista en el uso de este tipo de software de diseño. Terminado el diseño se continuó con el estudio  de movimiento de la estructura del panel solar la cual presento algunas complicaciones, de tal manera que nos concentramos a revisar información necesaria para realizar la animación del movimiento de parte del sistema. Dicha solución se logró anexando a cada triangulo un ángulo y una velocidad para que los módulos de manera individual se desplazaran expandiéndose y reintegrándose de manera automática.


CONCLUSIONES

El diseño propuesto se logró desarrollar en el software y así mismo su simulación. El diseño tiene propiedad intelectual. Los materiales tienen una larga vida útil y son resistentes al agua. Funciona de manera adecuada al abrirse. Se utiliza una energía renovable. No contamina el medio ambiente. Es una reserva de energía obtenida de manera natural. El mecanismo funciona correctamente. El diseño cuenta con mecanismos automáticos. Se posiciona de manera automática de acuerdo a la posición del sol. Así mismo se concluyo que se puede mejorar la resistencia de los materiales de la base del panel que soportaran las demás capas de la celda, sin embargo tomando en consideración las demás capas se puede concluir que no afectarían mucho en cuanto al peso al estar elaboradas de manera ligera, básicamente el estudio lo podemos referir mas al uso y ubicación externa en cuanto a las condiciones climatológicas, la trayectoria que el carro haga, el correcto funcionamiento así como el mantenimiento que este requiera , de manera general el panel cumple con los requerimientos que supone el titulo en cuanto al diseño, funcionamiento y movilidad, aplicando los diversos conocimientos y adquiriendo nuevos durante el desarrollo del mismo. Por último, se puede mencionar que los objetivos propuestos para este proyecto se cumplieron satisfactoriamente.
Parejo Barrios Dayanys Marcela, Servicio Nacional de Aprendizaje SENA - Regional Magdalena
Asesor: Dra. Alicia Martínez Rebollar, Centro Nacional de Investigación y Desarrollo Tecnológico

ANÁLISIS Y DESARROLLO DE CONJUNTOS DE DATOS PARA LA IDENTIFICACIÓN DE PERFILES DE PERSONALIDAD DE ESTUDIANTES DE POSGRADO


ANÁLISIS Y DESARROLLO DE CONJUNTOS DE DATOS PARA LA IDENTIFICACIÓN DE PERFILES DE PERSONALIDAD DE ESTUDIANTES DE POSGRADO

Parejo Barrios Dayanys Marcela, Servicio Nacional de Aprendizaje SENA - Regional Magdalena. Asesor: Dra. Alicia Martínez Rebollar, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

Desde hace algún tiempo está cobrando relevancia el estudio de variables psicológicas de personalidad asociadas a la selección de personas para integrarse en empresas organizacionales. Este tema es de gran importancia para la mejora de selección de empleados, así como estudiantes en las diferentes instituciones educativas. El Centro Nacional de Investigación y Desarrollo Tecnológico(CENIDET) también aplica varios instrumentos de selección para identificar a los estudiantes con el perfil idóneo para hacer un posgrado, sin embargo, es difícil que todos lleguen a titularse en tiempo destinado de dos años, por ello, uno de los instrumentos es la aplicación del cuestionario 16 de factores de personalidad, que mide las aptitudes y actitudes que deben tener los aspirantes para realizar dicho nivel académico. Actualmente el CENIDET cuenta con información de generaciones anteriores. Esta información, es útil para predecir si un aspirante es candidato idóneo para desarrollar las tareas propias de la investigación. Tomar en cuenta esta información ayudaría al Centro de Investigación a tener más de un 60% de alumnos titulados a tiempo. Es por ello, que se propone analizar la información disponible del cuestionario de 16 factores de personalidad y aplicar una metodología para identificar los patrones característicos de personalidad, también como los casos atípicos de estudiantes de posgrado.



METODOLOGÍA

Se utiliza un diseño longitudinal donde aplica el instrumento 16PF de selección para identificar a los estudiantes con el perfil idóneo. En cuanto a la recolección de datos se administra actualmente el cuestionario de evaluación del 16PF de los estudiantes, examinando y comprendiendo como las variables cambian, se desarrollan y se relacionan. Se recolectó los cuestionarios contestados de los estudiantes que realizaron la prueba de personalidad 16PF, clasificando a los estudiantes que terminaron en 24 meses, los que terminaron después de 24 meses y los que desertaron. Se analizaron los datos donde se utiliza métodos estadísticos, como pruebas para muestras relacionadas y de análisis para los datos cuantitativos, estos datos se están analizando en un paquete estadístico de uso libre, por último, seleccionamos los datos que utilizaremos y sobre ese subconjunto de datos se realiza un proceso de limpieza, transformamos los datos para dejarlos en condiciones de ser tratados en fases posteriores, también se le da tratamiento a los valores atípicos para tener los patrones que difieren de los otros modelos.


CONCLUSIONES

El 16PF ha demostrado que es un instrumento confiable y válido para evaluar la personalidad dada su historia conceptual, propiedades psicométricas y aplicación práctica en entornos organizacionales e industriales, de asesoramiento, investigación básica y clínica, educación y centros médicos. Los datos del presente estudio son una aportación relevante dado que muestran los factores de personalidad característicos de los estudiantes. La presente investigación ha demostrado que es factible en cuanto a la tecnología que se quiere implementar, como algoritmos de inteligencia artificial para evaluar y analizar los conjuntos de datos de manera precisa y confiable.
Parra Arce Kitzia Karely, Instituto Tecnológico Superior de Guasave
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

CARACTERIZACIóN METALOGRáFICA DE RECUBRIMIENTOS FABRICADOS POR DEPOSICIóN DE ENERGíA DIRIGIDA USANDO STELLITE 6 + WC12CO.


CARACTERIZACIóN METALOGRáFICA DE RECUBRIMIENTOS FABRICADOS POR DEPOSICIóN DE ENERGíA DIRIGIDA USANDO STELLITE 6 + WC12CO.

Gomez Villa Brian, Universidad Autónoma de Baja California. Parra Arce Kitzia Karely, Instituto Tecnológico Superior de Guasave. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se han identificado problemas clave que impactan significativamente la calidad y el rendimiento de los recubrimientos como la porosidad y bajo porcentaje de dilución con relación a la aplicación que se le otorga al recubrimiento. De particular interés para el CIDESI son los compuestos de matriz metálica (MMC) de Stellite 6 reforzados con carburo de tungsteno 12 cobalto (WC-12Co), los cuales son depositados por Deposición de Metal por Láser. Uno de los problemas clave es la presencia de porosidad y la dilución variable en los recubrimientos MMC. Estas variaciones afectan la integridad y la vida útil del recubrimiento bajo condiciones de servicio, lo que disminuye su efectividad en aplicaciones industriales. Además, la precisión en la medición de las características geométricas del recubrimiento es esencial para comprender su estructura y asegurar que cumpla con los requisitos de diseño. Errores o imprecisiones en estas mediciones pueden llevar a interpretaciones incorrectas y afectar la toma de decisiones durante el proceso de optimización. Para abordar estos problemas, se busca establecer una ventana de procesos óptima mediante la investigación y aplicación de técnicas adecuadas.  Además, se pretende mejorar la precisión de la medición utilizando herramientas avanzadas de cómputo, como Image J. El análisis estadístico de los resultados, realizado a través del software Minitab, será fundamental para obtener conclusiones significativas respaldadas por evidencia empírica. Esto permitirá tomar decisiones informadas y orientadas hacia la mejora de la calidad y el rendimiento de los recubrimientos MMC/WC-12Co en diversas aplicaciones industriales.  



METODOLOGÍA

Se realizó una revisión del estado del arte con el propósito de analizar las tendencias en el campo de la manufactura aditiva, centrándose particularmente en la mezcla utilizada y los diversos parámetros de proceso. Para llevar a cabo el estudio experimental, se utilizaron un total de 24 muestras de MMC (Metal Matrix Composite) mediante la técnica de deposición de energía directa mediante LMD (Laser Metal Deposition), empleando una aleación metálica de polvos. Estas muestras se dividieron en 3 grupos de 8, cada uno con porcentajes específicos de dos réplicas de recubrimientos de Stellite 6 reforzados con carburo de tungsteno 12 cobalto (WC-12Co) de 70-30, 80-20 y 90-10, respectivamente. El estudio consistió en obtener información relevante para mejorar el proceso de deposición de energía directa mediante LMD, buscando la optimización de la calidad y las propiedades de los composites resultantes. Para lograr una observación precisa de las características geométricas de los cordones, las muestras se montaron en polímero baquelita, se llevó a cabo un proceso de pulido hasta obtener un acabado espejo, después se procedió a observarlas en un microscopio óptico. Para el análisis geométrico de las muestras, se utilizó el software ImageJ, enfocándonos en dos características específicas: poros y áreas. Estos datos resultan fundamentales para evaluar los efectos de la dilución y porosidad en las muestras de MMC obtenidas mediante el proceso de deposición de energía directa mediante LMD con aleación metálica de polvos. Con esta información, se buscó mejorar el proceso y optimizar la calidad y propiedades de los composites resultantes. Tras obtener la base de datos con los parámetros de proceso de potencia del láser, velocidad y tasa de alimentación con dos niveles, alto y bajo, se realizó un diseño factorial 2k, donde "k" representa los factores de potencia del láser, velocidad y tasa de alimentación.  Se llevó a cabo una aleatorización previa para garantizar la confiabilidad en los datos. Una vez procesados los datos, se generaron gráficas de efecto y ventanas de proceso que permitieron observar las afectaciones de cada factor en sus distintos niveles en relación con las variables de respuesta principales, así como el comportamiento frente a sus niveles alto y bajo, determinando si presentaban un comportamiento creciente o decreciente.  


CONCLUSIONES

La realización de este estudio nos ha permitido adquirir conocimientos fundamentales sobre temas relacionados con la manufactura avanzada, específicamente en manufactura aditiva, diseño experimental, microscopía y metrología. Basándonos en los datos y análisis estadísticos preliminares obtenidos, podemos concluir que ciertos parámetros, como la tasa de alimentación y la potencia del láser, tienen un impacto significativo en el porcentaje de dilución de los recubrimientos de MMC. Se ha verificado que, al aumentar la potencia del láser y disminuir la tasa de alimentación, el porcentaje de dilución tiende a incrementarse. Además, se ha confirmado que el control adecuado de la tasa de alimentación es esencial para obtener el porcentaje de dilución deseado en los recubrimientos MMC. Ajustes precisos en la tasa de alimentación permiten alcanzar el equilibrio adecuado entre la calidad y el rendimiento del cordón. En resumen, para obtener un rendimiento óptimo en los cordones MMC de Stellite 6 con carburo de tungsteno 12 cobalto, es crucial considerar el porcentaje de dilución y la porosidad al optimizar los parámetros de proceso. Estos hallazgos proporcionan información valiosa para la optimización de la técnica LMD en aplicaciones industriales, permitiendo una mejora significativa en la calidad y el rendimiento de los cordones de MMC.  
Parra Peraza Edder Geovanny, Universidad de Guadalajara
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

LIBRO DE PROGRAMACIóN EN PYTHON PARA MEDIA SUPERIOR


LIBRO DE PROGRAMACIóN EN PYTHON PARA MEDIA SUPERIOR

Parra Peraza Edder Geovanny, Universidad de Guadalajara. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La educación es una formación cuyos metodos de enseñanza han ido evolucionando con las diferentes generaciones, desde libros muy basicos hasta Inteligencias Artificiales. Los investigadores siempre han optado por apoyar esta educación ya sea con investigaciones o publicando articulos/libros. Pero, dichos libros/articulos siempre han sido publicados para personas de universidad, maestría y doctorado cuando ellos tienen un mundo amplio para encontrar lo que necesiten. La problemática radica en que los estudiantes que se encuentran en básica y media superior sufren de escazes de contenido alcanzable, o bien el contenido puede llegar a ser confuso para ellos.



METODOLOGÍA

Se hizo un análisis para conocer los gustos de los jóvenes estudiantes, mismo que arrojó que la mayoría de ellos estan muy interesados e inmersos al mundo de las redes sociales y los videojuegos. A partir de esto se optó por realizar una estructura específica en la cual se explicaran algunos conceptos generales por medio de la transdisciplinariedad, y los temas específicos mediante constructivismo, teniendo en cuenta los gustos de los estudiantes para explicar conceptos basicos de la programación utilizando ejemplos relacionados a los videojuegos y las redes sociales. El relacionar nuevos aprendizajes con temas de su interés, les facilitará la retención de información y promoverá en ellos el gusto por temas que inician a conocer. Para finalizar se da una pequeña introducción a lo que son las bases de datos para en una segunda edición continuar con estos temas más complejos.


CONCLUSIONES

Durante la estancia del verano de investigacion se logró obtener un libro de Python para media superior en el que mediante una pequeña consulta a diferentes investigadores pudimos obtener el visto bueno del contenido. Se espera que el libro pueda salir en la plataforma de compras Amazon, en el que la intención es ponerlo digitalmente gratituto para que todos los docentes que quieran utilizar el libro puedan hacerlo, esto para garantizar una educación de calidad inclusiva y equitativa, y promover las oportunidades de aprendizaje para todos y que los estudiantes puedan interesarse y meterse de lleno a este mundo de la programación.
Partida López Roberto Carlos, Universidad de Guadalajara
Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara

APLICACIóN DE DRONES (FOTOGRAMETRíA-CASO DE ESTUDIO.)


APLICACIóN DE DRONES (FOTOGRAMETRíA-CASO DE ESTUDIO.)

Partida López Roberto Carlos, Universidad de Guadalajara. Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El levantamiento topográfico de terrenos de la manera tradicional, suele implicar un costo elevado y mayor tiempo para realizarse en comparación al levantamiento realizado mediante un dron. La fotogrametría utilizada para el levantamiento de terrenos con drones ofrece una calidad de imagen y precisión en los resultados arrojados en diferentes formatos como lo son ortomosaicos, nube de puntos, modelo digital del terreno (MDT), modelo digital de superficie (MDS) y curvas de nivel. Esto permite un mejor análisis del mapa. Una de las aplicaciones del levantamiento topográfico con dron es que podemos tener un diseño digitalizado 3D de la zona de interés y obtener las curvas de nivel.  Tomando en cuenta la escases del agua en las áreas agrícolas, recientemente algunos investigadores han realizado esfuerzos en proponer estrategias para la captación de agua (por ejemplo agua de las lluvias), es aquí donde nuestro proyecto puede aportar en el análisis de los terrenos y ayudar en la toma de decisiones a partir de las diferentes curvas de nivel para definir los puntos estratégicos de recolección de agua dio.



METODOLOGÍA

Nuestro proyecto lo podemos dividir en una etapa de investigación teórica y una etapa de investigación práctica: Estudio de los tipos de drones y su manejo. Investigación de las aplicaciones para manejo y mapeo, utilizando diferentes aplicaciones como lo son DJI GO, Pix4dcapture Pro y DJI Fly. Pruebas de vuelo con el drone Mavic Pro 2  Para la captura de imágenes se utilizó el software Pix4dcapture, debido a la compatibilidad del dron, así como la calidad de la aplicación. El mapeo se realizó con una ruta de doble mallado para tener una mejor precisión, en total se obtuvieron 104 imágenes. Las capturas fueron procesadas en pix4dmatic, mismo que tardo 42 minutos y 2 segundos en procesar toda la información, generando los formatos deseados del terreno. Análisis digital del terreno, obteniendo las siguientes variables


CONCLUSIONES

Durante la estancia de verano se logró adquirir nuevos conocimientos acerca de las tecnologías utilizadas para el levantamiento topográfico de terrenos, los cuales garantizan una reducción de tiempo. El uso de la tecnología en los procesos agrícolas es una rama de mucho interés para la investigación y explotación de nuevas técnicas que ayuden a mejorar y facilitar dichos procesos.   Resultados. Se obtuvieron los formatos de ortomosaico y nube de puntos que permiten ver la reconstrucción del terreno y los puntos georreferenciados. Mapa 2D y 3D. Se trabajará para encontrar los desniveles mediante el levantamiento realizado para los puntos de captación de agua apropiados.  
Partida Navidad Bianca Brillyth, Instituto Tecnológico de Tepic
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

GENERACIóN DE BASES DE DATOS PARA LA MODELACIóN Y ANáLISIS DE PARáMETROS COMPUESTOS EN LA FABRICACIóN DE COMPONENTES POR LMD USANDO INCONEL 718.


GENERACIóN DE BASES DE DATOS PARA LA MODELACIóN Y ANáLISIS DE PARáMETROS COMPUESTOS EN LA FABRICACIóN DE COMPONENTES POR LMD USANDO INCONEL 718.

Partida Navidad Bianca Brillyth, Instituto Tecnológico de Tepic. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la manufactura aditiva ha emergido como una tecnología revolucionaria que está transformando la forma en que se producen piezas y componentes en diversos sectores industriales. Uno de los desafíos es la optimización de los materiales utilizados en la manufactura aditiva. Se han creado una amplia gama de materiales apropiados para diversas aplicaciones, aún así, existen limitaciones en términos de propiedades mecánicas, debido a que algunos de los parámetros de fabricación que influyen en la técnica Laser Metal Deposition (LMD) tienen un comportamiento desconocido en el material depositado, afectando en su calidad de producción y óptimo funcionamiento ,sin embargo,  existen parámetros que podemos medir y modificar como la potencia del láser, el tamaño del spot del láser, la velocidad de depósito, la tasa de alimentación de material, y de manera indirecta durante el procesamiento del material, modificar también el tamaño y composición del polvo.



METODOLOGÍA

Para comenzar con este proyecto se realizó una búsqueda en literatura sobre parámetros optimizados para la creación de un dataset, en el cual se hizo la recolección de bases de datos históricas, gráficas e información relevante, en la cual se incluyera el análisis de parámetros compuestos del material Inconel718 (IN718). Se realizó la preparación metalográfica del material IN718, para la caracterización y análisis de la microestructura y propiedades mecánicas de este material.Luego, se depositaron las muestras de cordones de IN718 en sustratos del mismo material. Se cortaron las muestras para observar microestructura y piscina fundida del proceso de fabricación, y se midió la altura y penetración del material. Posteriormente, se pulieron las muestras con papel abrasivo de diferentes tamaños de grano y se realizó un proceso de pulido gradual para lograr una superficie libre de imperfecciones. Las muestras seleccionadas fueron sometidas a un proceso de ataque químico con  Kalling 2 para ser observadas en el microscopio óptico y resaltar las características microestructurales del material que no son visibles a simple vista. Se observaron las fases presentes en el material, los defectos y discontinuidades, como la zona afectada térmicamente la cual es causada por la exposición del material a altas temperaturas durante el proceso de fabricación. Al realizar las mediciones correspondientes, se realizó la generación de una base de datos y el análisis cuantitativo de los parámetros compuestos del proceso de fabricación. Con ayuda del despliegue de la función de calidad, por sus siglas en inglés Quality Function Deployment (QFD), se diseñó el diagrama de relación entre los diferentes parámetros de proceso considerados, para asignar la ponderación de peso e importancia asignada a cada uno de ellos y definir cuáles son los que tienen un mayor impacto en la afectación al cumplimiento de los objetivos de este proyecto.


CONCLUSIONES

Durante mi estadía en este verano de investigación, he adquirido un aprendizaje sumamente valioso que abarca diversos aspectos esenciales de la ciencia de materiales y de la manufactura avanzada, específicamente la Manufactura Aditiva. El enfoque en el material IN718 es especialmente relevante, dado su amplio uso en aplicaciones aeroespaciales y de alta exigencia mecánica. Este proyecto brinda oportunidades para la optimización y mejora continua de este material a través del análisis de las bases de datos generadas. Mi experiencia en este verano de investigación ha sido altamente enriquecedora y significativa. He ampliado mi comprensión y dominio de técnicas clave en diversas áreas del conocimiento y he reconocido la relevancia de aplicar estos conocimientos en la optimización de procesos y la búsqueda de soluciones innovadoras en el ámbito industrial. Este verano ha sido una experiencia formativa y emocionante que me ha preparado para enfrentar nuevos desafíos y seguir creciendo como profesional en el fascinante campo de la ciencia de materiales y la investigación.
Partida Vazquez Jose Misael, Universidad Vizcaya de las Américas
Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac

MANUFACTURA INTEGRADA POR COMPUTADORA


MANUFACTURA INTEGRADA POR COMPUTADORA

Partida Vazquez Jose Misael, Universidad Vizcaya de las Américas. Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Introducción   Dentro del curso se ha estado trabajando con la manufactura integrada por computadora especialmente con el software llamado SolidWorks en el cual se esta trabajando con figuras  y piezas de diferente dimensiones, profundidad y tamaños con el fin de trabajar con un torno de control numérico, en el cual al usar las diferente figuras y tamaños  en el torno con piezas de diferente calibres se pueda detectar cómo se comportan el torno trabajando la pieza seleccionada ya sea simulando antes  y corregir errores en las piezas que se envían al torno por medio del software SolidWorks tratando de obtener una pieza mas exacta y limpia que es lo que se desea.



METODOLOGÍA

Manufactura integrada por computadora   Hablar hoy en día en la manufactura integrada por computadora es el pensamiento principal en la industria ya que es una herramienta muy importante que facilita en gran manera la producción ya que es un sistema automatizado el cual ayuda en los incrementos de productividad, reduce los tiempos de inventarios ya que se manufacturan las piezas necesarias y no se sobre produce así evitando tener perdidas innecesarias otro punto a favor es que hay una mayor rapidez en las modificaciones ya que otras piezas las puedes estar trabajando antes de cargarlas en las maquinas para no perder tiempo valioso ya que como ingenieros el tiempo que no se produce es dinero perdido para las empresas y un punto muy importante a considerar es la exactitud con las que se pueden manufacturar piezas milimétricas o con medidas muy especificas y ejemplo de ello son los torno cnc en los cuales se puede producir estas piezas. En este verano de investigación se han trabajado con estos puntos antes mencionados sobre todo con la elaboración de comandos preparados en SolidWorks simulando las piezas que se van a manufacturar antes de cargar la información en la maquina así detectando errores previos a la elaboración de las piezas así evitando realizar dobles trabajos que se convierten en perdidas y a la vez teniendo mas control de las mermas que es un punto muy importante en las empresas, en nuestro caso especifico estamos trabajando con el ingeniero Misael Flores con un torno cnc Hass sl10. Personalmente considero que la manufactura integrada por computadora es para industria muy importante pero no se le da la importancia que debería ya que es de gran utilidad lo que podemos llegar a lograr con ella, pero mas importante es el llevar estos temas a las escuelas o incluso sea una materia no solo un tema que se ve por encima sin profundidad, lo digo porque se habla de la automatización, los torno, las líneas de producción, etc. Pero no se profundiza en como es que logramos que esas maquinan funcionen y considero que si lo compartieran de diferente manera fuera de mayor utilidad y a la vez tendríamos ingenieros mejor capacitados. Con la manufactura integrada por computadora se puede llevar una mayor planificación de las producciones, las cantidades, programación de materiales, de los plazos y la capacidad necesaria para cumplir los pedidos y llevar un excelente control en la empresa, estos puntos  son los que la industria busca, ya que hacer este proceso reduce considerablemente los gastos y ala vez aumenta la ganancia en todos los aspectos por todo el control que se puede llevar acabo con este proceso, lo interesantes es que al utilizar este sistema de manufactura integrada por computadora no es solo manufacturar piezas si no que vas más allá involucrando otros departamentos llevando un mejor control en todas las áreas. Al utilizar la manufactura integrada por computadora se tiene un mayor control en el proceso monitoreando y obteniendo información en tiempo real o en cualquier etapa del proceso de producción desde el inicio hasta el almacenaje y la distribución, la manufactura integrada por computadora es muy amplia pero los puntos principales son los siguiente: Diseño asisitido por ordenador Manufactura de prototipos Determinación de métodos eficientes para la producción, a través del cálculo de rentabilidad basados en el análisis de los procesos, volumen de producción, almacenaje y distribución. Control de pedidos a nivel de evitar desperdicios Producción asistida por ordenador y por control numérico.  Control detallado de calidad en cada una de las etapas del proceso de producción. Ensamblaje asistido con robots. Revisión y control automatizado del almacenamiento Distribución automatizada de los productos, y control de la logística. Control automatizado de la facturación y reposición de stock adaptado a la demanda.    


CONCLUSIONES

        Este es el torno Hass sl 10 con el que se estuvo trabajando este verano de investigación donde se pudieron hacer pruebas, a la cual se le mando la información del programa SolidWorks  pero previamente en el software se simula la pieza que se va a realizar para detectar un error antes de mandar los comandos al torno y que la pieza no sea merma, lo impresionante de estas maquinas es las piezas que se pueden realizar ya que las maquinas tienen una precisión milimétrica, algo que una humano no puede realizar y en caso de poder realizar un humano tardaría mucho tiempo y al realizar una producción de muchas piezas las medidas de lo que se va a manufacturar no seria la misma, sobre todo donde la tolerancia de las piezas de las medidas sean muy pocas, por lo tanto es indispensable que en la actualidad con las mejoras continuas que se tiene en la industria y con la rapidez que se busca que se produzcan los productos que se manufacturan . A continuación les comparto una imagen para que puedan observar un engrane que se realizo.           Aquí se pueden observar los diferentes ángulos, posiciones y medidas que la maquina considera para realizar la pieza a manufacturar es importante que esta parte de realizar la figura se revise y se ponga la suficiente atención a la hora de poner todo tipo de medidas ya que de esa manera se realiza un buen trabajo y no se pierde tiempo, (cabe mencionar que la maquina no detecta líneas cruzadas por lo cual se debe poner especial atención ya que de otra manera la maquina no va a realizar la pieza por este error) ya si que si haces el plano aquí también podrías detectar posibles errores, pero también en este plano se pueden redactar todos los datos de las piezas para poder llevar mejor control de todo lo que se hace y tener un histórico de como hacerlo.      
Paz ** Trinity Selene Carmina, Instituto Politécnico Nacional
Asesor: Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional

ACONDICIONADOR TéRMICO SOLAR HíBRIDO CON IMPACTO SOSTENIBLE


ACONDICIONADOR TéRMICO SOLAR HíBRIDO CON IMPACTO SOSTENIBLE

Paz ** Trinity Selene Carmina, Instituto Politécnico Nacional. Asesor: Dr. Simon Eduardo Carranco Lozada, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Ya hemos visto que el impacto medioambiental de la energía solar es nulo, ya que esta energía es limpia e inagotable. Ahora bien, si hablamos del impacto ambiental de la energía solar de manera indirecta, es decir, mediante la fabricación de paneles solares, los resultados no son tan positivos, puesto que su fabricación precisa de materiales que pueden resultar tóxicos, como el cadmio y la plata, además de las grandes extensiones de terreno que se necesitan para diseñar las instalaciones de las centrales térmicas solares. Puesto quen su fabricación sigue compensando si se compara con la contaminación que generan los combustibles fósiles. 



METODOLOGÍA

Los expertos del Consejo Europeo de Innovación y de otras plataformas, la energía solar reduce de manera considerable la generación de CO2 que influye en el calentamiento del planeta y la generación del efecto invernadero en general. Hay que señalar, de igual manera, que las placas solares se fabrican con silicio, principalmente, y que este es un elemento químico que se encuentra en la naturaleza de manera masiva. Por ello, para su obtención no es necesario llevar a cabo grandes extracciones que alteren la estructura del terreno, como otra opción podríamos reutilizar los materiales tóxicos de los paneles solares que han cumplido con su vida útil. El sistema de aire acondicionado utiliza energía solar térmica como fuente de energía para ayudar a mantener el proceso de refrigeración, lo que a su vez reduce la cantidad de energía eléctrica requerida para hacer funcionar el compresor. En primer lugar, absorbe la energía solar para calentar el medio interior mediante el uso de un colector solar.  El freón intercambia calor con el medio (agua caliente) dentro del colector solar y luego realiza un ciclo dentro del sistema para enfriar y calentar. En segundo lugar, adopta un sistema de intercambio de calor altamente eficiente, el uso del tubo de rosca interno, la aleta de aluminio hidrofílico y el sistema óptimo de intercambio de calor reduce la pérdida de energía, mejoran la eficiencia general y garantizan el rendimiento de manera efectiva. Por lo tanto, el aire acondicionado solar híbrido fototérmico es más conveniente y ahorra energía que el aire acondicionado normal. En pocas palabras, este aire acondicionado solar híbrido fototérmico opera bajo los mismos principios de un sistema de aire acondicionado tradicional donde la refrigeración se lleva a cabo como resultado de la transición de fase del refrigerante. La diferencia entre el aire acondicionado solar y un sistema tradicional es como el vapor vuelve a un estado líquido en el ciclo de la refrigeración.


CONCLUSIONES

Puedo concluir lo sieguiente; debido a que la energía solar no resulta contaminante en absoluto, así como tampoco la forma de aprovecharla a partir de los paneles solares, el problema lo encontramos en la fabricación de estos últimos y en la generación de residuos que pueden provocar una vez que su vida útil haya llegado hasta el final. Por el momento no existe la fórmula definitiva para poder suprimir el impacto ambiental que ello genera, aunque sí se sabe a ciencia cierta que los daños son infinitamente menores y que se sigue trabajando para encontrar la solución ideal. Una vez que se superen los problemas de la fabricación de los paneles solares, la instalación masiva de los mismos en los lugares de consumo (como son las ciudades y las zonas rurales) generará beneficios a corto plazo, tanto en la flora, como en la fauna, en el aire y, en general, en la naturaleza en su estado más puro.
Paz Hidalgo Yair Alfredo, Universidad de Ciencias y Artes de Chiapas
Asesor: M.C. Jorge Fernando Ambros Antemate, Universidad Autónoma Benito Juárez de Oaxaca

DESARROLLO DE UN JUEGO SERIO PARA EL APRENDIZAJE DE FUNDAMENTOS DE PROGRAMACIóN APLICANDO ELEMENTOS DE GAMIFICACIóN


DESARROLLO DE UN JUEGO SERIO PARA EL APRENDIZAJE DE FUNDAMENTOS DE PROGRAMACIóN APLICANDO ELEMENTOS DE GAMIFICACIóN

Paz Hidalgo Yair Alfredo, Universidad de Ciencias y Artes de Chiapas. Asesor: M.C. Jorge Fernando Ambros Antemate, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, se ha observado un preocupante fenómeno de deserción de estudiantes de nivel superior en cursos relacionados con la programación. Esta deserción representa un desafío significativo para las instituciones educativas y puede tener consecuencias negativas tanto para los estudiantes individuales como para la industria tecnológica en general. La deserción de estudiantes de nivel superior en cursos de programación puede ser atribuida a varios factores interrelacionados: 1. Falta de interés y motivación 2. Dificultad en la comprensión de conceptos 3. Carencia de recursos educativos interactivos



METODOLOGÍA

Se ha utilizado un framework como guía para el desarrollo y diseño del Serious Games el cual enmarca seis aspectos importantes: objetivo, contenido, ficción y narrativa, mecánica, estética y gráficos y framing. El objetivo principal del proyecto consistió en desarrollar un prototipo de un Serious Games que ofrecerá a los estudiantes una experiencia educativa interactiva y lúdica. A través de este enfoque, se buscaba lograr un aprendizaje efectivo de los conceptos básicos de programación, al mismo tiempo que se fomentaba su motivación, comprensión y desarrollo de habilidades prácticas en el campo tecnológico. Uno de los elementos que incorporan el contenido es un apartado de niveles en donde se encuentran los fundamentos básicos, ya dependerá del jugador en donde iniciar. Al comenzar el nivel se le da una introducción a los fundamentos que se abordaran en la sesión, a lo largo de esta se le van dan dando pequeños recordatorios de los nuevos conceptos aprendidos y su implementación. También cuenta con insignias que se van ganando y sumando al perfil del usuario el cual indicará el progreso del estudiante, este se verá reflejado en una tabla de posiciones que está actualizando en tiempo real. La finalidad de Codes Adventure es ayudar a los habitantes del planeta de los zeltarians a completar los distintos niveles y desafíos del juego para ganar insignias y recursos que con el paso del curso se van a ir necesitando. Una de las principales dinámicas de juego consiste en controlar una nave espacial con el mouse o a través de la pantalla táctil del dispositivo móvil y capturar palabras clave que irán cayendo mientras se desplaza por el espacio. Al capturar la palabra clave correcta se dará por concluida la primera fase de la sesión, la segunda parte de la sesión será una pequeña evaluación para validar el aprendizaje durante la sesión. Las otras dinámicas consistirán en resolver rompecabezas y complementar bloques de código, ocasionalmente habrá combate con alguna de las naves extraterrestres para poder seguir ganando medallas y aumentar el nivel del perfil del jugador. Hace mucho tiempo, en un futuro distante, los Zeltarians enfrentó un desafío sin precedentes. Una raza de alienígenas avanzados y poderosos, conocidos como los Drakorians, conquistó a los Zeltarians. Bajo el dominio de los Drakorians, nuestra sociedad se vio sumida en la presión y la desesperanza. Sin embargo, en medio de la adversidad, surgió una chispa de esperanza. Algunos de los Zeltarians lograron escapar de la opresión de los Drakorians y buscaron un refugio en un lugar seguro. Estos valientes supervivientes eran programadores, expertos en el arte de crear software y sistemas informáticos. Pero aquí estaba el problema: los Drakorians, temiendo cualquier forma de resistencia, había capturado y eliminado a la mayoría de los programadores Zeltarians. Los pocos que quedaban sabían que para restaurar la libertad y salvar a los Zeltarians, debían transmitir su conocimiento y formar una nueva generación de programadores.  Y así nació Codes Adventure para enseñarles a los sobrevivientes las habilidades de programación necesarias para enfrentarse a los Drakorians y liberar a los Zeltarians de su opresión. Codes Adventure se adaptada en un contexto espacial con coloridos paisajes que enmarcan estrellas, galaxias y nebulosas; muestra una nave con la cual se va a navegar en los desafíos, esta puede ser modificada o seleccionada al gusto del usuario. Cada nivel comienza con un globo de dialogo que se ubica al lado de un asistente programador que es llamado Estelar. El juego cuenta con música que se adapta al entorno galáctico con tonos bastante sublimes para la máxima concentración del estudiante. Este juego es dirigido principalmente para estudiantes universitarios, está orientado con base en un plan de estudios de un libro de fundamentos de programación. El nivel de dificultad va avanzando con los niveles de una manera equilibrada para que es estudiante no pierda el interés de manera fácil, ni tampoco se frustre en las primeras sesiones. En caso de que se encuentren varios errores durante el juego existe la oportunidad de comenzar de nuevo, dando una retroalimentación de los errores pasados, además cuenta con una pequeña evaluación final de la sesión.


CONCLUSIONES

Durante la estancia se creó el prototipo de un juego serio empleando el motor de videojuegos Unity. La trama del prototipo se desarrolla en el espacio y vamos acompañados de seres extraterrestres durante la aventura. Se emplearon elementos de gamificación para crear una dinámica de juego que motive al estudiante a seguir el plan de trabajo propuesto en el juego. Para el diseño total del prototipo nos basamos en el framework citado. Unos de los principales obstáculos durante la estancia fue el cambio de entorno y el hecho de aprender nuevas habilidades para el desarrollo del prototipo. Se pretende seguir con el desarrollo del videojuego a futuro implementando nuevas mecánicas de juego, añadiendo más personajes, naves, fondos y lugares; así como también desafíos que reten las habilidades de los estudiantes.
Pedraza Alcaraz Ana Carolina, Universidad de Colima
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

COMPARATIVA DE DESEMPEñO ENTRE RASPBERRY PI4 B Y NVIDIA JETSON NANO, PARA EL PROCESAMIENTO DE IMáGENES EN PLACAS VEHICULARES


COMPARATIVA DE DESEMPEñO ENTRE RASPBERRY PI4 B Y NVIDIA JETSON NANO, PARA EL PROCESAMIENTO DE IMáGENES EN PLACAS VEHICULARES

Pedraza Alcaraz Ana Carolina, Universidad de Colima. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En consecuencia del crecimiento demográfico, alrededor de 55% de la población mundial vive en ciudades, dato que se estima que siga incrementándose hasta el 70% en el año 2050. Por consiguiente, el modelo de ciudad se ha transformado buscando un nuevo concepto llamado Smart City la cual persigue mejorar la calidad de vida de los ciudadanos y el desarrollo sostenible a través de una gestión eficiente y responsable de los recursos y servicios de las ciudades. Ahora el nuevo modelo de ciudad se basa en tres conceptos básicos: tecnología, sostenibilidad e innovación. En México se han llevado a cabo diversas acciones para el impulso del nuevo modelo de ciudad inteligente Por lo que el desarrollar e implementar sistemas inteligentes que contribuyan a desarrollar y establecerse en ese paradigma de las ciudades inteligentes que contribuyan a desarrollar y establecerse en este paradigma de las ciudades inteligentes, vía un sistema inteligente para la gestión de los estacionamientos del Centro Universitario de los Valles (CUValles).



METODOLOGÍA

Se trabajo durante la estancia con dos placas de desarrollo la Raspberry Pi 4 y la Nvidia  Jetson  Nano para comparar su desempeño para el procesamiento de imágenes en placas vehiculares. Para poder hacer el reconocimiento de imágenes fue necesario mostrar en tiempo real el video de las cámaras en un procesador En la primera semana se conectó una cámara IP modelo HiLook con un procesador creando una LAN con un Switch Cisco. En la segunda semana se descargó en la Raspberry Pi 4 Modelo B  con el sistema  operativo Debian de 64 bits las librería ultralytics y se arrancó el sistema operativo en un Disco de Estado Solido (SSD). Ya teniendo instaladas las bibliotecas necesarias para usar el YOLOv8 se realizan pruebas con un conjunto de imágenes obtenidas de placas de los carros de Cuvalles y videos de los coches del estacionamiento del plantel con los carros en movimiento. También se realizaron programas en lenguaje Python para lograr trabajar con las distintas librerías como YOLOv8,OpenCV y más dependencias. Por ultimo se entrenó un modelo para poder detectar las placas en tiempo real por medio de unas cámaras web usando las dos placas. El cual se uso el mismo código con las dos diferentes placas del cual se observo una mejor detección de las placas en la Nvidia Jetson Nano,por otro lado en las Raspberry Pi 4 se notó una mejor velocidad de fotogramas en esta.


CONCLUSIONES

En mi estancia de Verano  Delfin en el proyecto asignado de la linea de investigación de diseño mecatrónico se trabajo con Visión artificial y Redes Neuronales ,que son una de las ramas de la Inteligencia artificial . Considero que los conocimiento introductorio a la industria 4.0 por medio de trabajar con un proyecto de inteligencia artificial me serán muy útiles para mi desarrollo profesional. Por otro lado durante la estancia al estar practicando los conocimiento adquiridos en programación en Python me brindo confianza para realizar más proyectos enfocados al área de computación.
Pedraza Mendoza Karina, Instituto Tecnológico de Pachuca
Asesor: Dr. Danny Daniel López Juvinao, Universidad de la Guajira

TECNOLOGíAS LIMPIAS EN LA MINERíA DE YESO EN LA GUAJIRA, COLOMBIA


TECNOLOGíAS LIMPIAS EN LA MINERíA DE YESO EN LA GUAJIRA, COLOMBIA

Pedraza Mendoza Karina, Instituto Tecnológico de Pachuca. Asesor: Dr. Danny Daniel López Juvinao, Universidad de la Guajira



PLANTEAMIENTO DEL PROBLEMA

El calentamiento global opera dentro del contexto del cambio global reciente. Básicamente, es un fenómeno que está asociado al aumento de la concentración de ciertos gases, conocidos como gases de efecto invernadero (GEI) en la atmósfera (Barros, 2004).  Entrando en el tema de las tecnologías limpias, estas consisten en la aplicación de estrategias que incluyen técnicas tales como reciclado, sustitución, recuperación y revalorización (Seoánez, 1998). En los últimos años, Colombia ha mostrado un creciente interés en la adopción de tecnologías limpias como una respuesta efectiva a los desafíos ambientales y a la necesidad de promover el desarrollo sostenible. A pesar de que la falta de incentivos y políticas adecuadas también representa un obstáculo significativo, si bien existen regulaciones ambientales en Colombia, su aplicación y cumplimiento en la minería de yeso en La Guajira pueden ser insuficientes; es necesario establecer incentivos claros y mecanismos de control efectivos para fomentar la adopción de tecnologías limpias y garantizar que estas empresas mineras, cumplan con los estándares ambientales y sociales. De igual manera, la falta de capacitación y concientización de los trabajadores mineros puede ser un desafío adicional. La implementación exitosa de tecnologías limpias requiere un cambio cultural y una capacitación adecuada para los trabajadores mineros. La falta de comprensión y conocimiento sobre las tecnologías limpias puede dificultar su adopción y limitar su efectividad en la minería de yeso en La Guajira. Aunque la minería de yeso es una actividad fundamental para el desarrollo económico de algunas familias en La Guajira, esta actividad extractiva no está exenta de consecuencias negativas para el medio ambiente, por lo que es necesario abordarla de manera responsable, por medio de procesos sostenibles tanto social, como económico y ambientalmente; estos últimos articulados con tecnologías limpias que contribuyan significativamente a la reducción de los impactos ambientales que puedan originarse a los ecosistemas donde tienen influencia este tipo de minería, tales como: el agua, el aire, el suelo y la biodiversidad en general. Es importante tener en cuenta que, para que se desarrolle de forma exitosa la implementación de las tecnologías limpias en la minería de yeso en La Guajira y demás puntos mineros, se requiere promover las inversiones en investigación y desarrollo de tecnologías limpias específicas para la minería de yeso; además, de una combinación de esfuerzos que vincule a las partes interesadas (las empresas mineras, los gobiernos, los investigadores y/o academia y las comunidades locales) en conseguir una minería más sostenible y reducir los impactos ambientales que se generan por la forma en que se realizan actualmente los procesos involucrados en la minería de yeso.



METODOLOGÍA

8.1 Tipo de investigación De acuerdo al análisis del proyecto de tecnologías limpias en la minería de yeso en La Guajira, Colombia, podemos dar énfasis que está basado en un tipo descriptivo. Se emplea un diseño de investigación no experimental, es decir, un diseño de investigación en el que las variables no se manipulan intencionalmente (Guevara, 2020). 8.3 Población Para este proyecto de investigación la población está comprendida por las empresas mineras: Yesos Sdinyc S.A.S, Yesos Colombia S.AS, Minería artesanal de yeso; para las cuales se realiza el análisis de tecnologías limpias. 8.6 Procedimiento de la investigación Para empezar, se realiza la elección del tema a investigar. Recopilación de la información de diferentes fuentes de búsqueda para soportar el objeto principal de estudio. Por consiguiente, se comienza con la realización de lo que viene siendo la formulación y planteamiento del problema del objeto de estudio. Realización de la justificación, junto con la delimitación del estudio. Definición de los objetivos de estudio. Elaboración del cuadro operacional, donde se incluye las dimensiones junto con sus respectivos indicadores. Búsqueda mediante fuentes confiables sobre los diferentes proyectos que se adapten con el objeto de estudio, para crear los antecedentes necesarios. Realización del marco teórico, basado en los indicadores mencionados en el cuadro operacional. Identificación del tipo y diseño de investigación presentada. Realización de la muestra poblacional. Definición de las técnicas e instrumentos de recolección de datos, así como sus etapas. Presentación de los impactos esperados. Elaboración del cronograma y la identificación del presupuesto. Elaboración del resumen. Realizar las referencias en el estilo correspondiente. Aplicación del instrumento. Construcción de los resultados. Elaboración de las conclusiones y recomendaciones.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teórico prácticos sobre las tecnologías limpias en la minería de yeso en La Guajira, asimismo su importancia al aplicarlas en este sector para reducir el impacto ambiental generado
Peinado Ramirez Rocio Idali, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa

IMPLEMENTACIóN DE LA METODOLOGíA DE LAS 5S EN UN CENTRO DE AYUDA HUMANITARIA EN CD. JUAREZ.


IMPLEMENTACIóN DE LA METODOLOGíA DE LAS 5S EN UN CENTRO DE AYUDA HUMANITARIA EN CD. JUAREZ.

Peinado Ramirez Rocio Idali, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

DESCRIPCIÓN DEL PROBLEMA: Se identificó una problemática en la Asociación Civil Vino, Trigo y Aceite la cual consiste en la falta de implementación de metodologías de control de donaciones en el área de la bodega a raíz de una mala organización como resultado nos arrojan pérdidas y una falta optimización de insumos con los que se cuenta. OBJETIVO: Analizar el potencial de la economía social en la gestión de los centros de ayuda humanitaria en México. Analizar en una institución de ayuda humanitaria la gestión de donaciones, con la intención de encontrar áreas de oportunidad y elaborar una propuesta integral de mejora mediante el desarrollo de la metodología 5´S.



METODOLOGÍA

MÉTODOS: Investigación documental y de campo, Se seleccionaron bases de datos digitales como Scielo, Dialnet, Google académico…. Las palabras de búsqueda para las referencias fueron: economía social, logística humanitaria, prácticas de economía social y logística humanitaria, etc. Para la investigación de campo se buscó un centro de ayuda humanitaria para implementar una guía diseñada por el asesor referente a la metodología 5S, con la intención de conocer el impacto en la mejora continua y en la gestión del centro de ayuda humanitaria. En el cual a partir de la problemática detectada en la Asociación Civil Vino, Trigo Y Aceite se iniciará con un inventario el cual se desarrollará con el método ABC identificando en el área de la despensa los artículos con mayor rotación así como los artículos innecesarios antes de iniciar con metodología 5’S Posterior a esto iniciamos con: Primera S en la cual se plantea eliminar lo innecesario del área de la despensa, se llevará a cabo con un etiquetado de tarjeta roja que presentara como acciones las siguientes: Agrupar, Eliminar, Reubicar, Reparar, Reciclar con fecha promesa de acción. Segunda S: Comprende el organizar, aquí se tomará en cuenta los productos con mayor rotación hasta los menos utilizados aplicando técnica PEPS. Tercera S: Se implementará la limpieza rotativa dentro del área de despensa mediante una auditoría realizando una bitácora que se llevará a cabo dentro de la Asociación. Aplicar auditoría para futuros resultados comparativos.  Cuarta S: implementación de control visual mediante etiquetas de racks en el área de despensa así como la técnica PEPS para llevar una recepción de donaciones con éxito y más optimizada. Quinta S: Auditoría general y comparativos.


CONCLUSIONES

CONCLUSIONES: Desde un punto de vista logístico la economía social es la encargada del capital para la obtención de ayuda necesaria en tiempos de desastres, es decir, se puede ver como un proveedor económico a partir del cual se obtienen los recursos como primera instancia, una vez cumplido el objetivo de tener un stock de proveedores y recursos estos son contemplados para un antes, durante y después de la catástrofe. Enfocándonos en una cadena de suministro en la cual podríamos hablar de los recursos obtenidos, cada producto es propenso a tener una fecha de caducidad por lo cual es necesario distinguir el tipo de producto en el inventario y si hablamos de medicamentos el riesgo de consumo es alto debido a su fecha y empaquetado una buena estrategia para aplicar es el desecho de estos mismos así como tener un control con inventario periódico para mantener un stock actualizado ante la presencia de una catástrofe. La problemática con más notable fue la falta de optimización de insumos a partir de ello se está implementando la metodología 5’s en la bodega del comedor las cuales se exponen a continuación: -En la primera S: se hizo una revisión de inventario etiquetando productos obsoletos y caducos, estos se etiquetan según su acción sugerida ‘’Agrupar, Eliminar, Reubicar, Reparar, Reciclar’’ en el caso del área de la despensa la acción más utilizada fue ‘eliminar’ los alimentos caducados a los cuales se les colocó fecha de implementación de la acción para llevarla a cabo una vez autorizada. -Para la 2 S se analizó el layout en el cual se propuso un reacomodo de la despensa y se procedió a una señalización de los estantes para que los productos más usados frecuentemente tuvieran un fácil acceso y ubicación. Y por parte de la 2 S se procedió a la implementación del reacomodo de despensa en el área de comedor, llegando a la fecha de implementación de acciones se procedió a eliminar alimentos innecesarios y caducados. -En la 3 S se auditó conforme al reacomodo detectando que la limpieza diaria no era realizada debido a que se encontraron alimentos caducados, así como bichos dentro de alimentos. No se contaba con un rol de limpieza por lo que se está trabajando con una bitácora.
Peña Jarro Ana Lucy, Universidad Nacional Abierta y a Distancia
Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo

DESARROLLO DE UN ESTUDIO DE HACCP EN LA INDUSTRIA LáCTICA (LACTO SUERO EN BEBIDA).


DESARROLLO DE UN ESTUDIO DE HACCP EN LA INDUSTRIA LáCTICA (LACTO SUERO EN BEBIDA).

Peña Jarro Ana Lucy, Universidad Nacional Abierta y a Distancia. Asesor: Mtro. Marcos Hernández Varilla, Universidad Tecnológica de Huejotzingo



PLANTEAMIENTO DEL PROBLEMA

La producción de la bebida láctea a base de lactosuero puede contribuir de diversas maneras en los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030 de las Naciones Unidas. Como pueden ser el (ODS 2): Al transformar el lactosuero en una bebida nutritiva, puede contribuir en la disponibilidad y acceso a alimentos, y reduciendo la inseguridad alimentaria; (ODS 3): Esta bebida puede ser una fuente de nutrientes importantes, además contribuye a una dieta equilibrada que promover la salud digestiva, lo que a su vez mejora la salud y el bienestar general de las personas que los consumen; (ODS 8): La producción de esta bebida puede generar empleo en la cadena de suministro, desde la recolección y procesamiento del lactosuero hasta la distribución y venta del producto final. Además, promueve una mayor eficiencia en el uso de los recursos y fomenta la innovación en el aprovechamiento de subproductos, fomenta el crecimiento económico sostenible en el sector lácteo; (ODS 12): Al transformar el lactosuero en una bebida láctea fermentada, se promueve la utilización responsable de recursos alimentarios. Por otra parte, al desechar lactosuero directamente a los efluentes hídricos sin un tratamiento adecuado puede tener varios efectos negativos en el medio ambiente y la calidad del agua. Este subproducto contiene una alta carga de materia orgánica, nutrientes (principalmente nitrógeno y fósforo) y sales, lo que provoca una carga de contaminantes significativos en el agua receptora. Esto puede llevar a cabo la eutrofización del cuerpo de agua, un proceso en el cual aumenta excesivamente la cantidad de nutrientes, estimulando el crecimiento excesivo de algas y bacterias, agotando el oxígeno y provocando la muerte de organismos acuáticos, como peces y otros seres vivos, por esta razón se hace necesario dar una alternativa de solución a esta problemática, por tanto en el (ODS 13): La producción de esta bebida también puede contribuir a reducir la huella ambiental al minimizar el desperdicio y aprovechar recursos que de otro modo podrían generar impactos ambientales negativos.



METODOLOGÍA

El estudio HACCP se utilizó como un sistema preventivo de gestión de seguridad alimentaria que nos permitió identificar, evaluar y controlar los riesgos significativos para garantizar la inocuidad de los alimentos en cada etapa del proceso de producción de la bebida láctea a base de lactosuero, un subproducto obtenido del proceso de elaboración de queso doble crema. Para lograrlo, se aplicará la siguiente metodología. Identificar el responsable del estudio HACCP que tenga experiencia en microbiología, producción, calidad, seguridad alimentaria y otros campos relevantes. Describir el producto. Reconocer los posibles peligros asociados. Identificar los Puntos Críticos de Control (PCC). Establecer límites críticos. Instaurar el sistema de vigilancia. Establecer acciones correctivas. Implementar procedimientos de verificación. Documentación y registro.


CONCLUSIONES

Durante la estancia de verano logre adquirir conocimientos teóricos del sistema HACCP que puedo aplicar en el diseño y producción de una bebida láctea a partir de lactosuero que no solo puede brindar beneficios económicos y nutricionales, sino que también puede tener un impacto positivo en la sostenibilidad ambiental y en el progreso hacia varios Objetivos de Desarrollo Sostenible, contribuyendo así al logro de una sociedad más justa y equitativa.
Peña Plascencia María Fernanda, Universidad de Guadalajara
Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia

PROTOTIPO DE UN SISTEMA MODULAR PREFABRICADO PARA VIVIENDA SOCIAL FLEXIBLE Y SOSTENIBLE EN VERACRUZ, MÉXICO.


PROTOTIPO DE UN SISTEMA MODULAR PREFABRICADO PARA VIVIENDA SOCIAL FLEXIBLE Y SOSTENIBLE EN VERACRUZ, MÉXICO.

Gutierrez Valadez Nancy Montserrat, Universidad de Guadalajara. Peña Plascencia María Fernanda, Universidad de Guadalajara. Saucedo Cazares Jessica Monserrat, Universidad Veracruzana. Xicohtencatl Gómez Alexa Irene, Universidad Veracruzana. Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En Poza Rica de Hidalgo, Veracruz, México, existe falta de salubridad, seguridad, confort y estética en la vivienda social. Esto hace que los usuarios carezcan de una buena calidad de vida.  Además, el sitio de los conjuntos habitacionales no es accesible debido a que se ubican en la periferia de la ciudad. Por otra parte, la falta de planeación de equipamiento urbano provoca el abandono de las viviendas. Lo que genera conjuntos fantasma propicios a ser zonas de inseguridad. Esa problemática social debe ser atendida para los estándares de calidad. La población se ve obligada a trasladarse para acceder a los servicios con los que no se cuenta dentro de la unidad, generando viviendas dormitorio. A causa de que éstas se encuentran alejadas del centro urbano, el costo de vida se incrementa volviéndose inaccesible.   Por tanto, se considera que el diseño de vivienda social no atiende las necesidades básicas de los usuarios de esta tipología de vivienda. ¿Podríamos proponer una alternativa de diseño de vivienda social flexible y sostenible para Poza Rica Veracruz?  El objetivo de esta investigación fue diseñar una unidad habitacional flexible y sostenible mediante el sistema modular. La hipótesis de trabajo de esta investigación fue Si diseñamos una vivienda social flexible y sostenible a partir de un sistema modular, mejoraremos las condiciones de los usuarios de la vivienda de bajos ingresos en Poza Rica.



METODOLOGÍA

La metodología utilizada en este proyecto se enfocó en primer lugar, en realizar un análisis de las necesidades habitacionales de la población objetivo y las condiciones del contexto. Luego, se revisaron investigaciones previas sobre vivienda social para identificar las mejores prácticas de proyectos análogos. En la siguiente fase, se desarrolló el diseño arquitectónico y urbano del prototipo de vivienda con módulos de 3.5 m. x 3.5 m. Además, se determinaron los parámetros de diseño estructural necesarios para garantizar la resistencia y estabilidad de la estructura. Se adoptó un enfoque modular para permitir ampliaciones futuras según las necesidades cambiantes de los usuarios. Esto implica la utilización de componentes prefabricados que se puedan ensamblar fácilmente y de manera eficiente. Se utilizaron herramientas de modelado tridimensional y simulación para evaluar la eficiencia térmica y energética del modelo propuesto. Finalmente, se presenta una propuesta integral que contempla la vivienda de interés social en Poza Rica. Desde una perspectiva flexible y sostenible, integrando el espacio público, el semipúblico y el privado. Contribuyendo de esta manera al desarrollo de un hábitat más inclusivo y amigable con el medio ambiente. Esta metodología garantiza un enfoque general del prototipo de vivienda social, con la visión de mejorar la calidad de vida de la población beneficiaria.


CONCLUSIONES

Con base al método planteado, se generó en el conjunto habitacional espacios públicos, semipúblicos y privados. Se toma en cuenta la importancia de tener comercio de fácil acceso para los habitantes. Asimismo, suficientes zonas con arbolado para generar un microclima y mejorar el confort del sitio. El área pública se compone de espacios verdes, comercio y vialidades seguras para el peatón. Los puntos de recolección de basura, caseta y cajones de estacionamiento son los espacios semipúblicos. Mientras que la unidad habitacional es de carácter privado, siendo esta el protagonista del conjunto. La alternativa planteada de vivienda social tiene como objeto generar espacios más seguros y confortables para quienes carecen de tener un ingreso económico digno. Como resultado, se produce un prototipo de sistema modular, para vivienda social flexible y sostenible. La implementación de componentes prefabricados que se puedan ensamblar fácilmente agiliza el proceso de construcción y facilita la posibilidad de modificar la vivienda en el tiempo. Asimismo, se busca optimizar el uso de recursos y minimizar los residuos durante la construcción, incorporando principios de sostenibilidad en cada etapa del proceso. El diseño estructural propuesto para el prototipo busca no solo brindar viviendas seguras y adecuadas a las familias de escasos recursos, sino también promover una solución resiliente y adaptable a largo plazo en el contexto de la vivienda social en el municipio de Poza Rica. Se busca en cada parte del proceso de diseño, la oportunidad de generar un cambio dentro del mercado inmobiliario.  En la mayor parte del territorio mexicano surgen problemas con la vivienda social por lo que la posibilidad de desarrollar propuestas a partir de un diseño modular permite reproducir esta experiencia en otras regiones. Abriendo así, el mercado a un mayor número de consumidores. El concepto de flexibilidad se desarrolla cuando los usuarios tienen la libertad de modificar los espacios dentro del módulo de acuerdo con necesidades. En definitiva, el resultado de la investigación permite construir diferentes tipologías de vivienda adaptándose a un sitio en particular. Lo que brinda alternativas que ayudan a mejorar la vivienda social de cualquier ciudad. Se concluye entonces que, la construcción masiva de viviendas sociales en México está dejando de lado a los usuarios. Por lo que, como solución se propone un módulo prefabricado, que funcione como base para proyectar un conjunto habitacional. De esta manera, se relacionan en nuestro prototipo las estrategias bioclimáticas y alternativas sustentables con la vida diaria de las personas.
Peña Reyes Rubén Omar, Universidad de Guadalajara
Asesor: Dra. Rita Judit Patakfalvi, Universidad de Guadalajara

SíNTESIS Y CARACTERIZACIóN DE ÓXIDOS METáLICOS BINARIOS ZR-FE POR MéTODO “CORE-SHELL” PARA ADSORCIóN DE FLUORURO EN AGUA.


SíNTESIS Y CARACTERIZACIóN DE ÓXIDOS METáLICOS BINARIOS ZR-FE POR MéTODO “CORE-SHELL” PARA ADSORCIóN DE FLUORURO EN AGUA.

Peña Reyes Rubén Omar, Universidad de Guadalajara. Asesor: Dra. Rita Judit Patakfalvi, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El ion fluoruro se encuentra naturalmente en el agua y en diversos alimentos. A niveles adecuados, el fluoruro puede ser beneficioso para la salud dental, ya que fortalece el esmalte de los dientes y ayuda a prevenir la caries. Sin embargo, el consumo excesivo de fluoruro puede ser perjudicial para la salud, provocando problemas dentales y óseos, entre otros efectos adversos. Por estas razones, es esencial mantener los niveles de fluoruro en el agua potable dentro de los límites seguros recomendados por las organizaciones de salud, como la Organización Mundial de la Salud (OMS) y la Agencia de Protección Ambiental (EPA) de Estados Unidos, para evitar riesgos para la salud pública. Los estándares establecidos para el contenido de fluoruro en el agua potable están diseñados para garantizar que los beneficios para la salud dental superen los posibles riesgos para la salud. En esta investigación que se llevó acabó, surgió la necesidad de encontrar soluciones eficientes y seguras para eliminar el fluoruro del agua potable y mantener sus niveles dentro de los límites recomendados. La propuesta fue el uso de materiales adsorbentes como la magnetita (Fe3O4) recubierta de zirconio (ZrO2), que ofrece una forma efectiva de adsorción del ion fluoruro que se encuentra en el agua sin presentar riesgos para la salud.



METODOLOGÍA

Síntesis de magnetita recubierta de zirconio, por medio del proceso core-shell (Fe3O4@ZrO2).                   Para sintetizar la magnetita (Fe3O4), se utilizó adecuada cantidad de Cloruro de Hierro (III) (FeCl3) y Cloruro de Hierro (II) (FeCl2) junto con Hidróxido de Sodio (NaOH) en agua desionizada. La mezcla estuvo en constante agitación y terminando la síntesis se lavó 4 veces con agua desionizada. Se le disminuyó el pH a valor 2 utilizando Ácido Clorhídrico (HCl) a 80 o C en constante agitación. Después se dejó la muestra en diálisis durante 4 días. Terminando la diálisis, se lavó la Fe3O4 nuevamente 4 veces con agua desionizada. Para obtener el recubrimiento de ZrO2, se disolvió adecuada cantidad de ZrOCl en agua desionizada y se mezcló con la Fe3O4 preparada anteriormente. Durante constante agitación, a una temperatura de 80 o C se agregó NaOH a la suspensión hasta llegar a un pH de 8. Se secó el material obteniendo Magnetita recubierta de Zirconio (Fe3O4@ZrO2). RESULTADOS Una vez terminada nuestra síntesis de Fe3O4@ZrO2, el siguiente paso fue realizar mis pruebas de cinética, se añadieron 50 mg de nanopartículas de Fe3O4@ZrO2, se dejó a la misma concentración de ion fluoruro y se dejaron en agitación  a distintos tiempos, desde 5 minutos hasta 24 horas. Ya obteniendo nuestros resultados de adsorción de las pruebas de cinética, se graficaron y obtuvimos en que tiempo ya es constante la adsorción de nuestro producto. En nuestro caso en 3 horas, ya teníamos una adsorción del 98%; por lo que procedemos a realizar nuestras pruebas de isotermas, con el mismo tiempo (3 horas), pero a diferentes concentraciones o ppm (Partes por millón) de ion fluoruro, desde 5ppm hasta 300ppm.


CONCLUSIONES

En conclusión, la magnetita recubierta de zirconio demostró una alta eficiencia en la adsorción del ion fluoruro, alcanzando una adsorción del 98% en 3 horas, lo que indica que se alcanzó el equilibrio de adsorción. También al realizar los diferentes métodos de caracterización nos demostraron que el producto de la síntesis fue el esperado. Este al tener propiedades electromagnéticas, también tiene una eficaz y sencilla manera de remover del agua, que es un punto favorable. Sin embargo, aunque estos resultados son muy buenos, no podemos saber con certeza que tan eficiente es con respecto a otros iones presentes en las aguas residuales.
Peña Valderrama Juan Sebastián, Universidad Autónoma de Occidente
Asesor: Dr. Juan Carlos Estrada Gutiérrez, Universidad de Guadalajara

IMPLEMENTACIóN DEL PROTOCOLO DE COMUNICACIóN MQTT DE IOT PARA EL MONITOREO DE VARIABLES FISIOLóGICAS EN INFANTES


IMPLEMENTACIóN DEL PROTOCOLO DE COMUNICACIóN MQTT DE IOT PARA EL MONITOREO DE VARIABLES FISIOLóGICAS EN INFANTES

Peña Valderrama Juan Sebastián, Universidad Autónoma de Occidente. Asesor: Dr. Juan Carlos Estrada Gutiérrez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El monitoreo del bienestar y la salud de los infantes es un tema crítico y apremiante que ha sido objeto de gran preocupación a nivel mundial. En el contexto de la Agenda 2030 para el Desarrollo Sostenible, la salud y el bienestar infantil se sitúan en el corazón del Objetivo de Desarrollo Sostenible (ODS) número 3: "Garantizar una vida sana y promover el bienestar para todos en todas las edades". En particular, el ODS 3 se enfoca en reducir algunas de las causas de muerte comunes asociadas con la mortalidad infantil y materna, con el firme propósito de asegurar un futuro más promisorio para las generaciones venideras. En muchos países en desarrollo, las tasas de mortalidad infantil y materna continúan siendo preocupantemente altas, representando una de las mayores barreras para el progreso sostenible y el bienestar social. La pérdida de vidas en edades tempranas plantea un desafío urgente que requiere de intervenciones efectivas, estrategias de monitoreo y políticas de salud dirigidas a proteger a los infantes y a sus madres. El estudio de las causas de mortalidad infantil y materna no solo permite identificar las vulnerabilidades existentes, sino que también es un paso fundamental para diseñar y poner en marcha intervenciones con un enfoque centrado en la prevención y el bienestar. Se espera que los hallazgos y recomendaciones obtenidos en este trabajo contribuyan a generar conciencia y a movilizar recursos y esfuerzos en la implementación de políticas y programas de propiedad científica orientados a alcanzar el ODS 3 y, en última instancia, a proporcionar una vida saludable y promisoria para los infantes y sus madres en todo el mundo.



METODOLOGÍA

El objetivo de este proyecto es desarrollar un sistema de monitoreo de infantes utilizando tecnologías de Internet de las cosas (IoT) y el protocolo de comunicación MQTT. La finalidad es recolectar y visualizar datos de temperatura y humedad fisiológicos en tiempo real, obteniendo los mismos y graficándolos para poder ser observados, permitiendo así monitorear el bienestar de los infantes en entornos cerrados o habitaciones infantiles. Se selecciona la placa del microcontrolador ESP32, que facilita los procedimientos con sus conexiones Wi-Fi para actuar como el dispositivo central. Se conecta el sensor de temperatura y humedad DHT11 a la ESP32 para capturar los datos relevantes. Se configura la conexión Wi-Fi de la ESP32 para permitir la comunicación con el servidor MQTT y se verificará que el hardware esté funcionando correctamente. Se lleva a cabo la configuración del servidor MQTT, de este modo se instala y configura el broker MQTT Mosquitto en un servidor público o local que actúa como intermediario para la comunicación entre la ESP32 y otros dispositivos. Se asegura que el servidor MQTT esté correctamente configurado para aceptar conexiones desde dispositivos externos, como la ESP32, garantizando así la conectividad adecuada para la transmisión de datos. Una vez configurado el servidor MQTT, se procede a la implementación del código en la ESP32. Se programa con el lenguaje C en el IDE de Arduino para leer los datos del sensor DHT11. Se configura el cliente MQTT en la ESP32 para que pueda publicar los datos de temperatura y humedad en el servidor MQTT mediante el protocolo MQTT. Posteriormente, se lleva a cabo la configuración de Node-RED, una herramienta de desarrollo visual para IoT, de este modo se crea un flujo de trabajo en Node-RED para suscribirse a los datos publicados por la ESP32 en el servidor MQTT. Utilizando nodos de transformación, se procesarán los datos y se agruparán en un formato JSON para su posterior publicación. Para la visualización de los datos, se utiliza una interfaz de usuario que permita observar los datos de temperatura y humedad en tiempo real desde HiveMQ. Antes de finalizar, se debe evaluar la precisión y confiabilidad de los datos recopilados y se analizarán los resultados obtenidos para identificar posibles mejoras o ajustes necesarios. Por último, es necesario tener en cuenta que se debe mantener una documentación detallada de la metodología, el diseño del hardware, el código y cualquier otra configuración relevante para facilitar futuras actualizaciones y mantenimiento del sistema.


CONCLUSIONES

Durante la instancia de verano se lograron adquirir conocimientos importantes en base a las técnicas de comunicación entre diferentes sistemas para la utilización de los protocolos de IoT. Se logró además articular conocimientos en base a la interconectividad de sistemas embebidos, como la placa de desarrollo ESP32, y los sistemas de software que sustentan estas comunicaciones con el uso del Wi-Fi, como lo es el bróker Mosquitto y la ventana de desarrollo Node-RED. Sin embargo, como el alcance de este proyecto es extenso al igual que el trabajo que se realiza, se esperan obtener los resultados finales en una instancia posterior donde se tenga un dispositivo físico que sea capaz de utilizar la ESP32CAM para además tener un vídeo en tiempo real del comportamiento del infante y el uso de una interfaz de usuario que sea de fácil accesibilidad para los usuarios.
Perea Valdez Leonardo Alberto, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero

DESARROLLO DE MODELOS DE MACHINE LEARNING PARA CLASIFICACIóN DE IMáGENES DEL ALFABETO DACTILOLóGICO (LSM)


DESARROLLO DE MODELOS DE MACHINE LEARNING PARA CLASIFICACIóN DE IMáGENES DEL ALFABETO DACTILOLóGICO (LSM)

Fierro Monroy Isaac Antonio, Instituto Tecnológico de Chilpancingo. Perea Valdez Leonardo Alberto, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

El alfabeto Dactilológico, también conocido como Lenguaje de Señas Mexicana (LSM), se compone de diferentes gestos y posiciones de las manos ya que es un sistema de comunicación utilizado por personas sordomudas. Uno de los principales obstáculos para superar los desafíos de LSM radica en la falta de datos e investigaciones disponibles. El Instituto Nacional de Estadística y Geografía de México (INEGI) recopila datos sobre varios aspectos de la población, pero lamentablemente falta información específica sobre la comunidad LSM. Esta escasez de datos es la barrera de comunicación que enfrentan los individuos oyentes que no conocen la LSM y los individuos sordos que utilizan la LSM como su lengua primaria o única . Esta barrera comunicativa plantea retos para la comunicación esencial y puede resultar en dificultades en la vida diaria, interacciones sociales, entornos laborales y entornos educativos para individuos con discapacidades auditivas. Se hace hincapié en la necesidad de dispositivos de ayuda, sistemas de reconocimiento automático de la lengua de señas y otras tecnologías para facilitar una comunicación eficaz entre las personas sordas y oyentes.



METODOLOGÍA

Lo que se propuso para el desarrollo de modelos de aprendizaje personalizados mediante diferentes tecnologías para obtener un grado de reconocimiento aceptable capaz de captar en tiempo real y diferido las señas realizadas por una persona y mostrar su significado correspondiente, en base al Alfabeto dactilológico en la Lengua de Señas Mexicana (LSM). Por lo tanto, se decidió utilizar una base de datos multimedia propia para el almacenamiento de medios y ponerlos a disposición para el desarrollo del modelo propuesto. Dentro de los materiales y procesos se clasificaron de la siguiente manera: Adquisición De Datos: En este trabajo se ignoraron las señas que involucran movimiento, solo se tuvieron en cuenta 21 letras seleccionadas que corresponden a señas estáticas ['a','b','c','d','e','f','g','h','i','l','m','n','o','p','r','s','t','u','v','w','y']. La recolección se obtuvo por medio de imágenes que se realizó en 2 fases: A) Se grabaron 21 videos con una duración de 30 por letra. De c/u de los 7 voluntarios. B) Se recolectaron las imágenes extraídas a partir de cada video correspondiente de las letras a utilizar. Cabo a recalcar que solamente se obtuvo la región de la mano con la ayuda de MediaPipe Hands ya que Los videos fueron grabados con un enfoque desde la cintura hacia la cabeza. Creación Del Dataset: En esta sección, se creó un dataset para la detección de las señas fijas del Alfabeto dactilológico en la Lengua de Señas Mexicana (LSM). El dataset se construyó con un total de 31,500 imágenes en 21 clases que c/u de las clases le correspondió una cantidad de 1500 imágenes. Se consideró que 31,500 imágenes son para el entrenamiento y 500 extras de c/u de las clases para validar. Recopilación Y Preparación De Datos: Este conjunto de datos contiene las imágenes etiquetadas que se obtuvieron de las manos de los 7 voluntarios a partir de videos con una duración de 30 por cada letra en diferentes condiciones de iluminación y fondos. Se realizó un proceso de captura de fotogramas, lo cual, en este proceso, el video se descompone en una secuencia de imágenes fijas para aumentar el número de datos las imágenes y su redimensión de la imagen a 200x200 pixeles. Proceso De Entrenamiento:  Yolo: El modelo seleccionado fue el YOLOv5 (You Only Look Once). Este es un sistema de código abierto para la detección de objetos en tiempo real pre-entrenado con el dataset COCO, el cual hace uso de una única red neuronal convolucional (CNN) para detectar objetos en imágenes.  Teachable Machine: Esta plataforma es una herramienta web creada por Google que permite la creación de modelos de aprendizaje automático de forma rápida y fácil sin la necesidad de saber programar.  


CONCLUSIONES

Este resumen muestra un potencial para detectar los gestos de las manos de la Lengua de Señas Mexicana usando Reconocimiento automático de imágenes. implementamos una metodología que recopila, preprocesa y reconoce las imágenes de los personajes utilizando técnicas visión artificial El sistema propuesto con arquitectura de yoloV5 (CNN) logra una precisión del 46.76% y en la plataforma Teachable Machine logra una precisión del 25.43% con el conjunto de imágenes de Prueba de las 21 letras propuestas usando un conjunto de 50 imágenes desequilibradas y/o imágenes aceptables por clase. Ya que tenemos una diferencia del 50% de precisión aproximado dentro de sus propios modelos. Así que tenemos un Rendimiento a favor de la arquitectura de YoloV5. Ya que los modelos son capaces de reconocer señas fijas en base al entrenamiento realizado respecto a las características de la mano.
Pereyra Hernandez Daniela, Instituto Tecnológico de Reynosa
Asesor: Dr. Octavio Augusto García Alarcón, Instituto Tecnológico Superior de Xalapa

MODELADO Y CONSTRUCCIóN DE SISTEMA MECATRóNICO PARA PRUEBAS DE ALGORITMOS DE CONTROL


MODELADO Y CONSTRUCCIóN DE SISTEMA MECATRóNICO PARA PRUEBAS DE ALGORITMOS DE CONTROL

Herrera Cruz Oded Osiris, Instituto Tecnológico de Reynosa. Pereyra Hernandez Daniela, Instituto Tecnológico de Reynosa. Asesor: Dr. Octavio Augusto García Alarcón, Instituto Tecnológico Superior de Xalapa



PLANTEAMIENTO DEL PROBLEMA

La robótica es una disciplina científica que aborda la investigación y desarrollo de una clase particular de sistemas mecánicos dentro de la cual podemos distinguir de manera pronunciada 4 ramas de ingeniería como lo son la Inteligencia Artificial, Mecatrónica, Cibernética y los Organismos Cibernéticos. También podemos realizar varias clasificaciones de robots: Robots móviles (vehículos autónomos, vehículos no autónomos etc.) Humanoides (tienen gran variedad, pero por lo general son de diseño complejo.) Industriales (Brazos mecánicos, robots manipuladores.) Entre ellos los denominados robots manipuladores que son diseñados para realizar una amplia variedad de actividades industriales, científicas, domésticas y comerciales también podrían clasificarse por algunas de sus características, como por ejemplo por la cantidad de grados de libertad (GDL) o herramienta final con la que cuenten, características con las que podrían nombrarse como completamente actuados, sub-actuados e incluso hasta sobre-actuados dependiendo de la cantidad de actuadores necesarios para poder movilizar el brazo y completar la tarea deseada. Para el modelado del robot manipulador también es necesario tener claros otro par de conceptos como lo son la dinámica y cinemática para robots; La dinámica del robot relaciona el movimiento del robot y las fuerzas implicadas en el mismo. El modelo dinámico establece relaciones matemáticas entre las coordenadas articulares (o las coordenadas del extremo del robot), sus derivadas (velocidad y aceleración), las fuerzas y pares aplicados en las articulaciones (o en el extremo) y los parámetros del robot (masas de los eslabones, inercias, etc.). La cinemática de robots se encarga de estudiar el movimiento de este con respecto a un eje de referencia y la descripción analítica del movimiento espacial del robot con una función de tiempo. Para los algoritmos de control tenemos dos filosofías o esquemas principales, en Control Clásico se trabaja con Transformadas de Laplace y Funciones de Transferencia y el Control Moderno donde se utilizan Funciones de Energía y el Espacio de Estados en donde se realizan representaciones matriciales de las ecuaciones diferenciales.



METODOLOGÍA

Para la presente investigación y desarrollo del proyecto se realiza un trabajo inicial de comparación entre el Control Clásico y Control Moderno, esto con la finalidad de facilitar el estudio y comprensión. Mediante las ecuaciones de Euler-Lagrange, y el Lagrangiano utilizamos la ecuación de movimiento de Euler-Lagrange, en la que podemos observar que se consideran varios tipos de fricciones que influyen en el sistema. Utilizando las ecuaciones de Energía, se hace el análisis de la energía cinética y la energía potencial. Para empezar a comprender estas ecuaciones, se realizaron ejercicios con mecanismo simples como los péndulos y modelos dinámicos para centrifugas, se realizarán tanto a mano como también practicando códigos en softwares. También se analizaron sistemas que pueden ser divididos para analizarse con Laplace y Funciones de Transferencia por separado e ir entrelazando entradas y salidas como el de un motor de corriente directa controlado por campo. A la par del estudio del modelado matemático, se comenzó a diseñar las piezas para el brazo robot, se optó por un diseño sencillo y ligero tomando en cuenta que la fabricación de las piezas será por medio de la impresión 3D, cabe destacar que este tipo de manufactura tiene ciertas consideraciones las cuales vienen dadas por el equipo de impresión 3D, independientemente de un correcto diseño y dibujo de las piezas, se tiene que tomar en cuenta un margen de error dado por la boquilla de la impresora, de la misma manera fue necesario aprender a utilizar, alinear y conocer la máquina de impresión con apoyo de otros softwares independientes al del dibujo los cuales nos permiten editar características propias de la impresión como la densidad, temperaturas, soportes y velocidades y con estas obtener piezas con diferentes características y calidades. La impresión en 3D demuestra ser de gran utilidad para la creación de prototipos, la práctica y aplicación de conocimientos de diseño, sobre todo para alumnos e investigadores por su accesibilidad en comparación a otros métodos de fabricación, la facilidad y limpieza con la que se pueden obtener piezas presentables de alta calidad.


CONCLUSIONES

La integración de todos los conocimientos adquiridos durante la estancia culmina en el armado de robot y el traslado de las ecuaciones a diagramas de bloques en distintos softwares que nos permiten realizar una simulación y predicciones de los movimientos del robot, sin embargo al cargar un código para el movimiento del robot, es posible obtener lecturas en donde conoceremos los valores reales del robot que son afectados por las fricciones (cargas) reales, todo estos como antelación a el control de precisión del brazo robótico. Se observa la utilización de diferentes programas para realizar simulaciones y códigos que con interfaces pueden ser cargados a los motores para realizar un control, este método resulta muy accesible, por lo que va de la mano con el objetivo de la investigación la cual es poder exportar este tipo de mecanismos para que estudiantes de ingeniería que necesiten practicar este tipo de mecanismos, programas y sistemas puedan tener una opción económica con una guía sobre la cual puedan empezar y posteriormente poder aplicar sus propias ideas.
Pérez Aguíñiga Celeste Cristina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Rafael Wilfredo Rojas Bujaico, Universidad Nacional de Huancavelica

FACTORES DE RIESGO DE LA INTELIGENCIA ARTIFICIAL QUE INFLUYEN EN EL DESEMPEÑO ACADÉMICO DE LOS ESTUDIANTES


FACTORES DE RIESGO DE LA INTELIGENCIA ARTIFICIAL QUE INFLUYEN EN EL DESEMPEÑO ACADÉMICO DE LOS ESTUDIANTES

Martínez García Briseyda Paulina, Instituto Tecnológico de Estudios Superiores de Zamora. Pérez Aguíñiga Celeste Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Rafael Wilfredo Rojas Bujaico, Universidad Nacional de Huancavelica



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del Problema Problema General ¿De qué manera los factores de la inteligencia artificial influyen con el desempeño académico? Problemas específicos ¿De qué manera la confianza a las herramientas de la Inteligencia Artificial influye en el desempeño académico? ¿De qué manera le veracidad de resultados de las herramientas de la inteligencia artificial influyen en el desempeño académico? Objetivos Objetivo General Correlacionar los factores de la inteligencia artificial con el desempeño académico. Objetivos específicos Asociar la confianza a las herramientas de la Inteligencia Artificial influye en el desempeño académico. Asociar la veracidad de resultados de las herramientas de la Inteligencia Artificial influye en el desempeño académico.



METODOLOGÍA

El tipo de investigación, según Ciro (2010) es tecnológica, debido a la forma de realizar la investigación en beneficio de la sociedad sobre el uso adecuado de las herramientas de la IA,  Supo and Zacarías (2020) es los tipos de investigación, sobre el nivel de investigación, Supo and Zacarías (2020) establece que el relacional se da entre dos variables de estudio que antes de establecer relación causal, nacen éstas, por lo que, la investigación trata de encontrar relación entre los factores de riesgo de la IA y el desempeño académico de los estudiantes, el método de investigación, Hernández Sampieri et al. (2018) menciona que análisis-síntesis corresponde a la división de las partes y la unión de ellas conllevando al todo, esta investigación se orientó a ello en el momento de identificar los factores de riesgo que van a influir en el desempeño académico, finalmente, para el diseño de investigación nuevamente se tuvo en cuenta a Supo and Zacarías (2020) quienes menciona que la investigación transversal se basa en la aplicación de una encuesta en un momento determinado conllevando su análisis a muestras independientes, ello relacionada a nuestra investigación connota que solamente se aplicó el instrumento en el instante en donde se quiso saber sobre la confianza que los estudiantes tienen a las herramientas de la IA. Para la investigación se ha elaborado 20 preguntas (ver Anexo) con respecto al uso de las herramientas de la IA con la finalidad de encontrar el grado de dependencia y perjuicio en el desarrollo académico; las siguientes tablas muestran los resultados de las encuestas realizadas a 46 estudiantes de los cuales 23 estudiantes son de sexo femenino y las edades promedian de 22 años con una desviación estándar de 3 años y varianza de 8.5, estos estudiantes pertenecen al Instituto Tecnológico de Estudios Superiores de Zamora Y que pertenecen a los semestres de octavo y noveno.


CONCLUSIONES

En la encuesta a 46 estudiantes, 28 de ellos no están de acuerdo con que el chat GPT sea beneficioso para los estudiantes. Además, una parte considerable de la población opina que el uso de la Inteligencia Artificial en actividades escolares dificulta el desarrollo crítico y creativo, mientras que otra parte se muestra indiferente. En relación al grado de independencia, 12 de los 46 encuestados están en desacuerdo, y respecto a la influencia en habilidades sociales, 15 de 42 encuestados consideran que tiene un efecto negativo. La encuesta también revela que el uso de herramientas de IA lleva a la pereza al evitar investigar adecuadamente, lo que contribuye a la desconexión emocional en el proceso de aprendizaje, confiando ciegamente en los resultados de la IA y disminuyendo la retención de información. Con respecto a la pregunta 01, la mayoría muestra un alto nivel de conocimiento sobre el Chat GPT. Sin embargo, en las preguntas 17 y 18, la mayoría de los encuestados muestran indiferencia hacia el desarrollo de trabajos de investigación y tareas asignadas por los docentes.  Las opiniones sobre el uso de la Inteligencia Artificial en el ámbito educativo son diversas y se encuentran en diferentes puntos intermedios. Mientras que un grupo significativo de estudiantes reconoce el beneficio de la IA para el aprendizaje, otro grupo destaca que su uso puede dificultar el desarrollo crítico y creativo. Asimismo, algunos consideran que la IA puede generar dependencia, afectar habilidades sociales y propiciar la pereza en el proceso de aprendizaje. Otros mencionan que el uso de la IA puede limitar la exploración de diferentes enfoques y soluciones. También existe una neutralidad generalizada respecto a la confiabilidad de la IA como fuente de investigación y sobre si los estudiantes estarían en desventaja sin acceso a la tecnología de IA. Además, se plantean preocupaciones sobre la manipulación y desinformación que pueden surgir al confiar ciegamente en las IA. En conclusión, las opiniones sobre la IA en la educación reflejan una amplia gama de perspectivas y desafíos a considerar en su integración adecuada en el proceso de aprendizaje.
Pérez Avalos Gabriela Monserrat, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Mtro. Fernando José Martínez López, Instituto Tecnológico Superior del Sur de Guanajuato

DESARROLLO DE UNA APLICACIóN MóVIL PARA EL CARPOOLING: UNA SOLUCIóN DE TRANSPORTE COMPARTIDO PARA ESTUDIANTES UNIVERSITARIOS


DESARROLLO DE UNA APLICACIóN MóVIL PARA EL CARPOOLING: UNA SOLUCIóN DE TRANSPORTE COMPARTIDO PARA ESTUDIANTES UNIVERSITARIOS

Navarro Sosa César Antonio, Instituto Tecnológico Superior del Sur de Guanajuato. Pérez Avalos Gabriela Monserrat, Instituto Tecnológico Superior del Sur de Guanajuato. Pérez Lara Fatima Vianey, Instituto Tecnológico Superior del Sur de Guanajuato. Sanabria Melecio José Ángel, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtro. Fernando José Martínez López, Instituto Tecnológico Superior del Sur de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los estudiantes universitarios enfrentan problemas con el transporte público debido a su ineficiencia, lo cual se convierte en un obstáculo en términos de tiempo, disponibilidad, costo e inseguridad. Para resolver esto, se propuso crear una aplicación móvil llamada RideSchool, una solución de carpooling seguro entre estudiantes de una misma institución.



METODOLOGÍA

Se eligieron tecnologías como React Native, Google Firebase, y Google Maps, y se optó por utilizar componentes de Paper siguiendo las pautas de Google Material Design. Para el prototipado, se usó Miro, y para el control de versiones, git y GitHub, aprovechando las herramientas y ventajas que ofrecen. El proyecto también incluyó una fase de onboarding diseñada para mejorar la experiencia de usuario desde el primer uso, utilizando la inteligencia artificial Midjourney para generar imágenes. Se implementó autenticación y registro a través de Google Firebase, asegurando la persistencia de la información de la sesión. La aplicación permite solicitar y atender rides, integrando funcionalidades y servicios de Google Maps como puntos de encuentro, búsqueda dinámica de direcciones, y geolocalización. Además, se diseñó una pantalla para visualizar rides solicitados, incorporando opciones para cuotas y comentarios. Se hizo una solicitud por escrito para una prueba piloto en la comunidad estudiantil, con el fin de evaluar la aplicación en un entorno real y recopilar datos de uso, buscando eventualmente expandirse a más instituciones universitarias.


CONCLUSIONES

En conclusión, el desarrollo de RideSchool marca un avance significativo en la asistencia a los estudiantes en el transporte, aún quedan componentes por desarrollar, pero la experiencia ha fortalecido habilidades técnicas y blandas del equipo. La aplicación promete ser una herramienta útil en la vida cotidiana de los estudiantes.
Pérez Balcón Abdiel Jonathan, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DISEñO E IMPLEMENTACIóN DE UN SISTEMA BASADO EN TINY MACHINE LEARNING PARA DETECCIóN DE MOVIMIENTO


DISEñO E IMPLEMENTACIóN DE UN SISTEMA BASADO EN TINY MACHINE LEARNING PARA DETECCIóN DE MOVIMIENTO

Pérez Balcón Abdiel Jonathan, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Generalmente requerimos un alto coste computacional para entrenar y ejecutar modelos de Machine Learning (ML), es decir, grandes servidores, servicios en la nube y ordenadores para ejecutar estos algoritmos, sin embargo, debido a la gran popularidad que hoy en día han tomado los microcontroladores en varios campos como la industria, electrodomésticos, la salud, telecomunicaciones, entre otros, es necesario poder implementar también sistemas de ML en sistemas embebidos para innovar hacia una nueva generación de electrónicos potenciados por la Inteligencia Artificial (IA). Los investigadores en los últimos años han mejorado enormemente la eficiencia en ejecutar algoritmos de ML en pequeños microcontroladores. Tiny Machine Learning (TinyML) es el conjunto de tecnologías de ML y sistemas embebidos para hacer uso de aplicaciones inteligentes en dispositivos de muy bajo poder computacional. Según Gian Marco en su libro TinyML Cookbook, con el auge del Internet de las cosas (IoT), los microcontroladores experimentaron un exponencial crecimiento en el mercado. Por lo tanto, TinyML representa un importante paso hacia adelante para los dispositivos IoT, permitiendo pequeños objetos conectados capaces de realizar tareas de ML de forma local. Los casos de uso potenciales de TinyML son ilimitados, y los que acabamos de presentar brevemente son sólo algunos de los posibles ámbitos de aplicación. Por lo tanto, en el verano de la investigación se estudia este potencial de TinyML y cómo puede aplicarse para que, haciendo uso de la IA, se pueda mejorar aspectos en la industria, la salud, el hogar, etc. También se implementan ejemplos de sistemas basados en TinyML haciendo que este sea un estudio tanto teórico como práctico



METODOLOGÍA

Se realizo una revisión de los cursos introductorios acerca de los temas relacionados con Tiny Machine Learning por medio de Internet, los cursos fueron los siguientes: • Introduction to Embedded Machine Learning on Coursera. Liga: https://www.youtube.com/watch?v=TgekTwrftcg&list=PL7VEa1KauMQqZFj_nWRfsCZNXaBbkuurG&index=1 • Getting Started with TensorFlow and Keras - Maker.io | Digi-Key Electronics. Liga: https://www.youtube.com/watch?v=HCG3hFe1KYY&t=0s • TinyML: Getting Started with TensorFlow Lite for Microcontrollers | Digi-Key Electronics. Liga: https://www.youtube.com/watch?v=gDFWCxrJruQ • Intro to TensorFlow Lite Part 1: Wake Word Feature Extraction - Maker.io. Liga: https://www.youtube.com/watch?v=0fn7pj7Dutc&t=0s • Intro to TensorFlow Lite Part 2: Speech Recognition Model Training - Maker.io Liga: https://www.youtube.com/watch?v=yv_WVwr6OkI&t=0s • Intro to TensorFlow Lite Part 3: Speech Recognition on Raspberry Pi Liga: https://www.youtube.com/watch?v=8-vl9bNY9aI&t=0s • Low-Cost Data Acquisition (DAQ) with Arduino and Binho for Machine Learning Liga: https://www.youtube.com/watch?v=kZ5uGLfvnwA&t=0s • Intro to TinyML Part 1: Training a Neural Network for Arduino in TensorFlow | Digi-Key Electronics Liga: https://www.youtube.com/watch?v=BzzqYNYOcWc • Intro to TinyML Part 2: Deploying a TensorFlow Lite Model to Arduino | Digi-Key Electronics Liga: https://www.youtube.com/watch?v=dU01M61RW8s • Edge AI Anomaly Detection Part 1: Data Collection Liga: https://www.youtube.com/watch?v=Bxd7W1I-tq4&t=0s • Edge AI Anomaly Detection Part 2: Feature Extraction and Model Training Liga: https://www.youtube.com/watch?v=Mu3CzG-na4k&t=0s • Edge AI Anomaly Detection Part 3: Deploy Machine Learning Models to Raspberry Pi . Liga: Electronics. Liga: https://www.youtube.com/watch?v=Ya923oUF33U&t=631s Se hizo una revisión de tres libros libro sobre TinyML donde además se muestran 13 ejemplos concretos y prácticos de sistemas basado en TinyML donde se entrenan modelos de ML y se implementan en microcontroladores utilizando Arduino Nano 33 BLE, Raspberry Pi Pico, TensorFlow, TensorFlow Lite, Python, Edge Impulse, junto con el resto de las especificaciones descritas particularmente para cada ejemplo. Los libros fueron los siguientes: • Deep Learning on Microcontrollers: Learn how to develop embedded AI applications using TinyML • TinyML Cookbook, Combine artificial intelligence and ultra-low-power embedded devices to make the world smarter • TinyML Machine, Learning with TensorFlow Lite on Arduino and Ultra-Low-Power Microcontrollers Finalmente se optó por implementar el ejemplo de The Hello World of TinyML: Building and Training a Model cuyos detalles de implementación y materiales se encuentran en el libro Machine, Learning with TensorFlow Lite on Arduino and Ultra-Low-Power Microcontrollers capítulo 4, página 29, y el ejemplo de Building a Gesture-Based Interface for YouTube Playback cuyos detalles completos se encuentran en el libro TinyML Cookbook capítulo 6, página 225


CONCLUSIONES

Se observó el potencial de las aplicaciones inteligentes en pequeños dispositivos potenciados por la IA gracias a los modelos de ML es muy amplia, hablamos de ciudades inteligentes, hogares inteligentes, los llamados smart-things, aplicaciones en la agricultura, la vigilancia, la seguridad, el cuidado de la salud, videoujugos, etc. y las ventajas de reducción de latencia en comparación a lo que sería un complejo modelo de ML en la nube y la reducción del consumo de energía. Se implementaron dos sistemas basados en TinyML, siendo el principal la detección de movimientos con la Raspberry Pi y el sensor MPU 92/65 para el control de una playlist de Youtube. El proyecto continúa con la siguiente fase de orientar el sistema de detección de movimientos basado en TinyML a una aplicación concreta que por cuestiones del tiempo de duración de la estancia no se ha abarcado aún. Se espera implementar más ejemplos prácticos utilizando el Arduino Nano 33 BLE Sense, la Raspberry Pi Pico junto con los sensores y software necesarios para aplicar la experiencia con el tema y continuar con la siguiente fase del proyecto aquí mencionada.
Perez Baxcajai Alma Rosa, Universidad Mexiquense del Bicentenario
Asesor: Mg. Martha Yaneth Segura Ruiz, Universitaria Agustiniana Uniagustiniana

REQUERIMIENTOS PARA EL DESARROLLO DE UN TUTOR INTELIGENTE INCLUSIVO PARA LA ENSEÑANZA-APRENDIZAJE DE LA PROGRAMACIÓN ORIENTADA A OBJETOS


REQUERIMIENTOS PARA EL DESARROLLO DE UN TUTOR INTELIGENTE INCLUSIVO PARA LA ENSEÑANZA-APRENDIZAJE DE LA PROGRAMACIÓN ORIENTADA A OBJETOS

González García Edgardo Mauricio, Instituto Tecnológico de Morelia. Perez Baxcajai Alma Rosa, Universidad Mexiquense del Bicentenario. Zaragoza Mendoza Gonzalo, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Martha Yaneth Segura Ruiz, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a una encuesta realizada por Microsoft en abril del 2016, 70% de los jóvenes dice saber de tecnología, pero 6 de cada 10 jóvenes no saben lo que es programar. Se conoce que en las escuelas de nivel básico se promueva el aprendizaje a nivel básico de lenguajes como Java y C++, sin embargo, no se ahondan en temas más avanzados como puede ser los impartidos en la materia de programación orientada a objetos, la cual sirve de piedra angular para los diferentes paradigmas del desarrollo de software que hay actualmente. La programación orientada a objetos (POO) es un tema esencial en el ámbito de la informática y el desarrollo de software. Sin embargo, muchos estudiantes encuentran dificultades para comprender los conceptos y principios fundamentales de la POO, lo que puede obstaculizar su progreso académico y su capacidad para desarrollar aplicaciones y soluciones informáticas de manera efectiva. Además, existe una necesidad creciente de brindar una educación inclusiva que atienda las diversas necesidades de los estudiantes, incluidos aquellos con discapacidad auditiva. Los métodos de enseñanza tradicionales pueden no ser adecuados para todos los estudiantes y pueden dejar a algunos atrás, lo que resulta en una brecha de conocimiento y comprensión. Para abordar estos desafíos, se propone desarrollar un tutor inteligente e inclusivo para estudiantes de programación orientada a objetos. El tutor inteligente será una herramienta interactiva basada en la inteligencia artificial y la programación orientada a objetos que ayudará a los estudiantes a comprender los conceptos y principios clave de la POO, resolver dudas y brindar un apoyo personalizado adaptado a las necesidades individuales de cada estudiante. El problema radica en definir los requisitos y características específicas que debe tener este tutor inteligente para garantizar su efectividad y su inclusividad. Es fundamental identificar las funcionalidades clave que permitirán al tutor brindar explicaciones claras y ejemplos prácticos y garantizar la accesibilidad para personas con discapacidades. Además, se deben definir las bases de hechos que contendrán la información necesaria para que el tutor inteligente proporcione respuestas precisas y relevantes a las preguntas de los estudiantes, así como analizar la estructura del motor de inferencia para que pueda proporcionar una asistencia contextualizada. En este escenario, durante la estancia de verano se investigaron las diferentes características y requerimientos de un sistema experto innovador y accesible que ofrezca una amplia gama de herramientas didácticas interactivas, destinadas a facilitar el aprendizaje de programación orientada a objetos.



METODOLOGÍA

Mediante una metodología explorativa se busca comprender el problema de manera más profunda, recopilando y analizando la información relevante de diversas fuentes. Para poder desarrollar de forma exitosa la investigación se establecieron los objetivos del tutor inteligente, como brindar apoyo a los estudiantes, facilitar el aprendizaje de conceptos complejos, resolver dudas y adaptarse a las necesidades individuales, de igual forma determinar los aspectos clave de la inclusión que se deben abordar, como la accesibilidad para personas con discapacidad auditiva. En la investigación se realizó la revisión bibliográfica sobre los principales conceptos de la programación orientada a objetos, la educación inclusiva y las tecnologías de tutoría inteligente. Se recopilaron y analizaron investigaciones y proyectos similares relacionados con sistemas expertos, el lenguaje de programación Python, tutores inteligentes y el aprendizaje de programación orientada a objetos. También se identificaron las necesidades específicas de los estudiantes de programación orientada a objetos y los posibles obstáculos que pueden enfrentar. Al seguir una metodología explorativa, es posible diseñar un tutor inteligente inclusivo y efectivo para estudiantes de programación orientada a objetos, teniendo en cuenta las necesidades y perspectivas de los usuarios y asegurándote de brindar un apoyo valioso en su proceso de aprendizaje.


CONCLUSIONES

Durante la estancia de verano se pudo definir los requisitos de la base de hechos, la base de conocimientos y el motor de inferencia del tutor inteligente con información recopilada hasta el momento, la cual incluye características y algunos ejemplos relacionados con la programación orientada a objetos, así como características de accesibilidad para personas con discapacidad auditiva y los requisitos no funcionales para el sistema experto. Los requisitos se muestran a continuación:  El sistema experto debe incluir explicaciones sobre la creación e interpretación de diagramas y códigos. Capacidad para responder preguntas: El sistema experto debe ser capaz de responder preguntas formuladas por los usuarios sobre conceptos de programación orientada a objetos, proporcionando explicaciones claras y ejemplos relevantes. Explicaciones paso a paso: El sistema debe ser capaz de ofrecer explicaciones detalladas y paso a paso sobre cómo abordar ciertos problemas o implementar determinadas funcionalidades en programación orientada a objetos. Recomendaciones y sugerencias: El sistema experto debe ser capaz de identificar y señalar errores comunes en el código para proporcionar recomendaciones y sugerencias útiles siguiendo las mejores prácticas en programación orientada a objetos. Soporte para diferentes niveles de habilidad: El sistema debe ser capaz de adaptarse y brindar apoyo a usuarios con diferentes niveles de habilidad en programación, desde principiantes hasta expertos. Evaluación del rendimiento del usuario: El sistema debe contar con mecanismos para evaluar el progreso y el rendimiento del usuario. Ayuda contextual y documentación integrada: El sistema debe proporcionar ayuda contextual para funciones y métodos, y también contar con documentación integrada que ofrezca descripciones detalladas. Al ser un proyecto extenso aún falta mucho por investigar, analizar y desarrollar. Se espera que los resultados alcanzados sirvan como base para el logro de los objetivos del proyecto y para futuras investigaciones.
Pérez Chávez Diana Lizette, Instituto Tecnológico de Colima
Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla

AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR


AUTOMóVIL DE MONITOREO Y SENSADO ALIMENTADO POR ENERGíA SOLAR

Aguilar Arias Ubaldo, Universidad Autónoma de Sinaloa. Aguilar Chávez Mauricio, Instituto Tecnológico de La Piedad. Alvarado Moreno Juan Antonio, Universidad Autónoma de Sinaloa. Martínez Vázquez Enrique, Benemérita Universidad Autónoma de Puebla. Pérez Chávez Diana Lizette, Instituto Tecnológico de Colima. Asesor: M.C. Gregorio Trinidad García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas de la sociedad actual es el cambio climático el cual es el principal causante de que las temperaturas se eleven año con año, así mismo el aumento de sequías, fuertes tormentas y más riesgos para la salud.  El principal problema que se detectó al momento de pensar en nuestra sociedad fue el no saber con exactitud las condiciones en las que se encuentra un lugar en específico, es de suma importancia conocer estos datos para prevenir posibles problemas de salud que se puedan presentar, tales como insolación, golpes de calor, o problemas de salud al estar en entornos húmedos. Para la realización de este proyecto se obtendrán los parámetros de temperatura, humedad y luminosidad y se utilizará una cámara para monitorear en tiempo de real el entorno, cabe destacar que cada uno de los parámetros se muestra en una interfaz.



METODOLOGÍA

Para el accionamiento de los motores, controlar su sentido de giro y velocidad se usan componentes electrónicos conocidos como puentes H. En base a una investigación hecha en libros y otras fuentes, es que se llegó a la conclusión de colocar un puente H para controlar 2 motores, esta decisión se genera debido a que si se conectan todos los motores a un solo puente H, este se dañara, ya que los motores pueden consumir hasta 5 A de corriente eléctrica. Además, la energía utilizada para alimentar los motores y todos los componentes electrónicos del prototipo se obtiene  a través de un panel solar y a su vez, almacena energía en una batería recargable de 12V. Cada motor puede funcionar con un voltaje máximo de 7 VDC, es por ello que se opta por usar reguladores de tensión y con ello obtener los 7 VDC. Por otra parte, se tiene la limitante de que los reguladores de tensión funcionan en un rango de 0-3 A, por lo cual se usará un regulador para alimentar cada puente H para que los motores tengan un rango de consumo de corriente de 0 a 1.5 A como máximo. Con este arreglo entre los reguladores y los puentes H se evita que los componentes electrónicos mencionados se dañen por el consumo excesivo de corriente.  En la programación, para la integración del sistema embebido, se analizan las diferentes opciones disponibles en el laboratorio, como el ESP32, el Arduino nano, un Raspberry pi, entre otros. El Raspberry Pi se utiliza como primeras pruebas para determinar sus limitaciones y diferencias comparado al ESP32. Durante el periodo de investigación y programación, el Raspberry pi se descarta, por lo tanto se sustituye por un ESP32 por sus capacidades de WiFi y la fácil manipulación de este, por lo que se da como tarea experimentar y comprobar los diferentes sensores que serán posteriormente utilizados para el sensado de variables del automóvil, de modo de este pueda tomar lecturas precisas y sin problemas.  El siguiente trabajo de programación es la determinación de qué software o aplicación será utilizada para el monitoreo y control a distancia del automóvil. A partir de es paso, la programación se realiza en diferentes interfaces, de las cuales se buscaba lo siguiente: Comunicación WiFi entre la interfaz y el automóvil. Permitir manipular tanto entradas, como salidas y una cámara web, con un número grande de variables accionadas vía inalámbrica. Lectura de los sensores y con una estética visualmente agradable para el usuario. Activación a distancia de los motores para lograr el movimiento adecuado. Visualización de la cámara implementada, logrando obtener imagen del entorno del automóvil. Interfaz visualmente cómoda, sencilla y que todos los integrantes del proyecto pudieran manejar sin instalación de softwares. En base a los requisitos se programa en Visual Studio para la creación de una interfaz en lenguaje C#, descartando algunas opciones como página web ip, MyAppInventor, y todas las páginas de nubes IoT por ser limitadas en cuanto lo que se puede hacer sin una suscripción.  Con las primeras pruebas de algunas interfaces, se empiezan las pruebas para la interacción entre el usuario y el automóvil, donde se realizan primeros ajustes tanto en la potencia como en la programación.  Una vez concluida la programación del software y el sistema embebido, la potencia y la estructura general el automóvil es sacado a diferentes entornos para hacer las pruebas. Finalmente se realiza el esquema eléctrico con todas las partes involucradas en el automóvil.


CONCLUSIONES

Con el prototipo desarrollado es posible realizar el reconocimiento y sensado de terrenos sin la necesidad de que el ser humano esté presente en ellos, para así observar el cambio de clima en lugares específicos. Para obtener dichos resultados se empezó con la observación de los componentes que se necesitan para obtener una idea central del proyecto; contando con que la base del proyecto, es que este pueda sensar en cualquier parte de las instalaciones de la BUAP y a su vez pueda ser cargado por un panel solar una vez que este no sea utilizado.  Una vez contada con la idea general para la realización del automóvil se llevaron a cabo diferentes investigaciones para poder obtener el resultado final y así poder comprobar que por medio de la ESP32 se puede realizar la conexión de la red interna que se encuentra en este con la red de la BUAP, otro de los objetivos es que se muestran los datos correspondientes de los sensores en la interfaz realizada y que por medio del panel se cargue la batería que cuenta el automóvil. En resumen podemos decir que los objetivos planteados se realizaron con éxito a excepción de la conexión de la ESP con la red de la BUAP debido a la inestabilidad de este y que la ESP32 no se vuelve a reconectar, sino que se tiene que volver a cargar por medio de la laptop, es por ello que con este trabajo se pueden ir realizando modificaciones, al iguala eu implementar más cosas en este, ya que es muy versátil.
Pérez Corzo Betzabe Yamille, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla

RELACIóN ENTRE LA OPTIMIZACIóN, INVESTIGACIóN DE OPERACIONES Y DISEñO DE TERRITORIO


RELACIóN ENTRE LA OPTIMIZACIóN, INVESTIGACIóN DE OPERACIONES Y DISEñO DE TERRITORIO

Pérez Corzo Betzabe Yamille, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La presente investigación tiene como tema central relacionar la investigación de operaciones, optimización y el diseño de territorio, plasmándolo en un estado del arte, junto con las definiciones en el periodo de los años 2018 a 2023, para de esta manera encontrar un punto de intersección entre los 3 temas. Para lograr analizar este tema en conjunto, es importante el profundizar en los orígenes, de forma que se mencionen los aspectos más importantes, tales como las causas, así beneficios de la implementación en la actualidad.



METODOLOGÍA

Para poder realizar la investigación es necesario el realizar una revisión sistemática en la busca, recopilar y analizar la información más relevante y adecuada para el proyecto. Al igual, se continúa con un análisis de contenido en la que continuara categorizando el contenido de los documentos, artículos y libros, buscando extraer la información más apropiada para la investigación.


CONCLUSIONES

La investigación de operaciones utiliza modelos matemáticos y algoritmos para resolver problemas complejos, con relación al diseño de zonas, en las cuales podemos ver una interacción con la ubicación de las instalaciones, rutas para cada uno de los vehículos, asignación de recursos, así como la planificación de los horarios empleados en cada uno de los turnos.  Se establece que los modelos tienen a su consideración múltiplos objetivos, así como sus restricciones, por lo que se consigue encontrar soluciones óptimas, es las que se buscaran maximizar la eficiencia y minimizar los costos y tiempos. Con la ayuda de las técnicas de optimización y otras herramientas de la investigación de operaciones, el diseño de zonas se puede abordar con una mayor precisión, eficiencia y eficacia, ya que tales metodologías permiten evaluar cada uno de los escenarios posibles y los alternativos, para que de esta forma sea posible el ser precavidos antes los posibles problemas, logrando tomar decisiones de manera más asertiva y estratégica. La relación entre la investigación de operaciones, optimización y diseño de zonas es que cada uno de estos aspectos es de suma importancia para poder cumplir cada uno de los objetivos, encontrar soluciones y ayuda a la planificación y organización de los espacios. Por lo que es necesario la aplicación de estas disciplinas para poder encontrar soluciones analíticas y sistemáticas, que logren beneficiar al sector al que se enfocan, contribuyendo al desarrollo del espacio asertivo, así como la logística y la gestión logren ser óptimas y eficientes. En conclusión, la investigación de operaciones y el diseño de áreas están íntimamente relacionados, ya que ambos se enfocan en optimizar y mejorar los procesos. La investigación de operaciones es una disciplina que utiliza métodos científicos para tomar decisiones efectivas en situaciones complejas. Por otro lado, el diseño de zonas se refiere a la planificación y organización de un espacio físico para maximizar su funcionalidad y eficiencia. La investigación de operaciones se puede utilizar en el diseño de áreas para determinar la mejor ubicación para diferentes áreas funcionales. Utilizando métodos como el análisis y modelos matemáticos, se pueden evaluar diversas alternativas y seleccionar aquella que optimice los recursos disponibles. Por ejemplo, si se está diseñando un área industrial, la investigación de operaciones puede ayudar a determinar la mejor asignación de la capacidad de fabricación en función de criterios como el flujo de materiales o la minimización de los costos de logística. Además, la investigación de operaciones también se puede aplicar a la planificación de áreas para mejorar la logística interna y la planificación del transporte. Se pueden utilizar técnicas como la programación lineal o los algoritmos para encontrar soluciones óptimas a problemas como el enrutamiento de vehículos o la asignación eficiente de recursos. Esto le permite reducir el tiempo de inactividad, optimizar las rutas y minimizar los costos asociados con el transporte dentro de un territorio determinado. Además, es importante recalcar que se puede realizar un diseño de software que facilite tal actividad, haciendo uso de la investigación de operaciones, porque tras analizar se llegó a la conclusión que realmente esta última es una herramienta, que ayuda a optimizar y eficientar para realizar el diseño de territorio.   
Perez de la Cruz Albert Uriel, Instituto Tecnológico Superior de Irapuato
Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE ESFUERZOS MECáNICOS – ELéCTRICOS DEL CABLE OPGW POR MEDIO DEL SOFTWARE SOLIDWORKS Y COMSOL.


ANáLISIS DE ESFUERZOS MECáNICOS – ELéCTRICOS DEL CABLE OPGW POR MEDIO DEL SOFTWARE SOLIDWORKS Y COMSOL.

Camera Ozuna Javier, Instituto Tecnológico de Tuxtla Gutiérrez. Córdova Morales Javier Isain, Instituto Tecnológico de Tuxtla Gutiérrez. Perez de la Cruz Albert Uriel, Instituto Tecnológico Superior de Irapuato. Asesor: M.C. Fernando Jurado Perez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el cable óptico a tierra, mas conocido por sus siglas en ingles como cable OPGW este tiene la función de blindar el SEP y de transmitir datos mediante su fibra óptica. Para garantizar el rendimiento optimo y la confiabilidad del cable OPGW, es fundamental llevar a cabo pruebas mecánicas y eléctricas rigurosas durante su diseño y desarrollo. En este contesto existe una gran variedad de software sofisticados como son SolidWorks y Comsol que permiten simplificar y optimizar el proceso de pruebas, asegurando la calidad y seguridad del cable en cuestión.



METODOLOGÍA

Las pruebas mecánicas se enfocan en evaluar la resistencia y durabilidad del cable frente a diversas condiciones y cargas mecánicas. Esto incluye pruebas de tracción, compresión, flexión y resistencia a la vibración entre otras. SolidWorks es un software de diseño que ofrece herramientas de simulación y modelado 3D que permite recrear estas condiciones y analizar el comportamiento del cable bajo diferentes escenarios. Lo que son las pruebas eléctricas se centran en evaluar la capacidad de transmisión de datos a través de la fibra óptica y la integridad del conductor a tierra. Comsol es un software que también desempeña un papel crucial en este aspecto, ya que puede simular el comportamiento de la señal óptica y eléctrica en el cable OPGW, además Comsol puede evaluar la resistencia a corrientes de cortocircuito y la capacidad de conducción térmica, eléctrica y magnética.


CONCLUSIONES

En simulaciones mecánicas empleadas en SolidWorks se obtuvieron 2 pruebas, una de ellas es la de análisis estático mediante sujeciones y cargas a la deflexión. Provocando la holgura y deformación del cable OPGW. Y la segunda fue la de tensión y cargas de tracción que simulan el efecto jaula de pájaro o llamado en ingles bridcaging. Ya que en pruebas eléctricas mediante el software Comsol se obtuvieron de igual manera 2 simulaciones, una de ellas es la conducción de densidad de flujo magnético que es provocada por una alta elevación de corriente, y por la misma elevación de corriente también se obtiene el efecto joule o conducción térmica. En conclusión, se obtuvo una gran cantidad de información sobre el comportamiento del cable OPGW y una gran cantidad de conocimiento sobre la manipulación de estos softwares  que permiten simplificar y optimizar las pruebas que por ende son presenciadas en campo.
Pérez del Angel Brenda Berenice, Universidad Veracruzana
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA


DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA

Pérez del Angel Brenda Berenice, Universidad Veracruzana. Reyes Moreno Brizeyda Eluzaid, Universidad Veracruzana. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La aplicación de la IA en la arquitectura presenta desafíos y oportunidades. Impulsa la creatividad del arquitecto y mejora la toma de decisiones al proporcionar análisis de datos y simulación avanzada. Para aprovechar estos beneficios, es importante formarse en su uso y estar al tanto de los avances tecnológicos en este campo. Al saber esto nos hacemos las siguientes interrogantes: ¿Cuál es el impacto de la IA en la creatividad y en la toma de decisiones del arquitecto en el proceso de diseño? ¿Qué tanto nos beneficiaria el aplicar estas nuevas plataformas y como debemos de empezar a usarlas?



METODOLOGÍA

01 ZEPHYR OBJETO PINÁCULO- 02 OBJETO PERSONAL- 03 FACHADA COLONIAL La aplicación Zephyr 3D mediante un ejercicio preliminar de reconstrucción. Utilizamos 30 fotografías proporcionadas por el asesor del proyecto y aprendimos a emplear las herramientas necesarias para las tareas futuras. Tras finalizar el proyecto, pudimos exportar la figura en 3D para su impresión. Realizamos una segunda actividad de fotogrametría de manera individual, permitiéndonos elegir el objeto a reconstruir siempre que siguiéramos todos los pasos del proceso. En esta ocasión, al tratarse de un objeto pequeño, solo utilizamos pocas fotografías. También es importante mencionar que Zephyr se descargó de forma gratuita, lo que limitó la cantidad máxima de fotos a 50. Para concluir con la fotogrametría, abordamos una última actividad enfocada en la aplicación arquitectónica con una fachada colonial detallada y compleja, lo que requirió las 50 fotografías disponibles para lograr una reconstrucción precisa. 04 INVESTIGACIÓN INTELIGENCIA ARTIFICIAL Comenzamos investigando sobre que es principalmente para poder entender y no confundirnos. Continuando con la investigación vimos los demás punto que son: que no es la IA, como se implenta en la enseñanza y en la profesión de arquitectura. Una ves hecho todo el analisis logramos identificar y diferenciarla. Logramos encontrar mucha información sobre este tema no solo en el área en que nos estamos desarrollando, además de que se pueden hacer uso de algunas aplicaciones de otras áreas. Gracias a eso también logramos comprender que es un beneficio para nosotros y que con ella podemos realizar mejores trabajos arquitectonicos. Se maneja por medio de algoritmos para poder hacer uso de ella necesitamos ser especificos con lo que deseamos generar.   05 INVESTIGACIÓN INTELIGENCIA ARTIFICIAL PLATAFORMAS Tras haber analisado la información de la actividad anterior encontramos que existen distintas áreas dentro de la IA enfocado en arquitectura. Dentro de cada área existen plataformas y aplicaciones que algunas son de paga y otras de acceso gratis. Acontinuación se muestran las aplicaciones encontradas. Generación de diseños arquitectónicos Autodesk Generative Design The Living - Generative Components Generative Components es de paga, pero cuenta con licencia educativa. Design Explorer (Rhino/Grasshopper) Archimatix Modelo y renderizado Autodesk Revit SketchUp Blender 3ds Max Cinema 4D V-Ray Análisis de datos urbanos CityEngine UrbanSim UrbanFootprint Space Syntax Detección de errores y conflictos Navisworks Solibri Model Checker Tekla BIMsight Synchro 4D Fuzor Es importante mencionar que estas no son todas plas aplicaciones y plataformas existente, son solo algunos ejemplos. Al ser un mundo donde cada dia nos estamos actualizando, contamos con la creación de nuevas plataformas para cada área. 05B INTELIGENCIA ARTIFICIAL TUTORIAL 01 PLATAFORMA GENERA Aprendizaje, aplicacion de plataforma y difusión por medio de video. Por medio de esta plataforma logramos hacer renders de calidad en cuestón de segundos, brindandonos diferentes contextos del objeto, es decir se puede colocar diferentes entornos ya sea de dia o de noche, colocar que tipo de obra será. De esta manera podemos dar a conocer distintas ideas de un mismo proyecto. 06 INTELIGENCIA ARTFICIAL TUTORIAL 02 PLUGIN VERAS Aprendizaje, aplicación y disfusión de uso de software más la implementación de un plugin. A traves se logro realizar renders de calidad , en un periodo corto. Esto nos ayuda a poder entregar al docente o cliente más opciones de diseño. Sin embargo al ser una plataforma con algoritmos necesitamos colocar la información necesaria, estilo, color, el nombre del arquitecto de la escencia que queremos replicar. En el tenemos que especificar si será un exterior o un interior de la obra.  Es una plataforma gratuito y de facil manejo por lo que lo hace asequible en el aprendizaje e implementación en la arquitectura.


CONCLUSIONES

En la estancia vimos distintos programas sobre IA que nos ayudarán mucho en nuestra formación, ya que cada se estan desarrollando nuevas plataformas y aplicaciones por lo que no debemos de quedarnos atras en este tema. Es importante comenzar a usarlas ya que nos beneficia en el campo laboral al querer mostrarle a algún cliente el trabajo, de esta forma podemos expresar de una mejor  manera el diseño que hagamos. Enriquece nuestro desarrollo profesional y habilidades creativas. La incorporación de nuevas tecnologías me permitirá ofrecer soluciones innovadoras y sostenibles. 
Pérez Gómez Josefa Guadalupe, Instituto Tecnológico de Morelia
Asesor: Esp. Pedro Luis Milian Daza, Instituto Nacional de Formación Técnica Profesional - INFOTEP

PROGRAMA DE MANTENIMIENTO PREVENTIVO COMO MEDIDA DE CONTROL DEL PELIGRO MECÁNICO, DE LOS EQUIPOS EMPLEADOS EN LA PLANTA PILOTO AGROINDUSTRIAL DEL INFOTEP DE SAN JUAN DEL CESAR LA GUAJIRA.


PROGRAMA DE MANTENIMIENTO PREVENTIVO COMO MEDIDA DE CONTROL DEL PELIGRO MECÁNICO, DE LOS EQUIPOS EMPLEADOS EN LA PLANTA PILOTO AGROINDUSTRIAL DEL INFOTEP DE SAN JUAN DEL CESAR LA GUAJIRA.

Pérez Gómez Josefa Guadalupe, Instituto Tecnológico de Morelia. Asesor: Esp. Pedro Luis Milian Daza, Instituto Nacional de Formación Técnica Profesional - INFOTEP



PLANTEAMIENTO DEL PROBLEMA

El mantenimiento preventivo normalmente está asociado a un plan de mantenimiento que es generado con el conocimiento de los equipos a los cuales se les realizará la labor, su criticidad en el sistema y con una concreta interacción producción-mantenimiento para el momento más óptimo a realizarse. Para esto se requiere mucha experiencia previa de fallas para la búsqueda de síntomas, al igual que la información propia del fabricante en la cual se hacen unas recomendaciones, que deben ser ajustadas dependiendo el entorno en el cual se encuentra el equipo (Patton, 1995) De acuerdo a la Asociación Colombiana de Ingenieros (2015) en base a su grafica de análisis; el 23.7% de las empresas presentan problemas en la gestión de mantenimiento por la falta de capacitación a los empleados, el otro 22.8% es debido a los trámites administrativos, correspondiente al 16.9% provocado por falta de liderazgo, el 2.5% se genera por medio de la desarticulación con otras áreas y finalmente el 13.1% se manifiesta en casos meramente generados de manera inusual. Como evidencia general se aprecia que en las instalaciones de la planta piloto agroindustrial del INFOTEP ubicado en San Juan del Cesar, La Guajira se maximizan las fallas en instalaciones o equipos, dado que carecen de estrategias de gestión en los departamentos de mantenimiento, esto se ve reflejado en la toma de decisiones y la prioridad que se le asigne a las labores de mantenimiento de acuerdo al criterio del personal encargado, la falta de un plan de mantenimiento bien fundamentado ha sido determinante para crear efectos negativos en la producción, lo cual puede influir desfavorablemente en el factor de producción.



METODOLOGÍA

Se realizó una visita al Instituto de Formación técnica Profesional INFOTEP ubicado en San Juan del Cesar, para identificar la planta piloto agroindustrial, como consiguiente se identificaron las diferentes áreas que la conforman; Fruver, Cárnicos, Cereales y Lácteos, se supervisó cada una de las áreas y se realizo un inventario de equipos existentes en cada una de ellas. Como evidencia general se aprecia que en las instalaciones de la planta piloto agroindustrial del INFOTEP ubicado en San Juan del Cesar, La Guajira se maximizan las fallas en instalaciones o equipos, dado que carecen de estrategias de gestión en los departamentos de mantenimiento, esto se ve reflejado en la toma de decisiones y la prioridad que se le asigne a las labores de mantenimiento de acuerdo al criterio del personal encargado, la falta de un plan de mantenimiento bien fundamentado ha sido determinante para crear efectos negativos en la producción, lo cual puede influir desfavorablemente en el factor de producción.  Como primera actividad a realizar, se hizo un registro de las fallas que presentan los equipos de las diferentes áreas y las tareas de mantenimiento que se realizan. Se identificó que el 25% de la maquinaria no se utiliza por falta de conocimiento de uso, ya que no existe la comunicación directa con el fabricante, otra falla que se encontró fue la mala realización de limpieza en los equipos, esto generando un desgaste de forma interna y externa en los equipos. Se diseñó una lista de cotejo, la cual sirvió como herramienta para identificar el tiempo de uso de cada equipo, identificar la vida útil restante correspondiente a cada uno de ellos y así mismo asignar mediante el manual d mantenimiento de cada uno de los equipos el mantenimiento preventivo correcto para cada uno de los equipos. Se sabe que la falta de mantenimiento genera un mayor riesgo de averías como también fallas en el sistema de transmisión, el motor, entre otros, ahora bien, en afectaciones al personal exponiéndoles a situaciones peligrosas, accidentes y problemas de salud para su equipo, se sabe que el mantenimiento es de alto riesgo y debe realizarse de manera segura, es decir, todo personal tiene que ser capacitado. Por lo tanto y como ultimo objetivo se diseñó un programa de mantenimiento preventivo, en el que se refleja el código, nombre, características, tareas de mantenimiento (apegadas al manual de tareas de higiene y seguridad de cada uno de los equipos), fallas comunes y la frecuencia de aplicación del mantenimiento a cada una de las maquinas y equipos de la planta piloto agroindustrial, esto para que el operador tenga un conocimiento adecuado del equipo y permita la interacción y manejo correcto en cada uno de ellos.


CONCLUSIONES

Durante la estancia de verano se logró concluir mediante al conocimiento adquirido que, un correcto control de mantenimiento suministra una mayor disposición de los equipos utilizados, para así conseguir el proveer las fallas futuras. Uno de los objetivos principales es generar conciencia al operador que labora con el equipo, ya que esto pone en consecuencia que al equipo no se le efectué el mantenimiento adecuado y por esta circunstancia se muestren las fallas repetitivas, provocando así mayores costos de mantenimiento, la disminución de nivel de producción, y el incumpliendo de las metas u objetivos ya señalados. En cuanto a las condiciones actuales de la planta agroindustrial del INFOTEP, se obtuvo como resultado, identificar las fallas más comunes en el equipo, observando un estado de suciedad, falta de lubricación deterioro en algunas partes, entre otras; todas provocadas por falta de mantenimiento preventivo, por consiguiente, se deduce la necesidad de llevar a cabo un análisis exhaustivo de los tipos de fallas que se presentan en el mismo; en el mismo orden de ideas, se evidenció a través del aporte del manual de fabricante de cada uno de los equipos de la planta que los componentes más susceptibles a presentar las fallas o desgaste son los rodamientos, en los cuales se observó corrosión y falta de lubricación en las partes móviles por lo cual, es motivo para enfocar la planeación para realizar el mantenimiento. Seguidamente, al desarrollar un plan de mantenimiento preventivo se pudo efectuar un inventario del equipo, para poder así, llevar un registro actualizado de los equipos que aún se encuentran en condiciones para seguirse utilizando. Se puede concluir que las actividades de mantenimiento preventivo a desempeñar, se encuentran registradas para las fallas más comunes, a su vez, los formatos de historial de falla de los equipos, podrán recabar información necesaria para la actualización de las actividades a realizar dentro del plan de mantenimiento.
Perez Hernandez Arturo, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

PROYECTO IOT


PROYECTO IOT

Magaña Nava Diana, Instituto Politécnico Nacional. Perez Hernandez Arturo, Instituto Politécnico Nacional. Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Internet de las cosas (IoT) ha impactado la industria, especialmente en salud. Beneficios incluyen monitoreo remoto de pacientes, prevención de accidentes en adultos mayores y detección de enfermedades crónicas.  En México, viven cerca de 15.4 millones de personas consideradas de la tercera edad que rondan entre los 60 o más años, de las cuales 1.7 millones viven solas, según la Encuesta Nacional de la Dinámica Demográfica (ENADID) 2018, el reciente censo del  Instituto Nacional de Estadística y Geografía (INEGI) de 2019  menciona que siete de cada diez (69.4\%) adultos mayores que viven solos presentan algún tipo de discapacidad. Con la cantidad de adultos mayores viviendo solos, la caída es un peligro frecuente. Implementar algoritmos de detección de caídas precisos y monitorear constantemente el ritmo cardiaco se vuelve esencial para su cuidado.



METODOLOGÍA

La metodología del desarrollo del dispositivo IoT para geriatría consta de cuatro etapas principales: instrumentación de pacientes con sensores, adquisición y procesamiento de datos con el microprocesador, envío de datos a la nube y análisis de datos con el software matricial. Se utilizó el microcontrolador ESP32 debido a su tamaño reducido y amplias aplicaciones. Sensores como el MAX 30102 permitieron monitorear la oxigenación y pulso cardiaco en un solo dispositivo, mientras que el módulo MPU6050 se utilizó para medir la aceleración y velocidad angular, lo que resultó importante para detectar caídas y accidentes físicos. Los datos brutos obtenidos de los sensores se procesaron mediante librerías y algoritmos específicos desarrollados para cada módulo, lo que permitió obtener valores numéricos significativos. Para enviar los datos a la nube, se utilizó la plataforma ThingSpeak de MATLAB, que presentó desafíos debido a la cantidad de información requerida y la velocidad de lectura. Se implementaron dos canales privados con 8 campos cada uno para enviar datos a la nube, y los datos se agruparon en vectores para ser enviados como un único dato a la plataforma. La instrumentación de los sensores se realizó cada 125ms, proporcionando lecturas confiables de los pacientes. En la etapa de análisis de datos, se extrajeron los datos en formato de texto desde ThingSpeak y se procesaron en Microsoft Excel para obtener un formato legible y conveniente para el desarrollo del algoritmo de la red neuronal. El diseño de la red neuronal se implementó en MATLAB con una arquitectura 6-10-10-10-3, con funciones de activación tansig, logsig y purelin en las capas correspondientes. El aprendizaje supervisado se llevó a cabo con un algoritmo de retropropagación, ajustando los pesos y sesgos para reducir el error hasta alcanzar la efectividad deseada en la detección de caídas, bradicardia y taquicardia. La efectividad de la red neuronal se evaluó utilizando diferentes porcentajes del lote total de datos, obteniendo una efectividad del 94.93\% con el 70\% de los datos totales. Para futuros trabajos, se sugiere aumentar el tamaño del lote de datos y considerar la implementación de la red neuronal en un microcontrolador con las ecuaciones de salida. Además, se destaca la importancia de garantizar la privacidad y seguridad de los datos médicos de los adultos mayores.  


CONCLUSIONES

En conclusión, el dispositivo IoT para geriatría desarrollado ofrece una solución efectiva para la detección temprana de problemas de salud en adultos mayores, lo que puede contribuir significativamente a mejorar la atención médica y evitar accidentes fatales. La combinación de sensores biomédicos, un microcontrolador ESP32 y una red neuronal entrenada mediante retropropagación permite monitorear y detectar condiciones críticas como caídas, bradicardia y taquicardia de manera eficiente y precisa. Con un adecuado manejo de los datos y un diseño bien establecido, este tipo de tecnología tiene el potencial de ofrecer una atención médica personalizada y mejorar la calidad de vida de los adultos mayores.
Pérez Lara Axel Giovanni, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE REDES PROGRAMABLES UTILIZANDO MININET


ANáLISIS DE REDES PROGRAMABLES UTILIZANDO MININET

Pérez Lara Axel Giovanni, Instituto Tecnológico Superior de Irapuato. Ponce Cardoso Maria Fatima Berenice, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Las redes definidas por software (SDN) presentan un nuevo enfoque en el que las redes usan controladores que están basados en software y/o interfaces de programación para que este sea capaz de controlar el tráfico dentro de la red. Este nuevo enfoque renueva las redes tradicionales que usaban dispositivos de hardware dedicados (como son los enrutadores y conmutadores) para controlar el tráfico de la red.   En el Tecnológico Nacional de México dentro del Instituto Tecnológico Superior de Irapuato, desafortunadamente no se cuenta con el equipo especializado para la enseñanza práctica de esta tecnología por lo que el tema únicamente se enseña de manera teórica. Dicha situación ha dado pie a que se busquen alternativas que permitan a los estudiantes aprender mediante la experiencia al practicar con estas redes y así lograr un aprendizaje significativo. Ante este panorama, se aprovecha esta área de oportunidad para estudiar el emulador Mininet y experimentar con topologías SDN para analizar sus ventajas como herramienta de enseñanza-aprendizaje.  



METODOLOGÍA

Este proyecto fue dividido en dos etapas, la primera enfocada al despliegue del entorno de práctica basado en mininet y la segunda orientada al desarrollo y estudio de los escenarios de red SDN.   Descarga e instalación de herramientas y recursos adicionales. Para comenzar la instalación se deben descargar los recursos desde internet.  Para ello, se accede al sitio oficial de Mininet para descargar la imagen adecuada según las especificaciones del equipo en el que se va a instalar. De igual manera se accede al sitio oficial de VirtualBox y se descarga el archivo de instalación, se ejecuta este último archivo y se siguen los pasos de instalación hasta tener el programa ya instalado. A continuación, en la carpeta de Mininet, se da clic sobre el archivo de tipo Open Virtualization Format. Abrirá una ventana en VirtualBox para configurar las preferencias del servicio. Una vez finalizadas las configuraciones, se da clic en aceptar y se tendrá lista la máquina virtual, pero debe tenerse en cuenta que no se dispone de un entorno gráfico instalado, por ello, se debe instalar siguiendo estos pasos: Se inicia la máquina virtual y se accede con las credenciales predeterminadas (mininet para ambos casos, login y contraseña). Se actualiza el sistema usando los comandos upgrade y update. Una vez actualizado, se ejecuta el comando para instalar el entorno gráfico Gnome. Ahora, se tiene el entorno gráfico instalado.   Desarrollo de prácticas Se establece que los escenarios de red se diseñen y configuren considerando dos niveles en sus topologías para lograr un aprendizaje de manera incremental: •           Topologías de nivel básico •           Topologías de nivel avanzado   Nivel básico: Una red se considera de este nivel porque maneja comandos básicos que permiten familiarizarse con la interfaz del Mininet y las herramientas utilizadas, además, la red que se crea dispone de un controlador, pero no configurado, es decir, los flujos de la red se configuran de manera manual. Nivel Avanzado: Una red de nivel avanzado implica hacer uso de un controlador configurado, dicha configuración es realizada por medio de código en Python.   De manera general, los pasos son: Primero, se crea la topología desde la terminal de Mininet usando el comando: $ sudo mn --topo single,3 --mac --switch ovsk --controller remote Una vez que esté creada, se accede al archivo de Python of_tutorial.py para configurar el controlador. El archivo de texto contiene el código que define la función del controlador; por default, el controlador funciona como hub, es decir, los paquetes se envían desde el origen y son repetidos por el hub a todos los dispositivos que estén conectados. Si se desea modificar la función del controlador, este archivo es el que debe editarse. Una vez editado, se cierra el archivo y se vuelve a la terminal de mininet. En la primera carpeta de Pox se ejecuta el comando para iniciar el controlador. Finalmente se verifica el funcionamiento de los hosts, abriendo las terminales de los mismos y ejecutando los comandos tcdump y ping según sea el caso. También es posible comprobar el flujo de los paquetes con la herramienta Wireshark, para esto, se ejecuta sudo Wireshark & en la terminal de mininet y se comprueba la solicitud y respuesta de los hosts.


CONCLUSIONES

Se destaca la importancia de las redes definidas por software (SDN) debido a su eficiencia en la creación y administración de redes, sobre todo porque permite gestionarlas de manera más simple y eficiente debido a que evita la programación manual e individual de cada elemento en la topología, en lugar de ello, se puede valer de un controlador para realizar todo de forma automatizada.  De igual manera, se resaltan los conocimientos adquiridos a lo largo del periodo de realización del proyecto. Además de reafirmar los conocimientos en redes de computadoras, creación de topologías básicas y personalizadas e incluso en el funcionamiento de los componentes de una red (individual y conjuntamente), se adquirieron conocimientos propios de las redes definidas por software, tales como la creación de topologías a través de comandos, programación de controladores, visualización de tráfico de red e, incluso, reglas del lenguaje de programación que se utiliza en el controlador (Python). En conclusión, se lograron observar las aplicaciones y ventajas de las SDN, así como probar la capacidad al realizar prácticas básicas y complejas, desglosar posibles puntos de mejora, identificar y resolver problemas hasta el punto de diseñar, crear y configurar topologías personalizadas. Tanto los resultados de las prácticas como del proyecto final resultaron satisfactorios y se obtuvieron de acuerdo con lo esperado, tal cual se constató a lo largo del presente documento, lo que permite catalogar el proyecto general como exitoso.
Pérez Lara Fatima Vianey, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Mtro. Fernando José Martínez López, Instituto Tecnológico Superior del Sur de Guanajuato

DESARROLLO DE UNA APLICACIóN MóVIL PARA EL CARPOOLING: UNA SOLUCIóN DE TRANSPORTE COMPARTIDO PARA ESTUDIANTES UNIVERSITARIOS


DESARROLLO DE UNA APLICACIóN MóVIL PARA EL CARPOOLING: UNA SOLUCIóN DE TRANSPORTE COMPARTIDO PARA ESTUDIANTES UNIVERSITARIOS

Navarro Sosa César Antonio, Instituto Tecnológico Superior del Sur de Guanajuato. Pérez Avalos Gabriela Monserrat, Instituto Tecnológico Superior del Sur de Guanajuato. Pérez Lara Fatima Vianey, Instituto Tecnológico Superior del Sur de Guanajuato. Sanabria Melecio José Ángel, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtro. Fernando José Martínez López, Instituto Tecnológico Superior del Sur de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los estudiantes universitarios enfrentan problemas con el transporte público debido a su ineficiencia, lo cual se convierte en un obstáculo en términos de tiempo, disponibilidad, costo e inseguridad. Para resolver esto, se propuso crear una aplicación móvil llamada RideSchool, una solución de carpooling seguro entre estudiantes de una misma institución.



METODOLOGÍA

Se eligieron tecnologías como React Native, Google Firebase, y Google Maps, y se optó por utilizar componentes de Paper siguiendo las pautas de Google Material Design. Para el prototipado, se usó Miro, y para el control de versiones, git y GitHub, aprovechando las herramientas y ventajas que ofrecen. El proyecto también incluyó una fase de onboarding diseñada para mejorar la experiencia de usuario desde el primer uso, utilizando la inteligencia artificial Midjourney para generar imágenes. Se implementó autenticación y registro a través de Google Firebase, asegurando la persistencia de la información de la sesión. La aplicación permite solicitar y atender rides, integrando funcionalidades y servicios de Google Maps como puntos de encuentro, búsqueda dinámica de direcciones, y geolocalización. Además, se diseñó una pantalla para visualizar rides solicitados, incorporando opciones para cuotas y comentarios. Se hizo una solicitud por escrito para una prueba piloto en la comunidad estudiantil, con el fin de evaluar la aplicación en un entorno real y recopilar datos de uso, buscando eventualmente expandirse a más instituciones universitarias.


CONCLUSIONES

En conclusión, el desarrollo de RideSchool marca un avance significativo en la asistencia a los estudiantes en el transporte, aún quedan componentes por desarrollar, pero la experiencia ha fortalecido habilidades técnicas y blandas del equipo. La aplicación promete ser una herramienta útil en la vida cotidiana de los estudiantes.
Pérez Loera Ma.del Refugio, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

DESARROLLO DE TECNOLOGíA LEAN SEIS SIGMA, MEDIANTE LA METODOLOGíA DMAIC


DESARROLLO DE TECNOLOGíA LEAN SEIS SIGMA, MEDIANTE LA METODOLOGíA DMAIC

Pérez Loera Ma.del Refugio, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Desarrollo de Tecnología Lean Seis Sigma mediante la Metodología DMAIC Asesor: Dr. Adán Valles Chávez, Instituto Tecnológico de Ciudad Juárez   Alumna: Ma. Del Refugio Pérez Loera, Instituto Tecnológico de Ciudad Juárez Ciudad Juárez Chihuahua, México            junio del 2023.    PLANTEAMIENTO DEL PROBLEMA  Se llevará a cabo un proceso de elaboración de aviones de papel. A Demanda de un cliente (ficticio), el cual señala características y necesidades específicas para su elaboración, ya que estos deberán realizarse con la máxima calidad posible. Los aviones deben cumplir también con las especificaciones correspondientes, para obtener el ancho de ala, que el cliente requiere, para lo cual se tomará en cuenta la tolerancia en la dimensión de Alas de 60 +/- 2 mm (sugerida por cliente).



METODOLOGÍA

                                  METODOLOGIA Se utilizaron 10 hojas de máquina, para la elaboración de 40 aviones, cuya medición, especificación (tolerancias 60 +/- 2mm) y dobleces, fueron aplicados en cada uno de ellos. Estos fueron elaborados, medidos y doblados, con el mayor cuidado, ya que sus dimensiones podrían alterarse al no llevarse a cabo correctamente; en seguida las dimensiones serían registradas en Minitab, para llevar a cabo la comparación, el análisis y verificación, de sus medidas, mediante las herramientas Lean Seis Sigma DMAIC. (Histogramas, Hojas De Verificación, Gráficos De Pareto, Diagramas De Causa-Efecto, Diagramas de Dispersión, Gráficos De Control, Varianzas, Correlación R/R, entre otros) Posteriormente se implantaron las acciones correctivas necesarias y se establece el Control Estadístico del Proceso, para su optimización.


CONCLUSIONES

                               CONCLUSIONES Como resultado de la presente investigación, se obtuvieron los resultados esperados, aunque existieron discrepancias y variaciones en el desarrollo de la elaboración de los aviones de papel; se logró identificar las causas. al mismo tiempo, se logró aprender, identificar y manejar las herramientas lean, así como comprender el objetivo de la Metodología Lean Seis Sigma aplicada en el Desarrollo de un proceso de elaboración
Pérez López Marlene, Universidad de Sonora
Asesor: Dr. Miguel Abud Archila, Instituto Tecnológico de Tuxtla Gutiérrez

ENCAPSULACIóN DE JUGO DE NARANJA EN PERLAS DE ALGINATO DE SODIO Y SU APLICACIóN EN YOGUR NATURAL


ENCAPSULACIóN DE JUGO DE NARANJA EN PERLAS DE ALGINATO DE SODIO Y SU APLICACIóN EN YOGUR NATURAL

Pérez López Marlene, Universidad de Sonora. Asesor: Dr. Miguel Abud Archila, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

El ácido ascórbico, también conocido como vitamina C, es una molécula esencial para la salud humana debido a su acción antioxidante y su papel en el mantenimiento del sistema inmunológico. (Castillo, 2019) En México, la producción y consumo de naranjas han sido históricamente significativos, convirtiendo al país en uno de los principales productores de esta fruta a nivel mundial. A pesar de ello, se enfrentan desafíos relacionados con el desperdicio de naranjas no comercializadas o con bajos estándares de calidad. Una problemática adicional es la pérdida gradual de ácido ascórbico en las naranjas durante su almacenamiento y transporte, lo que puede afectar negativamente su valor nutricional y calidad para el consumo. (Murillo, et al., 2023) Con base en este contexto, surge la necesidad de encontrar soluciones prácticas y eficientes que permitan aprovechar al máximo las naranjas no comercializadas y al mismo tiempo, preservar su contenido de ácido ascórbico. Lo anterior puede lograrse mediante el desarrollo de estrategias innovadoras, como la encapsulación del jugo de naranja en perlas de alginato de sodio, siendo así posible mejorar la estabilidad del ácido ascórbico y aplicarlo en productos alimenticios, como el yogur natural, para enriquecer su contenido nutricional.



METODOLOGÍA

Encapsulación de jugo de naranja Para la elaboración del encapsulamiento se utilizó el jugo de naranja recién extraído y filtrado, el cual fue sometido a calentamiento (110°C) con el fin de concentrar el jugo hasta que el volumen final, este se redujo a una tercera parte del volumen inicial. Las perlas se obtuvieron mediante la gelificación iónica, modificando el pH del jugo de naranja a 5. Se utilizó un diseño factorial, en el cual se utilizaron diferentes concentraciones de alginato de sodio con el fin de monitorear el mayor rendimiento de encapsulación (1%, 1.5% y 2%), el cual fue previamente disuelto en el jugo antes mencionado. Por otra parte, se elaboró una disolución cloruro de calcio al 5%. Una vez obtenidas ambas soluciones (alginato de sodio y cloruro de calcio), se procedió a verter gotas de la solución de alginato y jugo en la solución de cloruro de calcio. Las cápsulas formadas se separaron, se enjuagaron con agua destilada y almacenaron en recipientes de polipropileno de 10 mL con tapa estériles en refrigeración a 4 °C. Cuantificación de ácido ascórbico Tras culminar la obtención de las perlas, se cuantificó el ácido ascórbico, para dicho proceso se midieron 5 g de la muestra y se diluyeron agregando 25 mL de agua destilada, consecuentemente se añadió 1 mL de solución de fenolftaleína como indicador y se procedió a titular con hidróxido de sodio 0.1 N hasta presenciar un color rosado que persistió 20 segundos. Mediante el volumen de titulación se calculó la concentración de ácido ascórbico en la muestra, y el procedimiento se repitió dos veces. Este método nos proporcionó información valiosa sobre el contenido de ácido ascórbico en la muestra de perlas de jugo de naranja analizadas. Preparación de yogur Se preparó una solución de leche al 12% de sólidos mediante la mezcla de leche en polvo con agua. Los tubos de ensayo y el material a utilizar se esterilizaron en la autoclave. En un área estéril, se preparó un cultivo iniciador con microorganismos en polvo y agua estéril, el cual se dejó reposar por 2 horas para posteriormente someterlo a refrigeración. Cada tubo de ensayo, que contenía una mezcla de leche al 12%, se inoculó con el cultivo iniciador y se incubó hasta obtener una consistencia coagulada para finalmente ser refrigerados. Para preparar el yogur, se utilizó leche con 6% de leche en polvo y 7% de sacarosa. La mezcla se calentó y agitó constantemente hasta alcanzar una temperatura de 85°C y se mantuvo a dicha temperatura durante 20 minutos. Posteriormente, la mezcla se procedió a enfriar a 42°C y se añadió el contenido de los tubos de ensayo inoculados, se mantuvo en agitación durante 10 minutos. Las perlas de extracto de naranja se colocaron en recipientes con tapa y se añadió yogurt en una proporción de 2:10 (perlas: yogurt, p:p). Los recipientes se incubaron a 45°C hasta obtener un pH de 4.5, indicando el punto de coagulado. Finalmente, se refrigeraron para detener la reacción.


CONCLUSIONES

Mediante el proceso de encapsulación del jugo de naranja utilizando alginato de sodio, se logró obtener perlas con distintas concentraciones de ácido ascórbico: 0.97 g/L para el 1% de alginato de sodio, 0.70 g/L para el 1.5%, y 0.73 g/L para el 2%. Se observó que la concentración de alginato de calcio al 1% mostró el mayor rendimiento en la encapsulación, con una mayor concentración de vitamina C en las perlas en comparación con las otras concentraciones evaluadas. Este resultado resalta la importancia de la concentración de alginato de sodio en el proceso de encapsulación. La técnica de encapsulación con alginato de sodio ofrece una prometedora aplicación en la industria alimentaria, permitiendo la incorporación de ácido ascórbico en productos como el yogur natural, protegiéndolo de factores ambientales oxidantes. Estos hallazgos sugieren un gran potencial para utilizar las perlas encapsuladas de jugo de naranja en alimentos funcionales y enriquecidos, con beneficios notables para la salud. Además, esta tecnología puede contribuir a reducir el desperdicio de naranjas no comercializadas, añadiendo valor a los productos derivados de esta fruta. Es fundamental continuar investigando para optimizar y comprender plenamente los aspectos cinéticos y de liberación del ácido ascórbico en las perlas encapsuladas durante el almacenamiento a largo plazo. Un enfoque constante en la investigación de técnicas de encapsulación avanzadas nos permitirá desarrollar alimentos más estables y nutritivos, mejorando así la calidad de vida de los consumidores y promoviendo una alimentación saludable.
Perez Lucio Christian Adrian, Instituto Politécnico Nacional
Asesor: Dra. Macaria Hernández Chávez, Instituto Politécnico Nacional

VISUALIZACION 3D DE LOS RIÑONES DEL SER HUMANO EN HOLOLENS 2


VISUALIZACION 3D DE LOS RIÑONES DEL SER HUMANO EN HOLOLENS 2

Perez Lucio Christian Adrian, Instituto Politécnico Nacional. Asesor: Dra. Macaria Hernández Chávez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dra. Macaria Hernández Chávez, Unidad Profesional Interdisciplinaria de Ingería Campus Hidalgo (UPIIH) Estudiante: Perez Lucio Christian Adrian, Unidad Profesional Interdisciplinaria de Ingeniería y Ciencias Sociales y Administrativas (UPIICSA) PLANTEAMIENTO DEL PROBLEMA La educación en medicina es un aspecto fundamental para formar profesionales de la salud altamente capacitados y brindar una atención médica de calidad. Sin embargo, la comprensión profunda de la anatomía humana y la complejidad de los órganos sigue siendo un desafío para muchos estudiantes y profesionales en formación. La utilización de tecnologías innovadoras en el campo de la educación médica ha demostrado ser una herramienta prometedora para mejorar la enseñanza y el aprendizaje. En este contexto, los HoloLens 2, una plataforma de realidad mixta desarrollada por Microsoft, emergen como una solución potencialmente revolucionaria para mejorar la educación en medicina. Estos dispositivos permiten la creación y visualización de modelos 3D interactivos y precisos de órganos y estructuras anatómicas, brindando a los estudiantes y profesionales una experiencia de aprendizaje más inmersiva y detallada. Microsoft(s.f.) Sin embargo, a pesar del potencial evidente de los HoloLens 2 en el ámbito educativo de la medicina, existen interrogantes que deben abordarse para evaluar su impacto y beneficios. Es necesario investigar cómo la implementación de modelos 3D en los HoloLens 2 afecta la retención del conocimiento, la comprensión de conceptos anatómicos y la preparación para situaciones clínicas reales. Microsoft(s.f.) Por lo tanto, el objetivo de este proyecto es evaluar cómo los HoloLens 2 pueden optimizar la educación en medicina mediante modelos 3D de órganos, analizando su efectividad como herramienta de enseñanza, su impacto en el proceso de aprendizaje y su potencial para mejorar la preparación de futuros profesionales de la salud.



METODOLOGÍA

METODOLOGIA Yo opte por utilizar la metodología Ágil, la cual sigue los siguientes pasos. Definición de Requisitos Iniciales: En la fase inicial del proyecto, se investigó y se colaboró con una doctora para obtener ayuda con los modelos de los riñones. Se identificaron las funcionalidades clave para la visualización en 3D de los riñones y se estableció una visión clara del aplicativo. Prototipo Inicial: Se desarrolló un prototipo inicial del aplicativo, enfocado en la visualización básica de un riñón en 3D utilizando los HoloLens 2. Se creó un prototipo de baja fidelidad a través del sitio web Miro. Retroalimentación y Mejoras: A partir de la retroalimentación obtenida del prototipo inicial, se realizaron mejoras y ajustes en el diseño y funcionalidades. Los médicos destacaron la importancia de la visualización con el modelo. Iteraciones de Prototipado: Se continuaron desarrollando iteraciones de prototipos, cada una con un nivel más avanzado de funcionalidades. Se agregaron características de interacción más detalladas, como rotación, zoom y visualización del órgano en los lentes.   Desarrollo Incremental: A medida que avanzaba el proceso de prototipado se vio más detallado el órgano, los doctores checaron el órgano del cual se escaneo y se virtualizo para poder ocupar para el proyecto. Validación Médica: En cada iteración, los especialistas médicos validaron el aplicativo y proporcionaron comentarios sobre la precisión de la visualización. Se realizaron ajustes para garantizar una representación precisa de la anatomía renal. Pruebas y Ajustes Finales: A medida que el aplicativo se acercaba a la versión final, se realizaron pruebas exhaustivas para detectar posibles errores o problemas de rendimiento. Se realizaron ajustes finales para optimizar el funcionamiento general. Entrega y Retroalimentación Continua: Una vez que el aplicativo alcanzó un nivel de funcionalidades adecuado, se entregó al médico el cual checaría el detalle.


CONCLUSIONES

CONCLUSIONES Durante mi estancia en Delfín, adquirí valiosos conocimientos en el campo del renderizado y escaneo 3D, así como en el desarrollo de aplicativos para realidad mixta y virtual. Durante este tiempo, pude apreciar la creciente importancia de la Realidad Mixta en el futuro de la medicina, especialmente en su aplicación para la asistencia en cirugías. Mi enfoque se centra en mejorar la educación en el campo de la medicina mediante el uso de la Realidad Mixta. Mi objetivo es desarrollar aplicativos que permitan una visualización más avanzada y detallada de los órganos en los HoloLens, y que, a su vez, incluyan la incorporación de más órganos y funcionalidades relevantes para la educación médica. La Realidad Mixta ofrece un potencial excepcional para mejorar la formación y capacitación médica, brindando a estudiantes y profesionales de la salud una experiencia inmersiva y enriquecedora para el estudio de la anatomía y el funcionamiento de los órganos humanos. A través de mi trabajo, espero contribuir al avance de la medicina y la educación médica, llevando la visualización y comprensión de los órganos a un nivel más avanzado y accesible para todos los interesados en este campo. Estoy emocionado por la oportunidad de seguir desarrollando y mejorando aplicativos de Realidad Mixta para la educación médica, y así contribuir al progreso de la medicina y el bienestar de las personas en general.
Pérez Martínez Amneri Sofia, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Javier García Gutiérrez, Universidad Autónoma del Estado de México

DISEñO DE UNA HERRAMIENTA DE LOCALIZACIóN DE DEMANDA PARA SERVICIOS ESPECIALIZADOS DE TRANSPORTACIóN DE CARGA PERECEDERA


DISEñO DE UNA HERRAMIENTA DE LOCALIZACIóN DE DEMANDA PARA SERVICIOS ESPECIALIZADOS DE TRANSPORTACIóN DE CARGA PERECEDERA

Pérez Martínez Amneri Sofia, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Javier García Gutiérrez, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Tras un análisis de la demanda perecedera se visualizó que los productos perecederos de origen local eran transportados a otras partes del país, mientras que los que eran producidos en otros lugares se distribuían aquí, generando así gastos mayores tanto para los distribuidores como a los productores y compradores. Por lo que se pretende diseñar una herramienta que colabore al cumplimientos del objetivo planteado. Objetivo general: Satisfacer las necesidades agroindustriales de industrias y centrales de abastos con la optimización de la representación dinámica del modelo de transporte de carga perecedera.



METODOLOGÍA

La presente generación de conocimiento fue realizada siguiendo un método deductivo mediante un desarrollo documental que permite conocer a grandes rasgos el impacto que tienen las plataformas digitales de transporte en la actualidad. Para realizar el análisis de datos, así como su recolección se utilizaron bases de datos académicas internacionales como Science direct, Scielo, Mendeley y otras, que contribuyeron a la búsqueda de la información requerida. Junto con las diversas palabras clave obtuvimos diferentes resultados y 30 referencias que ayudaron a realizar el artículo de difusión presentando diversas metodologías de optimización, los antecedentes y por supuesto algunas aplicaciones que hay hasta el día de hoy en el mercado digital, donde nos muestran una forma diferente de transportar las diferentes cargas pesadas por carretera, un gran ejemplo serían los didi y uber, ya que al implementarlos nos permiten tener transporte rápido, seguro y accesible a la hora de generar ganancias.


CONCLUSIONES

Tras un análisis profundo pude percatarme de que la existencia de estas plataformas tiene un gran impacto hoy en día, pues ya son implementadas en algunos otros países de potencia mundial, teniendo como resultado ganancias más grandes y menos perdidas hablando de producto. Si me preguntan al realizar un modelo de optimización DFE podemos obtener de resultados la demanda del consumidor, los costos de transporte y como afectan los tiempos de transportación a la hora de distribuir las mercancías, así podemos darnos cuenta de que realmente es una herramienta a la cual las empresas deben aportarle ya que trae consigo grandes beneficios y por qué no también grandes aportaciones tanto regional, estatal o mundialmente.
Perez Mendoza Paloma Yunuhen, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro

LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO


LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO

Corte Maldonado Andrea, Instituto Tecnológico de Puebla. Cortés López Mariana Estefanía, Instituto Tecnológico de Tuxtla Gutiérrez. de la Cruz Rodriguez Paloma Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Hernández Hernández Verónica Vanessa, Universidad Autónoma de Occidente. Perez Mendoza Paloma Yunuhen, Instituto Tecnológico Superior de Uruapan. Pulido Diaz Maritza, Instituto Tecnológico Superior de Uruapan. Rodríguez Lujan Yamileth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En México existen más de 5 millones de personas que se dedican al trabajo agrícola, según el censo de INEGI 2020, sin embargo, según el Gobierno de México, somos el séptimo país exportador de productos agrícolas al resto del mundo lo que nos genera la siguiente pregunta ¿Qué alimentos quedan para nuestras comunidades? Como lo sabemos cada estado de la republica cuenta con sus terrenos en donde cultivan algunos frutos que son originarios de las regiones y que con ayuda de la experiencia y los cuidados es bien sabido que se han podido generar productos de excelente calidad pero realmente el futuro de esos productos en su mayoría es terminar en manos y mesas de familias extranjeras y aquí en México la calidad siempre es colocada en tiendas o supermercados con un costo elevado y que no siempre está al alcance de todas las familias. Es por esta razón que se encuentra con el problema de que las comunidades productoras terminan consumiendo el producto que sobra o el producto que posee algún defecto lo cual no siempre garantiza una alimentación sana y de calidad por esta razón se debe encontrar una manera de garantizar un producto de calidad a las primeras comunidades de atención prioritaria, para que así todos consumamos un producto de excelente calidad, mismo como el que se exporta o el que se distribuye en los supermercados más reconocidos del país y por ello hacemos de referencia el primer momento de la cadena de suministros en la industria alimentaria.



METODOLOGÍA

Considerando que ésta es una investigación en su mayoría documental está centrada en la cadena de suministro de productos perecederos en la industria alimentaria mexicana, con un enfoque en la inocuidad y seguridad alimentaria. Se analizan y proponen mejoras a las normativas generales y específicas, particularmente la Norma Oficial Mexicana NOM-251-SSA1-2009 e ISO 22000, que aborda la higiene y calidad de los alimentos, bebidas y suplementos alimenticios. Dada la creciente población y la evolución global, es fundamental garantizar la seguridad y salud de los alimentos para el consumo humano. En México, la Secretaría de Salud a través de la Comisión Federal para la Protección contra Riesgos Sanitarios (COFEPRIS) y la Dirección General de Epidemiología (DGE) son las instituciones encargadas de monitorear y reportar la incidencia de enfermedades transmitidas por alimentos por lo que se pide la intervención puntual de los diferentes órdenes de gobierno en el ámbito de su incumbencia para generar la normativa necesaria que garantice alimentos de calidad.  El mercado agrícola en México es amplio y tiene un gran potencial para competir a nivel nacional e internacional, sin embargo, se detectan limitaciones en la propia industria local en todos sus ámbitos ya que no existe garantía para un consumo local inmediato y el mejor producto se considera calidad de exportación, se cuenta con poca información sobre empresas con certificaciones de normas y sistemas de gestión de calidad y de manera general quienes se dedican a este ramo ya que no es suficiente la información que proporciona el INEGI. La propuesta se orienta a incentivar y apoyar a las empresas que aún no cuentan con regulaciones, animándolas a acercarse a las autoridades correspondientes para mejorar la calidad de sus productos y garantizar su inocuidad. La prevalencia de enfermedades transmitidas por alimentos, como la salmonela y la E. coli, representa un desafío para la salud pública, y se necesita un seguimiento continuo a través de sistemas de vigilancia sanitaria. Se enfatiza la importancia de evaluar las de higiene en todas las etapas del proceso de producción, desde la selección de materias primas, almacenamiento, hasta la distribución, considerando la reciente pandemia vivida por COVID SARS-CoV 19. Una de las pretensiones es hacer evidente que el uso de la cadena en frio está alejado de una realidad económica para la mayoría de los productores y se debe tomar estrategia para la adecuación de transporte de menor tamaño en zonas serranas como la planta procesadora de alimentos de San Joaquín, así como la consideración de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje.


CONCLUSIONES

La cadena de suministro de productos perecederos en la industria alimentaria mexicana es fundamental para asegurar la inocuidad de los alimentos garantizando productos de calidad, la investigación ofrece una visión integral de la situación actual y propone acciones para mejorar la calidad y seguridad alimentaria, garantizando un consumo de calidad en México. Se propone una lista de verificación general para evaluar el cumplimiento de los estándares de calidad en la industria alimentaria. Establecer programas de capacitación certificada para garantizar el cumplimiento de estándares de calidad y normativo de manera local con la intervención de las instituciones como Universidades Públicas y privadas, así como del TecNM. Se plantea el uso de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje donde dejamos propuestas amigables al medio ambiente en base a la NOM-002-SSA1-1993. Se realizó un ejemplo de análisis de ruta con plataformas de la CST del INEGI y software libre para facilitar el análisis de costos y planteamiento de rutas para productores de menos poder económico. Esta investigación multidisciplinaria permite tener nuevos enfoques sobre la problemática de atención prioritaria atendiendo los objetivos de la agenda 2030 hambre cero, fin de la pobreza, salud y bienestar desde la perspectiva de la cadena de suministro de la industria alimentaría de los productos perecederos que lo limitamos a frutas y verduras en general en nuestro país. Refrendamos el compromiso con las causas sociales por lo que esta investigación hace una invitación a continuar con la participación activa de las diferentes instituciones públicas y privadas de Educación Superior para propuesta de las normativas necesarias que permitan garantizar “La soberanía alimentaria participando activamente en los temas legislativos en esta área".
Perez Mosco Cesar Uriel, Instituto Politécnico Nacional
Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California

MOVE&LEARN: UN VIDEOJUEGO ADAPTATIVO PARA APOYAR LAS HABILIDADES COGNITIVO-MOTRICES DE PERSONAS CON TRASTORNOS DEL NEURODESARROLLO


MOVE&LEARN: UN VIDEOJUEGO ADAPTATIVO PARA APOYAR LAS HABILIDADES COGNITIVO-MOTRICES DE PERSONAS CON TRASTORNOS DEL NEURODESARROLLO

Perez Mosco Cesar Uriel, Instituto Politécnico Nacional. Salazar Pérez Ángel Emiliano, Instituto Politécnico Nacional. Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El término “trastornos del neurodesarrollo” (NDD, Neurodevelopmental Disorders, por sus siglas en inglés) hace referencia al grupo de alteraciones o problemas que interfieren en la adecuada maduración y funcionamiento y que se presentan desde el nacimiento o, con mayor frecuencia, en la primera infancia. Las alteraciones de neurodesarrollo implican dificultades en el desarrollo y funcionamiento del cerebro, que no siempre se muestran en lesiones estructurales; algunas hipótesis sugieren una probable deficiencia en la maduración de las fibras que alteran la conectividad y, por ende, la adecuada integración en la comunicación neuronal. Frecuentemente, dichas alteraciones pueden expresarse en desfases motrices, de lenguaje, de aprendizaje o conductuales, así como en la interacción social. Para combatir el desbalance en el desarrollo motriz provocado por los NDD, las personas con estos trastornos deben acudir a terapias tradicionales a largo plazo que resultan no ser tan efectivas. Estudios sugieren que el uso de videojuegos serios propicia la mejoría de resultados de manera significativa en comparación con los programas de terapia física convencionales. En particular, el videojuego Move&Learn, es un videojuego basado en movimiento (exergame en inglés) que se diseñó para apoyar a las personas con NDD en sus habilidades cognitivas y visuales-motrices. Sin embargo, cada persona con NDD tiene diferente nivel de dominio en sus habilidades, por lo que es importante que el videojuego Move&Learn se adapte a las habilidades de cada jugador. He ahí la importancia de realizar un estudio sobre la comparación de las versiones de Move&Learn (adaptativa y no adaptativa), pues permitirá avanzar en el proceso de pruebas del videojuego en niños y adolescentes con NDD.



METODOLOGÍA

Para el desarrollo de este proyecto se utilizó la metodología Design Thinking, la cual es una metodología centrada en el usuario, lo que permite utilizarla para abordar problemas complejos y desarrollar soluciones innovadoras. Esta metodología se basa en el pensamiento creativo, la colaboración y la iteración continua, está comprendida de cinco etapas: Empatizar, Definir, Idear, Prototipar y Evaluar. El proyecto se centró en las etapas de Prototipar y Evaluar, donde se realizaron correcciones en código, y se hicieron modificaciones en las interfaces del videojuego Move&Learn con el objetivo de mejorar la visibilidad de los elementos en pantalla y proveer de una mejor experiencia al usuario. En la etapa de Evaluar, se realizó un experimento que permitió obtener retroalimentación sobre la diferencia que existe entre el uso de versiones (Adaptativa y No adaptativa) dentro de Move&Learn para visualizar las diferencias en tiempo, precisión y experiencia de juego de los participantes en ambas versiones con el objetivo de realizar correcciones a futuro que permitan mejorar la jugabilidad de Move&Learn en todos los ámbitos.


CONCLUSIONES

En esta estancia de investigación se logró realizar el experimento de evaluación con dieciséis estudiantes universitarios. Una vez terminado el experimento, es posible mencionar que los tiempos y precisión arrojados en los minijuegos mostraron que el uso de la versión adaptativa de Move&Learn no sólo plasma cambios positivos en estos rubros (aumento de precisión y disminución de tiempos contra la versión no adaptativa), sino que también impacta en la percepción a futuro que los usuarios tienen con Move&Learn, siendo este último un aspecto importante pues se trata de un videojuego diseñado para apoyar terapias cognitivo motrices de personas con NDD. De acuerdo con los cuestionarios de experiencia de juego y de comparación de versiones a la mayoría de los participantes les gustó más la versión adaptativa debido a que el videojuego modificó la dificultad y/o la velocidad según la interacción del usuario con los minijuegos en términos de rendimiento, propiciando así un sentimiento positivo hacia dicha versión. También opinaron que Space Rain fue el mini juego que más les gustó porque es más dinámico y divertido. Por otra parte, el minijuego que menos gustó fue Space Draw, debido a que la dinámica no fue tan atractiva y porque hubo retos que fueron muy difíciles de alcanzar, los cuales provocaron tensión en los participantes.
Perez Mujica Carlos Herbey, Instituto Tecnológico de Acapulco
Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.


GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.

López Hernández Eloy, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Barrales Eunice, Benemérita Universidad Autónoma de Puebla. Martinez Eulogio David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Perez Mujica Carlos Herbey, Instituto Tecnológico de Acapulco. Asesor: Prfnal. Deyarine Pedraza Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

El procesamiento de Datos integrado al Modelo CIM en motores eléctricos desarrolla un trabajo muy importante para el desarrollo de las medianas industrias, la función principal de este modelo es prevenir con anticipación una posible falla o daño. Esta investigación tuvo como objetivo principal la gestión del mantenimiento integrado al modelo CIM con inteligencia artificial para la optimización del equipamiento postcosecha en el Atlántico.



METODOLOGÍA

En cuanto a la metodología utilizamos una metodología mixta. Esta metodología cuenta con un diseño experimental que se utiliza para obtener mediciones de variables que sirven para establecer un comportamiento, corroborar o descartar alguna idea puesta en mente. Para esta parte se tomaron en cuenta 2 factores internos: la temperatura y vibración. Para diseñar este modelo se creó un programa en el lenguaje de Python que se complementa con la lectura de una Base de Datos con diferentes registros para comenzar a entrenar la red neuronal que será la base principal de identificación de los motores a tratar. Para el enfoque cuantitativo, se creó una Base de Datos que tuvo como base el diseño de un Modelo Entidad Relación que está conformado por 6 tablas: admins, captura_motor, datos_tecnico, datos_usuario, empresas e info_motor. Durante el diseño del frontend, para facilitar la interacción directa de los usuarios se creó un sitio que esta conformado por 7 vistas: index (pagina principal), inicio_de_sesión, menú_usuario, alta_empresas, alta_motores, alta_usuarios y dashboard. Inicialmente para comenzar con las pruebas se crearon 3 usuarios: administrador_general, técnico y cliente. Para mostrar de forma grafica la síntesis del enfoque de la formación que el SENA comparte con sus aprendices, se utilizó un logotipo que pretende ser un elemento motivador sobre la formación profesional de los futuros aprendices dentro del medio social que engloba la búsqueda permanente de nuevos horizontes y caminos, enfocándolos hacia el futuro de iniciativa e innovación. Este logo está formado por la silueta de un motor con las iniciales de las letras M e I mayúsculas que en conjunto significan el nombre de la empresa Motors Insight. Conforme a los colores se trabajó el fondo de color verde oliva de código hexadecimal #39A900 que se asocia con la naturaleza del medio ambiente la cual refleja y transmite una sensación de calma, tranquilidad. Para el contorno manejamos el color blanco que está asociado con la seriedad y la transparencia, las cuales complementándose transmiten confianza. Para el backend se realizó un programa ejecutable que se cargaría al sistema de la Raspberry que tiene como funcionamiento realizar la lectura de ID del motor que será monitoreado, enviando a la Base de Datos en el servidor de MySQL Para la última etapa se creó un formulario de apoyo al usuario en el que se le permita la elección del modelo de motor a inspeccionar. Una vez completado el formulario en automático se le mostrará un dashboard en donde se podrá visualizar con ayuda de una gráfica circular el estado actual de la temperatura y vibración del motor que se inspecciona, en esta parte se desarrolló la metodología cualitativa por medio de una clasificación que consiste en 3 tipos de estados identificados con un color especifico.


CONCLUSIONES

Se concluyo con el funcionamiento del sistema que nos va a permitir obtener los datos necesarios para realizar el trabajo de análisis y almacenamiento de datos que se obtendrán de los sensores de temperatura y vibración. Una vez realizado el análisis comparativo entre el grupo amplio de muestra de resultados, se le permite al sistema desarrollado, realizar una selección del estado actual del motor, para el entrenamiento de la red neuronal de IA, se requiere de una BD con la información que permita esta aprenda, sobre los resultados arrojados por las pruebas realizadas en diferentes situaciones del motor. Al ser un proyecto en desarrollo, se esperan mejoras para la parte de diseño del prototipo e impresión en 3D, para realizar las pruebas necesarias y corregir posibles errores.
Pérez Padilla Maria Mercedes, Instituto Tecnológico de Morelia
Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia

PRACTICA DE LA SOLDADURA SMAG Y GMAW


PRACTICA DE LA SOLDADURA SMAG Y GMAW

Ayala Pérez Rosa Elia, Instituto Tecnológico de Morelia. García Cruz Brenda, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernández Salinas Gerardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Martínez González Aradei, Instituto Tecnológico de Morelia. Pérez Padilla Maria Mercedes, Instituto Tecnológico de Morelia. Asesor: M.C. Nereyda Alcantar Mondragón, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La soldadura es un proceso fundamental en la fabricación y construcción de estructuras de acero utilizadas en diversos sectores industriales, como la construcción, la industria automotriz, la fabricación de maquinaria pesada, entre otras. Dos de los métodos de soldadura más comunes y ampliamente utilizados son la Soldadura por Arco de Metal con Gas (GMAW) y la Soldadura por Arco de Metal Protegido (SMAW). El proceso de soldadura GMAW, también conocido como soldadura MIG (Metal Inert Gas), utiliza un arco eléctrico entre un electrodo continuo de alambre y la pieza de trabajo, mientras que un gas inerte protege la soldadura del contacto con el aire. Por otro lado, la soldadura SMAW, también conocida como soldadura con electrodo revestido o soldadura al arco, emplea un electrodo recubierto que proporciona el metal fundido y crea un gas protector. El objetivo de esta práctica fue proporcionar una evaluación comparativa exhaustiva entre la soldadura GMAW y la soldadura SMAW, basada en teoría y prácticas para determinar cuál de los dos métodos es más adecuado para aplicaciones específicas en la industria de la construcción y fabricación de estructuras de acero. Una vez practicado los dos tipos de soldadura, podremos tener claro las diferencias y similitudes entre GMAW y SMAW, se podrán tomar decisiones informadas para mejorar la calidad y eficiencia de las soldaduras en el futuro.



METODOLOGÍA

GMAW Para este tipo de soldadura se utiliza un alambre sólido (hilo-electrodo) , la composición química del alambre debe ser muy similar a la de la placa donde se va a soldar, una de las diferencias que se percataron con el SMAW es que en este se forma una pequeña escoria en el cordón, más sin embargo en el de GMAW no sucede esto, por el gas protector, el gas base que se utiliza es argón (Ar), y en este proceso se pueden agregar a parte de este gas otros diferentes, la principal función del gas de protección es servir de barrera para el aire atmosférico, y tener un acabado de cordón sin poros y sobre todo muy estético.  Este proceso consiste en una fuente de energía que tiene generalmente una salida de voltaje constante regulable entre 15 y 50 voltios, una torcha, el recipiente fuente de gas y el alimentador de alambre, la cual es usada en conjunto con un sistema alimentador de alambre con velocidad regulable, que va desde 1 a 20 metros por minuto. Ahora bien, funciona de la siguiente manera; Un generador proporciona una potencia eléctrica que crea un arco eléctrico entre el hilo-electrodo (metal de aporte) y la pieza que se va a soldar, provocando un calor de gran intensidad. Esto permite la fusión de las piezas metálicas que se van a unir y del metal de aporte. A parte, maneja tres diferentes modos de transferencia, cada uno trabaja con diferente presión y voltaje. Globular En esta transferencia el diámetro de las gotas aumenta siendo iguales o hasta mayores que el diámetro del alambre este tipo de transferencia ocurre en la zona de transición cuando los niveles de amperaje y voltaje se encuentran entre el punto de cortocircuito y spray ocasionando en la mayoría de los casos un alto nivel de inestabilidad no es utilizado en la mayoría de las aplicaciones, la fase globular se genera en una corriente entre 200 o 250 amperios   Corto Circuito Esta transferencia se genera cuando el alambre toca la placaahí se genera el cortocircuito y ahí se comienza a desprender el material, el corto circuito es el modo de transferencia que menor calor aporta presenta, se genera entre 150 y 200 amperios   Spray Esta transferencia se genera en altos niveles de amperaje, se utiliza principalmente en superficies horizontales y planas, al utilizar voltajes altos se obtienen cordones de soldadura gruesos, este proceso presenta un arco estable y libre de salpicaduras. SMAW La soldadura SMAW es un proceso en el cual la fusión del metal se produce debido al calor generado por un arco eléctrico que se crea entre el extremo de un electrodo y el metal base al que se va a unir. El material de aportación, es decir, el que se obtiene del cambio sólido a líquido del electrodo se da en forma de gotas pequeñas. Equipo El equipo necesario para realizar una soldadura SMAW consta de cinco elementos: Fuente de energía Pinza porta electrodos Electrodo revestido Conexión a masa Cables de soldeo Aplicaciones La SMAW es la soldadura por arco más utilizada debido a que es aplicable a una diversidad de materiales y a que es requerida en industrias de sectores diferentes. Acerca de los materiales, la SMAW es útil para unir aceros (al carbono, altamente inoxidables y de baja aleación), fundiciones y metales no férreos (aluminio, cobre, níquel y sus aleaciones).  La SMAW puede utilizarse con corriente alterna o continua. La elección de una u otra depende del electrodo elegido, de la fuente de corriente disponible y del material base. Sobre los sectores industriales, la soldadura por arco con electrodo revestido tiene aplicación en todos aquellos en los que se involucre la construcción de calderas, esferas de almacenamiento, gasoductos, oleoductos, puentes, recipientes a presión, refinerías y tanques.


CONCLUSIONES

GMAW. Después de haber empleado distinto parámetros operativos, mezclas de gases, técnicas  de soldeo y modos de transferencia de metal de aporte, se pudo corroborar la gran versatilidad del proceso para ser empleado en una gran gama de materiales y espesores.  Lo anterior permite generar un ahorro significativo  en tiempos de manufactura y por ende en costos de fabricación SMAW. Con el uso de distintos tipos de electrodo en distintas posiciones de soldeo, se pudo entender que la habilidad de soldar es crítica para la correcta ejecución del proceso y asegurar la sanidad de las uniones realizadas. A pesar de ser un proceso manual, de un relativo bajo rendimiento y que no es automatizable, es ampliamente usado porque, con soldadores certificados, permite realizar uniones en sitios de trabajo incomodos e  inhóspitos debido a la sencillez del equipo y consumibles empleados  
Perez Perez Luis Gilberto, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas

PERCEPCIóN DE LA SEGURIDAD LABORAL EN LA INDUSTRIA PETROQUíMICA


PERCEPCIóN DE LA SEGURIDAD LABORAL EN LA INDUSTRIA PETROQUíMICA

Perez Perez Luis Gilberto, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Un aspecto importante que influye en el desempeño y la satisfacción de los trabajadores en la industria petroquímica es la percepción de la seguridad laboral. La seguridad laboral se refiere al conjunto de condiciones y medidas que protegen la salud y la integridad física de los empleados frente a los riesgos inherentes a su actividad. La percepción de la seguridad laboral, por su parte, es el grado en que los trabajadores creen que su entorno de trabajo es seguro y que cuentan con los recursos y el apoyo necesarios para prevenir y afrontar posibles accidentes o incidentes. La percepción de la seguridad laboral afecta de diversas maneras a los trabajadores y a la organización. Por un lado, una percepción positiva de la seguridad laboral puede aumentar la motivación, el compromiso, la confianza y la lealtad de los empleados, así como reducir el estrés, el absentismo, la rotación y las intenciones de abandono . Por otro lado, una percepción negativa de la seguridad laboral puede generar ansiedad, miedo, desconfianza, insatisfacción, alienación y resistencia al cambio, así como incrementar el riesgo de sufrir accidentes o enfermedades ocupacionales . Por lo tanto, es fundamental que las empresas petroquímicas se esfuercen por mejorar la percepción de la seguridad laboral de sus trabajadores, mediante la implementación de políticas, programas, prácticas y procedimientos que garanticen un ambiente de trabajo seguro, saludable y participativo. Algunas acciones que pueden contribuir a este objetivo son: realizar evaluaciones periódicas de los riesgos laborales y establecer planes de prevención y control; proporcionar equipos de protección personal adecuados y mantenerlos en buen estado; capacitar y sensibilizar a los trabajadores sobre las normas y protocolos de seguridad; fomentar la comunicación, la colaboración y el feedback entre los diferentes niveles jerárquicos; reconocer y recompensar el cumplimiento de las medidas de seguridad; e involucrar a los trabajadores en la identificación y solución de problemas relacionados con la seguridad.



METODOLOGÍA

El método utilizada fue el cuantitativo, de forma analítica, descriptivo e inferencial - Se realizó una encuesta a 50 trabajadores de algunas empresas petroquímicas, que abarcó aspectos como el nivel de satisfacción con las medidas de prevención de riesgos, la frecuencia y gravedad de los accidentes laborales, la confianza en los equipos y materiales, y la capacitación y formación recibida en materia de seguridad. - Se aplicó un análisis estadístico descriptivo e inferencial a los datos recogidos. Se calcularon medidas de tendencia central, dispersión y correlación, así como pruebas de hipótesis para contrastar las diferencias entre grupos según variables sociodemográficas y laborales.  


CONCLUSIONES

La industria petroquímica es una de las más importantes y complejas del mundo, pero también una de las más expuestas a riesgos laborales. Por ello, es fundamental conocer la percepción que tienen los trabajadores sobre la seguridad en su entorno de trabajo, así como los factores que influyen en ella. En este estudio, se realizó una encuesta a una muestra representativa de empleados de diferentes empresas del sector, con el objetivo de evaluar su nivel de satisfacción con la información, capacitación y equipo proporcionados por sus empleadores para garantizar su seguridad. Los resultados obtenidos fueron diversos, pero se pueden destacar algunos hallazgos principales. El 40% de los encuestados estuvo de acuerdo con que la información, capacitación y equipo proporcionados eran buenos y de calidad, lo que indica un alto grado de confianza y compromiso con la seguridad. Por otro lado, el 25% estuvo totalmente en desacuerdo con lo anterior, lo que revela una situación de insatisfacción y desconfianza, que puede afectar negativamente al desempeño y al bienestar de los trabajadores. El restante 35% se mostró neutral, lo que sugiere una actitud indiferente o ambivalente hacia la seguridad. Estos datos reflejan la heterogeneidad y complejidad de la percepción de la seguridad laboral en la industria petroquímica, y la necesidad de implementar acciones específicas para mejorarla. Se recomienda realizar estudios más profundos para identificar las causas y consecuencias de las distintas percepciones, así como las mejores prácticas y estrategias para fomentar una cultura de seguridad en el sector. Además, se hace énfasis en la responsabilidad y compromiso de los empleadores para proporcionar a sus trabajadores las condiciones óptimas de seguridad, así como para atender sus demandas y sugerencias al respecto. La seguridad laboral no solo es un derecho de los trabajadores, sino también un factor clave para el desarrollo y competitividad de la industria petroquímica. Para mejorar la seguridad laboral, los empleadores pueden tomar diversas medidas, tales como: - Realizar evaluaciones periódicas de los riesgos existentes y potenciales en el lugar de trabajo, y adoptar las medidas preventivas y correctivas necesarias. - Proporcionar información clara y actualizada sobre las normas, procedimientos y protocolos de seguridad a todos los trabajadores, así como asegurar su cumplimiento. - Capacitar a los trabajadores sobre los aspectos técnicos, operativos y humanos relacionados con la seguridad, así como sobre las medidas de emergencia y primeros auxilios. - Dotar a los trabajadores del equipo adecuado y suficiente para protegerse de los riesgos laborales, así como verificar su funcionamiento y mantenimiento. - Fomentar la participación y comunicación de los trabajadores en materia de seguridad, así como atender sus consultas, quejas y sugerencias al respecto. - Promover una cultura de seguridad basada en el respeto, la confianza, el compromiso y la responsabilidad compartida entre todos los actores involucrados en la actividad petroquímica.
Pérez Quiroz Andrea, Instituto Tecnológico de Morelia
Asesor: Dra. Ingrid Mayanin Rodriguez Buenfil, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

FORMULACIóN DE UNA BEBIDA ISOTóNICA ENRIQUECIDA CON POLIFENOLES DE LA MIEL EN POLVO DE FLORACIóN DZIDZILCHé DE LA PENíNSULA DE YUCATáN


FORMULACIóN DE UNA BEBIDA ISOTóNICA ENRIQUECIDA CON POLIFENOLES DE LA MIEL EN POLVO DE FLORACIóN DZIDZILCHé DE LA PENíNSULA DE YUCATáN

Pérez Quiroz Andrea, Instituto Tecnológico de Morelia. Asesor: Dra. Ingrid Mayanin Rodriguez Buenfil, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La miel de abeja (Apis mellifera) es conocida por contener componentes que contribuyen a su potencial terapéutico beneficioso. Su riqueza en polifenoles, antioxidantes, enzimas, vitaminas y minerales le confiere propiedades antimicrobianas, antiinflamatorias y antioxidantes, lo que la convierte en una opción natural para la protección contra el daño celular y la prevención de enfermedades crónicas. La generación de productos a partir de esta miel de abeja aportará un valor agregado a la misma. La microencapsulación, es una alternativa viable para preservar los beneficios de los compuestos bioactivos en la miel. Esta técnica protege los compuestos de interés de la miel con ayuda de agentes encapsulantes de factores externos que pueden degradarlos, alargando su vida útil y manteniendo sus propiedades bioactivas. El producto o polvo obtenido puede ser utilizado como un ingrediente para la formulación de un alimento o bebida enriquecido con polifenoles, vitaminas y/o minerales, entre otros. La miel de floración Dizidzilché del municipio de Acanceh, Yucatán, contiene compuestos de interés, entre ellos los polifenoles, metabolitos de interés por sus propiedades bioactivas como capacidad antioxidante, antinflamatoria, antidiabética, por nombrar algunas. Esta miel al secarse por aspersión se utilizará como ingrediente para el diseño de una bebida isotónica enriquecida con polifenoles, aportando también capacidad antioxidante, además de la reposición de electrolitos, ofreciendo una combinación de sabor agradable y aprovechando los beneficios nutricionales de la miel, que contribuirá positivamente a la salud y el bienestar de los consumidores.



METODOLOGÍA

El secado de la miel se llevó a cabo de acuerdo Aragüez, Y., et al., 2015 con algunas modificaciones, con un equipo de secado por aspersión MOBILE MINORTMBALANCES (MODELO VE-1000) bajo dos condiciones. La primer condición de secado consistió en aplicar una temperatura de entrada de 110°C, un 3% de goma Guar y una proporción de agente encapsulante (maltodextrina, goma Guar):miel de 2:1 p/p, para la obtención de una miel en polvo con un alto contenido de azucares reductores directos, mientras que para la obtención de una miel en polvo rica en polifenoles consistió en aplicar una temperatura de entrada de 90°C, un 5% de goma Guar y una proporción de agente encapsulante (maltodextrina, goma Guar):miel de 3:1 p/p. Se formularon dos bebidas isotónicas; un control, utilizando azúcar (sacarosa) y otra enriquecida con un 5% (p/v) de miel en polvo rica en azúcares reductores directos y un mismo porcentaje de la miel en polvo rica en polifenoles, en total la bebida isotónica enriquecida con los polifenoles contenía el 10 % de miel en polvo. Formulación de bebida isotónica con miel ACEK-DZ: Para bebida isotónica control: 100ml de agua, 5.6 ml de jugo de limón, 0.6g de sal y 0.6 g de azúcar (sacarosa). Para bebida enriquecida con polifenoles: 100ml de agua, 5.6ml de jugo de limón 0.6g de sal, 5g de miel en polvo (rica en azúcares reductores directos) y 5g de miel en polvo (rica en polifenoles). Se evaluaron las siguientes propiedades fisicoquímicas en la miel en polvo y la bebida isotónica enriquecida: Determinación de capacidad antioxidante (CAx) por el método DPPH. (miel en polvo y bebida enriquecida) (Oney-Montalvo, et al., 2018).  Determinación de contenido total de polifenoles (CTP) por el método Folin-ciocalteu. (miel en polvo y bebida enriquecida) (Singleton et al., 1999) Determinación de porcentaje de Humedad. (miel en polvo) (Chel-Guerrero, et al., 2021) Determinación de azúcares reductores directos (ARD) por el método del ácido dinitrosalicílico (DNS). (miel en polvo y bebida enriquecida) (Miller, G.L 1959) Determinación de pH. (bebida enriquecida) (Fresno, et al., 2014)


CONCLUSIONES

La bebida isotónica enriquecida con miel en polvo presentó un CTP de 7.45±0.16 mg EAG/L de bebida isotónica, con una capacidad antioxidante de 11.70±1.36 %Inhibición, mostrando un mayor contenido de CTP y CAx al compararse con la bebida control, que presentó un CTP de 3.82±0.06 mg EAG/L de bebida isotónica y una CAx de 6.7±0.87%Inhibición, representando un aumento del 95% para CTP y 74.6 % para CAx. Adicionalmente se evaluó una marca comercial (Suerox) la cual obtuvo un CTP de 4.47±0.10 mg EAG/L de bebida isotónica, con una CAx de 6.89±0.91%Inhibición. De acuerdo a los resultados obtenidos el uso de la miel en polvo enriquece la bebida isotónica con polifenoles, aportando una mayor capacidad antioxidante. La adición de la miel en polvo en la formulación de bebidas isotónicas no solo contribuye a mejorar el perfil nutricional, sino que también promueve el consumo de este valioso ingrediente, conocido por sus compuestos bioactivos beneficiosos para la salud. La aceptación sensorial de la bebida isotónica enriquecida sugiere que esta opción puede ser bien recibida por los consumidores, brindándoles una alternativa atractiva y saludable.
Pérez Reyes Omar Alejandro, Universidad Politécnica de Victoria
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

PREDICCIóN DE ACCIONES E íNDICES EN LA BOLSA MEXICANA DE VALORES CON UN COMPORTAMIENTO CAóTICO MEDIANTE COMPUTACIóN CUáNTICA Y REDES NEURONALES LSTM


PREDICCIóN DE ACCIONES E íNDICES EN LA BOLSA MEXICANA DE VALORES CON UN COMPORTAMIENTO CAóTICO MEDIANTE COMPUTACIóN CUáNTICA Y REDES NEURONALES LSTM

Hernández Mendoza Emmanuel, Instituto Politécnico Nacional. Morales Ramos Bernardo, Universidad Autónoma de Baja California. Pérez Reyes Omar Alejandro, Universidad Politécnica de Victoria. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El mercado de valores de la Bolsa Mexicana de Valores denota volatilidad y complejiadad, lo que presenta desafíos significativos para la predicción de acciones e índices. Se propone el uso de redes neuronales LSTM y tecnología cuántica para abordar este problema. Sin embargo, se trata de un conjunto de datos caótico, lo que agrega complejidad y aumenta la importancia de encontrar enfoques óptimos.  En este contexto, el presente proyecto se alinea directamente con el ODS número 9, al catalizar la innovación tecnológica en el sector financiero y alentar el fortalecimiento de las infraestructuras y servicios financieros. El objetivo es obtener mejores predicciones de acciones e índices en la Bolsa Mexicana de Valores mediante el uso de tecnología cuántica y redes neuronales LSTM.



METODOLOGÍA

En el contexto de la metodología, se considera el plan de trabajo del programa interinstitucional. Se describe un proceso paralelo para formalizar el aprendizaje de computación cuántica y redes neuronales. Por una parte la exploración y estudio de la tecnología cuántica, sus principios fundamentales y sus aplicaciones en el procesamiento de datos. Por otro lado, el análisis y comprensión de las redes neuronales desde su forma práctica como matemática, su funcionamiento y su uso. La combinación de estos dos campos ha permitido el desarrollo de una metodología. A grosso modo la construcción de la red LSTM se vió reflejada en los siguientes pasos: Recopilación de datos históricos de acciones e índices de la Bolsa Mexicana de Valores. Implementación de una red neuronal LSTM para la predicción de precios con distintas arquitercturas y cambios en sus hiper parámetros. Modificación en la red neuronal LSTM que le permite realizar predicciones basadas en sus propias predicciones anteriores. Una vez construida la red neuronal se analizó en búsqueda de optimizar su rendimiento acercándose a los valores esperados. Obteniendo el siguiente algoritmo de pos-procesamiento: Calcular los puntos medios de ambos conjuntos de datos (predicción y reales) mediante los máximos y mínimos. Entendiendo los conjuntos de datos como señales, podemos calcular el valor a multiplicar por los datos alpha (α) con las amplitudes de los datos, denominamos la amplitud de los datos reales como a1 y la amplitud de los datos de predicción como a2, por lo tanto: a2 * α = a1; α = a1/a2 Al multiplicar por un número alpha, los datos sufrirán un desfase sobre el punto medio de los datos reales, por lo que se calculará un número beta (β) el cual sumaremos a los datos reales para compensar dicho desfase de los datos. La distancia que hay entre el punto medio multiplicado y el punto medio donde debe estar es de punto_medio * α - punto_medio, beta (β) será igual al resultado de esta operacion. Por último, observamos que muchas de las predicciones eran inversamente proporcionales a los datos reales, siguiendo la tendencia de los mismos, pero en sentido opuesto. Por lo que para solventar esto, debemos hacer un cálculo de proporcionalidad. Determinaremos  tomando dos puntos cualquiera de ambos conjuntos de datos y calcularemos la pendiente que hay entre ambos puntos, si el sentido de dicha pendiente coincide, significa que las predicciones son proporcionales a los datos reales, y si no coinciden, significa que son inversamente proporcionales, en este caso, el conjunto de datos de predicción se multiplica por -1 para que todos los datos de inviertan, teniendo en cuenta que los datos reales y de predicción están por encima del eje de las X, al multiplicarlos por -1 estos datos terminarán por debajo del eje de las X, y por ende, el punto medio de los datos también estará por debajo del eje de las X. Teniendo esto en cuenta, la distancia que hay entre el punto medio deseado y el multiplicado por -1 será del punto_medio * 2. Al utilizar la red neuronal y predecir datos en base a sus predicciones anteriores se obtienen resultados con errores por encima del 80%. Al emplear el algoritmo propuesto como una técnica de pos-procesamiento, los resultados muestran una notable aproximación, manteniendo errores por debajo del 20% donde los mejores resultados llegan a errores del 3%. Esto resalta cómo la implementación de dicho algoritmo contribuye de manera significativa a la mejora en la predicción y demuestra la efectividad del algoritmo propuesto.


CONCLUSIONES

Sobre el objetivo, se han realizado importantes avances en la predicción de acciones e índices en la Bolsa Mexicana de Valores mediante el uso de tecnología cuántica y redes neuronales LSTM. Encontrando que las predicciones realizadas por la red neuronal pueden ser mejoradas significativamente mediante un algoritmo de ajuste pos-predicción: Calcular los puntos medios de los conjuntos de datos (predicción y reales) para estandarizarlos. Calcular el valor de alpha (α) para igualar las amplitudes de los datos de predicción y reales. Calcular el valor de beta (β) para corregir el desfase causado por la multiplicación por alpha. Realizar un ajuste para asegurar que las predicciones sean proporcionales a los datos reales. Este enfoque no había sido considerado previamente y muestra resultados prometedores para mejorar las predicciones y hacerlas más cercanas a los datos reales. Para seguir desarrollando y mejorando esta metodología, es importante analizar el desempeño en términos de recursos y tiempo utilizados para determinar si una arquitectura más compleja es significativamente óptima o si el algoritmo de ajuste complementa mejor una arquitectura más simple. Además, es relevante revisar el estado del arte sobre propuestas similares y estudiar cómo se han abordado problemas similares de predicción en otros campos para obtener nuevas ideas y enfoques. También, como parte del trabajo futuro, es relevante aplicar la computación cuántica a la red neuronal LSTM. La tecnología cuántica podría ofrecer ventajas significativas en el procesamiento y análisis de grandes volúmenes de datos, lo que podría potenciar el modelo de predicción.
Perez Santamaria Oscar, Universidad Tecnológica de Tecamachalco
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

PROTOTIPO DE SISTEMA INTEGRADO PARA AUTODIAGNóSTICO DE PRUEBAS RáPIDAS DE LABORATORIO (PRESIóN, GLUCOMETRíAS, OXIMETRíAS, CARDIO-PULMONARES, EMBARAZO Y OTRAS) PARA CITAS MéDICAS QUE MEJORE LA ATENCIóN EN PROCESOS DE DIAGNóSTICOS MéDICOS.


PROTOTIPO DE SISTEMA INTEGRADO PARA AUTODIAGNóSTICO DE PRUEBAS RáPIDAS DE LABORATORIO (PRESIóN, GLUCOMETRíAS, OXIMETRíAS, CARDIO-PULMONARES, EMBARAZO Y OTRAS) PARA CITAS MéDICAS QUE MEJORE LA ATENCIóN EN PROCESOS DE DIAGNóSTICOS MéDICOS.

Ayala Fontal Juan Carlos, Unidad Central del Valle del Cauca. Leal Ramos Felipe, Universidad Tecnológica de Tecamachalco. Perez Santamaria Oscar, Universidad Tecnológica de Tecamachalco. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Hoy en día en el mundo existen pocos proyectos y dispositivos que analisen y generen resultados de pruebas de toma de exámenes médicos de forma rápida e integral, por tal motivo es importante pensar en este tipo de proyectos que se puedan diseñar, codificar y construir a partir de partes electrónicas que sean favorables considerando los costos de fabricación y ensamblaje. Un proyecto que aproveche los datos de resultados generados por los dispositivos permite la búsqueda de nuevas alternativas para los pacientes donde se fortalezca la forma como se pueden realizar los exámenes de laboratorio médico de forma rápida para evitar retrasos en los diagnóstico que el especialista en la salud le deba formular al paciente. En otro escenario el paciente llega a los centro de salud sin realizarse las pruebas de laboratorio y esto genera retrasos o inconvenientes al especialista en la salud en cuanto a diagnosticar al paciente.  En el proyecto se estudia, diseña, ensambla y evalúa los dispositivos integrados en el sistema de autodiagnóstico de pruebas rápidas de laboratorio por medio de la utilización de modelos de simulación de circuitos que respondan a ¿Cómo hacer para generar los resultados de exámenes de laboratorio de forma rápida para poder realizar diagnósticos médicos? Para poder dar solución a esta pregunta se ha optado por la utilización de la electrónica considerando que esta cuenta con técnicas avanzadas que pueden dar como resultado una aproximación a los valores esperados en la generación de resultados de pruebas rápidas que sean integradas a un mismo dispositivo.  



METODOLOGÍA

Se trabaho en una metodologia de prototipo evolutivo donde se realizaron las siquientes etapas: Recolección de informacion y componetes electronicos para el refinamiento del equipo Modelado, diseño rápido y simulacion de los componentes electronicos  Construcción del Prototipo Desarrollo, evaluación del prototipo Refinamiento del prototipo Producto de Ingeniería


CONCLUSIONES

Este proyecto aprovecha los datos de resultados generados por los dispositivos  electrónicos contribuyendo a incorporar nuevas alternativas para los pacientes donde se fortalezca la forma como se pueden realizar los exámenes de laboratorio médico de forma rápida para evitar retrasos en los diagnóstico que el especialista en la salud le deba formular al paciente. El proyecto es una guía para construir, ensamblar y utilizar este tipo de nuevos sistemas para el diagnóstico de pruebas de laboratorio que ahorran tiempo y costos por ser un prototipo que se realiza desde la academia.  
Perez Soto Jose Saul, Universidad Tecnologica de León
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.


FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.

Aguirre Mena Federico de Jesus, Universidad Tecnologica de León. Castellanos Luevano Oswaldo, Universidad Tecnologica de León. Cruz Ramirez Oscar Mauricio, Universidad Tecnologica de León. Duarte Hernández Daniel, Universidad Tecnologica de León. Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Perez Soto Jose Saul, Universidad Tecnologica de León. Rodríguez Galaviz Brian Axel, Universidad Tecnologica de León. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proyecto reforzará la interacción con diferentes periféricos y dispositivos, como el módulo de biometría de huella digital, el módulo GPS y el sensor de carga de la batería. También se reforzará el diseño y montaje de un circuito adecuado para conectar y gestionar estos componentes.  



METODOLOGÍA

El objetivo de este proyecto es integrar una serie de sensores en un vehículo eléctrico para mejorar la seguridad y funcionalidad del mismo. Los sensores que se utilizarán son: Sensor de biometría de huella digital: Este sensor se aseguró para autenticar al conductor y permitir el acceso al vehículo. La huella digital del conductor se almacenará en una base de datos y se comparará con la huella digital escaneada para conceder o denegar el acceso. Posicionamiento global GPS: Se implementará un módulo GPS para obtener la ubicación precisa del vehículo. Esto permitirá realizar funciones como seguimiento en tiempo real, registro de trayectos y localización en caso de robo o emergencia. Sensor de estado de carga de batería: Para garantizar la eficiencia y seguridad del vehículo eléctrico, se obtendrá un sensor para medir el nivel de carga de la batería. Esto permitirá al conductor tener una estimación precisa del alcance del vehículo antes de necesitar una recarga. El microcontrolador ATMega328P será el cerebro del sistema, encargado de procesar los datos de los sensores y controlar las diferentes funciones del vehículo. Para lograrlo, se programará el microcontrolador en lenguaje C o algún lenguaje de programación compatible.


CONCLUSIONES

Al finalizar el proyecto, se tendrá un vehículo eléctrico más seguro y funcional, con capacidades avanzadas de autenticación, localización y supervisión del estado de la batería. Esto contribuirá a mejorar la experiencia del usuario y fomentará el uso de vehículos eléctricos como una opción de movilidad más sostenible.
Pérez Urrego Jennifer, Fundación Universitaria del Área Andina
Asesor: Dra. Norma Ramirez Hernandez, Universidad de Guadalajara

DISEñO E IMPLEMENTACIóN DE UN SISTEMA AUTOMáTICO DE REGISTRO DE BIOSEñALES PARA ATENCIóN PRIMARIA EN LAS UMF (UNIDAD MEDICO FAMILIAR)


DISEñO E IMPLEMENTACIóN DE UN SISTEMA AUTOMáTICO DE REGISTRO DE BIOSEñALES PARA ATENCIóN PRIMARIA EN LAS UMF (UNIDAD MEDICO FAMILIAR)

Pérez Urrego Jennifer, Fundación Universitaria del Área Andina. Asesor: Dra. Norma Ramirez Hernandez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Se pretende encontrar biomarcadores a partir de bioseñales y bioimagenes. Para este estudio específico se plantea si la textura de la piel está correlacionada con la frecuencia cardiaca.



METODOLOGÍA

La plataforma MATLAB se utiliza para desarrollar una herramienta de análisis de video para la detección de la frecuencia cardíaca y la textura de la piel como efecto secundario de una mala oxigenación debido a una falla en el proceso de la frecuencia cardiaca. Para clasificar una imagen es necesario contar con un conjunto de características que la definen (descriptores). Los descriptores son el primer paso para encontrar el vínculo entre los píxeles contenidos en una imagen digital y lo que representan. La iluminación ambiental tiene un aporte significativo en la variación de color de la sangre corporal, por lo que la captura de video (cámara web) será en un ambiente cerrado. El proceso consta de dos partes: La primera parte es la captura y preprocesado del video (esto puede ser en tiempo real), descomposición de secuencias y obtención del área de interés (ROI mejillas del rostro), para finalmente el cálculo de la energía de la máscara (diagnóstico de la textura de la piel).


CONCLUSIONES

Los biomarcadores nos permiten realizar mediciones a distancia, el poder procesar imagenes por medio de videos en tiempo real, permitirá hacer consultas de Telemedicina, lo cual agilizará y mejorará la atención de los pacientes.  El biomarcador analizado tiene la característica de que no es invasivo, en este caso, se correlacionó la frecuencia cardiaca, la textura y la calidad de la piel, por medio de imagen. El alcance del estudio puede ser escalable y se considera viable diseñar una aplicación, por medio de la cual se adquieran datos como el peso, estatura, temperatura, presión, frecuencia cardiaca, oximetria, entre otros, de los pacientes y de esta forma, el médico podrá dar un mejor diagnótico y en algunos casos precoz, adelantándose a la complejidad que pueda tener la enfermedad y con esto ahorrar tiempo y recursos. La correcta aplicación de la ingeniería permite mejorar el servicio de salud y la calidad de vida de las personas, promoviendo el cuidado de la salud.  Los biomarcadores deben ser personalizados para una mayor eficacia en el control de la salud de las personas. 
Perfecto Nepomuceno María Guadalupe, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dra. Betsy Suri Ramos Pacheco, Universidad Nacional José María Arguedas

ESTUDIO DE LAS PROPIEDADES FíSICAS, QUíMICAS Y ANáLISIS SENSORIAL DE BIOPELíCULAS COMESTIBLES A BASE DE MUCíLAGO DE NOPAL (OPUNTIA FICUS INDICA), ALMIDóN DE PAPA (SOLANUM TUBEROSUM) Y EXTRACTO DE ZANAHORIA (DAUCUS CAROTA).


ESTUDIO DE LAS PROPIEDADES FíSICAS, QUíMICAS Y ANáLISIS SENSORIAL DE BIOPELíCULAS COMESTIBLES A BASE DE MUCíLAGO DE NOPAL (OPUNTIA FICUS INDICA), ALMIDóN DE PAPA (SOLANUM TUBEROSUM) Y EXTRACTO DE ZANAHORIA (DAUCUS CAROTA).

Perfecto Nepomuceno María Guadalupe, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dra. Betsy Suri Ramos Pacheco, Universidad Nacional José María Arguedas



PLANTEAMIENTO DEL PROBLEMA

Actualmente millones de toneladas de plásticos son empleadas principalmente como envolturas de fruta, carnes y otros tipos de alimentos; existen cifras considerables los cuales demuestran que el 50% de la basura generada son los que guardan y protegen a los alimentos. Estos desechos convencionales no son compostables mucho menos biodegradables por lo que afectan mucho a los ecosistemas deteriorando cada vez más el planeta de una manera brutal. La gravedad que genera este problema es inmenso generando enormes inversiones al momento de intentar remediarlo pero también perjudica la parte social y cultural pues debido al consumo excesivo se van perdiendo diferentes costumbres ya que suelen ser más económicas las formas de conseguir estos productos por ende muchas personas prefieren ahorrar algunos pesos en lugar de contribuir no solo consumiendo productos amigables con el ambiente sino que deteriora el comportamiento sano y la empatía de la gente para con el planeta y quiénes lo habitan. En ese sentido el presente estudio tuvo como objetivo estudiar las propiedades físicas, químicas y análisis sensorial de las biopelículas comestibles elaboradas a base de mucílago de nopal (Opuntia ficus indica), almidón de papa (Solanum tuberosum) y extracto de zanahoria (Daucus carota).



METODOLOGÍA

Se formularon y obtuvieron películas comestibles a base de mucílago de nopal (Opuntia ficus indica), almidón de papa (Solanum tuberosum) y extracto de zanahoria (Daucus carota) para el recubrimiento de frutas. Mediante formulaciones, llevadas a cabo por medio de los productos nativos de la provincia de Andahuaylas, Apurímac Perú, en una mezcla homogénea. La elección del tipo materia suele diferir en la cantidad a utilizar; todo diluido en agua destilada para posteriormente preparar pectina misma que también estará diluida en agua destilada, estas dos soluciones pasan al agitador al igual que el zumo de la zanahoria. Todo esto como parte del método de gelatinización en dónde se ven implicadas la modificación del almidón y pectina en conjunto cada uno con agua destilada y utilizando como plastificante glicerina para posteriormente ser sometido a agitación y temperatura constante. En dónde; las proporciones de plastificante y almidón por cada 100 ml se usaron 2.6 g de almidón y para la pectina 2.58 g para cada 100 ml. Al término se realizó el vaciado en las placas petri (por formulaciones) entraron a la estufa a calor durante 24 horas para posteriormente sacarlas por el método de convección forzada y acomodarlas en el disecador protegidas de la luz y de la humedad que estas puedan absorber. Posterior a esto se pasaron a refrigerar a una temperatura de .07 grados. Las películas fueron evaluadas mediante actividad de agua, color, grupos funcionales y análisis sensorial, los cuales fueron procesados por análisis estadísticos. Al realizar la evaluación de color mediante un equipo colorímetro de mesa CR-5 se observación variaciones muy bajas entre cada una de las muestras, esto se estudió durante 4 semanas. La evaluación de actividad de agua re realizo con un equipo Rotonic HygroPalm en donde las lecturas se realizaron dos veces para corroborar los resultados obtenidos. En este caso se observaron variaciones por el tiempo que estuvieron en conservación, lo que puede decir, entraron en contacto con la luz, el aire generando humedad. El periodo de tiempo se utilizó para evaluar el comportamiento de las películas a medida del paso del tiempo de un lapso de 4 semanas, al exponerlas al ambiente, así como realizar la evaluación sensorial de las películas (sabor, color, olor y textura), esto llevado a cabo por un grupo de estudiantes; En cuanto a las evaluaciones sensoriales, de acuerdo a los datos obtenidos de los involucrados, se puede concluir que el aspecto, el color, olor y la textura de las biopelículas son bastante agradables aunque también dan sugerencias en cuanto al color y al sabor de estas. Finalmente para los grupos funcionales se utilizó un Espectrofotómetro infrarrojo por transformada de Fourier donde se observó que entre formulaciones no tienen variaciones considerables mismas que se pudieron observar en las curvaturas obtenidas.


CONCLUSIONES

Durante la investigación de este proyecto, se obtuvo conocimiento abarcando los puntos de las biopelículas y las consideraciones para la obtención de las mismas, de esta forma también se puede concluir que estos métodos van por buen camino aunque necesiten aún bastante enfoque para su mejoramiento. En un futuro no muy lejano se espera que este nuevo producto se utilice como empaques de diversos tipos y bien se realicen líneas de producción en masa en las industrias. El llevar a cabo el proyecto no quiere decir que se quede con lo obtenido hasta el momento, se buscará explotar este conocimiento con el fin de mejorar, aplicar y beneficiar la producción y el consumo responsable.
Pernett Alvarez Guarli Jose, Universitaria Agustiniana Uniagustiniana
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

TECNOLOGíA DE REALIDAD AUMENTADA EN LA INTERACCIóN CON UN ROBOT SCARA.


TECNOLOGíA DE REALIDAD AUMENTADA EN LA INTERACCIóN CON UN ROBOT SCARA.

Leon Navarrete Carlos Esteban, Universitaria Agustiniana Uniagustiniana. Pernett Alvarez Guarli Jose, Universitaria Agustiniana Uniagustiniana. Sanchez Martinez Nicolás, Universitaria Agustiniana Uniagustiniana. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Particularmente en el contexto de universidades, compañías y para las personas en general, el acceso y mantenimiento de un robot SCARA puede ser costoso y poco accesible. En este sentido, la realidad aumentada surge como una herramienta valiosa para superar estas barreras, se abre la posibilidad de beneficiarse de sus capacidades y funcionalidades sin incurrir en los altos costos asociados a la adquisición y mantenimiento de un robot físico. En este contexto, surge la necesidad de abordar el siguiente problema: ¿Cómo maximizar el potencial de la realidad aumentada en conjunto con un robot SCARA para optimizar la economía de recursos, tiempo y gastos en diversas situaciones cotidianas y profesionales? Este proyecto tiene como objetivo principal explorar las posibilidades de la realidad aumentada combinada con un robot SCARA para identificar y desarrollar soluciones que permitan economizar en recursos y tiempo, al mismo tiempo que se mejora la eficiencia y la precisión en diferentes escenarios de aplicación. Al abordar este problema, se pretende establecer una base sólida para el desarrollo y la implementación efectiva de esta tecnología, potenciando su uso en actividades académicas, empresariales y de la vida diaria.



METODOLOGÍA

Para llevar a cabo esta investigación se hace necesario dividirla en etapas, esto con el fin de tener una estructura clara y organizada y así facilitar la planificación, el seguimiento, la gestión de tareas y además de facilitar la medición de progreso del mismo. Las etapas son: Etapa 1: Diseño y Creación de Interfaces de Control para Robot SCARA mediante Realidad Aumentada Como primer paso es necesario definir los modos de operación y requisitos de Interacción del robot SCARA, para después de esto Identificar los modos de operación necesarios, como la manipulación, navegación, junto con los requisitos de interacción, incluidos gestos, acciones, comandos y feedback para cada modo. Por último establecer criterios para evaluar el éxito de las interfaces, como eficiencia, precisión y facilidad de uso. En el segundo paso se lleva a cabo la investigación de prácticas de diseño de interfaces de realidad aumentada, realizando una revisión exhaustiva de literatura sobre diseño de interfaces de realidad aumentada y su aplicación en control de robots y analizar ejemplos de interfaces de realidad aumentada exitosas y extrapolar lecciones clave para aplicar en el diseño. Como tercer paso tenemos la creación de prototipos de interfaces de control en Unity, en este paso es necesario familiarizarse con las herramientas de diseño en Unity y adquirir el conocimiento necesario para diseñar los prototipos iniciales de interfaces de control para cada modo de operación, siguiendo los requisitos de interacción definidos y integrar elementos de realidad aumentada, como objetos virtuales y feedback visual, en los prototipos. El cuarto paso es de pruebas y ajustes de las interfaces de control, en este se implementaron los prototipos en un entorno de prueba con el robot SCARA simulado o real, se realizaron pruebas con usuarios representativos para evaluar la funcionalidad y usabilidad de las interfaces, se recopilaron comentarios de los usuarios y identificaron áreas de mejora, para realizar los ajustes en los prototipos en función de los resultados de las pruebas y retroalimentación de los usuarios. Etapa 2: Evaluación y Optimización de las Interfaces de Control Como primer paso en esta segunda etapa se realizaron las pruebas de eficiencia y precisión, llevándolo a escenarios de prueba que reflejen situaciones reales de uso para cada modo de operación para por último registrar datos cuantitativos y cualitativos de las pruebas para análisis posterior. Ese paso es de iteración y optimización, aquí se analizaron los resultados de las pruebas y se detectaron posibles problemas de eficiencia, precisión o usabilidad. Luego de esto se realizaron los ajustes y mejoras en las interfaces en función de los resultados y conclusiones obtenidos. Se hizo necesario repetir el ciclo de pruebas y ajustes varias veces hasta alcanzar interfaces de control óptimas. Por último la documentación y conclusiones, en este último paso se documenta detalladamente el proceso de diseño, desarrollo, pruebas y optimización de las interfaces de control, es importante resumir los hallazgos clave, lecciones aprendidas y mejoras implementadas en las interfaces para lograr presentar conclusiones sobre la efectividad de las interfaces de realidad aumentada en el control del robot SCARA y su aplicabilidad en otros contextos.


CONCLUSIONES

En conclusión, la implementación de un robot SCARA mediante realidad aumentada nos brinda una solución más económica y accesible para que los estudiantes puedan familiarizarse con estos robots, lo que podría llegar a eliminar la necesidad de adquirir costosos robots físicos. Además, se pudo evidenciar que la realidad aumentada proporciona una experiencia más inmersiva, permitiendo a los estudiantes interactuar de manera más directa con los robots SCARA en un entorno simulado y controlado. Esta experiencia educativa mejora el aprendizaje al ofrecer una forma práctica y visual de entender los conceptos detrás de los robots SCARA y su funcionamiento. Gracias a la realidad aumentada, es posible simular el robot SCARA, lo que permite a los estudiantes practicar y aprender sin estar expuestos a riesgos inherentes al trabajar con maquinaria real, brindando así un ambiente de aprendizaje más seguro y permitiéndoles cometer errores sin consecuencias graves. En general, el proyecto investigativo basado en Unity y realidad aumentada para simular un robot SCARA demuestra ser una alternativa prometedora y efectiva para la educación en robótica. La combinación de estas tecnologías ofrece beneficios educativos, accesibilidad y seguridad, facilitando que los estudiantes adquieran conocimientos prácticos sobre los robots SCARA y se preparen para enfrentar desafíos futuros en el campo de la automatización industrial y la robótica.
Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Piedra Salgado Fernanda Eliseth, Instituto Tecnológico de Zitácuaro
Asesor: Mg. Dionicio Neira Rodado, Universidad de la Costa

MEDICIóN DEL DESEMPEñO DEL SISTEMA DE EMERGENCIAS MéDICAS CON METODOLOGíAS MULTICRITERIO


MEDICIóN DEL DESEMPEñO DEL SISTEMA DE EMERGENCIAS MéDICAS CON METODOLOGíAS MULTICRITERIO

Garduño Benítez Diego, Instituto Tecnológico de Toluca. Piedra Salgado Fernanda Eliseth, Instituto Tecnológico de Zitácuaro. Asesor: Mg. Dionicio Neira Rodado, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

En Colombia el servicio de emergencias médicas es contratado por el estado, por lo tanto, debe haber una medición transparente del servicio prestado con el fin de poder tomar de mejor manera la decisión de a quien otorgarle la concesión. La decisión sobre el desempeño de los prestadores no puede basarse solo en tiempo de respuesta ya que esto es aleatorio y puede que algunos operadores se vean favorecidos con asignaciones y urgencias cercanas a los mismos. Además, en esta medición deben tenerse en cuenta aspectos como equipamiento (insumos), estado mecánico del vehículo, daños, atención prehospitalaria, diagnósticos, costos, entre otros, formación del personal, solidez financiera, entre otros.



METODOLOGÍA

En la presente investigación se pretende utilizar metodologías multicriterio como AHP - DEMATEL para determinar los criterios más relevantes para medir el desempeño de los proveedores de servicios médicos de emergencia (EMS) de manera transparente e integral. Las herramientas de toma de decisiones multicriterio proporcionan una evaluación completa y objetiva del desempeño de los proveedores de EMS en lugar de depender únicamente del tiempo de respuesta, que puede estar sujeto a fluctuaciones aleatorias. El enfoque propuesto utiliza un híbrido de AHP difuso, DEMATEL positivo y negativo que determinan que los criterios gerenciales son más relevantes en el proceso.


CONCLUSIONES

Al llevar a cabo la implementación de este modelo, se pretende asegurar la calidad y transparencia de los servicios médicos de emergencia y garantizar que la asignación de recursos sea responsable. Los resultados de este estudio demuestran la importancia de utilizar un modelo de evaluación integral para garantizar la calidad de los servicios médicos de emergencia y mejorar el proceso de toma de decisiones de las autoridades estatales.
Piña Armas Roberto Carlos, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN EL PROCESO DE LOS ALMACENES EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN EL PROCESO DE LOS ALMACENES EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU

Piña Armas Roberto Carlos, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Existe un área de oportunidad dentro de los almacenes, en los cuales podemos controlar el material, al personal y con mayor medida los tiempos efectivos de trabajo comenzando por implementar criterios y normativas estableciendo como meta un almacén totalmente nuevo y rediseñado.



METODOLOGÍA

Lean Service es una filosofía y metodología que busca eliminar el desperdicio, mejorar la eficiencia y centrarse en el cliente en la industria de servicios. Al adoptar los principios Lean, las organizaciones pueden lograr una mayor satisfacción del cliente, reducir costos y mejorar su rendimiento general. La metodología DMAIC fue utilizada con un enfoque que busca reducir la variación en los procesos para mejorar la calidad y la eficiencia dentro del área de estudio (almacenes).Esta metodología se utiliza ampliamente en diversas industrias y sectores para abordar problemas complejos y lograr mejoras significativas. Definir (Define): En esta etapa, se identifica el problema o la oportunidad de mejora y se establecen los objetivos del proyecto. También se define el alcance del proyecto y se identifican las partes interesadas y sus necesidades. Medir (Measure): En esta etapa, se recopilan datos relevantes sobre el proceso actual y se establecen métricas clave para evaluar el rendimiento. Se crea un mapa del proceso y se identifican las fuentes de datos necesarias para el análisis. Analizar (Analyze):En esta etapa, se analizan los datos recopilados para identificar las causas raíz de los problemas o las fuentes de variabilidad en el proceso. Mejorar (Improve):En esta etapa, se desarrollan e implementan soluciones para abordar las causas raíz identificadas.  Controlar (Control):En esta última etapa, se establecen controles y sistemas para mantener las mejoras a lo largo del tiempo. 


CONCLUSIONES

En los almacenes es loas cuáles se trabajó, se vio en la necesidad de enfatizar en el control del material y el manejo logístico que se tenían esto con el fin de reducir el hurto de material y mejorar los tiempos de salida matutinos y se desarrollaron los criterios de almacen, auditoriad de seguridad y inventarios ciclicos además de los diagramas pertinentes a los procesos y subprocesos. Antes Los almacenes no tenían una distribución productiva y segura Diseño de un plano en AutoCAD con las dimensiones y distribución del almacén basado en normativa legal aplicable. Existían deficiencias en el sistema de control de inventarios. Después Definición de criterios de almacén. No tenían un control a largo plazo dando origen a incidencias de hurto de material. Formato para realizar auditorías, de seguridad y conteo cíclicos.  
Pineda Feria Héctor Adán, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

PROCESAMIENTO CON ACEITE VEGETAL Y DEGRADACIóN DE UN POLíMERO DE FUENTES RENOVABLES


PROCESAMIENTO CON ACEITE VEGETAL Y DEGRADACIóN DE UN POLíMERO DE FUENTES RENOVABLES

Pineda Feria Héctor Adán, Instituto Tecnológico Superior de Puruándiro. Rodríguez Barreras César Ramón, Universidad Autónoma de Sinaloa. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los polímeros son macromoléculas formadas por la unión de moléculas de menor tamaño denominadas monómeros, existen polímeros de orígen animal, vegetal y mineral, de los cuales los de orígen mineral son más utilizados, esto debido a sus propiedades que se han vuelto algo indispensable en el uso cotidiano del ser humano, pero, como tiene ventajas, tiene también desventajas. Los polímeros de orígen mineral son aquellos con los que se logran elaborar distintos compuestos plásticos que son utilizados a gran escala por lo que llegan a ser un problema muy grave debido a que se fabrican en cantidades industriales y su tiempo de degradación es muy largo, ya que va de 100 a 1000 años, es por esto que se considera que son materiales de descomposición muy lenta, por lo tanto la disposición de estos polímeros provoca un daño al medio ambiente que puede llegar a ser irreparable. Debido a esto se están realizando alternativas para disminuir el consumo y aumentar el reciclaje de polímeros de un solo uso, sin embargo, dentro de la vida del ser humano estos materiales son de suma importancia, por lo que se están tomando acciones para sustituirlos por otros que sean amigables con el medio ambiente utilizando polímeros que sean de orígen vegetal y que sean biodegradables, para disminuir el impacto de este tipo de materiales. Gracias a esta alternativa, en este verano de investigación científica, nos centramos en la elaboración de un proyecto que consiste en la elaboración de muestras hechas con polímeros de orígen natural, las cuales se colocaron en una composta y comprobar que su masa va disminuyendo con el tiempo y que son biodegradables. Dicho experimento se llevó a cabo siguiendo la norma IS/ISO 20200:2004.



METODOLOGÍA

Materia prima de las composiciones empleadas. Acetato butirato de celulosa (CAB): El acetato butirato de celulosa es un material plástico que se deriva de la celulosa, un polímero natural que se encuentra en las plantas. Es el resultado de la reacción química de esterificación de la celulosa con anhídrido acético y anhídrido butírico. Se utiliza en la fabricación de recubrimientos, tintas, adhesivos, lacas, películas, plásticos moldeados y otros productos. Es especialmente útil en aplicaciones donde se requiere una combinación de transparencia, resistencia y capacidad de aceptar pigmentos. Aceite vegetal: Es un aceite comestible que se extrae de las semillas de calabaza (Cucurbita pepo). Estas semillas son ricas en grasas y nutrientes, lo que permite obtener un aceite con ayuda de un extractor especial.  Parámetros de elaboración. Se realizaron diversas placas con una variación en su composición con respecto a su porcentaje de aceite vegetal incorporado, esto con la finalidad de analizar sus propiedades y compararlas entre sí. La variación de porcentajes de aceite de calabaza fue desde el 0%, 5% y 10% en masa de una mezcla neta de 40 gramos por placa de CAB. Las placas se realizaron por medio de termocompresión a distintas presiones, desde 150 psi, 200 psi y 250 psi, cada una durante 2 minutos. Para realizar el ensayo de biodegradación, primero se pesan cada una de las probetas para tener como punto de partida el peso de las mismas. Después cada cierto tiempo se sacan de la composta se enjuagan y se secan para obtener la disminución de la masa de cada una de las probetas. El experimento consiste en almacenar 10 muestras en recipientes individuales según el contenido de aceite. Se pesan con un promedio de 210 gramos cada uno. Luego, se colocan en un horno a 58°C por 24 horas. Después, se vuelven a pesar y se añade agua para compensar cualquier pérdida de peso y restaurar el peso inicial.


CONCLUSIONES

Según los resultados obtenidos, se observa que las muestras de CAB puro presentaron la mayor pérdida de peso, con un promedio de 0.00393 gramos. Las muestras que contenían CAB con un 5% de aceite de semilla de calabaza tuvieron una pérdida de peso menor, con un promedio de 0.00278 gramos, mientras que las muestras que contenían CAB con un 10% de aceite de semilla de calabaza presentaron una pérdida intermedia de peso, con un promedio de 0.0036 gramos. Por lo tanto, se puede concluir que las muestras de CAB puro fueron las que más perdieron peso durante el experimento, mientras que las muestras con CAB y un 5% de aceite de semilla de calabaza mostraron una menor pérdida de peso, y las muestras con CAB y un 10% de aceite de semilla de calabaza tuvieron una pérdida de peso intermedia. Aunque el período de análisis se limitó, estos resultados aún proporcionan una visión importante sobre las diferencias en la pérdida de peso entre las distintas muestras con diferentes porcentajes de aceite de semilla de calabaza. Si se requiere una evaluación más completa en el futuro, sería recomendable realizar un análisis más extenso para obtener resultados más sólidos y representativos.
Ponce Cardoso Maria Fatima Berenice, Instituto Tecnológico Superior de Irapuato
Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE REDES PROGRAMABLES UTILIZANDO MININET


ANáLISIS DE REDES PROGRAMABLES UTILIZANDO MININET

Pérez Lara Axel Giovanni, Instituto Tecnológico Superior de Irapuato. Ponce Cardoso Maria Fatima Berenice, Instituto Tecnológico Superior de Irapuato. Asesor: Mtra. Dennise Ivonne Gallardo Alvarez, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Las redes definidas por software (SDN) presentan un nuevo enfoque en el que las redes usan controladores que están basados en software y/o interfaces de programación para que este sea capaz de controlar el tráfico dentro de la red. Este nuevo enfoque renueva las redes tradicionales que usaban dispositivos de hardware dedicados (como son los enrutadores y conmutadores) para controlar el tráfico de la red.   En el Tecnológico Nacional de México dentro del Instituto Tecnológico Superior de Irapuato, desafortunadamente no se cuenta con el equipo especializado para la enseñanza práctica de esta tecnología por lo que el tema únicamente se enseña de manera teórica. Dicha situación ha dado pie a que se busquen alternativas que permitan a los estudiantes aprender mediante la experiencia al practicar con estas redes y así lograr un aprendizaje significativo. Ante este panorama, se aprovecha esta área de oportunidad para estudiar el emulador Mininet y experimentar con topologías SDN para analizar sus ventajas como herramienta de enseñanza-aprendizaje.  



METODOLOGÍA

Este proyecto fue dividido en dos etapas, la primera enfocada al despliegue del entorno de práctica basado en mininet y la segunda orientada al desarrollo y estudio de los escenarios de red SDN.   Descarga e instalación de herramientas y recursos adicionales. Para comenzar la instalación se deben descargar los recursos desde internet.  Para ello, se accede al sitio oficial de Mininet para descargar la imagen adecuada según las especificaciones del equipo en el que se va a instalar. De igual manera se accede al sitio oficial de VirtualBox y se descarga el archivo de instalación, se ejecuta este último archivo y se siguen los pasos de instalación hasta tener el programa ya instalado. A continuación, en la carpeta de Mininet, se da clic sobre el archivo de tipo Open Virtualization Format. Abrirá una ventana en VirtualBox para configurar las preferencias del servicio. Una vez finalizadas las configuraciones, se da clic en aceptar y se tendrá lista la máquina virtual, pero debe tenerse en cuenta que no se dispone de un entorno gráfico instalado, por ello, se debe instalar siguiendo estos pasos: Se inicia la máquina virtual y se accede con las credenciales predeterminadas (mininet para ambos casos, login y contraseña). Se actualiza el sistema usando los comandos upgrade y update. Una vez actualizado, se ejecuta el comando para instalar el entorno gráfico Gnome. Ahora, se tiene el entorno gráfico instalado.   Desarrollo de prácticas Se establece que los escenarios de red se diseñen y configuren considerando dos niveles en sus topologías para lograr un aprendizaje de manera incremental: •           Topologías de nivel básico •           Topologías de nivel avanzado   Nivel básico: Una red se considera de este nivel porque maneja comandos básicos que permiten familiarizarse con la interfaz del Mininet y las herramientas utilizadas, además, la red que se crea dispone de un controlador, pero no configurado, es decir, los flujos de la red se configuran de manera manual. Nivel Avanzado: Una red de nivel avanzado implica hacer uso de un controlador configurado, dicha configuración es realizada por medio de código en Python.   De manera general, los pasos son: Primero, se crea la topología desde la terminal de Mininet usando el comando: $ sudo mn --topo single,3 --mac --switch ovsk --controller remote Una vez que esté creada, se accede al archivo de Python of_tutorial.py para configurar el controlador. El archivo de texto contiene el código que define la función del controlador; por default, el controlador funciona como hub, es decir, los paquetes se envían desde el origen y son repetidos por el hub a todos los dispositivos que estén conectados. Si se desea modificar la función del controlador, este archivo es el que debe editarse. Una vez editado, se cierra el archivo y se vuelve a la terminal de mininet. En la primera carpeta de Pox se ejecuta el comando para iniciar el controlador. Finalmente se verifica el funcionamiento de los hosts, abriendo las terminales de los mismos y ejecutando los comandos tcdump y ping según sea el caso. También es posible comprobar el flujo de los paquetes con la herramienta Wireshark, para esto, se ejecuta sudo Wireshark & en la terminal de mininet y se comprueba la solicitud y respuesta de los hosts.


CONCLUSIONES

Se destaca la importancia de las redes definidas por software (SDN) debido a su eficiencia en la creación y administración de redes, sobre todo porque permite gestionarlas de manera más simple y eficiente debido a que evita la programación manual e individual de cada elemento en la topología, en lugar de ello, se puede valer de un controlador para realizar todo de forma automatizada.  De igual manera, se resaltan los conocimientos adquiridos a lo largo del periodo de realización del proyecto. Además de reafirmar los conocimientos en redes de computadoras, creación de topologías básicas y personalizadas e incluso en el funcionamiento de los componentes de una red (individual y conjuntamente), se adquirieron conocimientos propios de las redes definidas por software, tales como la creación de topologías a través de comandos, programación de controladores, visualización de tráfico de red e, incluso, reglas del lenguaje de programación que se utiliza en el controlador (Python). En conclusión, se lograron observar las aplicaciones y ventajas de las SDN, así como probar la capacidad al realizar prácticas básicas y complejas, desglosar posibles puntos de mejora, identificar y resolver problemas hasta el punto de diseñar, crear y configurar topologías personalizadas. Tanto los resultados de las prácticas como del proyecto final resultaron satisfactorios y se obtuvieron de acuerdo con lo esperado, tal cual se constató a lo largo del presente documento, lo que permite catalogar el proyecto general como exitoso.
Ponce de León Hernández Frida Naomi, Instituto Tecnológico de Morelia
Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS Y APLICACIóN DE NANOESTRUCTURAS DE FE3O4


SíNTESIS Y APLICACIóN DE NANOESTRUCTURAS DE FE3O4

Ponce de León Hernández Frida Naomi, Instituto Tecnológico de Morelia. Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El agua que se utiliza en la industria textil suele contaminarse con distintos tipos de colorantes, por lo cual no puede reutilizarse debido a que no cumple con las normas que existen actualmente. Por esa razón, con el presente trabajo se busca sintetizar nanoestructuras de Fe3O4 las cuales puedan degradar o absorber cierto porcentaje de colorante del agua y así se cumpla con los estándares establecidos para la reutilización del agua en esa misma industria.



METODOLOGÍA

Primeramente se decidió que agentes estabilizantes se iban a utilizar para la síntesis de las nanoestructuras (Dodecilamina y Oleilamina), para después pasar a los cálculos de la cantidad de material que se ocupaba de cada compuesto.  Posteriormente, se agregaron los materiales en polvo (agentes estabilizantes y FeCl3) con los disolventes correspondientes en un vaso de precipitados junto con un agitador magnético para que todo se mezclara homogeneamente durante una o dos horas. Esta mezcla se pasa a tubos de ensaye los cuales se les aplicó un procedimeinto térmico dentro de un horno durante algunos minutos, hasta que se consiguió un precipitado. Al obtener este, se colocó en unos recipientes para centrifugadora, donde se le hicieron de 4 a 5 lavados para recuperar lo más posible del precipitado. Después de estos lavados, la mezcla se colocó en un vidrio de reloj para poder llevarlo a secado en una mufla durante 2 horas. Al secarse, se obtuvo el polvo el cual es el que se llevó a caracterizar de distintas maneras: 1. Primero fue un análisis de DRX. 2. Observación en el MEB. 3. Estudio de UV-Vis con los colorantes. Las primeras caracterizaciones las realizaron personas calificadas, por lo cual solo se estudiaron los resultados. Para el proceso de UV-Vis, se tuvieron que preparar soluciones con determinada concentración mezclada con colorantes en agua con concentraciones específicas; los colores utilizados fue azul, violeta e índigo.  Finalmente se hizo el análisis de las tres caracterizaciones ya mencionadas.


CONCLUSIONES

1. Se consiguió la composición química esperada en ambos precipitados ya que el procedimiento se realizó de manera correcta. 2. Se consiguieron nanoestructuras en forma de flor con los dos agentes estabilizantes elegidos (Dodecilamina y oleilamina). 3. No hubo degradación o absorción de los colorantes con ninguna de las nanoestructuras, ya que no hubo interacción física o química entre la nanoflor y el colorante por la agregación de las partículas. Esto se puede atribuir a que el Fe no es un buen absorbente en las condiciones que se trabajaron. Por esta razón, se podría investigar si si existe esta degradación en presencia de luz visible o luz UV.
Ponce Quiroz Alexandra Ximena, Universidad César Vallejo
Asesor: Mtro. Gary Christiam Farfán Chilicaus, Universidad César Vallejo

REMOCIóN DE METALES PESADOS EN DRENAJE áCIDO DE MINA MEDIANTE ELECTRóLISIS


REMOCIóN DE METALES PESADOS EN DRENAJE áCIDO DE MINA MEDIANTE ELECTRóLISIS

Ponce Quiroz Alexandra Ximena, Universidad César Vallejo. Pretel Centurión Carol Xiomara, Universidad César Vallejo. Asesor: Mtro. Gary Christiam Farfán Chilicaus, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, la contaminación del agua por drenajes ácidos de mina representa un problema crítico. Este fenómeno tiene un impacto negativo en el medio ambiente y en la salud de las comunidades cercanas. Según Forigua, Fonseca y Vasquez (2017), los drenajes ácidos de mina (DAM) son vertimientos con un pH bajo, altas concentraciones de metales y sulfatos, y se consideran el problema ambiental más importante de la industria minera.  Según CEPAL (2016), una de las naciones más desarrolladas en la región en cuanto a leyes sobre pasivos ambientales mineros y la creación de inventarios, es el Perú. Desde 2006, se han realizado inventarios anuales y, según las últimas cifras del Ministerio de Energía y Minas, hasta el año 2016 se registraron 8.854 pasivos ambientales mineros inventariados.  Por otro lado, según el Ministerio de Energía y Minas (s.f), en Perú, de las 180 minas que funcionan (de grande, mediano y pequeño tamaño), solo unas 25 a 30 han reconocido que tienen un problema de drenaje ácido de mina. A menudo, este es el caso de zonas mineras con mucha historia como Cerro de Pasco, Huancavelica y Ayacucho. En el Perú no hay tratamiento del drenaje ácido, salvo una compañía de minería mediana. Actualmente, el DAM se descarga a cursos de agua naturales o se vierte en lagos o ríos.  Según Wang et al., (2022), la deposición electroquímica es una tecnología de tratamiento limpio que se está desarrollando rápidamente en los últimos años, donde la preparación de buenos materiales para los electrodos es una de las claves para el desarrollo de esta tecnología. La electrólisis es un proceso químico en el que se utiliza corriente eléctrica para producir un cambio en una sustancia. Este cambio puede ser la oxidación o reducción, que implica la pérdida o ganancia de un electrón. La electrólisis se realiza en una celda electrolítica con electrodos positivos y negativos sumergidos en una solución de iones cargados. Sin embargo, según Castañeda, D. y Choton, E. (2018), en un proceso de electrocoagulación es fundamental saber cómo afectan los factores de proceso en la eficiencia de eliminación del contaminante del agua a tratar. Si bien, la electrólisis es una alternativa prometedora para la remoción de metales pesados, tiene algunas limitaciones que deben ser trabajadas para optimizar su rendimiento.  En este sentido, durante el verano de investigación se ejecutará un estudio experimental para adquirir información sobre la influencia de la densidad de corriente, el tiempo, la temperatura y el PH, sobre la remoción de hierro total de drenaje ácido de mina mediante electrólisis. 



METODOLOGÍA

Caracterización del Drenaje Ácido de Mina Las muestras de efluente ácido fueron extraídas de la zona de Hualgayoc siendo las coordenadas 6°55'0" S y 78°55'0" W en formato DMS (grados, minutes, segundos) o -6.91667 y -78.9167 (en grados decimales). Su posición UTM es QN33 y su referencia Joint Operation Graphics es SB17-12. Estas muestras se llevaron al laboratorio químico para su caracterización de pH para lo cual se empleó un Medidor básico S8 Seven2Go (medidor de pH/iones portátiles), así como también el análisis de hierro total (catión férrico y catión ferroso) por el método de espectrofotometría. Obteniéndose como datos de prueba testigo (sin tratamiento) un pH de 3.5 y un contenido de hierro total de 1827 mg/L. Por lo que es un Drenaje Ácido de Mina extremadamente ácido. Circuito Experimental El reactor es una cuba de vidrio de 1L, considerando agitación magnética y soportes para el cátodo y ánodo. Se emplearon como electrodos acero inoxidable 304, la cual es una aleación austenítica de cromo y níquel muy resistente a la corrosión 12x5x0.3 cm y comprenden 02 ánodos y 02 cátodos. Se utilizó una fuente de alimentación Regulable Baku Bk 305d 0 A 30v / 0 A 5. Procedimiento Experimental Inicialmente se establecieron las variables operacionales independientes, siendo estas la densidad de corriente en donde se empleó de 15 y 30 (mA/cm2), con tiempos de 30 y 60 minutos, temperatura de 25 y 40°C así como un pH de 3.5 y 7.5.  Se empleó el método de diseño factorial fraccionado 2k-1 con triplicado en los puntos centrales. Luego del tratamiento del drenaje ácido de mina en donde se consideró los niveles máximos y mínimos de cada variable independiente. Los efluentes resultantes fueron analizados por espectrofotometría el contenido de hierro total; posteriormente se calculó la remoción de hierro considerando la concentración de hierro inicial, según la fórmula a continuación:  %Remoción = ConcentraciónFeInicial -ConcentraciónFeFinal / ConcentraciónFeInicialx100 En el tratamiento estadístico se aplicó el software MINITAB 19.0. Permitió determinar las variables de mayor influencia sobre la remoción de hierro de un drenaje ácido de mina por electrólisis. 


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos sobre los factores que influyen en la eliminación del hierro total de drenaje ácido de mina (DAM) de la zona de Hualgayoc, mediante electrólisis, que es considerada una técnica eficiente y sostenible, tanto desde el punto de vista económico como ambiental. Es emocionante ver cómo la tecnología continúa avanzando y ofreciendo soluciones más eficientes y sostenibles para el tratamiento de aguas residuales.  Se concluye que la densidad de corriente y el PH son factores con gran influencia en la remoción de hierro total a través de la electrólisis. No obstante, el PH tiene una influencia aún mayor que la densidad de corriente en la remoción de hierro total de drenaje ácido de mina mediante electrólisis. En cuanto a los factores tiempo y temperatura, se encontró que su influencia es mínima. Esto se ve evidenciado en el Análisis de Varianza donde el valor F (experimental) tanto de la densidad de corriente como del PH son superiores al valor P (teórico), mientras que para tiempo y temperatura, sucede lo contrario.
Ponce Reyes Andrea Gpe, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN


APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN

López Solís Osvaldo Jesus, Instituto Tecnológico Superior de Uruapan. Morales de Gante Jorman Aldrich, Universidad Politécnica de Tecámac. Ponce Reyes Andrea Gpe, Instituto Tecnológico Superior de Uruapan. Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Rubio Solis Carlos Alberto, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la aplicación surgió a partir de encontrar que hoy en dia en distinguidas tiendas de aplicaciones móviles no existen tantas alternativas para la fomentación del aprendizaje por lo cual partimos de una propuesta inicial la cual fue desarrollar una aplicación de preguntas donde se haga esta fomentación del aprendizaje mediante multiples preguntas de todo tipo de áreas(Matemáticas,Filosofía,Literatura,etc.)Esto nos recordó al famoso juego preguntados, donde tomando como principal dicho juego añadimos que los usuarios tengan que registrarse para poder acceder a la aplicación.



METODOLOGÍA

Jor de Gante, [28/07/23 9:20 P.M.] Para este proyecto notamos que sería necesario la utilización de una metodología donde no se pierda tanto tiempo ya que no contamos con una gran cantidad de este para el desarrollo de nuestra aplicación  por lo cual la Metodología de prototipado resultó la más convenienteya que está se adecuada a nuestras necesidades. Comunicación: La comunicación para esta metodología es sumamente necesaria por lo cual nuestro equipo de trabajo desde el primer dia presentó este apartado por lo cual resultó sencillo poder dividirnos el trabajo además de la solidaridad y el trabajo en equipo resultaron factores beneficiosos para todos. Plan rápido: La aplicación surgió apartir de una idea del profesor donde todos los compañeros ayudamos a reforzar dicha idea y sacamos el proyecto adelante, partiendo de referencias o bases al igual que estudiar el mercado para poder hacer una aplicación que realmente atraiga a futuros usuarios. Modelado diseño rápido: Para el modelado utilizamos imagenes de referencias donde todos ibamos a desarrollar el mismo proyecto pero en cuanto a diseño era a criterio propio por lo cual nos apoyamos de igual forma del software figma para desarrollar los mockups para una vez todos estuvieramos deacuerdo comenzariamos a trabajar con el SDK de Flutter.Este paso resultó el más interesante puesto que cada uno de nosotros dejamos ir nuestra imaginación para los mockups. Construcción del prototipado: Para este paso tuvimos que aprender los fundamentos de flutter , desde su instalación,complementos,actualizaciones,etc. donde resultó un poco mayor el nivel de complejidad puesto que la mayoría no tenía un amplio conocimineto de esta tecnología sin embargo el apoyo de los compañeros fue el principal factor para que todos vallamos de la mano . Desarrollo y entrega: En este apartado el profesor nos dio a conocer distintas  herramientas que en este y en muchos más proyectos nos serán de gran utilidad para la reducción de tiempos,costos,complejidad,etc como lo son complementos de flutter,firebase,etc.Llegando a este punto resultó muy interesante el tema de una base de datos en tiempo real, además de aprender bastante de la tecnología flutter. Con forme avanzamos la aplicación iba tomando forma,estructura y resultó muy atractiva para todos.


CONCLUSIONES

Gracias al trabajo en equipo la autoretroalimentación y enseñanza de el profesor logramos obtener el exito mediante la aplicación de manera ágil y efectiva dando como resultado una aplicación multiplataforma util,atractiva y sobre todo facil de usar de igual forma conseguimos implementar la base de datos en tiempo real donde esta resultó sumamente beneficiosa para el desarrollo del proyecto.
Poom Rosas Lourdes Maria, Instituto Tecnológico de Sonora
Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac

CONSTRUCCIóN DE PLANTAS PILOTO


CONSTRUCCIóN DE PLANTAS PILOTO

Álvarez Montes Ernesto, Instituto Tecnológico de Sonora. Flores Aguilar Daniela Elizabeth, Instituto Politécnico Nacional. Poom Rosas Lourdes Maria, Instituto Tecnológico de Sonora. Asesor: Mtro. Gerardo Badillo Estrada, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Los procedimientos existentes de llevar a cabo un proyecto Turnkey dependen plenamente del dirigente, es decir, el Project Manager, sin embargo, tras una búsqueda del procedimiento general, se encontró con el hecho de la existencia de un sinfín de variables, pero con una escasa información acerca de la construcción de plantas piloto. A pesar de la existencia de artículos hablando acerca de la construcción de plantas piloto, no se encuentra en ellos un proceso estandarizado que se pueda replicar o seguir para construir una propia, en su mayoría, los artículos publicados acerca de la edificación de naves industriales o plantas piloto abordan su propio proceso a mejorar o el proyecto interno que implementaron. Por otro lado, en México existen normativas que regulan los proyectos estructurales, como también ligados a los derechos de trabajadores. En el programa de inspección de 2023 publicado por la Secretaría de Trabajo y Previsión Social arroja datos alarmantes acerca de los índices de violación hacía los derechos de trabajadores, además de tener un índice alto de violación a las normativas por inspección realizada siendo éste un alrededor 62% durante los años 2021y 2022.



METODOLOGÍA

Para llevar a cabo el presente proyecto se investigó, a través de internet, distintos trabajos, artículos y publicaciones que hablan de aspectos relacionados a la construcción de plantas piloto, con el fin de crear una idea propia y establecer un proceso acerca de las fases que conlleva un proyecto Turnkey. Con el apoyo de Excel e internet, se redactó una base de datos dónde se explica qué normas utilizar según el giro empresarial del proyecto, mencionando código de norma y nombre además de, enlistar los órganos encargados de normalizar y actualizarlas, esto con ayuda de las diferentes páginas oficiales y catálogos de normas asistidos. Por último, se indagó en páginas oficiales índices de accidentes sucedidos durante la construcción de edificaciones además de visitar los programas de inspección de los años 2021, 2022 y 2023 donde identificamos aquellas normas infringidas y derechos violados. Con apoyo de Minitab, se realizó una iteración de la disminución en el índice de accidentes que se generaría sí se usa el presente como guía. Como principales herramientas se utilizaron: Microsoft Excel (2019) Microsoft Word (2019) Microsoft Power Point (2019) Laptop Huawei. Procesador. Intel® Core™ i3-10110U CPU @ 2.10Ghz. RAM. 8.00GB. Edición. Windows 11 Home Single Language. Google Chrome Minitab. Minitab® Statistical Software.


CONCLUSIONES

De acuerdo a la información que se recopilo para su análisis y estructuración se logró obtener un manual que describe de forma general las etapas que se deben tomar en cuenta al momento de querer iniciar la construcción de una planta piloto con dirección a convertirse en una nave industrial, dejando en claro que la planta piloto solo es un prototipo a pequeña escala hecha para probar y desarrollar procesos industriales ya que si se obtienen buenos resultados pasa a convertirse en una nave industrial con producción a gran escala, por lo que la información presentada se combina para estas dos distinciones.  Resulta importante la elaboración de este manual ya que al contar con este te deja ver con claridad un panorama amplio de lo que conlleva erigir una nave industrial, en este caso te proporciona la normatividad que se debe aplicar de manera general así como las especificas según la industria a la que pertenezca, como también te explica las principales etapas que se deben tomar en cuenta para su construcción, mencionando algunas están la de familiarizarse con el manual es decir el que se te presento en este articulo, identificación de necesidades, evaluación de viabilidad, planificación, diseño y especificaciones, normatividad, entre otros. (poner para ir a la Guia constructora). Siendo un soporte para contextualizarte y guiarte en el proceso. Así también con la recolección de esta información se facilita la búsqueda de información referente a este tema (ya que son pocos los sitios que te explican de manera clara la forma general en la que se puede hacer una nave industrial independientemente de su giro, es importante comprender que cada nave industrial según el tipo de industria al que esta pertenezca va tener diferentes características como también distintos requerimientos y especificaciones. Otra de las cosas que este manual te brinda son las distintas clasificaciones que hay, no se cubren completamente todas ya que existen infinidad de ellas, pero si brinda una gran parte.  Sin embargo, otro punto importante es que la aplicación de este manual puede llegar a reducir los accidentes, se realizó una proyección en la cual se obtuvo que estadísticamente, la cantidad de violaciones encontradas durante los años 2021 y 2022 representaban un 22% del total o en términos estadísticos, representan un 64% de margen de error. Por otro lado, el presente tiene como objetivo mitigar en su máximo la cantidad de violaciones totales por lo que se estima reducir hasta en un 95% el 22.63%, reduciéndose así a un 1.13% marcando este como un 3.12 de margen de error total, en comparativa, se redujeron 18080 violaciones totales a un 908 por lo que, el manual cumpliría su objetivo, causando así un gran impacto en cuanto a normatividad se trate, ya que al lograrse dicha estimación/ proyección junto a ello se obtendrían beneficios para los trabajadores ya que estarían cumpliendo debidamente con la normatividad adecuada lo que les daría mayor seguridad, mejores condiciones de trabajo, además del cuidado correspondiente a las propias instalaciones y equipo
Porras Herrera Dafne Rubi, Universidad Politécnica de Victoria
Asesor: Dr. Diego Ernesto Mendoza Patiño, Universidad Antonio Nariño

MODELOS MATEMáTICOS PARA LA SOSTENIBILIDAD DE LA CADENA DE SUMINISTRO DEL BANANO EN EL DEPARTAMENTO DEL MAGDALENA: UNA REVISIóN DE LA LITERATURA


MODELOS MATEMáTICOS PARA LA SOSTENIBILIDAD DE LA CADENA DE SUMINISTRO DEL BANANO EN EL DEPARTAMENTO DEL MAGDALENA: UNA REVISIóN DE LA LITERATURA

Porras Herrera Dafne Rubi, Universidad Politécnica de Victoria. Asesor: Dr. Diego Ernesto Mendoza Patiño, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

Magdalena es uno de los 32 departamentos de Colombia, ubicado al norte del país. Su economía se encuentra centrada en las actividades agropecuarias, ganaderas, turísticas y portuarias, uno de sus principales cultivos es el banano. Al igual que otros sectores de la agricultura, la producción del banano se enfrenta a incertidumbres y riesgos como el cambio climático y la escasez de agua, además que es muy complejo construir un plan de gestión para la producción, distribución debido a su corta vida útil, la estacionalidad en la producción y la demanda. En estos casos, los modelos matemáticos suelen ser utilizados para mejorar la eficiencia, reducir costos, maximizar el servicio al cliente y obtener una ventaja competitiva. Son representaciones formales basadas en matemáticas que permiten analizar y resolver problemas en diversas áreas, como la planificación de la producción, la gestión de inventarios y la toma de decisiones estratégicas. Llegando de esta manera a la problemática en la que giró la investigación, conocer ¿Cuáles son los principales modelos matemáticos que mejoran el desempeño y la sostenibilidad de la cadena de suministro del banano en el departamento del Magdalena?.



METODOLOGÍA

Para el desarrollo del artículo de investigación se llevaron a cabo diversas etapas para profundizar en el estado del arte de los modelos matemáticos en las cadenas de suministro y su relación con el banano en el departamento del Magdalena. En primer lugar, se realizó una consulta exhaustiva en las bases de datos científicos de la Universidad Antonio Nariño para encontrar 20 artículos científicos relevantes, de tipo Q1 y Q2, relacionados con el tema. Para las referencias consulté bases de datos de investigación relevantes como IEEExplore, Google Scholar, y Virtual Pro con la siguiente combinación de palabras clave: modelo matemático, banano, cadena de suministro, cadena de suministro agrícola; recopilando y revisaron un total de 20 artículos publicados entre 2001 y 2023. Posteriormente, se procedió a elaborar un mapa conceptual que permitiera identificar la estructura del marco teórico del trabajo. Este mapa visual fue de gran ayuda para organizar y entender los distintos elementos encontrados en la literatura. Con base en la información recopilada y el mapa conceptual, se desarrolló el marco teórico del trabajo. En esta etapa, se describieron los conceptos y enfoques clave de los modelos matemáticos en las cadenas de suministro y su relación con la sostenibilidad. Seguido a eso se identificaron los principales Modelos Matemáticos utilizados en las cadenas de suministro, centrándose especialmente en aquellos que podrían ser relevantes para la cadena de suministro del banano en el departamento del Magdalena. A continuación, se llevó a cabo una revisión minuciosa de los artículos científicos seleccionados para analizar la presencia de los principales Modelos Matemáticos identificados y su aplicación en la cadena de suministro del banano. Posteriormente, se realizó un análisis exhaustivo de los resultados obtenidos en la revisión de literatura anexando una tabla en la que se contabilizaban las veces que cada autor utilizaba alguno de los siete tipos de modelos matemáticos enfocados a las cadenas de suministro para una mejor comprensión, los cuales son: 1) ubicación y protección, 2) Inventario, 3) Enrutamiento y programación de vehículos, 4) Pronóstico de demanda, 5) Programación lineal, 6) Simulación, y 7) programación estocástica. Se identificaron patrones, tendencias y conexiones relevantes entre los modelos matemáticos y la cadena de suministro del banano. Finalmente, se formularon las conclusiones del trabajo mencionando aquellos dos modelos matemáticos más utilizados en la producción, además de destacar la importancia de estos en la mejora del desempeño y la sostenibilidad de la cadena de suministro del banano en el departamento del Magdalena.


CONCLUSIONES

Durante la estancia de verano realizada de manera remota logré adquirir conocimientos teóricos enfocados a mi carrera de Ingeniería en Tecnologías de Manufactura como lo son el manejo de cadenas de suministro, modelos matemáticos, la forma en que se relacionan ambos términos con la sostenibilidad de algún producto, entre otros. Después de un periodo de investigación y análisis se llegó a la siguiente conclusión. La producción del banano en el departamento del Magdalena, Colombia representa una actividad económica muy importante, por lo que la mejora de su desempeño y sostenibilidad son de suma importancia para esta región del país, viéndose reflejado en la agenda 2030 con el ODS número dos Hambre cero, el número nueve Industrial, innovación e infraestructura, y el número doce Producción y consumo responsables. Para llegar a identificaron los modelos matemáticos fundamentales en las cadenas de suministro se consideraron siete modelos de los cuales los dos más usados por diversos autores para la optimización son: Modelo de programación lineal y Modelo de programación entera mixta o estocástica puesto que debido a sus enfoques les permiten mejorar la toma de decisiones y la eficiencia operativa. En este contexto se percibe a los modelos matemáticos como una de las alternativas válidas y necesarias para enfrentar las gestiones y optimizar el proceso bananero, dado que permite mejorar la eficiencia, reducir costos, maximizar el servicio al cliente y obtener una ventaja competitiva en el mercado. Para finalizar, podemos reconocer a los modelos matemáticos en las cadenas de suministro, como una forma de mejorar el desempeño del suministro del banano que contribuye a su sostenibilidad y posibilidad de desarrollo y crecimiento.
Portilla Linares Naomi Anaid, Universidad Veracruzana
Asesor: Mg. Angela Maria Alzate   Alvarez, Universidad Católica de Manizales

MODELO HIDROGEOLóGICO CONCEPTUAL DEL áREA DE INFLUENCIA DEL PARQUE NACIONAL NATURAL LOS NEVADOS, PARTE ALTA CUENCA DEL RíO CHINCHINá, FASE 1.


MODELO HIDROGEOLóGICO CONCEPTUAL DEL áREA DE INFLUENCIA DEL PARQUE NACIONAL NATURAL LOS NEVADOS, PARTE ALTA CUENCA DEL RíO CHINCHINá, FASE 1.

Mejia Zavaleta Eduardo, Universidad Veracruzana. Portilla Linares Naomi Anaid, Universidad Veracruzana. Asesor: Mg. Angela Maria Alzate   Alvarez, Universidad Católica de Manizales



PLANTEAMIENTO DEL PROBLEMA

La importancia del agua subterránea para consumo humano es cada vez más relevante, sin embargo, se cuenta con poca información, sin mencionar su vulnerabilidad con respecto al cambio climático. (Bolaños & Betancur, 2018). ​En el departamento de Caldas, cerca de su capital se encuentra el páramo de letras, el cual tiene la capacidad de mantener el equilibrio hídrico de la región, lo cual beneficia tanto a la población local como a la biodiversidad (Erazo Chamarro et al., 2015).​ Siendo nuestro caso de estudio Parque Nacional Natural Los Nevados, definida a partir de la cota 2400 msnm, cubriendo el área de paramos, ábacos de interés para el municipio de Manizales y los humedales altoandinos del complejo volcánico Nevado del Ruíz en la cuenca del Río Chinchiná. Esta cuenca representa un punto clave en la comunidad, puesto que esta cubre el 70% del abastecimiento de Manizales, además de la biodiversidad que despliega. La principal problemática es la falta de estudios hidrogeológicos en esta zona, por lo tanto, se tiene información limitada, por lo tanto, nos impide el conocer el número y tipos de acuíferos, la hidrodinámica y el comportamiento hidráulico, siendo este un punto clave de abastecimiento de agua para la ciudad de Manizales.



METODOLOGÍA

El desarrollo de las actividades dentro de la pasantía se dividió en la parte práctica y teórica, de acuerdo con el cronograma de trabajo, realizando dichas actividades en conjunto con estudiantes de la Universidad de Bemidji y estudiantes del semillero de ingeniería ambiental, pertenecientes a la Universidad Católica de Manizales. Siendo de vital importancia para realizar el trabajo práctico más adelante. Durante la primera semana se visitó el ecoparque el Reciento del Pensamiento además del Páramo de Letras, con el objetivo de comprender la importancia de dichas reservas de aguas, tanto superficial como subterránea para la ciudad de Manizales. A lo largo de la segunda semana de estancia, se visitó el ecoparque Los Yarumos, con el objetivo de adquirir conocimientos acerca de otra función biológica de algunos macroinvertebrados como muestreo de la calidad del agua. De igual forma, se conocieron los laboratorios de la Universidad de Caldas, donde se adquirieron conocimientos en geología, así como también su aplicación en el campo. Es de gran importancia recalcar que lo aprendido, más tarde al realizar la parte teórica. En los días posteriores, se realizaron visitas por la Central Hidroeléctrica Sancancio - CHEC, para comprender otro de tantos usos que tiene el agua del río Chinchiná, siendo así también su importancia en otro rubro. Por último, se visitó el Observatorio Vulcanológico de Manizales, para lograr comprender las interacciones del volcán Nevado del Ruiz y el agua subterránea que aprovecha Manizales, además de comprender la geología que conlleva el estudio de estos sistemas en Colombia. Posteriormente a esas semanas, comenzó la parte teórica de la pasantía, realizando análisis comparativos entre organismos, su gestión del agua, así como también técnicas de muestreo de aguas subterráneas entre Colombia y México. Para finalizar con nuestra participación práctica, se realizó una identificación de manantiales, la cual consistió en georreferenciar el manantial, analizar su parte litológica, así como sus parámetros de este, los cuales fueron caudal, temperatura, conductividad y ph. Con la parte práctica terminada, nos enfocamos en realizar una matriz de información bibliográfica acerca de modelos hidrogeológicos a nivel local, nacional y mundial. Más tarde, la información recabada en dicho trabajo fue utilizado para formar parte de una revisión sistemática tipo PRISMA, donde se analizaron una mayor cantidad de artículos científicos de todas partes del mundo con la siguiente búsqueda: (((hydrogeological) AND (model) AND (mountain) AND (aquifer)) NOT (coastal)) NOT (karstic).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la hidrología, geología e hidrogeología que presenta esta zona, llevándolos a la práctica en las visitas de campo realizadas. Además, se adquirieron conocimientos en revisión sistemática siguiendo la metodología PRISMA. Nuestros principales resultados a nivel práctico fueron el Inventario de los manantiales de la zona de influencia y la recolección de datos (pH, conductividad eléctrica, temperatura, caudal y georreferencia) de cada uno de los manantiales encontrados. Por otro lado a nivel teórico, se obtuvo una matriz bibliométrica.
Pozo Castillo Roger Alberto, Instituto Tecnológico Superior de Los Ríos
Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre

ANALíTICA DE DATOS EN ACCIDENTALIDAD DE VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.


ANALíTICA DE DATOS EN ACCIDENTALIDAD DE VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.

Arenas Baeza Domingo Antonio, Instituto Tecnológico Superior de Los Ríos. Pozo Castillo Roger Alberto, Instituto Tecnológico Superior de Los Ríos. Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

La accidentalidad vial es un tema crucial que siempre ha sido de interés reducir, sin embargo, hasta ahora no se han implementado técnicas tecnológicas para identificar y comprender el comportamiento vial en función de las diferentes variables involucradas. Por lo tanto, surge la necesidad de contribuir a esta comprensión de la accidentalidad vial con el fin de respaldar los esfuerzos de mitigación y, en última instancia, salvar vidas. Todo esto aborda desde a arquitectura hasta las técnicas de extracción de datos viales en la ciudad de Bogotá, un enfoque necesario para llevar a cabo el análisis estadístico que nos permita comprender dicho comportamiento. Los accidentes viales representan un serio problema de salud pública. La Organización Mundial de la Salud expresa que, en el mundo, más de 1.25 millones de personas fallece cada año en las vías. Los accidentes representan un desafío significativo para las naciones de todo el mundo, ya que generan costos sustanciales tanto en términos humanos como económicos. La magnitud de este problema es tal que ha sido incluido en la Agenda 2030 para el Desarrollo Sostenible, un ambicioso plan global que busca abordar diversos problemas sociales y ambientales.  El transporte de alimentos a través de vehículos de carga en el corredor vial de la calle 13 ha sido una actividad de vital importancia para la distribución eficiente de mercancías en la región. Sin embargo, la mayor problemática es que en los últimos años, se ha evidenciado un preocupante aumento en la frecuencia de accidentes que involucran a estos vehículos, lo que ha generado la necesidad de abordar esta problemática a través de la analítica de datos.



METODOLOGÍA

El trabajo de investigación que se realizo fue descriptivo, ya que se podrán describir los hechos de los cuales surgió el problema actual, los cuales permitirán determinar las posibles acciones que se deben tomar en cuenta para dar solución a dicho problema. En la realización del proyecto se llevó a cabo patrones, tendencias y factores que contribuyan a los accidentes en este tipo de vehículos. Lo que se hizo fue lo siguiente: Recopilación de datos. Preparación de los datos. Analisis exploratorio de los datos. Identificación de los factores de riesgo. Una vez se realizó todo esto se procedió a lo que fue llevar los datos obtenidos a el programa Power Bi todo esto con el fin de obtener el indice de accidentalidad por hora, por año y el origen del accidente. Como sabemos la accidentalidad vial es un tema crucial que siempre ha sido de interés reducir, sin embargo, hasta ahora no se han implementado técnicas tecnológicas para identificar y comprender el comportamiento vial en función de las diferentes variables involucradas. Por lo tanto, surge la necesidad de contribuir a esta comprensión de la accidentalidad vial con el fin de respaldar los esfuerzos de mitigación y, en última instancia, salvar vidas. Todo esto aborda desde a arquitectura hasta las técnicas de extracción de datos viales en la ciudad de Bogotá, un enfoque necesario para llevar a cabo el análisis estadístico que nos permita comprender dicho comportamiento. En primer lugar, se ha desarrollado una arquitectura autosostenible para la recolección de datos viales utilizando información proveniente de redes sociales. Este enfoque innovador nos ha permitido obtener una gran cantidad de datos relevantes para nuestro estudio. Una vez recopilada la información, se ha procedido a su representación visual utilizando una herramienta geográfica. Esta visualización ha facilitado la comprensión de patrones y tendencias en los incidentes viales, lo que nos ha brindado una primera impresión sobre la situación. Sin embargo, el análisis no se detiene allí, ya que se han aplicado técnicas estadísticas geográficas más avanzadas para profundizar en el estudio. Estas técnicas nos han proporcionado una visión más completa y objetiva de los factores que contribuyen a la accidentalidad vial en la ciudad. El análisis estadístico realizado hasta el momento es de vital importancia, ya que nos brinda información valiosa que permitirá tomar decisiones más informadas y efectivas para la prevención de accidentes de tránsito. Al comprender mejor el comportamiento vial y los lugares donde ocurren más frecuentemente los incidentes, se podrán implementar medidas específicas para reducir los riesgos y aumentar la seguridad de los ciudadanos. Según un estudio de tránsito de la ciudad de Bogotá los accidentes viales suceden muy seguido, un accidente ocurre de 5 a 6 minutos.


CONCLUSIONES

Durante la estancia del verano de investigación se logró obtener conocimientos sobre la accidentalidad con vehiculos de carga de alimentos en el corredor vial de la calle 13 de Bogota D.C. Todo esto con estudios mediante la analítica de datos el cual es una herramienta fundamental para abordar los desafíos del sector de alimentos en el corredor vial de la Calle 13. Se crearon graficas en Power Bi todo esto con el fin de obtener el indice de accidentalidad ocurridos en la calle 13 de Bogota D.C. La frecuencia de accidentes evidencia claramente la necesidad de implementar medidas preventivas y correctivas para reducir la accidentalidad en esta zona específica. Esto implica la identificación y atención de las principales causas de los accidentes, como pueden ser el exceso de velocidad, la falta de mantenimiento de los vehículos, la fatiga del conductor, entre otros factores. Se debe realizar la implementación de un sistema de análisis de datos en tiempo real, que permita monitorear y detectar patrones de fallas y comportamientos riesgosos, ya que esto es esencial para mejorar la seguridad en el corredor vial. Este sistema podría estar basado en la recopilación de datos a través de tecnologías como GPS, sensores en los vehículos y cámaras de vigilancia, que proporcionen información sobre el estado de los vehículos, la velocidad, los tiempos de conducción, entre otros aspectos relevantes. Como posibles resultados se obtuvo lo que fue el numero de muertos y heridos por hora, por años y la gravedad por clase de siniestro, es decir, si fue atropello, choque volcamiento, etc.
Prado Bretado Jose Isaac, Universidad Autónoma de Occidente
Asesor: M.C. Angel González Navarrete, Universidad Autónoma de Occidente

ROBOTICA EDUCATIVA


ROBOTICA EDUCATIVA

Martinez Sanchez Jorge Luis, Universidad Autónoma de Occidente. Prado Bretado Jose Isaac, Universidad Autónoma de Occidente. Asesor: M.C. Angel González Navarrete, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La apertura de nuevas tecnologías y la llegada de nuevas empresas a la ciudad de Mazatlán dan la oportunidad de preparar a estudiantes y darles a conocer las herramientas tecnológicas, la robótica es una de ellas, ha ido tomando mas fuerza y actualmente son pocas las escuelas de nivel básico que tengan un adentramiento a la robótica. Es por eso que este proyecto de robótica educativa contemplado en tres fases, conoce, usa y desarrolla donde alumnos de secundaria podrán familiarizarse poco a poco en el conocimiento de la robótica.



METODOLOGÍA

En este proyecto se desarrolla un plan de trabajo de un taller de robótica aplicada en el nivel secundaria básica. A cada uno de los compañeros del proyecto se le asigna el tema principal en el cual desarrollarán contenido para este club, el cual se divide de la siguiente forma: Primer grado: Conoce. Segundo grado: Usa. Tercer grado: Desarrolla. Estas ramas principales tienen subdivisiones que se desarrollarán a partir de cada una, es decir, dentro de cada tema principal, ya viene asignado los subtemas a desarrollar, indicados por el investigador a cargo, de la cual se representa de la siguiente forma: Conoce: Conocimientos básicos de electricidad. Conocimientos fundamentales de la electrónica. Circuitos básicos de electrónica. Instrumentos y herramientas. Construcción de circuitos. Usa: Teoría y práctica de los robots de I-Robo. Teoría y práctica de los robots de Robo robo. Desarrolla: Introducción a Arduino. Construcción de circuitos básicos con Arduino. Prototipos desarrollados con Arduino.   Para el desarrollo de este plan de trabajo se utilizarán diferentes plataformas, softwares, páginas web, libros, documentos, artículos de investigación, etc. La primera fase es la investigación y recopilación de datos para la creación de contenido del cual entra la segunda fase donde se utilizarán softwares y programas como PowerPoint, Photoshop, Tinkercad, entre otros más para el desarrollo de clases en donde se busca que sea dinámica y balanceada con la teoría y práctica. Como última fase, al término de los contenidos este se subirá un sitio web donde se encontrará cada uno de los contenidos.


CONCLUSIONES

Gracias al contenido investigado y plasmado en las diferentes sesiones de clases para que los alumnos puedan tomar, podremos dejar plantado el conocimiento básico de la robótica, para que en un futuro el alumno pueda enfocarse en una carrera técnica y/o universitaria dirigida a la robótica para así poder entrar a un campo laboral nuevo en la ciudad con demasiada oportunidad de crecimiento.
Pretel Centurión Carol Xiomara, Universidad César Vallejo
Asesor: Mtro. Gary Christiam Farfán Chilicaus, Universidad César Vallejo

REMOCIóN DE METALES PESADOS EN DRENAJE áCIDO DE MINA MEDIANTE ELECTRóLISIS


REMOCIóN DE METALES PESADOS EN DRENAJE áCIDO DE MINA MEDIANTE ELECTRóLISIS

Ponce Quiroz Alexandra Ximena, Universidad César Vallejo. Pretel Centurión Carol Xiomara, Universidad César Vallejo. Asesor: Mtro. Gary Christiam Farfán Chilicaus, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, la contaminación del agua por drenajes ácidos de mina representa un problema crítico. Este fenómeno tiene un impacto negativo en el medio ambiente y en la salud de las comunidades cercanas. Según Forigua, Fonseca y Vasquez (2017), los drenajes ácidos de mina (DAM) son vertimientos con un pH bajo, altas concentraciones de metales y sulfatos, y se consideran el problema ambiental más importante de la industria minera.  Según CEPAL (2016), una de las naciones más desarrolladas en la región en cuanto a leyes sobre pasivos ambientales mineros y la creación de inventarios, es el Perú. Desde 2006, se han realizado inventarios anuales y, según las últimas cifras del Ministerio de Energía y Minas, hasta el año 2016 se registraron 8.854 pasivos ambientales mineros inventariados.  Por otro lado, según el Ministerio de Energía y Minas (s.f), en Perú, de las 180 minas que funcionan (de grande, mediano y pequeño tamaño), solo unas 25 a 30 han reconocido que tienen un problema de drenaje ácido de mina. A menudo, este es el caso de zonas mineras con mucha historia como Cerro de Pasco, Huancavelica y Ayacucho. En el Perú no hay tratamiento del drenaje ácido, salvo una compañía de minería mediana. Actualmente, el DAM se descarga a cursos de agua naturales o se vierte en lagos o ríos.  Según Wang et al., (2022), la deposición electroquímica es una tecnología de tratamiento limpio que se está desarrollando rápidamente en los últimos años, donde la preparación de buenos materiales para los electrodos es una de las claves para el desarrollo de esta tecnología. La electrólisis es un proceso químico en el que se utiliza corriente eléctrica para producir un cambio en una sustancia. Este cambio puede ser la oxidación o reducción, que implica la pérdida o ganancia de un electrón. La electrólisis se realiza en una celda electrolítica con electrodos positivos y negativos sumergidos en una solución de iones cargados. Sin embargo, según Castañeda, D. y Choton, E. (2018), en un proceso de electrocoagulación es fundamental saber cómo afectan los factores de proceso en la eficiencia de eliminación del contaminante del agua a tratar. Si bien, la electrólisis es una alternativa prometedora para la remoción de metales pesados, tiene algunas limitaciones que deben ser trabajadas para optimizar su rendimiento.  En este sentido, durante el verano de investigación se ejecutará un estudio experimental para adquirir información sobre la influencia de la densidad de corriente, el tiempo, la temperatura y el PH, sobre la remoción de hierro total de drenaje ácido de mina mediante electrólisis. 



METODOLOGÍA

Caracterización del Drenaje Ácido de Mina Las muestras de efluente ácido fueron extraídas de la zona de Hualgayoc siendo las coordenadas 6°55'0" S y 78°55'0" W en formato DMS (grados, minutes, segundos) o -6.91667 y -78.9167 (en grados decimales). Su posición UTM es QN33 y su referencia Joint Operation Graphics es SB17-12. Estas muestras se llevaron al laboratorio químico para su caracterización de pH para lo cual se empleó un Medidor básico S8 Seven2Go (medidor de pH/iones portátiles), así como también el análisis de hierro total (catión férrico y catión ferroso) por el método de espectrofotometría. Obteniéndose como datos de prueba testigo (sin tratamiento) un pH de 3.5 y un contenido de hierro total de 1827 mg/L. Por lo que es un Drenaje Ácido de Mina extremadamente ácido. Circuito Experimental El reactor es una cuba de vidrio de 1L, considerando agitación magnética y soportes para el cátodo y ánodo. Se emplearon como electrodos acero inoxidable 304, la cual es una aleación austenítica de cromo y níquel muy resistente a la corrosión 12x5x0.3 cm y comprenden 02 ánodos y 02 cátodos. Se utilizó una fuente de alimentación Regulable Baku Bk 305d 0 A 30v / 0 A 5. Procedimiento Experimental Inicialmente se establecieron las variables operacionales independientes, siendo estas la densidad de corriente en donde se empleó de 15 y 30 (mA/cm2), con tiempos de 30 y 60 minutos, temperatura de 25 y 40°C así como un pH de 3.5 y 7.5.  Se empleó el método de diseño factorial fraccionado 2k-1 con triplicado en los puntos centrales. Luego del tratamiento del drenaje ácido de mina en donde se consideró los niveles máximos y mínimos de cada variable independiente. Los efluentes resultantes fueron analizados por espectrofotometría el contenido de hierro total; posteriormente se calculó la remoción de hierro considerando la concentración de hierro inicial, según la fórmula a continuación:  %Remoción = ConcentraciónFeInicial -ConcentraciónFeFinal / ConcentraciónFeInicialx100 En el tratamiento estadístico se aplicó el software MINITAB 19.0. Permitió determinar las variables de mayor influencia sobre la remoción de hierro de un drenaje ácido de mina por electrólisis. 


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos sobre los factores que influyen en la eliminación del hierro total de drenaje ácido de mina (DAM) de la zona de Hualgayoc, mediante electrólisis, que es considerada una técnica eficiente y sostenible, tanto desde el punto de vista económico como ambiental. Es emocionante ver cómo la tecnología continúa avanzando y ofreciendo soluciones más eficientes y sostenibles para el tratamiento de aguas residuales.  Se concluye que la densidad de corriente y el PH son factores con gran influencia en la remoción de hierro total a través de la electrólisis. No obstante, el PH tiene una influencia aún mayor que la densidad de corriente en la remoción de hierro total de drenaje ácido de mina mediante electrólisis. En cuanto a los factores tiempo y temperatura, se encontró que su influencia es mínima. Esto se ve evidenciado en el Análisis de Varianza donde el valor F (experimental) tanto de la densidad de corriente como del PH son superiores al valor P (teórico), mientras que para tiempo y temperatura, sucede lo contrario.
Prieto Díaz María Alejandra, Universidad de Investigación y Desarrollo
Asesor: M.C. Jorge Luis Alfaro Rosas, Universidad César Vallejo

PLANEAMIENTO ESTRATéGICO Y SU IMPACTO EN EL POSICIONAMIENTO DE LAS EMPRESAS AGROINDUSTRIALES LATINOAMERICANAS EN EL PERíODO 2018-2022


PLANEAMIENTO ESTRATéGICO Y SU IMPACTO EN EL POSICIONAMIENTO DE LAS EMPRESAS AGROINDUSTRIALES LATINOAMERICANAS EN EL PERíODO 2018-2022

Prieto Díaz María Alejandra, Universidad de Investigación y Desarrollo. Asesor: M.C. Jorge Luis Alfaro Rosas, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

La revisión literaria se motiva por la necesidad de entender la planificación estratégica en empresas agroindustriales, evaluando su impacto durante 2018-2022 en Latinoamérica, pre y pos pandemia. La agroindustria maneja y transforma recursos agrícolas y pecuarios para consumo humano. La gestión estratégica es crucial en el éxito, guiada por decisiones presentes para un futuro deseado (IICA, 2019). La fase de diagnóstico emplea la matriz DOFA, evaluando factores internos y externos. La DOFA proporciona un panorama de ventajas, desventajas y datos estratégicos, influyendo en el posicionamiento de mercado. El problema central es el impacto de la planificación estratégica en empresas agroindustriales latinoamericanas y el objetivo es evaluar este impacto mediante revisión literaria. La investigación busca abordar la influencia de la planificación estratégica en el sector agroindustrial en un entorno competitivo y cambiante, guiando hacia crecimiento y ventaja competitiva.



METODOLOGÍA

El proyecto se fundamenta en el diseño de investigación como base del proceso. Una revisión sistemática, en este caso teórica, se presenta como un tipo de investigación científica que sintetiza resultados de investigaciones primarias. Los criterios de filinclusion y exclusion son herramientas importantes para seleccionar artículos alineados con el objetivo plantado. La búsqueda de información se realizó en bases de datos como Google Académico, Science Direct, Redalyc y Scielo, se hizo uso de la plataforma de evaluación y clasificación de revistas científicas y académicas: Scimago Journal & Country Rank (Scimago), donde las investigaciones son consultadas en la plataforma junto con sus cuatro dígitos llamados SJR Indicator los cuales indican la clasificación, evaluación y compara la relevancia de las revistas científicas y académicas en función de su impacto y visibilidad en la respectiva área de investigación. La información se codificó en tablas usando Excel como software.


CONCLUSIONES

La revisión sistemática del estado del arte identificó 42 artículos en la búsqueda inicial, de los cuales 12 fueron considerados relevantes. Los restantes no abordaron la pregunta de investigación ni se ajustaron al marco temporal 2018-2022. Los repositorios fueron la principal fuente de artículos. La revisión enfocada en el período 2018-2022 reveló que Perú lidera en investigaciones agroindustriales. Experiencias exitosas y conclusiones demuestran que la planeación estratégica impacta positivamente en empresas agroindustriales latinoamericanas según autores como (Dómene, 2021), (Felipe, 2020), (Huari et al., 2022), entre otros. La revisión muestra que la planeación estratégica es crucial para la dirección a largo plazo y el éxito organizacional, como afirman (Mosqueira, 2019) y (Montoya et al., 2018). Aunque se encontraron pocas investigaciones específicas, se destaca la relevancia de la industria agroindustrial en Latinoamérica, impactando la economía, sostenibilidad, seguridad alimentaria y empleo en la región.
Prieto Pérez Mabel, Universidad Autónoma de Ciudad Juárez
Asesor: Mtro. Mario Alberto Villegas Romero, Universidad de Guadalajara

DISEñO DE ADECUACIONES ERGONóMICAS PARA LA MEJORA DE PROCESOS INDUSTRIALES


DISEñO DE ADECUACIONES ERGONóMICAS PARA LA MEJORA DE PROCESOS INDUSTRIALES

Prieto Pérez Mabel, Universidad Autónoma de Ciudad Juárez. Asesor: Mtro. Mario Alberto Villegas Romero, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La fatiga en los trabajadores que realizan actividades repetitivas en su jornada laboral puede ocasionar daños en su salud a corto y largo plazo, ya que la fatiga laboral tiene numerosas consecuencias negativas tanto para los trabajadores. El propósito de este proyecto es abordar el problema de la fatiga laboral a través del diseño de adecuaciones ergonómicas específicas, adaptadas a las necesidades y características de los procesos industriales. Se llevará a cabo un análisis exhaustivo de los procesos existentes, identificando los factores de riesgo ergonómico y proponiendo soluciones ergonómicas prácticas y eficientes. Estas soluciones estarán respaldadas por la evidencia científica y se enfocarán en mejorar la comodidad, la seguridad y el rendimiento de los trabajadores.



METODOLOGÍA

Se   hizo una investigación de campo para ir a observar a los trabajadores realizando una construcción y de esta forma analizar los movimientos que estos realizaban al momento de estar trabajando, con esto lo siguiente fue nuevamente analizar los movimientos para determinar los músculos que se mostraban como los más involucrados al momento de trabajar. Enseguida, lo que se hizo fue establecer ejercicios a realizar con los cuales poder obtener el CVM (contracción voluntaria máxima) por medio de una electromiografía, se determinaron cuatro músculos a analizar y para estos tres ejercicios diferentes, 1) extensión de trícep con copa, 2) press militar con mancuerna para trabajar deltoides y supraespinoso y 3) remo con apoyo para trapecio.   A las personas que participaron se les hizo firmar un consentimiento de participación, se les limpio en las zonas que fueron las indicadas para colocar los electrodos y se conectaron estos para trabajar en el Software de OpenSignals, se les pidió a los participantes que hicieran cada ejercicio hasta llegar al fallo en cada uno dándoles un descanso de 5 a 10 minutos según se sintiera la persona. Posteriormente se les explico los experimentos a realizar para comenzar con la toma   de las diferentes medidas de EMG y poder comparar si haciendo las actividades tratando de imitar a los trabajadores se llegaba a la CVM y si la fatiga era muy grande. Para finalizar, se realizo un programa en Python donde se determino cual era el CVM de cada uno de los músculos, enseguida se normalizaron los datos utilizando este valor del CVM, para en un nuevo programa de Python conforme a los datos obtenidos realizar gráficas y obtener los datos normalizados de cada musculo al momento de estar haciendo las actividades de los experimentos.


CONCLUSIONES

En este proyecto se lograron adquirir conocimientos de como la fatiga afecta no solo a la motivación de las personas sino también el daño en la salud que esta puede provocar,  además de la importancia que es normalizar los datos con los valores correctos, ya que en un inicio se normalizaron con una frecuencia de muestreo escogida al azar lo cual al normalizarlo con el CVM obtenemos valores diferentes  por lo cual se concluye que el conocer el CVM es importante no solo para analizar que tan cansado es un ejercicio sino también para poder comprobar que tanta fatiga genera una actividad determinada.
Prieto Royet Andrea Carolina, Universidad Libre
Asesor: Dr. José Adalberto Castillo Robles, Universidad Politécnica de Victoria

ELABORACIóN DE UN BIOPOLíMERO USANDO LA CORONA DE LA PIñA (ANANAS COMOSUS) Y POSOS DE CAFé (COFFEA ARABICA) COMO FIBRAS NATURALES DE REFUERZO


ELABORACIóN DE UN BIOPOLíMERO USANDO LA CORONA DE LA PIñA (ANANAS COMOSUS) Y POSOS DE CAFé (COFFEA ARABICA) COMO FIBRAS NATURALES DE REFUERZO

García Solís Sonia Iveth, Universidad Nacional de Ingeniería. Prieto Royet Andrea Carolina, Universidad Libre. Asesor: Dr. José Adalberto Castillo Robles, Universidad Politécnica de Victoria



PLANTEAMIENTO DEL PROBLEMA

El uso de plásticos convencionales derivados del petróleo de forma indiscriminada ha ocasionado contaminación en todo el planeta, incluso en las aguas más profundas de los océanos es posible encontrarlos. Y es que, la biodegradación de los plásticos derivados del petróleo dilata miles de años, algunos incluso no se biodegradan. Es por ello que, surgen los biopolímeros como alternativas menos contaminantes en comparación a los plásticos convencionales.  En Nicaragua, al ser un país agroindustrial, la producción nacional de frutas ha incrementado, especialmente la piña. Sin embargo, el valor de la piña no es aprovechado en su totalidad, por ejemplo, la corona de la piña Ananas comosus se puede encontrar acumulada como desecho en los mercados de la ciudad de Managua, por consiguiente, surge la idea de su potencial aprovechamiento para la elaboración de un biopolímero.  De igual forma, Colombia cuenta con las industrias exportadoras de café Coffea arabica para el consumo mundial, donde en la Universidad Libre de Colombia Seccional Socorro (Santander), se cultiva el café marca Majavita en el cual, se lleva a cabo todo el proceso del café y sus etapas como trillado, tostado, molida y empacado. De este modo, la universidad se convierte en productor de café orgánico y realiza investigaciones para el crecimiento de la industria cafetera del Santander. En este proceso se obtienen los posos de café como desperdicios, los cuales, pueden ser aprovechados de igual manera, para la elaboración de un biopolímero.  



METODOLOGÍA

Para la elaboración del biopolímero, tanto con las coronas de piña como con los posos de café se seguirán los siguientes pasos:  Primeramente, se corta en pedazos la fibra y se tritura, de ser necesario se agrega agua, formándose un puré. Este puré se mezcla con glicerina y almidón de maíz, variando las proporciones para comparar las propiedades obtenidas de los distintos biopolímeros. Seguidamente, se agregan fibras de 3 mm en un 20% en volumen de biopolímero, la mezcla se calienta agitándola vigorosamente en el fuego hasta que se torna viscosa. Luego, se moldean los biopolímeros reforzados con las fibras haciendo formas rectangulares en papeles de hornear, se dejan secar a temperatura ambiente por 24 horas.  Cuando se obtiene el material se realizan las pruebas de ensayo como las propiedades de resistencia a la tracción las cuales dependen del volumen que se le agrega al material de las fibras naturales y la unión de los dos materiales, el esfuerzo de tensión, las pruebas de flexión y dureza.  


CONCLUSIONES

En la estancia de verano se adquirieron conocimientos teóricos basados en la rama de manufactura de materiales avanzados, específicamente en el desarrollo de materiales compositos utilizando látex natural y en la elaboración de biopolímeros, tomando en consideración los principales trabajados realizados hasta la fecha. Asimismo, para la búsqueda de antecedentes investigativos, se navegó dentro de distintas plataformas y programas de análisis de datos. No obstante, al ser un trabajo extenso, aún se encuentra en la fase de experimentación y se espera con los resultados obtener una formulación de los biopolímeros, con propiedades de mayor resistencia, tanto en las pruebas de ensayo para determinar la dureza como la flexión, resistencia al impacto y todos los análisis de procesos de materiales para poder llevarlos a un uso que pueda ser doméstico o industrial.   Finalmente, se espera obtener resultados óptimos debido al refuerzo añadido que aportan las fibras naturales con una tenacidad esperada que ofrezca un equilibrio de las propiedades mecánicas.  
Puentes Martínez Dainis Alicia, Universidad Tecnológica De Bolívar
Asesor: Dra. Yudith Choque Quispe, Universidad Nacional José María Arguedas

CARACTERIZACIÓN DE NANOCELULOSA DE RAQUIS DE MAIZ PARA SU USO COMO BIOADSORBENTE EN LA REMOCIÓN DE METALES PESADOS EN CUERPOS DE AGUA


CARACTERIZACIÓN DE NANOCELULOSA DE RAQUIS DE MAIZ PARA SU USO COMO BIOADSORBENTE EN LA REMOCIÓN DE METALES PESADOS EN CUERPOS DE AGUA

Puentes Martínez Dainis Alicia, Universidad Tecnológica De Bolívar. Asesor: Dra. Yudith Choque Quispe, Universidad Nacional José María Arguedas



PLANTEAMIENTO DEL PROBLEMA

La contaminación de las fuentes hídricas es uno de los mayores problemas a nivel mundial, el aumento en la concentración de metales pesados en los cuerpos de agua es de especial interés debido a sus efectos potencialmente nocivos sobre los diferentes ecosistemas. Debido a su capacidad de bio-acumulación y bio-magnificación en la cadena trófica, puede llegar a los humanos a través de la ingesta de alimentos y agua contaminada con estos metales, puede tener efectos leves que abarcan malestares gastrointestinales como vómitos, diarreas, dolores estomacales, entre otros, y efectos crónicos como el cáncer, problemas hepáticos, dificultades renales, inconvenientes reproductivos, y en el peor de los casos la muerte. Las tecnologías de remoción tradicionales han demostrado ser poco efectivas para concentraciones bajas de metales por lo que se han propuesto nuevas alternativas que utilizan polimeros naturales como el almidón de papá, que tienen hidroxilos y aminas que aumentan la eficiencia en la absorción de cationes metálicos. El maíz es el segundo cultivo con mayor producción a nivel mundial. Se estima que por cada tonelada de maíz se obtienen 170 kg de raquis (subproducto agrícola de la separación del grano), este residuo se caracteriza por su alto contenido de polimeros naturales como la celulosa, hemicelulosa y lignina, por lo que tendría potencial como absorbente natural. El objetivo de esta investigación es realizar una caracterización de la nanocelulosa de raquis de maíz activada con ácido cítrico en diferentes concentraciones, y posteriormente evaluar su capacidad de remoción de metales pesados en cuerpos de agua contaminados.



METODOLOGÍA

Las muestras de residuos de Maiz (Zea Mays L) se recolectarón en el distrito capital Huaccana, en la provincia de Chincheros, ubicado en el departamento Apurímac, Perú.  Para elaborar la nanocelulosa se dejó secar el raquis de maíz colectado a temperatura ambiente por 15 días y luego se molio con un molino manual hasta obtener la muestra en un tamaño de 500 μm. Luego se pesaron 100 g de Raquis y se disolvieron en NaOH al 3%, pasaron a tubos de digestión con una relación de 20 ml de NaOH/ 1g de raquis y se realizó la hidrolisis por digestión en un microondas durante 90 min a 150ºC. Luego estas muestras se filtraron y lavaron con agua destilada hasta llegar a un pH neutro, se dejaron secar en estufa durante 24h a 60 ºC. Una vez secas las muestras se procedió con el blanqueado, para esto se dejó en agitación (200 r.p.m) a temperatura ambiente por 2 horas en una solución de NaClO al 0.525%, las muestras nuevamente se filtraron y lavaron con agua destilada hasta un pH neutro y se dejaron secar durante 24h a 60 ºC para eliminar la hemicelulosa restante.  Se realizarón 4 tratamientos, 2 muestras se hidrolizaron con C6H8O7 al 6% e inmediatamente después se ultrasónicaron durante 30 y 15 min, con rampas de 5 min en el Sonicador. Otras 2 se hidrolizaron con C6H8O7 al 3% e inmediatamente después se ultrasónicaron durante 30 y 15 min respectivamente, con rampas de 5 min en el Sonicador. Cada muestra se dejó en agitación durante 2h antes del proceso de sonicación y una vez terminado se lavaron con agua destilada hasta llegar a un pH neutro y se dejaron secar durante 24h a 60 ºC , luego se molieron y tamizaron hasta obtener un diámetro de 63μm. Para la caracterización de las muestras se realizaron las pruebas que se muestran a continuación con su respectiva metodología.  Punto de carga cero: Se tomaron 50 mL de agua destilada y se vertieron en vasos precipitados del mismo volumen, se realizaron ocho soluciones adicionando al agua cantidades de HCl 0.1 M y NaOH 1 M ajustando el pH a 2,4,6,7,8,9,10 y 12, cada uno de los vasos contenía 25 mg de nanocelulosa. Tras 24 horas bajo agitación a una velocidad de 70 rpm se procedió a medir un valor pH intermedio, luego se dejaron en reposo por 12 horas y se midió el valor final del pH. Tamaño de partícula: Se pesaron 25 mg de muestra en un vaso precipitado al cual se le vertieron 50 ml de agua ultra pura, luego paso a sonicación por 1 min y se puso en el equipo Zetasizer. Potencial Zeta: Para esta se tomo cierto volumen de agua destilada y se realizaron soluciones a diferentes pH de igual forma que en el punto de carga 0, luego se pesan aproximadamente 10 mg de la muestra en vasos precipitados y a estos se les agrega las diferentes soluciones de pH, se dejan agitar a 80 r.p.m durante 24h e inmediatamente pasado el tiempo se sonica a una amplitud de 30 % durante 5 min, una vez finalizada se llevan las muestras al equipo Zetasizer.  Análisis termo-gravimétrico: Para esta prueba se pesaron 10 mg de cada una de las muestras y se colocaron en el equipo TGA 550 con una velocidad de calentamiento de 10ºC/min en una atmosfera de nitrógeno y un rango de temperatura de 20 a 600 ºC. Indicé de refracción: Se pesaron alrededor de 10 mg de muestra y una gota de la solución para realizar la lectura, se pusieron las muestras bajo el refractómetro abbe a 20ºC Espectroscopía infrarroja por transformada de Fourier: La preparación de los pelltes se realizo usando 2 mg de la muestra y mezclándolo con 200 mg del divisor de Haz bromuro de potasio (KBr), el equipo utilizado para la preparación de la muestra fue un prensador manual hidráulica para FTIR & XRF.


CONCLUSIONES

Las conclusiones parciales obtenidas durante la estancia muestran que la nanocelulosa estudiada posee un punto de carga 0 menor a 7 y un indice de refracción que rodea el 1.60, con el análisis de termogravimetría se pudo observar que las muestras pierden la totalidad de su porcentaje de masa en temperaturas cercanas a los 600º C, esto es favorable ya que demuestra que soporta ambientes extremos. Por otro lado, en los resultados de FTIR se alcanzó a notar similitud entre los picos de las diferentes muestras y las diferencias que tienen con el raquis de maíz en su etapa de digestión y blanqueamiento, sin embargo, falta revisar la variación en los grupos funcionales. Cabe resaltar que durante el tiempo de la estancia no se logró obtener los resultados de las pruebas de potencial Zeta y tamaño de partícula. Más ensayos de laboratorio deben ser llevados a cabo para poder determinar con mayor claridad el potencial que tiene la nanocelulosa de maíz como absorbente de metales pesados en cuerpos de agua.
Puerto Torres Karen Hanssy, Universidad Nacional de Ingeniería
Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco

PROPUESTA DE ELABORACIóN DE MANUAL DE BUENAS PRáCTICAS DE MANUFACTURA (BPM) POR LA NORMATIVA NTON-03-059-05 Y LA NTON 03 069-06/RTCA 67.01.33:06)


PROPUESTA DE ELABORACIóN DE MANUAL DE BUENAS PRáCTICAS DE MANUFACTURA (BPM) POR LA NORMATIVA NTON-03-059-05 Y LA NTON 03 069-06/RTCA 67.01.33:06)

Jirón Pérez Marilia Fernanda, Universidad Nacional de Ingeniería. Puerto Torres Karen Hanssy, Universidad Nacional de Ingeniería. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Buenas prácticas de manufactura (BPM) constituye una garantía de calidad e inocuidad que redunda en beneficio del empresario y del consumidor en vista de que ellas comprenden aspectos de higiene y saneamiento aplicables en toda la cadena productiva, incluido el transporte y la comercialización de los productos. (Salgado C.). BPM constituye un instrumento básico en la obtención de productos seguros para el consumo humano así mismo son esenciales para garantizar la calidad de los productos durante las etapas del proceso productivo.   El Comal S.A. Demanda que sus productos sean inocuos e inofensivos de acuerdo a las Buenas Prácticas de Manufactura (BPM) y la normativa NTON 03-059-05. Actualmente se encontraron problemas de incumplimiento de las normas y procedimientos por parte del personal, deterioro en la infraestructura y la inexistencia de un manual de BPM que instruya y garantice la mejora continua.   El propósito de la recopilación de esta información es para mejorar las deficiencias encontradas en la microempresa con el propósito de ofrecer productos libres de contaminantes, capacitación al personal, calidad en sus productos, restauración de las instalaciones y optimización del proceso productivo.



METODOLOGÍA

En el presente estudio se llevó a cabo la propuesta de elaboración de un Manual de Buenas Prácticas de Manufactura para la microempresa El comal, con el objetivo de conocer y aplicar los requerimientos que exigen las leyes nacionales en materia de la implementación de Buenas Prácticas de Manufactura (BPM), con el propósito de reducir al mínimo los riesgos de contaminación biológica, química o física, que pueden ocurrir durante el procesamiento de alimentos Para efectuar la investigación este estudio se realizaron visitas de campo, en la que se utilizó como base la herramienta de la ficha de inspección contemplada en el Reglamento Técnico Centroamericano (NTON 03 069-06/ RTCA 67.01.33:06). Para realizar el estudio, se hizo un total de cuatro visitas a las instalaciones de la microempresa: Una primera visita donde las partes se conocieron para establecer relaciones (estudiante investigador y dueño del establecimiento), además de conocer la situación, historia e instalaciones y obtener información sobre los antecedentes de la misma. También se observó al personal para conocer detalladamente el funcionamiento en las distintas áreas, describiendo de ésta forma los acápites del manual, utilizando la guía de elaboración de Buenas Prácticas de Manufactura. Según (Carrillo Jirón & Acevedo) explica que las generalidades hacen referencias al número y orden de cada uno de los elementos que conforman la estructura de los manuales de Buenas Prácticas de Manufactura, ya que cada uno de los componentes tienen una función específica y una correlación entre sí. a) Nombre de la empresa. b) Índice. c) Introducción. d) Objetivos del manual. e) Definiciones. f) Política de inocuidad de la empresa. g) Alcance de las BPM en la empresa. En la segunda visita, se realizó la primera inspección donde se llenó el formato contenido en la (NTON 03 069-06/ (RTCA 67.01.33:06). Tomándose en cuenta los acápites de la ficha de inspección como edificios, equipo y utensilios, personal, control en el proceso, almacenamiento y distribución. Se utilizó valores numéricos otorgándose la puntuación de acuerdo a la guía para el llenado de la ficha. Una vez realizada la segunda inspección, se repitió dos visitas posteriores utilizando la misma herramienta, con el fin de dar seguimiento a las condiciones en que se encontraba el establecimiento, ya que se les aportó recomendaciones en la primera inspección para fortalecer las debilidades que presentaba. Terminada las inspecciones correspondientes, se analizaron los datos mediante lo establecido en la (NTON 03 069-06/RTCA 67.01.33:06), se tomó la última inspección como datos válidos para la elaboración del Manual de Buenas Prácticas de Manufactura


CONCLUSIONES

Durante la estancia de verano se logró desarrollar el tema y poner en práctica el conocimiento teórico aprendido. Inicialmente se realizó un diagnóstico visual tomando en cuenta las variables de infraestructura, ubicación, equipos e instalaciones contenidas en el reglamento de inspección sanitaria RTCA 67.01.33:06 y NTON 03 069 - 06, para la autorización de fabricación de alimentos y bebidas procesadas, el cual la suma total para aprobación debe ser igual o mayor a 81 puntos. Sin embargo, al ser un trabajo extenso no fue posible realizar los demás objetivos de la investigación , por lo tanto, no se pueden mostrar los datos obtenidos.
Pulido Diaz Maritza, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro

LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO


LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO

Corte Maldonado Andrea, Instituto Tecnológico de Puebla. Cortés López Mariana Estefanía, Instituto Tecnológico de Tuxtla Gutiérrez. de la Cruz Rodriguez Paloma Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Hernández Hernández Verónica Vanessa, Universidad Autónoma de Occidente. Perez Mendoza Paloma Yunuhen, Instituto Tecnológico Superior de Uruapan. Pulido Diaz Maritza, Instituto Tecnológico Superior de Uruapan. Rodríguez Lujan Yamileth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En México existen más de 5 millones de personas que se dedican al trabajo agrícola, según el censo de INEGI 2020, sin embargo, según el Gobierno de México, somos el séptimo país exportador de productos agrícolas al resto del mundo lo que nos genera la siguiente pregunta ¿Qué alimentos quedan para nuestras comunidades? Como lo sabemos cada estado de la republica cuenta con sus terrenos en donde cultivan algunos frutos que son originarios de las regiones y que con ayuda de la experiencia y los cuidados es bien sabido que se han podido generar productos de excelente calidad pero realmente el futuro de esos productos en su mayoría es terminar en manos y mesas de familias extranjeras y aquí en México la calidad siempre es colocada en tiendas o supermercados con un costo elevado y que no siempre está al alcance de todas las familias. Es por esta razón que se encuentra con el problema de que las comunidades productoras terminan consumiendo el producto que sobra o el producto que posee algún defecto lo cual no siempre garantiza una alimentación sana y de calidad por esta razón se debe encontrar una manera de garantizar un producto de calidad a las primeras comunidades de atención prioritaria, para que así todos consumamos un producto de excelente calidad, mismo como el que se exporta o el que se distribuye en los supermercados más reconocidos del país y por ello hacemos de referencia el primer momento de la cadena de suministros en la industria alimentaria.



METODOLOGÍA

Considerando que ésta es una investigación en su mayoría documental está centrada en la cadena de suministro de productos perecederos en la industria alimentaria mexicana, con un enfoque en la inocuidad y seguridad alimentaria. Se analizan y proponen mejoras a las normativas generales y específicas, particularmente la Norma Oficial Mexicana NOM-251-SSA1-2009 e ISO 22000, que aborda la higiene y calidad de los alimentos, bebidas y suplementos alimenticios. Dada la creciente población y la evolución global, es fundamental garantizar la seguridad y salud de los alimentos para el consumo humano. En México, la Secretaría de Salud a través de la Comisión Federal para la Protección contra Riesgos Sanitarios (COFEPRIS) y la Dirección General de Epidemiología (DGE) son las instituciones encargadas de monitorear y reportar la incidencia de enfermedades transmitidas por alimentos por lo que se pide la intervención puntual de los diferentes órdenes de gobierno en el ámbito de su incumbencia para generar la normativa necesaria que garantice alimentos de calidad.  El mercado agrícola en México es amplio y tiene un gran potencial para competir a nivel nacional e internacional, sin embargo, se detectan limitaciones en la propia industria local en todos sus ámbitos ya que no existe garantía para un consumo local inmediato y el mejor producto se considera calidad de exportación, se cuenta con poca información sobre empresas con certificaciones de normas y sistemas de gestión de calidad y de manera general quienes se dedican a este ramo ya que no es suficiente la información que proporciona el INEGI. La propuesta se orienta a incentivar y apoyar a las empresas que aún no cuentan con regulaciones, animándolas a acercarse a las autoridades correspondientes para mejorar la calidad de sus productos y garantizar su inocuidad. La prevalencia de enfermedades transmitidas por alimentos, como la salmonela y la E. coli, representa un desafío para la salud pública, y se necesita un seguimiento continuo a través de sistemas de vigilancia sanitaria. Se enfatiza la importancia de evaluar las de higiene en todas las etapas del proceso de producción, desde la selección de materias primas, almacenamiento, hasta la distribución, considerando la reciente pandemia vivida por COVID SARS-CoV 19. Una de las pretensiones es hacer evidente que el uso de la cadena en frio está alejado de una realidad económica para la mayoría de los productores y se debe tomar estrategia para la adecuación de transporte de menor tamaño en zonas serranas como la planta procesadora de alimentos de San Joaquín, así como la consideración de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje.


CONCLUSIONES

La cadena de suministro de productos perecederos en la industria alimentaria mexicana es fundamental para asegurar la inocuidad de los alimentos garantizando productos de calidad, la investigación ofrece una visión integral de la situación actual y propone acciones para mejorar la calidad y seguridad alimentaria, garantizando un consumo de calidad en México. Se propone una lista de verificación general para evaluar el cumplimiento de los estándares de calidad en la industria alimentaria. Establecer programas de capacitación certificada para garantizar el cumplimiento de estándares de calidad y normativo de manera local con la intervención de las instituciones como Universidades Públicas y privadas, así como del TecNM. Se plantea el uso de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje donde dejamos propuestas amigables al medio ambiente en base a la NOM-002-SSA1-1993. Se realizó un ejemplo de análisis de ruta con plataformas de la CST del INEGI y software libre para facilitar el análisis de costos y planteamiento de rutas para productores de menos poder económico. Esta investigación multidisciplinaria permite tener nuevos enfoques sobre la problemática de atención prioritaria atendiendo los objetivos de la agenda 2030 hambre cero, fin de la pobreza, salud y bienestar desde la perspectiva de la cadena de suministro de la industria alimentaría de los productos perecederos que lo limitamos a frutas y verduras en general en nuestro país. Refrendamos el compromiso con las causas sociales por lo que esta investigación hace una invitación a continuar con la participación activa de las diferentes instituciones públicas y privadas de Educación Superior para propuesta de las normativas necesarias que permitan garantizar “La soberanía alimentaria participando activamente en los temas legislativos en esta área".
Pulido Sánchez Edgar, Instituto Tecnológico Superior de Coalcomán
Asesor: M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas

INTRODUCCIóN AL MODELADO SEMáNTICO


INTRODUCCIóN AL MODELADO SEMáNTICO

Pulido Sánchez Edgar, Instituto Tecnológico Superior de Coalcomán. Asesor: M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo tiene como objetivo desarrollar un curso de introducción a la web semántica y el modelado de ontologías. La web semántica es una extensión de la World Wide Web que busca proporcionar significado y contexto a la información para que pueda ser entendida tanto por humanos como por máquinas. En este curso, se estudiarán los conceptos básicos y herramientas necesarias para comprender y aplicar el modelado semántico. Además, se abordarán los fundamentos de las ontologías, que son estructuras de conocimiento formalizadas que representan y organizan el dominio de conocimiento de un determinado tema. Durante el curso, se definirá el dominio de una ontología específica, que servirá como ejemplo de aplicación práctica para los participantes.



METODOLOGÍA

Durante el curso, me familiaricé con los conceptos básicos y las herramientas necesarias para comprender y aplicar el modelado semántico en la web. A lo largo de las semanas, seguí una metodología dividida en tres fases que me permitió adquirir conocimiento base en el desarrollo de ontologías y construir de manera efectiva una ontología. Fase teórica (Semanas 1 a 3): Exploré una variedad de materiales, como artículos y documentos compartidos, para adquirir las bases teóricas del modelado semántico. Profundicé en temas como la definición y el propósito de la web semántica, los principales lenguajes en los que se basa (OWL, RDF, RDF-Schema, etc.), el concepto de ontologías y la importancia del dominio de conocimiento. Aprendí acerca de las metodologías más utilizadas en el modelado semántico, como Ontology 101, Methontology y Neon. Comprendí cómo el idioma desempeña un papel fundamental en el proceso de modelado semántico.   Fase práctica (Semanas 4 a 6): Utilicé la herramienta Protégé para la construcción práctica de taxonomías y ontologías. Identifiqué los elementos clave del dominio específico que fue el foco de mi ontología, basándome en un análisis detallado. Construí la taxonomía inicial, organizando las clases de acuerdo con sus relaciones jerárquicas y los requisitos específicos del dominio. Definí las características de cada clase mediante etiquetas y anotaciones, asegurándome de incorporar las descripciones y definiciones previamente documentadas en tablas. Establecí las relaciones entre las clases, utilizando propiedades de objeto para representar conexiones y vínculos precisos en el modelo. Fase de cierre (Semana 7): Documenté todo el proceso realizado durante el curso. Elaboré un informe interno, que incluyó una introducción al tema de la web semántica, las definiciones de taxonomía y ontología, las tablas generadas durante el modelado y capturas de pantalla que mostraban el proceso en Protégé. Generé un resumen para la plataforma Delfín, que sirvió como evidencia de mi estancia en la Facultad de Ingeniería y Ciencias, UAT. Con esta metodología, adquirí un conocimiento sólido en el desarrollo de ontologías y su aplicación práctica en la web semántica. Logré el objetivo del proyecto de manera efectiva y conté con una documentación completa que respaldó mi aprendizaje y experiencia en esta área.


CONCLUSIONES

El presente curso de introducción a la web semántica y el modelado de ontologías ha sido una experiencia enriquecedora que me ha permitido adquirir conocimientos fundamentales y habilidades prácticas en esta disciplina. En el planteamiento del trabajo, se estableció el objetivo de estudiar los conceptos básicos y herramientas necesarios para comprender y aplicar el modelado semántico. Además, se definió la creación de una ontología en un dominio específico como ejemplo práctico a desarrollar a lo largo del curso. La metodología utilizada resultó efectiva y bien estructurada. Durante la fase teórica, a través del análisis de diversos materiales compartidos, pude profundizar en los conceptos clave de la web semántica y las ontologías. Asimismo, comprendí la importancia de los lenguajes de representación y las metodologías más utilizadas en el modelado semántico. En la fase práctica, haciendo uso de la herramienta Protégé, llevé a cabo la construcción de la ontología. Realicé un análisis minucioso del dominio seleccionado, lo que me permitió identificar los elementos fundamentales que se convertirían en clases del modelo. A través de la taxonomía inicial, organicé las clases con sus respectivas relaciones jerárquicas, y mediante etiquetas y anotaciones, definí las características de cada clase. También establecí las relaciones entre las clases, creando un modelo bien estructurado que representaba fielmente el dominio de conocimiento seleccionado. En conclusión, este curso ha sido un paso importante en mi formación académica y profesional. Los resultados obtenidos demuestran que ahora poseo un entendimiento mayor de la Web Semántica y el modelado de ontologías, así como la capacidad de aplicar estos conocimientos en un proyecto concreto. Esta experiencia ha despertado mi interés en seguir explorando el potencial de la web semántica en diversos campos, y me siento preparado para enfrentar nuevos retos en el desarrollo y aplicación de ontologías. Los aprendizajes adquiridos en este curso serán de gran valor para mi crecimiento profesional y contribuirán positivamente en futuros proyectos de investigación y desarrollo en el área de la informática y la ciencia de datos.
Punzo Martinez Abril, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Irving Antonio Brion Espinoza, Universidad Tecnológica de La Sierra

EXTRACCIÓN DE COMPUESTOS FENÓLICOS DE SEMILLA DE CALABAZA (CUCURBITA PEPO) POR MÉTODO DE MACERACIÓN PARA EVALUAR SU ACTIVIDAD ANTIFÚNGICA CONTRA COLLETOTRICHUM GLOEOSPORIOIDES PROVENIENTE DE MANGO ATAULFO.


EXTRACCIÓN DE COMPUESTOS FENÓLICOS DE SEMILLA DE CALABAZA (CUCURBITA PEPO) POR MÉTODO DE MACERACIÓN PARA EVALUAR SU ACTIVIDAD ANTIFÚNGICA CONTRA COLLETOTRICHUM GLOEOSPORIOIDES PROVENIENTE DE MANGO ATAULFO.

Punzo Martinez Abril, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Irving Antonio Brion Espinoza, Universidad Tecnológica de La Sierra



PLANTEAMIENTO DEL PROBLEMA

Actualmente evitar el daño fúngico a los frutos sigue siendo una difícil tarea, a causa de ello los frutos son perjudicados severamente en todos los sentidos, decayendo su calidad ante el mercado, debido a esto se trabaja en la realización de antinfúngicos (AF) con mayor eficiencia, sin embargo, la salida más viable para los productores al problema es la utilización de antifungicos químicos, ahora bien, este tipo de fungicidas a un largo plazo son dañinos a la salud de los consumidores, asimismo son altamente perjudiciales para el medio ambiente. Recientemente se ha comprobado que los compuestos fenólicos provenientes de vegetales logran tener una acción antifúngica en los alimentos; es por eso que evaluaremos la posible actividad antifúngica de la semilla de calabaza ante el hongo Colletotrichum gloeosporioides proveniente del mango ataulfo, debido a que Nayarit es uno de los estados mexicanos con mayor producción de mango en esta variedad.



METODOLOGÍA

Como primer paso se realizó la extracción de compuestos fenólicos por el método de maceración, esta técnica consistió en colocar la muestra de semilla de calabaza en contacto una solución Etanol:Agua, posteriormente  se colocó en una placa de agitación a 300 RPM, durante 2,4 y 8 horas, para la evaluación del mejor método cuantitativo en la extracción, enseguida se filtró la solución por un papel filtro estéril,  el líquido purificado obtenido se colocó en un evaporador rotatorio a 40 °C para eliminar el solvente y, por último, las muestras se almacenaron a -18 °C. En paralelo con la extracción de compuestos se realizaron pruebas de crecimiento micelial del hongo Colletotrichum gloeosporioides previamente aislado del mango (Mangifera indica L.) se obtuvo del municipio de Tepic, Nayarit, seleccionando los frutos en estado de madurez de consumo, la preparación para las pruebas de crecimiento micelial se partio de la preparación de 20 ml de agar PDA en un tubo falcón, estéril, una vez que descendió la temperatura a 40°C, se agregaron alícuotas de  fenoles 50, 80 y 120 µl de fenoles y homogenizando con el agar PDA en vortex y vaciada en cajas de Petri por triplicado con cada uno de los tratamientos (2,4 y 8 horas). A partir de cajas con el hongo patógeno con crecimiento de 7 días, se tomaron con el sacabocado en la periferia de la colonia de C. gloeosporioides y fue sembrada en el centro de la caja, se incubaron a 28°C y se midió el diámetro miceliar diariamente durante 7 días. La prueba testigo se realizó con cajas de Petri con el hongo patógeno, donde se colocaron 50, 80 y 120 µl de la solución de etanol: agua (Et:Ag) en una relación 8:2 (v/v). 


CONCLUSIONES

El proyecto de investigación está progresando, esperando demostrar que la semilla de calabaza sea un antifúngico con potencial uso en la industria alimentaria. En primer lugar, obtuvimos el extracto de los compuestos fenólicos los cuales presentas las siguientes características, son de color verde obscuro, olor característico de la semilla de calabaza, viscoso y denso, cada tratamiento de (2, 4 y 8 horas), se recabaron diferentes cantidades de cada uno de los compuestos, concluyendo que entre más tiempo permanezca en agitación la muestra con la solución obtendremos más cantidad del compuesto, así mismo en las pruebas de crecimiento micelial, el porcentaje con mayor inhibición fue de 27%  en el tratamiento que se sometió a 4 horas, con una cantidad 120 µl  genero mayor efectividad antifúngica en el crecimiento micelial comparado con los demás tratamientos.. Se pretende seguir con la investigación, y someter a agitación por más tiempo a la solución con la muestra y comprobar si obtendremos una actividad antifúngica mayor, de igual manera gracias a la acción que género el compuesto, posteriormente se realizara una película por el método de casting. Algo fundamental que aprendimos en este verano fue a trabajar en equipo e individualmente, a comprometernos con responsabilidad que nos compete como integrantes del proyecto, el intercambio cultural y la diferencia de ideas.
Qué Juárez Pavel, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos

INNOVACIóN FRUGAL PARA LA COMERCIALIZACIóN DE PRODUCTOS AGRíCOLAS DERIVADOS DEL PROGRAMA SEMBRANDO VIDA


INNOVACIóN FRUGAL PARA LA COMERCIALIZACIóN DE PRODUCTOS AGRíCOLAS DERIVADOS DEL PROGRAMA SEMBRANDO VIDA

Gómez López Jonathan, Instituto Tecnológico Superior de Los Ríos. Mosqueda Jiménez Santa Yuritzi, Instituto Tecnológico Superior de Los Ríos. Qué Juárez Pavel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, el Programa Sembrando Vida ha demostrado ser una iniciativa exitosa en la promoción de la agricultura sostenible y la generación de ingresos para comunidades rurales. Mediante la siembra y cuidado de árboles frutales y maderables, el programa ha logrado mejorar la calidad de vida de miles de familias campesinas, preservar el medio ambiente y fomentar la producción de cultivos agrícolas. Sin embargo, a pesar de los logros alcanzados en la producción, el proceso de comercialización de los productos agrícolas derivados del Programa Sembrando Vida presenta desafíos significativos, entre ellos, la falta de acceso a mercados consolidados, la limitada infraestructura logística en las áreas rurales, y la escasa diversificación de productos disponibles para la venta, dificultan la maximización de los beneficios económicos y el pleno potencial del programa. Actualmente, la mayoría de los agricultores beneficiarios del programa solo pueden vender sus productos en mercados locales y a intermediarios, lo que resulta en márgenes de beneficio reducidos y dependencia de terceros. Además, la falta de tecnologías y prácticas innovadoras limita su capacidad para agregar valor a sus cultivos y ofrecer productos más atractivos para mercados más amplios y exigentes, teniendo como causas directas el conocimiento técnico insuficiente de los sistemas agroforestales para el cultivo de la tierra y escasos recursos monetarios de los campesinos, así como la falta de capacitación en temas afines a la comercialización.



METODOLOGÍA

El objetivo de la investigación se centra en aplicar la innovación frugal en la cadena de valor del producto agrícola con mayor producción de la Ruta 2, derivado del Programa Sembrando Vida del municipio de Balancán correspondiente a la Región Tabasco-Península, que genere competitividad sostenible, por lo anterior, se considera como una investigación aplicada con un enfoque descriptivo por la interpretación de los resultados a la realidad del contexto actual. Se realizaron diversas actividades encaminadas al diseño de una propuesta fiable para los productores de la Ruta 2, entre ellas: Elaboración de un diagnóstico de las Comunidades de Aprendizaje Campesino (CAC) de la Ruta 2 (Apatzingán, Sacaolas, Cenotes, Capulín y Ramonal) del Programa Sembrando Vida en el municipio de Balancán, para identificar los productos que se cultivan a corto, mediano y largo plazo por los productores rurales, donde se a través del diseño de un instrumento de investigación aplicado a los productores rurales. Total, de productores adscritos en la Ruta 2 del Programa Sembrando Vida: 992 Cultivos con mayor producción a corto plazo: Chihua, mediano plazo: Limón persa y largo plazo: Mango. Cultivo con mayor potencial de comercialización: Chihua Diseño de estrategias de innovación frugal en la cadena de valor para lograr la comercialización de productos derivados de la chihua.


CONCLUSIONES

El proyecto de investigación da una alternativa para asegurar la sostenibilidad de los sistemas de producción agrícolas y aplicar prácticas resilientes que garanticen transformar los productos cultivados en productos comerciables e impulsar la economía de las familias dedicadas al programa Sembrando Vida. Por lo tanto, se reflejará en los siguientes aspectos: Incremento de ingresos para los agricultores: La mejora en la comercialización de los productos agrícolas permitirá a los agricultores acceder a mercados más rentables, lo que se traducirá en un aumento de sus ingresos y una mejora en su calidad de vida. Esto ayudará a fortalecer la economía local y reducir la pobreza en las comunidades rurales. Fomento de la sostenibilidad del programa: Al mejorar la comercialización de los productos agrícolas, se promoverá la sostenibilidad del Programa Sembrando Vida. Los agricultores tendrán un incentivo económico más fuerte para participar en el programa y seguir practicando la agricultura sostenible, lo que contribuirá a la conservación del medio ambiente y a la mitigación del cambio climático. Impulso a la innovación tecnológica: La implementación de estrategias de innovación frugal permitirá encontrar soluciones prácticas y de bajo costo para superar las barreras en la comercialización de los productos agrícolas. Esto fomentará la adopción de tecnologías y herramientas accesibles para mejorar la cadena de suministro, la logística y la promoción de los productos. Fortalecimiento de capacidades locales: El proyecto brindará capacitación y asesoramiento a los agricultores en áreas como la comercialización, el empaquetado, la promoción y el acceso a mercados. Esto fortalecerá sus habilidades y conocimientos en el ámbito empresarial, permitiéndoles ser más competitivos y exitosos en la venta de sus productos. Generación de empleo y desarrollo local: Al impulsar la comercialización de los productos agrícolas, se crearán oportunidades de empleo adicionales en las comunidades rurales. Esto no solo beneficiará a los agricultores, sino también a otros actores locales involucrados en la cadena de suministro, como transportistas, procesadores y vendedores minoristas. del producto, la productividad interna y la competitividad sustentable. 
Quijano Ramirez Nicolas, Universidad de Investigación y Desarrollo
Asesor: Mg. Andrea Fernanda Burbano Bustos, Corporación Universitaria del Caribe

ANáLISIS BIBLIOMéTRICO DE LOS HUMEDALES COSTEROS


ANáLISIS BIBLIOMéTRICO DE LOS HUMEDALES COSTEROS

Quijano Ramirez Nicolas, Universidad de Investigación y Desarrollo. Asesor: Mg. Andrea Fernanda Burbano Bustos, Corporación Universitaria del Caribe



PLANTEAMIENTO DEL PROBLEMA

Las zonas de humedales costeros son ecosistemas valiosos que desempeñan un papel fundamental en la conservación de la biodiversidad, y en los efectos del cambio climático en los últimos años.   Para conocer que estudios se han adelantado sobre el tema, es importante hacer una revisión de literatura científica, se utilizará la metodología de revisión bibliométrica; con el objetivo de en analizar y las investigaciones realizadas en los últimos años sobre las zonas de humedales costeros, así conocer las metodologías empleadas, las tendencias y datos relevantes a partir de las relaciones que puedan darse entre los resultados obtenidos. Se limita la revisión a estudios en este campo durante los últimos 6 años.  Se utiliza la base de datos Scopus como fuente de información, para la selección se aplican filtros de tiempo, con el propósito de relacionar únicamente resultados de publicaciones realizadas entre los años 2017 al 2023.  Así mismo, para excluir algunos resultados se utiliza los operadores lógicos AND - OR en las consultas, para incluir o excluir algunos resultados al realizar las búsquedas.



METODOLOGÍA

Fase 1 Búsqueda Probar diferentes cadenas para la búsqueda de información en la base de datos Scopus; se realizaron búsquedas con palabras clave como Imágenes satelitales, Zonas costeras, calidad del agua, entre otros. Fase 2 Selección Se incorpora el uso de los operadores lógicos en diferentes combinaciones para lograr selectividad en los resultados; por ejemplo: Imágenes AND satélites donde usan un operador booleano como lo es AND o también para buscar relaciones como el OR. Para excluir una cantidad de información, se limita la búsqueda a las revistas científicas con origen en los países suramericanos. Así mismo, se estableció un rango de tiempo específico para la búsqueda, determinando una ventana de tiempo de seis años comprendidos entre el 2017 al 2023, esto con el fin de excluir artículos o publicaciones muy antiguas. Fue importante revisar que los criterios de búsqueda, procurando que fueran bastantes precisos, de tal manera que facilitará la selección de los artículos que cumplen con cada uno de ellos:  fechas de las publicaciones, afiliaciones, nombres de autores entre otros. Fase 3 Obtención y Tratamiento de Resultados Con las cadenas de búsqueda utilizadas, se obtuvieron 109 publicaciones, estos resultados se importan a las aplicaciones VOS-viewer y R-studio con el fin de realizar una representación gráfica, obtención de mapas de coocurrencia, mapas de coautores, diagramas de barras entre otros.   Fase 4 Análisis La visualización gráfica de los resultados facilita el análisis de ellos, por ejemplo; la cantidad de autores que han realizado estudios sobre el tema en la ventana de tiempo elegida, establecer relaciones entre los autores, determinar el número de publicaciones por autor, etc…


CONCLUSIONES

En esta revisión bibliográfica, se usó las herramientas para revisión bibliométrica, de tal manera que se facilita conocer la producción científica en torno al tema de imágenes satelitales y zonas costeras. En la ventana de tiempo seleccionada, se observa que en los años que mayor número de publicaciones se realizaron usando las palabras clave Imágenes satelitales, Zonas costeras, calidad del agua; es en el período comprendido entre el año 2020 y el 2021. Se debe seguir usando las búsquedas avanzadas, operadores lógicos y filtros en los ejercicios de análisis bibliométricos, con el propósito obtener más elementos que puedan orientar la investigación sobre las necesidades concretas para el proyecto de investigación que desarrollan dos docentes del programa Ingeniería de Sistemas de CECAR.
Quintana Frías Alina Rocío, Instituto Tecnológico Superior de Irapuato
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

MINERíA DE DATOS PARA LPI


MINERíA DE DATOS PARA LPI

López González Javier Paulino, Instituto Tecnológico Superior de Irapuato. Quintana Frías Alina Rocío, Instituto Tecnológico Superior de Irapuato. Rodriguez Hernandez Claudia Paola, Instituto Tecnológico Superior de Irapuato. Venegas Cruz Isabel Concepción, Universidad Autónoma de Sinaloa. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El índice de desempeño logístico (LPI) es una evaluación realizada por el Banco Mundial donde evalúa a más de 150 países. En el LPI se tiene información de categorías como aduanas, infraestructura, trazabilidad, calidad y tiempo de entrega. Sin embargo, para comprender mejor el índice hace falta información sobre indicadores económicos, sociales y de consumo de energía, por lo cual es necesario crear una base de datos.



METODOLOGÍA

Se realizó un código en la plataforma de Google Colab para hacer web scraping de páginas como calificadoras crediticias, la ONU y el World Factbook de la CIA. Se desarrolló el código con la librearía Pandas y BeautifulSoup para leer en un ciclo diversas url’s y acomodar la información en columnas en un archivo CSV según los selectores deseados.


CONCLUSIONES

El trabajo realizado permitió ahorrar tiempo, en un lapso de 703 segundos se obtuvo un archivo CSV con la información solicitada. Fue necesario hacer ajustes a los datos del archivo obtenido, pero fueron mínimos. El código realizado es útil para realizar otro tipo de trabajos similares, solo es cuestión de indicar las url’s y los selectores. El código fue probado con otras instancias como la página del Guanajuato International Film Festival y el Festival Internacional Cervantino; obteniendo resultados satisfactorios.
Quintero García Oliver Israel, Universidad de Guadalajara
Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco

ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA


ALGORITMO DE VISIóN ARTIFICIAL PARA LA CONTABILIZACIóN DE HUEVOS DE AE. AEGYPTIS Y AE. ALBOPICTUS EN EL ÁREA METROPOLITANA DE GUADALAJARA

Coronado Cabrera Bryan Axl, Universidad de Guadalajara. González Ascencio Osvaldo Isay, Universidad de Guadalajara. López Quiroz Mariana Jocelyn, Universidad de Guadalajara. Medina Guerrero Manuel Fernando, Universidad de Guadalajara. Quintero García Oliver Israel, Universidad de Guadalajara. Asesor: Dr. Gil Santana Esparza, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

El dengue transmitido por los mosquitos Aedes aegypti y Aedes albopictus es un problema de salud crítico en las zonas tropicales de nuestro país. Sin embargo, incluso en áreas urbanas con un clima cálido y subhúmedo, como la zona metropolitana de Guadalajara, existe un riesgo considerable, especialmente durante el verano. Aunque los casos registrados en Jalisco son relativamente pocos, alrededor de 150 confirmados por año en promedio, es importante considerar que la mayoría de los casos pueden no ser diagnosticados, ya que otras regiones del país con clima similar y menor densidad poblacional informan y registran más casos anualmente. Entre la información necesaria a la hora de atacar esta problemática, está la estimación de densidad poblacional de los mosquitos y riesgos de transmisión. Ésta se realiza haciendo uso de ovitrampas distribuidas estratégicamente en zonas críticas de la región, utilizadas para recolectar huevos de vectores de dengue (Ae. aegypti y Ae. albopictus). Las ovitrampas utilizadas en el área metropolitana de Guadalajara consisten en dispositivos hechos de un bote plástico de color negro de 1 L. de capacidad, el cual es llenado a partes de volumen y recubierto sobre el borde de agua con una papeleta de pellón o papel filtro. Uno de los problemas presentes en el uso de este método de monitoreo del dengue es la falta de practicidad y fiabilidad en el conteo manual de los huevos de Ae. aegypti y Ae. albopictus en ovitrampas por parte del personal del Departamento de Dirección del Programa de Enfermedades Transmitidas por Vectores del Gobierno de Jalisco. Para abordar esta situación, es necesario digitalizar el proceso de conteo de huevos, que actualmente se realiza de forma manual por el personal gubernamental. Además, es importante analizar la información procesada para determinar la precisión del conteo de huevos en contraste con los datos públicos. El conteo manual de los huevos no solo se ve afectado por la salud visual del personal a largo plazo, si no que también presenta una fiabilidad altamente variable debido a la fatiga visual que se produce en la concentración de la vista en puntos específicos como lo demanda el conteo que realiza el personal. Al abordar el siguiente problema, también se podría reducir el margen de error en el conteo de huevos en un considerable porcentaje.



METODOLOGÍA

Con base al análisis situacional previo, realizado en base a los reportes emitidos por la Secretaría de Salud de Jalisco, en el cual se conoció el proceso de vigilancia y monitoreo de las ovitrampas instaladas en la zona, se ha detectado la necesidad de vigilar y cuantificar la cantidad de huevecillos producidos por el mosquito Aedes Aegypti y Aedes Albopictus transmisor de la enfermedad del dengue. El hecho de cuantificar los huevecillos captados en las ovitrampas le proporciona al sector salud información para determinar las estrategias a implementar para combatir la proliferación de dicho mosquito. Sin embargo, se percibe que este proceso de vigilancia y cuantificación se realiza de forma manual, por lo cual sería importante realizarlo con base a tecnologías emergentes que coadyuven en esta tarea para aumentar la optimización del tiempo y los niveles de confianza en el conteo y monitoreo. Se ha tomado como punto de partida el hecho de que, para una computadora, las imágenes no son más que una matriz de información donde se almacena el valor del píxel en que se encuentra sobre una pantalla. Cada uno de dichos píxeles se identifica por sus coordenadas y el nivel de intensidad con el que se visualiza. En las imágenes en blanco y negro dicho nivel de intensidad es un valor en el rango 0 - 255, siendo 0 la oscuridad absoluta y 255 la máxima luminosidad. Entre medias estaría toda la escala de grises. En las imágenes en color cada píxel se compone de tres valores, correspondientes a la intensidad de los tres colores primarios: rojo, verde y azul. De tal manera que para el desarrollo del proyecto, se han aplicado los aportes conceptuales de los diversos autores consultados así como las cuatro fases ya mencionadas: adquisición, preprocesamiento, determinación de objetos y análisis de imágenes del mundo real.


CONCLUSIONES

Una de las técnicas empleadas para el procesamiento de la imagen fue la binarización. Esta técnica tiene como función principal convertir la imagen en escala de grises a una imagen binaria, donde los píxeles se representan con valores de blanco o negro. La binarización permite que la computadora perciba la imagen de manera más efectiva, se simplifica la complejidad de la imagen y se resaltan los contornos y características distintivas. A través de la binarización es posible distinguir los contornos de la imagen y los objetos que contienen, de esta manera podemos identificar los huevos en el pellón, para reducir la cantidad de falsos positivos basándonos en un análisis previo de los rangos en los que se encuentran los tamaños de los huevos. De esta manera, el algoritmo puede realizar un conteo preciso de la cantidad de huevos presentes en el pellón. El avance de este algoritmo de conteo, que emplea técnicas de visión artificial, representa una alternativa considerablemente más precisa y eficiente en comparación con los métodos actuales que el personal de la Secretaría de Salud de Jalisco utiliza para contar manualmente los huevecillos presentes en el pellón. Además del ahorro de tiempo, el enfoque de visión artificial muestra un mayor grado de consistencia y fidelidad en los datos obtenidos. Al eliminar el factor subjetivo asociado con el conteo manual, se minimizan las posibles discrepancias y errores humanos, asegurando resultados más precisos y confiables en el análisis. En conclusión, los resultados de esta investigación respaldan la superioridad del enfoque de visión artificial en términos de ahorro de tiempo, eficiencia y precisión en el conteo de huevecillos. Esta tecnología promete ser una herramienta valiosa para mejorar la calidad y efectividad de los procesos de conteo en diversas aplicaciones, incluida la labor del personal de la Jurisdicción Sanitaria en el monitoreo de huevecillos y otras tareas relacionadas.
Quintero Valdez José Rodrigo, Universidad de Guadalajara
Asesor: Dra. Nadia Teresa Adaile Benítez, Universidad Tecnológica de Nayarit

DESARROLLO DE CONTENIDO PARA ENSEñANZA HíBRIDA DE DESARROLLO WEB


DESARROLLO DE CONTENIDO PARA ENSEñANZA HíBRIDA DE DESARROLLO WEB

Quintero Valdez José Rodrigo, Universidad de Guadalajara. Asesor: Dra. Nadia Teresa Adaile Benítez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo de investigación justifica y presenta una metodología de aplicación y desarrollo de clases híbridas y es que, en el contexto educativo actual, la implementación de cursos híbridos ha ido en aumento debido a los avances tecnológicos y la necesidad de adaptarse a las demandas de aprendizajes de los estudiantes. Los cursos híbridos combinan elementos presenciales y en línea para ofrecer una experiencia de aprendizaje más flexible y enriquecedora. Y es que, según Sousa Santos, S., Peset González, M. J.  & Muñoz Sepúlveda, J. A. (2021) definen la enseñanza híbrida como: Aquella que combina la instrucción presencial y la instrucción online mediada por las TIC. La integración efectiva de ambos componentes en la experiencia de aprendizaje es el elemento distintivo de la enseñanza híbrida y su mayor complejidad Para aplicación de la metodología desarrollada se realizó la transición híbrida de la materia de Desarrollo Web Integral. El desarrollo web es un campo dinámico y en constante evolución, y es fundamental que los estudiantes adquieran habilidades prácticas y conocimientos teóricos actualizados para mantenerse al día con las tendencias y tecnologías emergentes. Un curso híbrido en la materia de Desarrollo Web Integral puede brindar numerosos beneficios a los estudiantes y a la institución educativa.



METODOLOGÍA

La metodología desarrollada en el presente proyecto de investigación se conforma por 4 etapas bien definidas: Análisis, producción y creación de contenido, aplicación y mejora. Donde la creación de la clase híbrida nace de un análisis donde se establecen los objetivos de aprendizaje, se distribuye el contenido temático en plazos de tiempo que cubran el periodo de clase y se estudia la bibliografía y recursos que permitan cubrir adecuadamente los objetivos, que a partir de toda esta planificación se puede producir y crear la clase y tomar decisiones como la selección de la plataforma de acceso que cumpla con los recursos necesarios y esté al alcance de los interesados, la creación de los contenidos temáticos considerando que estos tengan la disposición tanto en clase presencial como en la clase virtual así como los diferentes tipos de aprendizaje, dentro de la misma etapa se deberán establecer el orden cronológico y coherente del contenido, así como establecer las rúbricas de obtención de nota de las actividades, proyectos y pruebas académicas del curso, asegurando plazos de tiempo de las etapas de la clase en el periodo de estudio. Todo este proceso permitirá la aplicación de estos contenidos y rúbricas para aplicar la enseñanza híbrida durante el periodo escolar en donde se brinda el acceso a la plataforma de enseñanza elegida y analizar los resultados de aprendizaje de la media de las notas obtenidas por el alumno, además de considerar la opinión de estos para aplicar una mejora continua al curso y que la enseñanza sea satisfactoria.


CONCLUSIONES

Como resultado obtenemos la transición del curso de "Desarrollo Web Integral" del modelo tradicional al híbrido que, una vez planificado el curso, identificando tópicos distribuidos en unidades, y estas definidas en tiempo específico, es posible establecer los contenidos que se desean desarrollar, así como los elementos necesarios para los indicadores y métricas de evaluación del éxito del enfoque híbrido en la materia. Y es que la aplicación de las rúbricas y contenido será posible de adecuarse hasta el curso del siguiente periodo, para así poder desarrollar la última etapa de la metodología desarrollada que es la mejora, es entonces indispensable que exista conciencia del facilitador del curso que debe de llevar a cabo una retroalimentación continua de todos los elementos que conlleva el modelo híbrido, como es la participación virtual y presencial, el conocimiento adquirido a partir de la práctica y la teoría estudiada de los contenidos desarrollados así como el aterrizaje de conclusiones e ideas de los alumnos comentadas en clase.  Los avances realizados permiten vislumbrar el potencial y las ventajas del enfoque híbrido en la materia de Desarrollo Web Integral. Los resultados obtenidos hasta el momento muestran una mayor participación e interacción de los estudiantes, quienes han demostrado un mayor compromiso con el aprendizaje y han expresado su entusiasmo por la combinación de elementos en línea y presenciales. Como conclusión, este proyecto ha servido como una oportunidad de aprendizaje tanto para los estudiantes como para el equipo docente involucrado. El contenido de clase y los resultados obtenidos hasta el momento indican un potencial prometedor para el enfoque híbrido en la materia de Desarrollo Web Integral. Se espera que los aprendizajes adquiridos en esta experiencia sirvan como punto de partida para continuar explorando y perfeccionando el uso de la modalidad híbrida en futuras iteraciones del curso. Con un enfoque centrado en la mejora continua, se busca brindar a los estudiantes una experiencia de aprendizaje enriquecedora y relevante en el campo del desarrollo web integral.
Raffán Pinto Kevin, Universidad Autónoma de Occidente
Asesor: Dr. Francisco López Orozco, Universidad Autónoma de Ciudad Juárez

ANáLISIS DE DATOS OCULOMéTRICOS DE LA BúSQUEDA DE INFORMACIóN EN NOTICIAS


ANáLISIS DE DATOS OCULOMéTRICOS DE LA BúSQUEDA DE INFORMACIóN EN NOTICIAS

Raffán Pinto Kevin, Universidad Autónoma de Occidente. Asesor: Dr. Francisco López Orozco, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En la era digital, las noticias se han convertido en una parte fundamental de la vida cotidiana de las personas. Con la proliferación de medios de comunicación y plataformas en línea, el acceso a la información está al alcance de todos. Sin embargo, en este entorno de información rápida y abrumadora, surge un interrogante crítico: ¿qué partes de una noticia son las que realmente leen o prestan mayor atención las personas? La gran cantidad de información que es publicada diariamente, la cual está sujeta a fenómenos como falsa información, amarillismo o ambigüedad, hace difícil para las personas consumir la información de forma segura. Por lo cual es correcto buscar información precisa y objetiva, sin embargo, es común que las personas busquen información corta para darse una idea rápida y superficial de la información, o que confirmen sus propias creencias. Este proyecto tiene como objetivo principal analizar el comportamiento de la audiencia al consumir noticias y determinar cuáles son las secciones o elementos específicos que generan un mayor interés y retención. Para saber cómo es la cultura de consumo de información actual.



METODOLOGÍA

Se usa Opensesame para diseñar el experimento, el cual consiste en un panel de instrucciones, luego se muestra un panel de noticia, en la cual se registra el movimiento de los ojos y que parte de la notica se estaba leyendo, para después hacer una pregunta con respecto a esta noticia. Se hace un ciclo con tres noticias de las categorías: Política, deportes y tecnología. Después de estas tres secciones se deja el panel final para salir del experimento y descargar los datos recolectados. La adquisición de las coordenadas de la mirada se realiza usando la librería webgazer.js, que escanea la imagen de la cámara del computador para encontrar una cara e identificar las características de los ojos y del resto de la cara para saber que parte de la pantalla esta viendo el sujeto. Esto se guarda en unos arreglos que se guardan en formato Excel, para después transformarlo a un mapa de calor con el texto, y de esa forma ver que partes del texto son las más vistas. Con esta información se buscan patrones de lectura en las noticias, específicamente cuales partes son las más leídas, buscando las categorías de: Presentación de la noticia Datos de la noticia Personas mencionadas en la noticia Lugares mencionados Opiniones del periodista Con esta información se saca una conclusión de que información busca las personas, y que tan buenas costumbres de lectura tienen, respondiendo preguntas como: ¿Qué es lo que miran las personas para informarse? ¿Cuánta información necesitan las personas para hacer una opinión de un suceso? ¿Qué tan buena cultura de lectura tienen las personas?


CONCLUSIONES

A lo largo del experimento, se observó que WebGazer.js fue útil para obtener datos de seguimiento ocular, lo que permitió recopilar información sobre qué partes de la noticia capturaban la atención del sujeto antes de responder a las preguntas. Sin embargo, se encontraron dificultades significativas durante la fase de ejecución al intentar obtener las coordenadas precisas necesarias para el análisis debido a problemas en la plataforma de JATOS, lo que finalmente impidió la finalización exitosa del proyecto. A pesar de los desafíos técnicos que surgieron y que llevaron a la conclusión prematura del estudio, este experimento ofrece una base prometedora para futuras investigaciones sobre el procesamiento cognitivo durante la lectura de noticias. Se sugiere que, en futuros intentos, se aborden las dificultades técnicas, quizás explorando alternativas a la plataforma de JATOS o realizando ajustes en el diseño del experimento. Aunque los resultados finales no se obtuvieron debido a los problemas de ejecución, este proyecto destaca la importancia de considerar las tecnologías de seguimiento ocular en la investigación de la lectura y la comprensión de noticias. Estos enfoques pueden proporcionar valiosos conocimientos sobre cómo las personas interactúan con la información presentada en los medios de comunicación, lo que puede tener implicaciones significativas en el campo de la comunicación, la psicología cognitiva y la educación.
Ramírez Amador Eduardo, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

ESTRATEGIAS PARA SATISFACER LA ESCASEZ DE SEMICONDUCTORES EN EL SECTOR AUTOMOTRIZ EN MéXICO


ESTRATEGIAS PARA SATISFACER LA ESCASEZ DE SEMICONDUCTORES EN EL SECTOR AUTOMOTRIZ EN MéXICO

Ramírez Amador Eduardo, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

El hecho por el cual se desarrolla el presente informe de investigación, es porque se pretende definir el concepto de lo que es un semiconductor, su importancia en la industria sobretodo en el sector automotriz en México y las estrategias que las diferentes compañías creadoras de vehículos en este espacio geográfico han implementado para optimizar la cadena de suministro de estos dispositivos, para así cubrir las deficiencias que esta sufría antes y viene padeciendo después de la pandemia del Covid-19. Además, también se realizará un enfoque en el hecho de cómo se sustituyen los microchips semiconductores habituales como parte de la estrategia de abastecimiento ante los problemas que sufre este producto en su demanda, su escasez y su deficiente distribución tomando en cuenta cada una de las partes geográficas en que se desarrollan cada uno de los procesos para elaborarlos. La idea central es establecer cuáles fueron las estrategias implementadas que más han destacado por su funcionalidad para el uso de estos dispositivos en el sector automotriz mexicano de acuerdo a las diferentes marcas automotrices establecidas en este territorio considerando factores económicos, políticos y sociales que han influido en cada uno de estos procesos para la optimización en la obtención de este producto.



METODOLOGÍA

El trabajo se desarrolla con una metodología de tipo cuantitativo y cualitativo con un enfoque descriptivo, en la que se proporcionan definiciones de las características de un semiconductor, sus funciones y su composición de elementos. Después, continúa explicativamente, argumentando las alternativas que han seguido algunas marcas de desarrollo tecnológico, en especial las automotrices, para satisfacer su necesidad de microchips semiconductores. La metodología también se base en el modelo de inversión determinado por el ahorro, el saldo externo y el balance presupuestario. Además, se utiliza el marco conceptual de la teoría de los ciclos económicos reales de cada una de las empresas automotrices con presencia en el territorio mexicano. Se utilizan datos del sistema nacional de cuentas nacionales del Instituto Nacional de Estadística, Geografía e Informática (INEGI, 2021).


CONCLUSIONES

La investigación planteada en este artículo refleja las deficiencias de la cadena de suministros en los semiconductores dada la necesidad que se tiene de estos en la actualidad. Haciendo enfoque en el sector automotriz, las innovaciones y desarrollo tecnológico visto en los automóviles y otros transportes que se ven obligados a dejar los motores de combustión, hacen que las necesidades de estos dispositivos estén en una tendencia en aumento por lo que las marcas automotrices se ven obligadas a intervenir para facilitar la obtención de este producto tan importante para la elaboración de sus diferentes modelos de vehículos. Esto también nos refleja la consecuente generación de semiconductores más simples, menos contaminantes en su fabricación y de menor costo. El sector automotriz mexicano ha enfrentado desafíos significativos debido a la escasez mundial de semiconductores, pero ha demostrado su capacidad para adaptarse y encontrar soluciones ante estos problemas. La diversificación de proveedores, la optimización de inventario y la colaboración con proveedores y gobiernos han sido algunas de las estrategias clave que han ayudado a mitigar el impacto de la escasez en la producción y competitividad de la industria.
Ramírez Bravo Rodolfo, Instituto Tecnológico de Morelia
Asesor: Dra. Adela Lemus Santana, Instituto Politécnico Nacional

SÍNTESIS Y CARACTERIZACIÓN DE CATALIZADORES DE HIERRO Y TITANIO PARA APLICACIONES FOTOCATALÍTICAS


SÍNTESIS Y CARACTERIZACIÓN DE CATALIZADORES DE HIERRO Y TITANIO PARA APLICACIONES FOTOCATALÍTICAS

Ramírez Bravo Rodolfo, Instituto Tecnológico de Morelia. Asesor: Dra. Adela Lemus Santana, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los procesos de oxidación avanzada (POA) son tratamientos terciarios que buscan eliminar compuestos no biodegradables presentes en aguas residuales. Los POA utilizan especies reactivas de oxígeno (ROS) para degradar compuestos químicos difíciles de eliminar con métodos convencionales. La fotocatálisis es un POA que emplea catalizadores (como dióxido de titanio, TiO2), que son activados con una fuente de luz para generar ROS y así descomponer contaminantes orgánicos. Es un proceso capaz de utilizar energía de la luz solar y una gran variedad de catalizadores para promover reacciones que no procederían en otras condiciones. Los catalizadores utilizados generan portadores de carga (pares electrón-hueco) al ser irradiados, en otras palabras, son semiconductores que posteriormente participan en la generación de ROS. La contaminación del agua ha significado un problema ambiental que repercute negativamente a la salud humana, por ello, aplicar fotocatálisis para descontaminación de agua es opción viable, que además presenta características que hacen que sea costeable y con un impacto ambiental casi nulo. El desarrollo de catalizadores permite que la fotocatálisis se posicione comercialmente para la desinfección de agua y la remediación de desechos peligrosos. La eficiencia de las reacciones químicas depende de los catalizadores, lo que significa que se pueden obtener mayores cantidades de productos deseados en menor tiempo y con un gasto energético más bajo.



METODOLOGÍA

Los catalizadores se prepararon a través del Método de Coprecipitación con Xerogeles (XFT). Se eligió preparar 5 composiciones de hierro/titanio que posteriormente fueron sometidas a dos temperaturas para obtener los catalizadores utilizados en fotocatálisis. Los XFT se diseñaron en relación con su contenido de Fe/Ti como se describe: XFT1 100/0, XFT2 75/25, XFT3 50/50, XFT4 25/75 y XFT5 0/100. Se prepararon soluciones precursoras de cloruro de hierro (FeCl3) y anatasa (A-TiO2), ambas con ácido cítrico (C6H8O7), y se mezclaron por separado hasta su completa solubilización, después se mezclaron FeCl3 con A-TiO2 durante 60 min más. Finalizada esta etapa fueron secados en una estufa a 100 °C durante 24 horas en atmosfera reactiva (aire). De esta manera se obtuvieron XFT1-5. De la masa total de los XFT1-5 se reservó el 30% para caracterización. El 35% se calcinó a 400 °C en aire durante 3 h, para obtener a los FT1-5. El otro 35% también se calcinó durante 3 h, pero a 800 °C, resultando en FT6-10. Todos los materiales obtenidos fueron pulverizados y etiquetados al finalizar cada tratamiento térmico. Se utilizó un espectrofotómetro de infrarrojo Perkin Elmer, modelo FRONTIER FT-IR/FIR. Las mediciones se realizaron en el rango del infrarrojo medio (MIR) 4000-400cm-1, con un paso espectral (resolución) de 4cm-1 y 10 acumulaciones (barridos). Para la identificación de fases se utilizó un difractómetro de Rayos X de Polvos BRUKER AXS, modelo D8 ADVANCE ECO, con un rango angular 5°-130° (2 theta) y una resolución de 0.045°, posición angula de referencia (35.149°) componentes Kα1 y Kα2 de una fuente de radiación de Cobre de 1.5406 Å. Se empleó un espectrómetro (UV-Vis/NIR), marca Perkin Elmer, modelo LAMBDA 950, en un intervalo espectral 200-1200 nm y resolución de 1 nm, empleando una esfera de integración de solidos para obtener las mediciones de reflectancia difusa.


CONCLUSIONES

Se realizaron los espectros IR de los precursores utilizados en la síntesis de los catalizadores: FeCl3, C6H8O7 y TiO2, en donde se pueden observar sus bandas características. La caracterización por medio de espectroscopía infrarroja de los XFT1-5, presenta una combinación de las bandas de los precursores con una disminución en la banda del agua debido al proceso de secado. En el caso de los FT1-10 podemos observar los enlaces metal-oxígeno M-O, en la región de 400–500 cm-1. Aunque se pueden ver los enlaces para las fases puras, no es posible identificar los compuestos obtenidos en las mezclas. Al igual se observa que después de los tratamientos térmicos no se observa ninguna señal de los precursores. Los difractogramas de los catalizadores FT1 y FT5 indican que tenemos fases puras de hematita (Fe2O3) y anatasa (A-TiO2) respectivamente. Para los compuestos binarios FT2-4 se pudo observar una mezcla de las fases anteriores. Para el caso del FT6 solo se observa Fe2O3, mientras que para FT10 existen dos fases de TiO2, anatasa y rutilo (R-TiO2). Por otro lado, los catalizadores FT7-9 presentaron combinaciones de fases, en diferentes proporciones se observaron Fe2O3, titanato de hierro (Fe2TiO5) y R-TiO2. Los datos obtenidos por reflectancia difusa fueron tratados de forma gráfica y mediante una regresión lineal se calcularon los bandgaps empleando la función de remisión de Kubelka-Munk. Para los materiales FT5 y FT10 se puede observar un solo bandgap, debido a que son fases puras. Mientras tanto, los compuestos binarios FT2–4 y FT7–9 presentan dos o más bandgaps, relacionado a que existe una mezcla de fases, determinada por DRX. Se sugiere continuar esta investigación realizando una caracterización morfológica de los catalizadores mediante microscopía electrónica de barrido o transmisión (SEM/TEM). Debido a que una morfología irregular en los catalizadores puede afectar la precisión de los resultados obtenidos mediante DRS. Es fundamental comprender la forma, el tamaño y la estructura de los catalizadores, ya que se plantea la hipótesis de que el área superficial influye en la reacción fotocatalítica. Una mayor área superficial proporciona más sitios activos para que ocurran las reacciones fotocatalíticas, lo que aumenta significativamente la eficiencia y velocidad de degradación de los contaminantes. Finalmente, se preparó exitosamente una serie de catalizadores que fueron estudiados sistemáticamente y cuyos resultados indican que se pueden ser activados con radiación solar en fotocatálisis.
Ramírez Campos Karime Anahí, Universidad de Guadalajara
Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán

IMPORTANCIA DEL USO DE LOS POLíMEROS EN LA INDUSTRIA.


IMPORTANCIA DEL USO DE LOS POLíMEROS EN LA INDUSTRIA.

Gutierrez Torres Melanie Aidee, Universidad de Guadalajara. Ramírez Campos Karime Anahí, Universidad de Guadalajara. Santillán Martínez Fernanda Josefina, Universidad de Guadalajara. Velázquez Plascencia David, Universidad de Guadalajara. Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la Industria y los diversos sectores en los que se divide, depende mucho de un material avanzado: los polímeros. Estos, mayormente se utilizan en la creación e innovación de productos que faciliten su desarrollo y la forma en la que estos se pueden acoplar a nuestro estilo de vida. Pero, no se toman en cuenta del todo las consecuencias que puede traer al ambiente futuro el uso constante y desenfrenado de este material, pues tanto la producción de este mismo y de otros termoplásticos, traen un sinfín de afectaciones directas e indirectas al medio ambiente e incluso a nosotros mismos.



METODOLOGÍA

Los materiales poliméricos son elementos necesarios en nuestro día a día, por lo cual se debe disponer de un diseño y desarrollo racional que establezca parámetros de sostenibilidad. En los últimos años debido a las diferentes problemáticas que genera el sector industrial con el uso y creación de polímeros y sus productos, se han planteado nuevas vías científicas y tecnológicas para elaborar plásticos ecológicos, que impulsen nuevas materias primas menos contaminantes o cero contaminantes, así mismo se innova a partir de los reconocidos bio-polímeros, polímeros biobasados y polímeros nanotecnológicos, que no solo favorecen en la reducción de contaminación del planeta, sino que pueden reducir costos asociados a la producción y postconsumo por lo que van asociados a impulsar la reutilización, reparación y reciclaje final.


CONCLUSIONES

Con esta investigación, se busca concientizar a la Industria para que la innovación que tanto buscan desarrollar, vaya de la mano con el uso sostenible y poder lograr así, una industria resiliente ante los cambios negativos, pues de esta forma, se podrá lograr un equilibrio con el crecimiento y el cuidado mediambiental.  
Ramirez Castro Ana Georgina, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

LEAN SAFETY


LEAN SAFETY

Coronado Hernández Ayelen Geraldine, Instituto Tecnológico de Tlalnepantla. Cortes Navarro Orlando, Instituto Tecnológico Superior de Uruapan. Garibay Diaz Marcela, Instituto Tecnológico Superior de Uruapan. Ramirez Castro Ana Georgina, Instituto Tecnológico Superior de Uruapan. Silva Tapia Melchor, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La falta de implementación de la filosofía Lean Safety en la empresa empacadora de aguacates, no permite reducir los sietes desperdicios en el área de producción y contribuir a la minimizar la incidencia de accidentes, además de riesgos laborales.  Con lo anterior mencionado, se requiere darle solución a este problema por parte de la empresa Brandon´s Fresh.



METODOLOGÍA

El plan de trabajo llevado a cabo se realizó bajo los principios de Manufactura Esbelta tales como: 5s, 7 desperdicios, Kaizen, Administración visual y Mantenimiento Productivo Total (TPM).  El equipo de trabajo se apoyó del campo de la Seguridad e Higiene Industrial, que con su enfoque y normatividad, se buscó la aplicación de las Normas Mexicanas establecidas por la Secretaría de Trabajo y Previsión Social (NOM-STPS). Fue así que en la primera intervención se inició con un recorrido dentro de las diferentes áreas que conforman a la empresa empacadora: proceso de selección, empaquetado, cámara de frio y distribución del producto. Con lo anterior se identificaron oportunidades de mejora en el área de producción utilizando un formato llamado Actividad de Seguridad Esbelta. Se prosiguió con la realización de una encuesta para el llenado del formato de Relevamiento Inicial, donde se identifican las Normas Mexicanas (NOM) de acuerdo a la Secretaria de Trabajo y Previsión Social (STPS). Se buscó profundizar en los inconvenientes que en la empresa se encontraron, a través del formato de Actividad de Seguridad Esbelta, revisando temas como: ergonomía, riesgos latentes y desperdicios (esperas, transporte, sobreproceso, inventario, movimientos, defectos y sobreproducción). Se elaboró una base de datos en una hoja de calculo de EXCEL donde se organizaron los inconvenientes encontrados con su debida propuesta, herramienta Lean, Normativa y Clausula Especifica que le corresponde. Cabe mencionar que los inconvenientes encontrados se presentaron formalmente ante el departamento de S.H.I con las respectivas propuestas, herramientas de Lean y su normatividad. Se invitó al equipo de trabajo a participar en la Comisión Mixta de Seguridad e Higiene, junto con el coordinador de S.H.I y participantes del área de inocuidad y almacén, con el fin de identificar condiciones y actos inseguros en cada área de le empresa Brandon´s Fresh.  


CONCLUSIONES

Para culminar, durante las intervenciones a la empresa se logró aplicar la filosofia Lean Safety para la elaboración de un diagnóstico que nos diera la nocion total sobre la situación actual de la empacadora. Apartir de conocer a la empresa se pudieron proponer alternativas de solución para los inconvenientes encontrados, es decir, por cada área de oportunidad encontrada se propone una acción de mejora a partir de la aplicación de herramientas de Lean y siguiendo la normatividad de las Normas Mexicanas (NOM).  El proyecto de Lean Safety ayudó a cada miembro del equipo a desarrollar sus competencias en un plano práctico.    
Ramírez Cisneros Miriam Paulina, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre

ANALÍTICA DE DATOS EN INFRACCIONES DE VEHÍCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VÍAL DE LA CALLE 13.


ANALÍTICA DE DATOS EN INFRACCIONES DE VEHÍCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VÍAL DE LA CALLE 13.

López Banda Paulina Nallely, Instituto Tecnológico Superior de Irapuato. Ramírez Cisneros Miriam Paulina, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Analizar a través de información disponible el fenómeno de infracciones de vehículos de carga de alimentos en el corredor vial de la calle 13.Analizar a través de información disponible el fenómeno de infracciones de vehículos de carga de alimentos en el corredor vial de la calle 13.



METODOLOGÍA

•Revisión de la bibliografía mínimo 10 artículos más relevantes en el área, entrega en el formato de fecha metodológica. •Validación ficha metodologica construida socialización con expertos. •Versión final del documento entregado. •Desarrollar un tablero de visualización de los datos en Power BI. •Informe de interpretación de los resultados. •Divulgación y validación de los resultados obtenidos. •Primera versión de artículo de resultados de investigación. •Primera versión póster y presentación de resultados obtenidos. •Revisión y ajuste de acuerdo a comentarios. •Versión final de tablero Power BI, artículo, presentación en diapositivas y póster. Socialización Interna de resultados obtenidos.


CONCLUSIONES

Con la investigación realizada observamos que existen 10 clasificaciones de infracciones de tránsito de las cuales se deslindan diversos códigos dando un total de 132 infracciones tanto para vehículos de carga, peatones, vehículos de servicio públicos, vehículos particulares, motocicletas y bicicletas. Centrándonos solo en las infracciones relacionas con los vehículos de carga se presentan un total de 40 códigos por lo tanto se puede concluir que con la información obtenida y plasmada gráficamente en el Power BI se puede observar que la infracción con mayor porcentaje de incidencias entre los años 2015-2020 es la de transitar por sitios restringidos o en horas prohibidas por la autoridad competente, representada por el código C14, y la infracción con menor incidencias fue la de circular con combinaciones de vehículos de dos (2) o más unidades remolcadas, sin autorización especial de autoridad competente, representada con el código C17.
Ramirez Cortes Eli Magdiel, Instituto Tecnológico de Pachuca
Asesor: Dra. Valentina Hernandez Piedrahita, Servicio Nacional de Aprendizaje SENA - Regional Caldas

INVESTIGACIóN APLICADA EN EL DESARROLLO DE EMPRENDIMIENTOS EN TECNOPARQUE, SENA REGIONAL CALDAS.


INVESTIGACIóN APLICADA EN EL DESARROLLO DE EMPRENDIMIENTOS EN TECNOPARQUE, SENA REGIONAL CALDAS.

Morales Tejeda Edgar Yali, Instituto Tecnológico de Pachuca. Ramirez Cortes Eli Magdiel, Instituto Tecnológico de Pachuca. Asesor: Dra. Valentina Hernandez Piedrahita, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Tecnoparque es un acelerador de proyectos de investigación, desarrollo tecnológico e innovación, tiene como objetivo el materializar ideas en prototipos funcionales y productos pre-comerciales. Esta institución brinda asesoría técnica especializada, acceso a infraestructura  y laboratorios, así como la asesoría para la creación de empresas. Dando como beneficio a los emprendedores la entrega de los derechos patrimoniales, presentación a convocatorias, procesos de propiedad intelectual y siendo todo lo anterior un servicio completamente gratuito.   Tecnoparque, Caldas cuenta con cuatro líneas de base tecnológica, siendo estas: Biotecnologia y Nanotecnologia; Electrónica y Telecomunicaciones; Tecnología virtuales; e Ingeniería y diseño. En consecuencia la ayuda que se brinda a los emprendedores que ingresan a tecnoparque es bastante amplia ya que tienen acceso a una amplia gama de equipos y a la asesoría de especialistas en el tema sobre el cual se desenvuelve su proyecto, para desarrollar de manera metodológica, práctica y eficiente sus ideas.   La mayor problemática presente en la línea de Biotecnología y Nanotecnología  es el ingreso de  talentos que buscan solucionar necesidades del mercado en diferentes temas como: Alimentos, agroindustria, medio ambiente, microbiología industrial, cosmética, desarrollo de nuevos materiales, entre otros. Lo cual exige una constante actualización en el marco legal, tecnológico, ambiental y social.  



METODOLOGÍA

Cada proyecto que se registra en Tecnoparque y requiere del laboratorio de biotecnología, inicia con una presentación frente a los expertos explicando sus necesidades e intenciones con su producto, dependiendo del área del mismo se puede tomar un enfoque de ingeniería química general, especialidad en alimentos y/o en microbiología o a varias de manera simultánea, con la finalidad de validar la calidad de sus productos, realizar formulaciones y ajustarlo a la normativa vigente.  Una vez que el proyecto es validado, se da a conocer al equipo de trabajo el objetivo general, el producto esperado, y, dependiendo de las necesidades se asigna a uno o más de los expertos que están inmersos en el tema, para asesorar técnicamente en correcto desarrollo de la experimentación y que se encamine al producto esperado por el talento.     Posteriormente se programan las actividades considerando la agenda de los talentos, siendo la primer sesión una breve demostración sobre el producto desarrollado por el emprendedor o bien con la entrega de muestras para un primer estudio, esto con la finalidad de caracterizar el punto de partida que tiene el proyecto, y de esta forma plantear las iteraciones que ayuden a mejorar el prototipo, estructurar su formulación, la obtención de la ficha técnica y alcanzar los estándares del mercado. Para el desarrollo del proyecto se sigue la metodología Planear, Hacer, Verificar y Actuar, para realizar de manera constante avances hacia el producto final. En los primeros dos pasos se realiza una investigación para conocer mejor las materias empleadas en el producto, el adecuado manejo y tratamiento para las mismas, las condiciones de operación, los equipos a emplear y metodología a seguir en la experimentación, así como las técnicas empleadas para cuantificar los resultados esperados, así como los límites establecidos en normas para los productos similares.  Las marchas analíticas que se desarrollan en el laboratorio se realizan bajo la guianza de los expertos correspondientes y con las recomendaciones que se estipulaban en la investigación previa, procurando tener iteraciones suficientes para evaluar las variables del producto y su efecto en resultado final, del mismo modo los resultados se discutían con los expertos para obtener conclusiones del perfil que presenta el producto de acuerdo a esas variables.  Finalmente los resultados obtenidos se reportan con el emprendedor para discutir si estos son los adecuados a sus objetivos y si las formulaciones le resultan satisfactorias, en caso de no serlo se repiten las pruebas bajo las nuevas observaciones hasta encontrar resultados que cumplan las expectativas, una vez se llega a este punto se da por finalizada la experimentación y el trabajo de laboratorio, entregando un prototipo funcional y que puede ser comercializado.


CONCLUSIONES

Durante la estancia en Tecnoparque pudimos observar los grandes aportes que se brindan a los emprendedores para desarrollar un prototipos funcionales y productos precomerciales, así mismo, de manera personal colaboramos en diversos proyectos con el fin de fungir como apoyo técnico en análisis químicos, la implementación de estrategias en la resolución de problemas y en el diseño de algunos prototipos, el cual nos ayudó a mejorar nuestros conocimientos en las áreas de alimentos, así como de microbiología e ingeniería química, de igual manera se presentó la oportunidad de poder operar los equipos de laboratorio con los que cuenta la institución y así fortalecer la formación en el manejo de los mismos.    Debido a la naturaleza de los proyectos los resultados obtenidos resultaron ser variados, ya que en algunos se desarrollaron prototipos funcionales y se dieron por concluidos, mientras que en otros se presentó un avance significativo a los mismos y en algunos no se tienen resultados finales porque están en desarrollo. Sin embargo, el trabajo con cada proyecto nos brindó nuevos conocimientos y el refuerzo de algunos como lo son: las marchas analíticas a realizar en diversas muestras, el manejo apropiado de equipos y las técnicas empleadas para realizar buenas prácticas de laboratorio, de igual manera el aprendizaje sobre metodologías de trabajo funcionales para el desarrollo de proyectos.  
Ramirez Fino Maria Fernanda, Instituto Politécnico Nacional
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS


DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS

Becerril Murillo Patricia, Universidad Autónoma de Baja California. Broca Bermudez Jorge, Universidad de Ciencias y Artes de Chiapas. Hernández Reynoso Eduardo, Universidad Michoacana de San Nicolás de Hidalgo. Ramirez Fino Maria Fernanda, Instituto Politécnico Nacional. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El acceso al agua limpia y segura es un desafío que requiere soluciones sostenibles y adaptadas a necesidades específicas. Por lo tanto, la investigación se centró en identificar y evaluar tecnologías efectivas y viables que permitan el abastecimiento y saneamiento de agua con el objetivo de mejorar las condiciones de vida y el acceso a recursos hídricos adecuados para la población vulnerable.



METODOLOGÍA

La investigación se llevó a cabo mediante un enfoque multidisciplinario que combinó la teoría con la práctica. Se realizaron diferentes actividades, por ejemplo, la visita y recorrido a diferentes modelos físicos de presas a escala en el laboratorio de hidráulica del Instituto Mexicano de Tecnología del Agua, donde se explicó su diseño y funcionamiento para mejorar la gestión de recursos hídricos. Por otro lado, se empleó el modelo matemático bidimensional IBER para simular flujos de ríos y cauces naturales, predecir avenidas e inundaciones, aspecto crucial para una adecuada planificación hídrica. Se recibió capacitación en el uso de QGIS, un Sistema de Información Geográfica de código abierto, que facilitó el análisis de datos geoespaciales y la generación de mapas temático. Asimismo, se analizó el estado del arte de tecnologías aplicadas en diferentes estados de la República Mexicana como son los sistemas de captación de agua de lluvia, humedales construidos y sanitarios secos, las cuales requieren una visión integral, mejores prácticas y mejorar su diseño e implementación. Se realizaron cálculos y análisis detallados para implementarlos de acuerdo a las necesidades específicas. Se visitó una planta de tratamiento de aguas residuales del IMTA para observar los procesos involucrados en el tratamiento del agua. Se identificaron los componentes clave, desde el ingreso del agua residual (caja repartidora) hasta la disposición de la misma (tanque de contacto con cloro), comprendiendo su relevancia en la obtención de agua residual tratada que cumpla con los estándares que marca la normatividad vigente. En cuanto a la revisión bibliográfica, se estudiaron dos libros: "Aguas residuales: tratamiento por humedales artificiales" y "Small-Scale Constructed Wetland Treatment System", los cuales ofrecen conocimientos detallados sobre los principios científicos, tecnológicos y de diseño de los humedales artificiales o construidos, así como la evaluación de la viabilidad de estos sistemas a pequeña escala.


CONCLUSIONES

Mi estancia en el Instituto Mexicano de Tecnología del Agua en Jiutepec, Morelos, me brindó una experiencia enriquecedora mediante una combinación de enfoques teóricos y prácticos, permitiéndome adquirir conocimientos y habilidades fundamentales para contribuir al desarrollo e implementación de soluciones adecuadas para el abastecimiento y saneamiento del agua en comunidades rurales, indígenas y periurbanas marginadas.
Ramirez Flores Brenda Janeth, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California

EMOTIONS&CARE: UNA APLICACIóN MóVIL PARA APOYAR LA DEPRESIóN DE JóVENES UNIVERSITARIOS


EMOTIONS&CARE: UNA APLICACIóN MóVIL PARA APOYAR LA DEPRESIóN DE JóVENES UNIVERSITARIOS

Hernandez Gonzalez Xochitl, Tecnológico de Estudios Superiores de San Felipe del Progreso. Ramirez Flores Brenda Janeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La Organización Mundial de la Salud (OMS) define la salud mental como un estado de bienestar en el que el individuo es consciente de sus capacidades, puede afrontar las presiones cotidianas de la vida, puede trabajar productiva y fructíferamente y puede contribuir a la su comunidad. Cuando los estudiantes ingresan a la universidad, sus condiciones de salud mental pueden verse afectadas por requisitos emocionales, sociales o académicos, lo que los lleva a buscar ayuda profesional o investigar por sí mismos sobre los temas de interés. Sin embargo, es bien sabido que gran parte de la información en Internet hoy en día puede provenir de una fuente poco confiable o necesitar un mejor soporte. De acuerdo con la literatura, los estudiantes universitarios en sus primeros años de carrera son los que manifiestan principalmente varios episodios psicoemocionales derivados de las evaluaciones de los docentes, la sobrecarga de trabajo y el tiempo mínimo que solicitan los docentes para realizar los trabajos. La depresión no es solo un síntoma que atraviesan los estudiantes universitarios y que pueden superar fácilmente; el desconocimiento y la desinformación pueden llevar a los estudiantes universitarios a no sentirse acompañados y desarrollar conductas suicidas. El desarrollo de nuevas tecnologías se puede utilizar para desarrollar formas innovadoras de apoyar la salud mental de los estudiantes universitarios. Más de 10,000 aplicaciones móviles (apps) para la salud mental están disponibles para su descarga.Por ejemplo, la OMS recomienda "promover el autocuidado a través de tecnologías de salud móviles y electrónicas". Sin embargo, muchas de estas aplicaciones móviles no están diseñadas de acuerdo a las necesidades del usuario y sin el apoyo de especialistas en salud mental. Emotions&Care es una aplicación móvil para apoyar a la depresión en estudiantes universitario, la cual se diseñó utilizando la metodología Design Thinking para abordar las necesidades específicas de los estudiantes universitarios y los especialistas en salud mental. Al proporcionar herramientas efectivas y accesibles para la detección e intervención temprana de la depresión en estudiantes universitarios, se espera que Emotions&Care pueda ayudar a reducir el riesgo de comportamientos suicidas y mejorar el bienestar emocional y el rendimiento académico de los estudiantes universitarios.  



METODOLOGÍA

La metodología utilizada es  Design Thinking, una metodología centrada en el usuario que se  caracteriza por ofrecer una lente a través de la cual se pueden observar los retos, detectar necesidades y, finalmente, solucionarlas. La metodología está compuesta por cinco fases: empatizar, definir, idear, prototipar y evaluar.  Durante la primera fase de la metodología, Empatizar, el objetivo principal fue adquirir un conocimiento profundo sobre la depresión en estudiantes universitarios, incluidos el diagnóstico, los niveles y la intervención. Durante la fase de Definir, la información y los datos recopilados de las entrevistas de la fase anterior se analizaron a través de técnicas cualitativas, incluidas la codificación abierta y la codificación axial. Se utilizó el método de Personas basado en los resultados de la entrevista y el cuestionario para crear personajes ficticios para representar diferentes tipos de usuarios que podrían usar nuestro juego. Estos resultados también ayudaron a definir el alcance, las características y las limitaciones del proyecto. En la fase de Idear se generaron algunas posibles ideas para una aplicación móvil utilizando los resultados de la fase Definir. La sesión de diseño incluyó una descripción general del proyecto, una explicación de los objetivos de la sesión y las consideraciones de diseño, incluido el diagrama de afinidad resultante de la fase Definir, los resultados del cuestionario en línea y las dos personas, para que los participantes pudieran tener una mejor comprensión de quiénes estaban diseñando la aplicación móvil.  


CONCLUSIONES

Durante la estancia de verano se logró diseñar la aplicación Emotions&Care,  la cual es una aplicación móvil para apoyar la depresión de estudiantes universitarios. Así mismo, se adquirió conocimiento y aplicación de la metodología Design Thinking, la cual tiene un enfoque de diseño centrado en el usuario. Las etapas Empatizar y Definir descubrieron las necesidades de los estudiantes universitarios y de los especialistas en salud mental, que se utilizaron para proponer consideraciones de diseño. Se utilizaron estas consideraciones de diseño para llevar a cabo una sesión de diseño con nueve estudiantes universitarios durante la etapa de Idear, donde surgieron tres propuestas de diseño. Se combinaron  las características principales de las tres propuestas de diseño para crear un prototipo de la aplicación Emotions&Care. Finalmente, se llevó a cabo una sesión de validación de diseño con dieciocho estudiantes universitarios y dos psicólogos para investigar la aceptación de la aplicación en términos de utilidad y facilidad de uso. Posteriormente, se implementó la funcionalidad parcial de una parte de la aplicación. La implementación se realizó para dispositivos Android en el lenguaje de programación Java.  Como trabajo a futuro, se espera concluir la implementación del prototipo de alta fidelidad, implementando todas las funciones de la aplicación y proporcionando un enlace entre los estudiantes universitarios y los especialistas de la salud mental. Finalmente, se espera evaluar el prototipo de alta fidelidad con con estudiantes universitarios y especialistas  para poder investigar la experiencia del usuario, facilidad de uso y eficacia para apoyar la depresión en esta población  
Ramírez Fonseca Samuel, Universidad Tecnologica de León
Asesor: Dra. Gloria del Rosario Frausto Rea, Universidad Tecnologica de León

METROLOGíA ÓPTICA


METROLOGíA ÓPTICA

Fuentes García César Ebden, Universidad Tecnologica de León. Ramírez Fonseca Samuel, Universidad Tecnologica de León. Asesor: Dra. Gloria del Rosario Frausto Rea, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal del proyecto es diseñar una interfaz gráfica para la simulación de patrones de interferencia modificados por aberraciones ópticas de primer orden, para uso de alumnos dentro del área de la óptica en la Universidad Tecnológica de León.



METODOLOGÍA

Los principales métodos para la creación del proyecto fueron las investigaciones individuales de conceptos, el desarrollo de la programación y de la interfaz con características necesarias para un buen funcionamiento y facilidad de uso. Gracias a estos métodos, se pudo obtener una mejor organización y forma de trabajo para obtener los resultados esperados.


CONCLUSIONES

Estos resultados fueron buenos en los distintos métodos, tanto en la programación como con el diseño de la interfaz, pues se obtuvieron resultados favorables qué cumplían con los objetivos establecidos desde un inicio y se consiguieron los aprendizajes esperados para esta investigación y desarrollo del proyecto. En conclusión, este proyecto podrá ser de ayuda para los estudiantes dentro del área de la óptica dentro de la Universidad y hará más fácil la comprensión de las aberraciones ópticas de primer orden.
Ramírez Guzman Juan Pablo, Instituto Tecnológico Superior de Las Choapas
Asesor: Dr. Ivan Enrique Campos Silva, Instituto Politécnico Nacional

INGENIERíA EN SUPERFICIE


INGENIERíA EN SUPERFICIE

Ramírez Guzman Juan Pablo, Instituto Tecnológico Superior de Las Choapas. Asesor: Dr. Ivan Enrique Campos Silva, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Mejorar las propiedades físicas y químicas de los materiales



METODOLOGÍA

Preparación metalográfica: los especímenes del acero AISI 8620 son cortados previamente con unas medidas de una pulgada de diámetro y 55 mm de grosor, para que previamente a esto se comience un lijado con lijas de SiC con granulometría de #80 a #2000. Preparación de la mezcla uno: esta mezcla es preparada con un 80% de Carburo de Boro y 20% Tetrafluoroborato de Potasio, para después llevarlo a un tamiz con una malla del #1000. Preparación de la Mezcla dos: esta mezcla es preparada con un 90% de Carburo de Boro y 10% Tetrafluoroborato de Potasio, para después llevarlo a un tamiz con una malla del #1000. Introducción del recipiente uno: Se introduce el recipiente al honor, se eleva la temperatura a 850° por 1 hora con 5 A y 30 segundos de pulsación, una vez cumplido el tiempo se procede a retirar el recipiente y se deja enfría al aire libre. Introducción del recipiente uno: Se introduce el recipiente al honor, se eleva la temperatura a 950° por 1 hora con 5 A y 30 segundos de pulsación, una vez cumplido el tiempo se procede a retirar el recipiente y se deja enfría al aire libre. Desempaquetar de las piezas: una vez enfriado el recipiente se procede a sacar los especímenes, en el cual, para poder sacarlos de la mezcla endurecida por el calor se utiliza un cincel y martillo, y con cuidado se comienza a golpear la mezcla para poder sacar los especímenes. Preparación metalográfica de las piezas tratadas. Se llevan a la cortadora los especímenes en donde se procederá a cortar las piezas de forma transversal. Una vez cortados los especímenes se selecciona la parte que mejor se vea, se utilizan las lija #80 de SiC para emparejarlo, para después empaquetarlo en Baquelita y posterior a esto lijar el espécimen con lijas desde la #80 hasta la #2000 y por último poder pulirlo con alumina y un paño, para poder tomarle fotos en microscopia óptica. Dentro de esta metodología experimental se menciona la microscopia óptica en la cual se pueden observar las capas obtenidas dentro del tratamiento ya mencionado y con diferentes condiciones en cuanto a temperatura (t), tiempo (T) y los segundos de pulsaciones de la corriente directa.


CONCLUSIONES

Se logró mejorar las propiedades químicas del material atraves del tratamiento. Espesores de 10 micras.
Ramírez Henríquez Cristopher Josué, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

MODELADO DINáMICO Y CONTROL DE UN MANIPULADOR ESFéRICO DE 3 GRADOS DE LIBERTAD


MODELADO DINáMICO Y CONTROL DE UN MANIPULADOR ESFéRICO DE 3 GRADOS DE LIBERTAD

Ramírez Henríquez Cristopher Josué, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las deficiencias académicas en las áreas de robótica y control, siendo que estas impiden la correcta formación dentro de una carrera con enfoque en la automatización industrial (Ingeniería mecánica, mecatrónica, electrónica, robótica) las cuales se ven reflejadas en la falta de conocimiento tecnocientífico en temas como modelado dinámico, estabilidad de sistemas lineales, estructuras de control, sensores, etcétera.  La mayor problemática que reflejan estas deficiencias es la poca competitividad académica y laboral que se puede ofrecer en estas áreas, por lo que durante la estancia de investigación del verano científico se desarrolló la teoría indispensable para la correcta comprensión en los temas de interés; culminando con el modelado y simulación de un manipulador de 3 grados de libertad. 



METODOLOGÍA

Para trabajar y reducir las deficiencias en las áreas de robótica y control se usó una estructura convencional de aprendizaje en donde se adquirió de forma progresiva el conocimiento necesario para entender el funcionamiento de los sistemas robóticos y el control.  Para empezar, se abordaron tópicos selectos de control con enfoque a sistemas dinámicos; como son álgebra lineal, transformada de Laplace, ecuaciones de transferencia, ecuaciones de estado, variables en control, estructuras de control y criterios de estabilidad de Lyapunov. Siguiendo con el desarrollo de los temas se realizaron simulaciones de sistemas mecatrónicos, haciendo uso del Software Matlab y el entorno de Simulink, en donde se pudo apreciar de una mejor manera el comportamiento de estos sistemas y la influencia de las estructuras de control.  Una vez desarrollados los temas de control se enfocó el aprendizaje en las aplicaciones a la robótica, en donde primero se abordaron las bases físicas y matemáticas de la robótica como son: dinámica, mecanismos, transformación de sistemas de coordenadas, cinemática directa de manipuladores con el algoritmo de Denavit-Hartenberg, planificación de trayectorias, modelado dinámico con las ecuaciones del movimiento de Euler-Lagrange y las estructuras de control normalmente usadas en robots manipuladores (PD con compensación de gravedad, PID y control adaptable).   Habiendo obtenido las bases teóricas de la robótica y el control se procedió a la selección de la configuración del manipulador (Para este caso particular un manipulador esférico) y a realizar el modelado de los eslabones que conforman al mismo, mediante el software Solidworks; siendo que en el modelado de los eslabones se tuvieron consideraciones mecánicas para que estos fueran semejantes a los de un manipulador industrial. Una vez se realizó el modelado de los eslabones se procedió a su caracterización en donde se obtuvieron parámetros de masa, longitud, inercia y posición; la caracterización de los eslabones permitió obtener datos fundamentales para realizar el modelado dinámico con la metodología de Euler-Lagrange, por lo que siguiendo esta metodología se obtuvo el modelo que describe el comportamiento del manipulador sin considerar los efectos de la fricción, siendo que este modelo arroja los pares de torsión y fuerzas que necesitan los actuadores del manipulador para conseguir el movimiento deseado.  Finalizando con la metodología de aprendizaje se realizó el simulador donde se puede observar el comportamiento del manipulador, para este simulador se usó el entorno de Simulink a través de Simscape Multibody Link para exportar el modelo de Solidworks a Matlab. A través del simulador se pudo aplicar una estructura de control PD con compensación de gravedad (datos obtenidos del modelo dinámico) para que el manipulador siga una trayectoria deseada.


CONCLUSIONES

Mediante la estancia de investigación se pudieron reducir las deficiencias de aprendizaje relacionadas a la robótica y control, siendo que en esta estancia se desarrolló correctamente la teoría del control y de de los sistemas dinámicos, la cual fue de mucha utilidad para entender el comportamiento de sistemas mecánicos y mecatrónicos. También se abordaron las aplicaciones e importancia del control en ámbitos industriales siendo este conocimiento fundamental para el posterior desarrollo laboral. A grandes rasgos se puede afirmar que la realización del simulador del robot esférico de 3 grados de libertad permitió aterrizar el aprendizaje obtenido a lo largo de la estancia, teniendo este una aplicación didáctica donde se hacen visibles los resultados del modelado dinámico dándole un sentido físico a las matemáticas aplicadas lo  que permitió materializar los conceptos de control y robótica.
Ramírez León Ilse Zurisaday, Universidad Autónoma del Estado de México
Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara

PROTOTIPO DE UNA GRúA DE DESPLAZAMIENTO PARA PERSONAS CON DISCAPACIDAD (PRO4PAC).


PROTOTIPO DE UNA GRúA DE DESPLAZAMIENTO PARA PERSONAS CON DISCAPACIDAD (PRO4PAC).

Ramírez León Ilse Zurisaday, Universidad Autónoma del Estado de México. Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El propósito del proyecto es diseñar y elaborar un prototipo de una grúa de transferencia para pacientes con discapacidad motriz o movilidad limitada (paraplejia).  El principal enfoque de la grúa es reducir el esfuerzo que se realiza por parte de los operadores (familiares y/o auxiliares de enfermería) para evitar el riesgo de lesiones para ambos individuos.  La grúa en un principio funcionará con un microcontrolador, el cual recibirá las indicaciones que el usuario mande a partir del joystick reflejando los resultados en los motores para los movimientos de los ejes en los rieles instalados en el techo (izquierda, derecha, adelante, atrás), y el pulsador del joystick activará el descenso y la elevación de una extremidad superior que soportará el arnés que sostiene al paciente. Estos motores se programarán mediante una placa Arduino NANO, debido a que cuenta con una plataforma de creación de electrónica de código abierto, la cual está basada en hardware y software libre. Esquematizando distintos diagramas y circuitos para aprovechar de una manera eficaz la función que debe realizar (Aguayo, 2014).  Posteriormente se harán actualizaciones en el sistema, esto con la finalidad de que se reduzcan componentes y que se pueda controlar de una manera remota para que sea más sencillo para el usuario el poder controlarlo. Después de que se logre manipular la grúa de forma manual, será necesario implementar un nuevo hardware para generar una interfaz y poder manipular de forma segura, utilizando una red privada virtual (VPN), con un servidor web, esto se logrará con la implementación de una Raspberry Pi, la cual nos permitir tener una conexión entre servidor - Arduino - grúa. Tomando en cuenta que el Raspberry Pi, cuenta con sistema operativo raspbian, puestos USB, cámara, microprocesador, conexión de ethernet, wifi, HDMI, entre otras características, en el cual es posible agregar sensores para diferentes proyectos (Raspberry Pi, 2019).  



METODOLOGÍA

La metodología que se utilizará es la metodología top-down la cual se basa en el paradigma Divide y Vencerás", lo que se traduce en dividir el problema en un conjunto de subproblemas menores, los cuales a su vez pueden ser divididos aún más, y se continua con este proceso hasta obtener subproblemas que puedan ser manejados y sencillos de resolver. En una recámara se montará un sistema mecánico con una estructura metálica en las esquinas y en el techo se colocarán rieles para montar el sistema XYZ con motores que tendrán los siguientes desplazamientos; el motor a pasos será el eje Y, el motor de corriente directa el eje X los cuales serán controlados con un joystick mientras que el servomotor será el eje Z controlado por un interruptor. El eje X tendrá los desplazamientos izquierda-derecha mientras que el eje Y adelante-atrás y funcionarán dependiendo de las indicaciones que el usuario le dé a cada uno mediante el Joystick, una vez llegado al punto deseado se utilizará el pulsador del joystick para que el eje Z baje y suba anclando al paciente para su desplazamiento. O en su defecto se podrá usar el servidor Raspberry Pi, que tiene las mismas funciones que el joystick, con la diferencia que se podrá controlar la grúa desde otro punto diferente a donde se encuentre esta, para que esto se pueda hacer de forma remota solo se necesita el enlace del servidor en un dispositivo que cuente con internet.   


CONCLUSIONES

Mostrar el funcionamiento un sistema mecánico XYZ para el desplazamiento de una persona con una discapacidad que le impida hacerlo por cuenta propia, apoyándolo a facilitar su traslado a diferentes puntos de una habitación evitando así sufrir lesiones al paciente o al operador por movimientos bruscos. El prototipo se guiará tomando como referencia una grúa industrial puesto que estas son ideales para transportar cargas pesadas y sus ejes sirven para guiar y evitar giros involuntarios. Por el momento se esta desarrollando el prototipo de manera manual.  
Ramirez Lopez Ismael, Instituto Tecnológico Superior de Irapuato
Asesor: Dra. Edith Corona Jiménez, Benemérita Universidad Autónoma de Puebla

OPERACIONES UNITARIAS ASISTIDAS CON ULTRASONIDO DE POTENCIA EN EL áREA DE INGENIERíA QUíMICA Y ALIMENTOS.


OPERACIONES UNITARIAS ASISTIDAS CON ULTRASONIDO DE POTENCIA EN EL áREA DE INGENIERíA QUíMICA Y ALIMENTOS.

Ramirez Lopez Ismael, Instituto Tecnológico Superior de Irapuato. Asesor: Dra. Edith Corona Jiménez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La industria alimenticia busca mejoras continuas en cada uno de sus procesos, se busca tener una mejor calidad durante y al finalizar el producto para el consumidor. Las operaciones de congelación y extracción son métodos que buscan estas mejoras y existen diversas técnicas innovadoras para la mejora de estas operaciones, una de ellas es utilizar la tecnología de ultrasonido de potencia en estos dos procesos ya que presenta una amplia ventaja frente a las técnicas tradicionales siendo sustentable y de bajo costo.  Los estudios de investigación nos presentan la eficacia de esta técnica en comparación con otras, pero se requiere de una investigación más profunda para comprender los obstáculos o desventajas de esta técnica para poderla desarrollar a nivel industrial por lo que futuros estudios deberán centrase en la implementación de la técnica a nivel industrial. Las operaciones de congelación y extracción se rigen por los mecanismos de transferencia de calor y masa. Diversos artículos han estudiado lo que ocurre con estos mecanismos a través de la evaluación de los cambios fisicoquímicos de las muestras sometidas a estas operaciones unitarias, pero pocos describen los fenómenos de transporte a partir del entendimiento de sus variables como los coeficientes de transferencia de masa y energía, por lo tanto resulta de interés realizar una revisión bibliográfica y un análisis de las formas en que describen a estas operaciones unitarias asistidas con ultrasonido. La mayoría de los artículos no mencionan la influencia y la importancia de  los factores acústicos por los cuales esta técnica tiene tal eficacia, por lo que, son desconocidos y  se necesita una investigación con un mayor análisis donde se pueda comprender desde la base matemática, modelos matemáticos, estadística, y el estudio de los fenómenos de transporte esa efectividad  y poder determinar si esta técnica puede ser considerada un reemplazo viable para los procesos actuales en el procesamiento de alimentos.



METODOLOGÍA

Durante la estancia de investigación, se realizó una revisión bibliográfica de diversos artículos en la plataforma Elsevier, la información más relevante se recopilo en una hoja de Excel con los siguientes apartados: Autor Titulo Referencia Resumen Técnica Variables Metodología Matemática o Descriptiva En el apartado de técnica se recopilo cada una de las técnicas que se desarrollaron en ese artículo, en el apartado de variable se recopilaron las variables que se presentaron durante el desarrollo de la investigación como la presión, temperatura, potencia, etc. En el apartado de metodología, por un lado, se recopilaron las estrategias matemáticas y estadísticas con la que describieron el comportamiento de las variables, tales como modelos matemáticos y ecuaciones. Por otro lado, se compilaron metodologías descriptivas las cuales explicaban la manera en que se realizaban los experimentos, por lo que se obtuvo información de los materiales utilizados, la preparación de las muestras y los métodos que fueron utilizados. La mayoría de los resultados mostraban análisis estadísticos o comparativos y pocos desarrollaron modelos matemáticos. Al terminar de llenar cada uno de los apartados con la información mas relevante se propuso redactar un artículo de difusión para después poderlo presentar en alguna revistade divulgación, por lo que, se propuso que este articulo contaría con los siguientes apartados: Ultrasonido Mecanismo de ultrasonido Aplicación de ultrasonidos de potencia. Ultrasonido combinado con nuevas técnicas innovadoras para extracción y congelación de alimentos. Fenómenos de transporte Transferencia de calor y masa durante la extracción y congelación en el procesamiento de los alimentos. Operaciones unitarias Herramientas matemáticas Congelación Avances en la aplicación del ultrasonido en congelación Extracción Avances en la aplicación del ultrasonido en extracción Se utilizo la herramienta Excel para el manejo de la información, se realizó la redacción del artículo se corrigieron errores y se dio la presentación y el formato em base a la guía de autores de la revista de divulgación.  Una vez terminada la redacción se propuso la revista a la cual se enviaría para su revisión y su publicación.


CONCLUSIONES

Durante la estancia de verano de investigación se logró adquirir conocimientos teóricos sobre el uso de ultrasonido de potencia, así como su importancia para la mejora en la calidad y conservación de los alimentos. Se logro tener una mejor comprensión de como ocurren los fenómenos de transporte de calor y masa en la operación de Congelación y Lixiviación. Al redactar un articulo se adquirieron habilidades de redacción y se reforzo el uso de herramientas de tecnologías de la información y del idioma inglés, así como el manejo de una base de revisión científica, mediante la revisión de artículos de interés.
Ramirez Lopez Jennifer Areli, Universidad de Guadalajara
Asesor: Prfnal. Jeyson Leir Soto Cardona, Servicio Nacional de Aprendizaje SENA - Regional Caldas

RCD:APROVECHAMIENTO Y ELABORACION DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.


RCD:APROVECHAMIENTO Y ELABORACION DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.

Ramirez Lopez Jennifer Areli, Universidad de Guadalajara. Asesor: Prfnal. Jeyson Leir Soto Cardona, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Según el COSPES 3874 la disponibilidad de suelos para efectuar la disposición final no está acorde con la creciente generación de residuos. El 83% de los residuos sólidos domiciliarios que se generan van a los rellenos sanitarios y solo el 17% es recuperado por recicladores para su reincorporación al ciclo productivo (DNP y BM, 2015, como se citó en (Manuel Santos Calderón et al., 2016) ). Si se continúa con la misma dinámica de generación de residuos, sin adecuadas medidas para mejorar su aprovechamiento o tratamiento, y con patrones de producción y consumo insostenibles, en el año 2030 tendremos emergencias sanitarias en la mayoría de las ciudades del país y una alta generación de emisiones de GEI.    Dada la escasez de información Nacional del aprovechamiento de materias primas a partir de residuos de construcción y demolición. Esta investigación pretende abordar los objetivos específicos del Plan Integral de gestión de Residuos Sólidos PGIRS 2015-2027 Manizales, en su apartado de la gestión de Residuos de Construcción y Demolición , en lo que refiere a  realizar la caracterización de los RCD, a fin de conocer sus cualidades químicas y físicas que permitan adoptar estrategias para disminuir la disposición final en escombreras, al igual que  el objetivo de maximizar y  fomentar el procesos de recuperación y reutilización  de los RCD fortaleciendo aspectos de orden técnico, administrativo, ambiental, económico, cultural y social. Principalmente, el enfoque se da en la ciudad de Manizales por las metas establecidas en su plan de desarrollo de 2020-2023 como una ciudad sostenible y resiliente, que actualmente lleva un 70,9 % de cumplimiento en avances, según datos del mes de julio.   Para ello la investigación plantea ¿Es viable la recuperación de residuos de construcción y demolición para la fabricación de productos arquitectónicos?  con la cual se busca contribuir a los siguientes objetivos de desarrollo sostenible y a las metas del plan de desarrollo sostenible Manizales 2020-2023:   Plan de desarrollo Manizales 2020-2023 y vigilancia de cumplimiento   Educación y participación ambiental- 97,2 %, Sistemas productivos sostenibles- 70 %, Economía circular -57,1% Promoción del empleo e inclusión laboral -22,9 % Definiendo el camino. Hacia la ciudad inteligente -20 %



METODOLOGÍA

CARACTERIZACIÓN Prueba geométrica  ASTM C136: Método de prueba estándar para análisis granulométrico de agregados finos y gruesos.(ASTM, 2019a) Pruebas físicas  ASTM C127:  Método de prueba estándar para la densidad relativa y la absorción del agregado grueso.(ASTM, 2015) ASTM C131:  Método de prueba estándar para determinar la resistencia a la degradación de agregados gruesos de tamaño pequeño por abrasión e impacto en la Máquina de los Ángeles. (ASTM, 2020a) ASTM D4791: Método de prueba estándar para partículas planas, partículas alargadas o partículas planas y alargadas en agregados gruesos.(ASTM, 2019c) Microscopía Electrónica de barrido y Fluorescencia de rayos X por energía dispersiva: Método para determinar la composición química superficial del RCD y su apariencia superficial a nivel microscópico para comprender las anteriores pruebas físicas como densidad especifica y absorción de agua. ASTM C39/C39M-20: Método de prueba estándar para determinar la resistencia a la comprensión de cilindros de concreto. (ASTM, 2020b). FABRICACIÓN Diseño de producto Para el diseño de estos productos se parte de un estudio de la normatividad técnica colombiana, dadas por el Instituto Colombiana de Normas Técnicas y Certificación (ICONTEC) esto con el fin de que el diseño cumpla con los lineamientos geométricos y de resistencia establecidos para lograr su comercialización.   . Adoquin Fachaleta Prototipado 3D de los moldes de Adoquín y fachaleta El prototipado es una técnica utilizada en la fabricación de productos o moldes, debido a las prestaciones económicas y de modelo real o a escala que se obtiene, permitiendo una acercamiento visual y comercial del producto. Diseño de mezcla de concreto con RCD. El diseño de mezcla de concreto para los productos de adoquín, fachaleta y los cilindros de testeo para el ensayo de compresión, los Ingenieros Civiles trabajaron bajo el Método ACI 211.1. Desencofrado El desencofrado es una etapa que se realiza con el concreto húmedo con el objetivo de empezar el proceso de curado, dado que en el proceso de curado se garantiza que el concreto conserve la humedad y se eviten fisuraciones en el producto. Ensayo de resistencia a la compresión. El ensayo de resistencia a la comprensión permite evaluar la resistencia mecánica de un material cuando es sometido a una carga axial de aplastamiento, para este caso permite evaluar como se comportará el concreto y específicamente los adoquines en sus aplicaciones de pavimentación, bancas, etc; 


CONCLUSIONES

La producción de adoquines y fachaletas es una oportunidad fundamental para las estrategias del gobierno municipal y nacional en relación con el manejo y la reutilización de RCD, permitiendo la generación de nuevas empresas, nuevos trabajos, dignificación del trabajó de los recicladores como una oferta laboral de la economía circular, negocios verdes y la disminución del impacto ambiental por los rellenos sanitario. El estudio de aprovechamiento de RCD en la fabricación de dos productos iniciales, permite proponer un  aprovechamiento del RCD  para la generación de otros productos como bancas en concreto, pavimentación peatonal, ciclo vías, pavimentación de puentes en estructuras metálicas, todo ello mediante una metodología similar donde se evalué la capacidad del material para responder a la aplicación particular y consideraciones de diseño, producción en masa, embalaje, distribución y/o exportación del mismo.
Ramírez López René Omar, Instituto Tecnológico Superior de Tacámbaro
Asesor: Mtra. Ruth Jaramillo Molina, Instituto Tecnológico Superior de Tacámbaro

MODELO DE MERCADOTECNIA PARA FARMACIA TACAMBARO.


MODELO DE MERCADOTECNIA PARA FARMACIA TACAMBARO.

Gaona Jaramillo Isllaly Adamaris, Instituto Tecnológico Superior de Tacámbaro. Ramírez López René Omar, Instituto Tecnológico Superior de Tacámbaro. Asesor: Mtra. Ruth Jaramillo Molina, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La evolución del marketing, aunque en sus primeras etapas fue lenta con el paso de los años y debido al constante cambio de comportamiento del consumidor han surgido diferentes tipos de marketing, por ejemplo, el sensorial, experiencial, neuromarketing, entre otros, todos ellos con la finalidad de buscar satisfacer las necesidades y/o deseos del cliente, así como identificar como siente, piensa y actúa. Por consiguiente, el mercado farmacéutico debe establecer entre sus tácticas online y offline de mercadotecnia, acciones que generen en el paciente-cliente sentirse conectado con la organización a través la confianza, empatía, seguridad y resolución de problemas, con ello se logra brindarle una experiencia positiva que permita mejorar la relación con los compradores. Por lo anterior, la Farmacia Hospital, ubicada en frente del Hospital María Zendejas, de la Ciudad de Tacámbaro, ha detectado que dentro de las características emocionales de los clientes se encuentran el estrés, preocupación, ansiedad, por ello entre sus acciones en el punto de venta se encuentran aplicar marketing sensorial a través de ofrecer una mejor imagen con la aplicación del merchandising, y la aplicación del marketing olfativo y auditivo.



METODOLOGÍA

El proyecto estuvo desarrollado en las siguientes etapas: Etapa de diagnóstico: mismo en el que se utilizaron las técnicas de la observación para detectar áreas de mejora en el merchandising y la entrevista con los dueños de la empresa y los trabajadores. Etapa de investigación documental Se realizó un análisis de fuentes secundarias. En ella se obtuvo información sobre el marketing sensorial, beneficios del uso de los audios superan los 100 Hz debido a que las ondas necesitan llegar al sistema nervioso de los consumidores para eliminar el exceso de cortisol en el cuerpo que puede tener la persona y a su vez prevenir el aumento de esta hormona que llega a ser tan peligrosa y perjudicial. Percepción de la implementación de plantas en la empresa y así como las ventajas del uso de las aromas. Por ello, considerando ventajas de las ondas Hertz, se diseñaron dos audios; el primero de ellos utiliza las ondas 432 y 538 Hz y tiene una duración de 2.12 minutos; el segundo contiene las ondas 432 y 852, con una duración de 2.59 minutos. Aromaterapia o marketing olfativo, en dónde se emplearon olores variados para la realización de las preguntas, los cuales son: 1) Florales (Lavanda con toques de canela) 2) Cítricos (limón – toronja) 3) Frutados (Mandarina – Menta) Diseño de la investigación: Se diseñó el cuestionario, que consta de 6 ITEM´S 3 para el análisis, obteniendo de esta manera, información sobre que siente, Imagina y piensa la persona al escuchar el audio u oler las fragancias; así mismo se aplicaron algunas estrategias de Neuromarketing, donde se busca que la tasa de respuesta sea menor a los 6 segundos, para ello se contó con un cronometro, así mismo se utilizaron grabaciones para identificar los tipos de emoción que presenta de acuerdo al análisis del lenguaje corporal. En esta etapa se aplicó el método de muestreo por conveniencia, debido a que la selección de las personas se hizo a juicio del investigador, la muestra utilizada fue del tipo finita dando como resultado la aplicación de 30 encuestas.


CONCLUSIONES

Apreciado ya todo lo anterior, tras una investigación a fondo de “Farmacias Hospital” y detectar los puntos débiles que poseen, se concluye que los resultados de la “Farmacias Hospital” no disponía de distintos elementos necesarios a pesar de ser una empresa ya consagrada. Es decir, es un negocio próspero y que ha tenido excelentes resultados en su trayectoria, más sin embargo si se trabajase más el área de cuidado al cliente, el entorno y el marketing de una mejor manera, hoy estaría sin dudas un escalón arriba de su competencia. Además, usando muestro estadístico nos dedicamos a aplicar encuestas a diversos ciudadanos en la ciudad de Tacámbaro para así poder apreciar su agrado hacía nuestras propuestas. Propuestas que además del uso de aromaterapia, fueron usados audios del tipo solfeggio. Frecuencias que fueron sampleadas y producidas para poder observar las reacciones de los encuestados, siendo mayormente positivas. Sampleando frecuencias de 428 HZ, 432 HZ, 528 HZ Y 852 HZ. Dejando así en claro que nuestras iniciativas eran las indicadas. Es por eso que resulta fundamental un buen trabajo de marketing para cualquier tipo de empresa.
Ramírez López Sonia, Universidad de Guadalajara
Asesor: Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla

ANáLISIS ESTRUCTURAL DE MATERIALES BIOCERáMICOS Y SEMICONDUCTORES


ANáLISIS ESTRUCTURAL DE MATERIALES BIOCERáMICOS Y SEMICONDUCTORES

Ramírez López Sonia, Universidad de Guadalajara. Asesor: Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de materiales con características específicas ha sido un reto continuo en el desarrollo científico y tecnológico. Durante los últimos años los nuevos materiales han jugado un papel fundamental en el desarrollo de las nuevas tecnologías. Actualmente la investigación de biomateriales se realiza de forma interdisciplinaria en donde cirujanos, histólogos, expertos en biomecánica, en ciencia de materiales y técnicos de producción toman parte en su desarrollo. Se consideran materiales biocerámicos aquellos materiales cerámicos cuya inercia química les hacen adecuados para su uso en implantes; de tal manera que puedan lograr un específico comportamiento biológico y fisiológico. Esto significa que los implantes han de reunir una serie de características, las cuales imponen a su vez una serie de limitaciones al desarrollo de estos materiales: Dentro de estas características destacan: Deseables respuestas bioquímicas o biocompatibilidad. Compatibilidad mecánica o resistencia y soldadura permanente y continua. Adecuada interacción tejido-material. Compatibilidad funcional. Compatibilidad de comportamiento. Fácilmente mecanizables. Dentro de la investigación realizada se trabajó con la hidroxiapatita y el óxido de zinc los cuales entran dentro de los materiales biocerámico y materiales semiconductores con propiedades estructurales que le permiten ser usado en diferentes campos de aplicación. Los materiales semiconductors se comportan como aislantes a bajas temperaturas pero a temperaturas más altas se comportan como conductores. La razón de esto es que los electrones de valencia están ligeramente ligados a sus respectivos núcleos atómicos, pero no lo suficiente, pues al añadir energía elevando la temperatura son capaces de abandonar el átomo para circular por la red atómica del material. En cuanto un electrón abandona un átomo, en su lugar deja un hueco que puede ser ocupado por otro electrón que estaba circulando por la red. Los materiales semiconductores más conocidos son: Silicio (Si) y Germanio (Ge), los cuales poseen cuatro electrones de valencia en su último nivel. Por otra parte, hay que decir que tales materiales forman también estructura cristalina. Hay que destacar que, para añadir energía al material semiconductor, además de calor, también se puede emplear luz. Una de las propiedades más importantes de los semiconductores muy aplicada en la electrónica es que, bajo unas condiciones específicas, los semiconductores posibilitan la circulación de la corriente eléctrica en un sentido, pero no en el sentido opuesto. Un gran ejemplo de un material semiconductor es el óxido de grafeno.



METODOLOGÍA

La síntesis del óxido de zinc se llevó a cabo por el método sol-gel acoplado a ultrasonido, se disolvió el acetato de zinc dihidratado en metanol junto con agua desionizada en una relación 1:1 por medio de un baño ultrasónico. Es necesario ajustar dicha solución a un pH de 8 con NH4OH y dejar en agitación por 1 hora. Posteriormente se irradio con una punta ultrasónica por 30 minutos en intervalos de 2 segundos. Finalmente se hizo un lavado con agua desionizada y etanol. Para la obtención de hidroxiapatita se aforaron en 30 mL de fosfato de amonio, trizma junto con cloruro de calcio. Se ajusta el pH del fosfato de amonio con hidróxido de amonio hasta llegar a un pH mayor a 10.5. Con un embudo de separación se vierte el NH4OH en CaCl2 por medio de un goteo constante no acelerado por 40 min. De la misma manera que antes se ajustó el pH a 10.5 con hidróxido de amonio. Posteriormente se dejó en agitación por 30 minutos, finalmente se llevó a la punta ultrasónica. Por último se participó en diversas caracterizaciones como el XPS, AFM y espectroscopia infrarroja, donde posteriormente se realizó el análisis de los datos obtenidos po medio del software Origin.


CONCLUSIONES

Gracias a este verano de investigación dentro del Centro de Investigación en Dispositivos Semiconductores de la BUAP se logró expandir y adquirir nuevos conocimientos acerca de los materiales biocerámicos así como de los materiales semiconductores y como de la co-relación entre estos se llegan a obtener diversas aplicaciones. Por el momento se está trabajando en un artículo para la revista RD-ICUAPdonde se plasmara la relación de la nanotecnología con los materiales biocerámicos y semiconductores así como otros.
Ramírez Martínez José Alfonso, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Jesùs Sandoval Ramìrez, Benemérita Universidad Autónoma de Puebla

TRANSFORMACIÓN DE PRODUCTOS NATURALES


TRANSFORMACIÓN DE PRODUCTOS NATURALES

Ramírez Martínez José Alfonso, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Jesùs Sandoval Ramìrez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El cáncer engloba un grupo numeroso de enfermedades caracterizadas por el desarrollo descontrolado de células anormales en cualquier parte del cuerpo. A diferencia de las células normales, las células cancerosas pierden su capacidad para inducir apoptosis regulada y se multiplican sin límite, formando tumores o neoplasias que pueden dañar los tejidos (Puente & Velasco, 2019).  En México, entre enero y agosto de 2020, se registraron 683 823 defunciones, de las cuales el 9% se debió a tumores malignos. Un año antes, en 2019, se registraron 747 784 defunciones, de las cuales el 12% se debió a tumores malignos (88 683). Los fallecimientos por esta causa fueron más frecuentes en mujeres (51%) que en hombres (49%) (INEGI, 2021). Por esta razón, a nivel nacional y mundial, se busca desarrollar nuevos agentes terapéuticos para combatir diferentes tipos de cáncer, lo que ha llevado al descubrimiento de una variedad de moléculas esteroidales con actividad anticancerígena. 



METODOLOGÍA

Durante la estancia de verano, se llevó a cabo el estudio in silico de derivados de diosgenina, un Δ⁵ espirostano presente en abundancia en el tuberculo de las especies Dioscorea composita y Dioscorea floribunda. Se empleó el programa SwissTargetPrediction para determinar las dianas biológicas prioritarias y secundarias, así como las moléculas idóneas para sintetizar. También se utilizó la herramienta PASSOnline para predecir la bioactividad de dichas moléculas.  De manera simultánea, a partir de la diosgenina se sintetizo el derivado 22-oxocolestano hidroxilado en 26. El proceso incluyó mezclar CH2Cl2 con diosgenina, añadir una solución de anhídrido acético y trifloururo de boro en agitación a -10°C durante 10 min, seguido de la adición gradual de trietil amina a -50°C en agitación durante 20 min. Posteriormente, se agregó hidróxido de amonio a -10 °C y se filtró en sílice, lavándose con CH2Cl2. Luego, se realizó la extracción líquido-líquido con agua destilada, se agregó HCl al 10% a la fase orgánica y se llevó al baño ultrasónico durante 10 min. Finalmente, se efectuó una extracción líquido-líquido, se secó la fase orgánica con Na2SO4 y se concentró el crudo, para proceder a su purificación por medio de columna cromatográfica.  El derivado 22-oxocolestano 26 hidroxilado puro se oxidó con PCC para obtener el aldehído correspondiente, el cual se cicló con el metilester cisteína para obtener el producto a evaluar. Dicho producto fue evaluado en la línea celular MDA-MB-231, una línea celular epitelial de cáncer de mama humano y una de las más utilizadas en investigaciones médicas. MDA-MB-231 es una línea de cáncer de mama triple negativo (CMTN) altamente agresiva, invasiva y poco diferenciada, ya que carece de expresión del receptor de estrógenos (RE) y del receptor de progesterona (RP), así como amplificación de HER2 (receptor 2 del factor de crecimiento epidérmico humano) (Chavez et al., 2010).


CONCLUSIONES

Durante la estancia, adquirí valiosos conocimientos prácticos sobre la síntesis, extracción y purificación de compuestos derivados esteroidales con potencial anticancerígeno. A pesar de la extensión del proyecto y el limitado tiempo, se logró sintetizar y evaluar biológicamente un compuesto que mostró un efecto anticancerígeno positivo en la línea celular MDA-MB-23. Estos resultados contribuyen al desarrollo de agentes terapéuticos esteroidales para combatir diversos tipos de cáncer. Se espera que este trabajo siente las bases para futuras investigaciones que puedan identificar tratamientos prometedores en la lucha contra el cáncer.
Ramirez Rangel Rubi Azucena, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala

CAUSA Y EFECTO DE LAS FALTAS A LA NORMA OFICIAL MEXICANA NOM-017-STPS 2008 EQUIPO DE PROTECCIóN PERSONAL-SELECCIóN, USO Y MANEJO EN LOS CENTROS DE TRABAJO.


CAUSA Y EFECTO DE LAS FALTAS A LA NORMA OFICIAL MEXICANA NOM-017-STPS 2008 EQUIPO DE PROTECCIóN PERSONAL-SELECCIóN, USO Y MANEJO EN LOS CENTROS DE TRABAJO.

Ramirez Rangel Rubi Azucena, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

El equipo de protección personal desempeña un papel importante en la conservación de la integridad física. Actualmente Clutch y Frenos Solorzano`s presento el inconveniente que afecta a la integridad de las personas que laboran en el espacio de mantenimiento pues existe el registro de lesiones causadas por el uso inadecuado de anteojos de protección Esto ocurre principalmente en la operación de manipular el freno o clutch en mantenimiento. Actualmente se tiene un registro del 12 % de lesiones causadas por el uso incorrecto de anteojos de protección. Al crear, plantear y capacitar a los trabajadores con programas de seguridad relacionados con el cuidado de los ojos y los empleados, visitantes, contratistas y cualquier otra persona que se introduzca en el área de riesgo deberán poner en práctica todos y cada uno de los programas establecidos por las empresas. Objetivo General: Implementar la  NOM-017-STPS-2008 Equipo de Protección personal- Selección, uso y manejo en la empresa Clutch y Frenos Solorzano`s. Objetivos específicos: Diseñar un instrumento con la finalidad de conocer la NOM-017-STPS-2008 a los trabajadores Sensibilizar al personal un 80% sobre el uso de la NOM-017-STPS-2008 en su área del trabajo Marco Teorico Equipo de Protección personal: Son equipos, piezas o dispositivos que evitan que una persona tenga contacto directo con los peligros de ambientes riesgosos, los cuales pueden generar lesiones y enfermedades (Desastres, 2019) Normas: Se establecen con el propósito de regular comportamientos para mantener un orden determinado(Equipo editorial, 2020) Mantenimiento preventivo: Consiste en intervenciones que previenen las averías y disminuyen la probabilidad de que un activo falle (Infraspeak, 2022)



METODOLOGÍA

Clutch y Frenos Solorzano`s es un negocio donde se ofrece el servicio de mantenimiento preventivo en la motorización de vehículos. Se fundó en el año 2018 por el señor Juan Francisco Javier Solorzano Ávila. Los servicios que ofrece son: Calidad en el servicio al cliente Disponibilidad de horario Mantenimiento y reparación de clutch, frenos (ajuste de caja de velocidad, cambios de aceite, afinación de balatas) La ubicación de la empresa es en la calle Pedro Moreno 1559, Villas de San Cayetano de Luna (pies de casa), 36545 Irapuato, Gto. Número telefónico de comunicación: 462-176-1133 El diagrama de Ishikawa es una herramienta utilizada para identificar problemas en un sistema (SafetyCulture, 2023) Efecto - Lesiones por el uso incorrecto de anteojos de  protección Causas  Mano de obra - Escasa capacitación respecto a las normas, error del empleado Materia Prima - Abandono de EPP, material desgastado Análisis de causas raíz (aplicación de la técnica de los 5`s ¿Por qué? Es una técnica sistemática de preguntas utilizada durante la fase de análisis de problemas para buscar las posibles causas principales de este. Categoría: Mano de obra              Posible causa  Escasa capacitación respecto a las normas Método del por qué : Falta de interés, sin conocimiento de los requisitos para certificar la empresa Posible causa  Error del empleado Método del por qué: Exceso de confianza, ejecución de actividades de manera incorrecta, los riesgos no están identificados o  señalados Categoría: Materia prima               Posible causa: Abandono de EPP Método del por qué: Selección incorrecta del EPP, falta de EPP, conocimiento correcto de la operación Plan de trabajo 1 Descripción de la acción: Generar la capacitación para el jefe y sensibilizar del beneficio que las normas exponen al emplearlas.                                              Responsable: Patrón de la empresa         Fecha compromiso: Primero  2 descripción de la acción: Capacitación básica de la NOM-017-STPS-2008 Equipo de Protección personal- Selección, uso y manejo para la empresa Responsable: Patrón de la empresa/ Trabajadores   Fecha compromiso: Segundo 3 Descripción de la acción: Diseñar un instrumento para que el personal de trabajo identifique el riesgo de la operación y la prevención de este                                   Responsable: Patrón de la empresa/Auditor      Fecha compromiso: Paralelo a primero


CONCLUSIONES

Con base en la información proporcionada sobre el proyecto para implementar la NOM-017-STPS-2008 en la empresa "Clutch y Frenos Solorzano's", se puede concluir lo siguiente: Se ha identificado un problema relacionado con el uso inadecuado de anteojos de protección, lo cual ha resultado en un registro aproximado del 10% de lesiones causadas dentro del área de trabajo. Para abordar esta situación, se ha planteado la implementación de la NOM-017-STPS-2008, que establece las pautas para el uso adecuado de equipo de protección personal. La capacitación y sensibilización del personal son elementos clave en el proceso de implementación, lo que permitirá que los trabajadores comprendan los riesgos asociados con sus actividades laborales y la importancia de utilizar adecuadamente el equipo de protección personal, se elaboró un instrumento de sensibilización el cual se presentó ante el patrón y personal de la empresa, se explico y se conservo en espacios visuales dentro de la empresa. Referencias Aranda Diaz, A. (31 de mayo de 2015). netmind. Obtenido de https://netmind.net/es/por-que-por-que-por-que-y-asi-hasta-5-veces/ Desastres, C. N. (11 de junio de 2019). GOB.MX. Obtenido de https://www.gob.mx/cenapred/articulos/sabes-que-es-el-equipo-de-proteccion-personal-epp Equipo editorial, E. D. (23 de septiembre de 2020). Concepto. Obtenido de https://concepto.de/que-es-norma/   Infraspeak. (09 de diciembre de 2022). infraspeak Blog. Obtenido de https://blog.infraspeak.com/es/mantenimiento-preventivo/ SafetyCulture. (20 de julio de 2023). Safety Culture. Obtenido de https://safetyculture.com/es/temas/diagrama-ishikawa/  
Ramírez Reyes Marco Tulio, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero

DESARROLLO Y DISEñO 3D DE LAS PARTES QUE INTEGRAN EL FRAME DE UN VEHíCULO AéREO NO TRIPULADO MULTIRROTOR TIPO CUADRICóPTERO CONFIGURACIóN EN X.


DESARROLLO Y DISEñO 3D DE LAS PARTES QUE INTEGRAN EL FRAME DE UN VEHíCULO AéREO NO TRIPULADO MULTIRROTOR TIPO CUADRICóPTERO CONFIGURACIóN EN X.

Hernández Brito David Antonio, Instituto Tecnológico de Chilpancingo. Ramírez Reyes Marco Tulio, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

Una forma de diseñar la estructura y forma de un vehiculo Aéreo No tripulado Multirrotor es utilizando software de modelado 3D. Esta aproximación permite realizar estructuras más complejas capaces de mejorar ciertas características de las partes diseñadas para especializarse en una tarea específica. Desde mejorar la rigidez de un brazo utilizando menos peso hasta utilizar formas complejas para mejorar el aerodinamismo del VANT. Pero este proceso de prototipado requiere de soluciones de moldeo costosas y maquinaria especializada para producirla. Aquí es donde entran las tecnologías de impresión 3D. Estas herramientas permiten trasladar la geometría desarrollada a una pieza utilizando diversos tipos de impresoras. Esto reduce los costes de prototipado y agiliza las iteraciones a los modelos del proyecto. En este trabajo contribuyo al proyecto de investigación Propuesta de sistema de pulverización asistido por un VANT cuadricóptero, donde se trabajó explícitamente en el objetivo 3 del mismo proyecto que abordarán los procesos realizados para diseñar el frame de un prototipo de Vehículo Aéreo No Tripulado(VANT), así como el proceso que se realizó para comprobar la viabilidad el diseño impreso mediante impresión 3D y su refinamiento en base a los resultados obtenidos en la evaluación de los mismos.



METODOLOGÍA

La metodología seleccionada fue la creación de prototipos, debido a que la naturaleza del proyecto requiere de varias iteraciones entre las diferentes etapas del desarrollo de los prototipos, agilizando el desarrollo y mejorando de forma recursiva estos mismos hasta alcanzar su perfección. Esta metodología, se compone de las etapas de levantamiento de requerimientos, diseño del prototipo, construcción del prototipo, evaluación del prototipo, refinamiento del prototipo y producto. Esto puede implicar una fase de creación de prototipos que ayude a evitar malas decisiones sobre los requerimientos y el diseño.   Etapa 1: Levantamiento de Requerimientos En esta primera etapa del trabajo se realizó la recolección de información relacionada con construcciones de VANT 's cuadricopteros clase 450 mm  configuración X.  Etapa 2: Diseño del prototipo En esta etapa se hizo uso de diversas funciones del software Blender para el modelado 3D del diseño del prototipo siguiendo las normativas y restricciones encontradas en la etapa anterior, así como también de las necesidades propias del proyecto. Etapa 3: Construcción del prototipo Para la tercera etapa se realizó la preparación del material digital, siendo estos los diseños preliminares realizados en la etapa anterior, exportando el contenido en archivos con extensión .stl para analizarlos en el software Ultimate Cura y preparar la configuración de impresión 3D. Como siguiente paso se exportaron los archivos con extensión .gcode para ingresarlos a la impresora 3D por medio de una memoria microSD. Por último se realizó la configuración de la impresora 3D para que el filamento logrará calentarse y ser moldeable para la impresión, tomando como parámetros las temperaturas de la punta y cama magnética de la impresora, siendo estas 135 y 80 grados celsius respectivamente. Siendo este proceso repetido cada vez que se imprimió una pieza distinta del modelo. Etapa 4: Evaluación del prototipo Se recolecto la información de cada pieza impresa, se evaluaba si se necesitaba reimprimir, modificarse físicamente o rediseñarse dependiendo del tipo de parámetro que no haya cumplido. Etapa 5: Refinamiento del prototipo Para la etapa 5 se realizaban procesos dependiendo de la evaluación de las piezas, dependiendo del paramatro establecido con el que no cumplieron. Etapa 6: Producto Para la etapa final se realizó un registro de las piezas del modelo completo que ya cumplían con los parámetros y finalmente se presentaron en un conjunto para observar la evolución del proyecto. Su realizacion se llevó a cabo de forma digital, desarrollando los prototipos utilizando el software de modelado y animación en 3D, Blender; así como de manera física utilizando una impresora 3D de la tecnología Fused Deposition Modeling (FDM) y filamento del material Acrilonitrilo butadieno estireno (ABS) de color blanco.


CONCLUSIONES

De las piezas impresas, se encontró que las mas grandes se deformaban al finalizar su impresión debido a las características del material ABS, que es susceptible a deformarse conforme se enfría. Para solucionar este problema se colocó una barrera entre el aire acondicionado del laboratorio para mantener una temperatura de impresión constante. Esta solución logró reducir el deformamiento de algunas piezas, pero no lo eliminó por completo.  También se refinaron modelos para ser más resistentes frente a las fuerzas de compresión presentes en el prototipo. El prototipo inicial de los codos del tren de aterrizaje, que contaba con un grosor de aproximadamente 1 mm no resistía las fuerzas de compresión de una mano, por lo que se procedió a incrementar el grosor de las paredes del modelo a 3 mm. Este cambio permitió una mejor impresión y firmeza de la pieza. Las piezas fueron revisadas tomando en cuenta que puedan resistir las fuerzas de compresión presentes a las que serán sometidas una vez se integren al prototipo final, así como la severidad de deformación en su estructura, en caso de presentarla. En base a su rendimiento se aceptaron o se tomaron en cuenta para mejorar el diseño o el proceso de impresión, teniendo como resultado final una parte de la estructura del tren de aterrizaje firme y resistente.
Ramirez Rodriguez Ramon Antonio, Universidad de Guadalajara
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

USO DE PASTAS DE RESIDUOS MOLIDOS DE POLIESTIRENO EXPANDIDO CONGLOMERADOS CON YESO Y REFORZADAS CON FIBRAS DE AGAVE TEQUILERO, PARA LA FABRICACIÓN DE PLACAS ALIGERADAS PARA LA INDUSTRIA DE LA CONSTRUCCIÓN”


USO DE PASTAS DE RESIDUOS MOLIDOS DE POLIESTIRENO EXPANDIDO CONGLOMERADOS CON YESO Y REFORZADAS CON FIBRAS DE AGAVE TEQUILERO, PARA LA FABRICACIÓN DE PLACAS ALIGERADAS PARA LA INDUSTRIA DE LA CONSTRUCCIÓN”

Iribe Chaidez Deira Lizeth, Universidad Autónoma de Sinaloa. León Félix Jesus Eduardo, Universidad Autónoma de Sinaloa. Ramirez Rodriguez Ramon Antonio, Universidad de Guadalajara. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

De los resultados obtenidos en ensayos de resistencia mecánica de la tercera etapa de investigación, se observa una tendencia a la dispersión azarosa de las fibras de agave en los cuerpos de las mezclas, esa forma de distribución es indeseable debido a que la resistencia mecánica de la placa se condiciona por la mayor o menor presencia de fibras en diversas zonas de las muestras.



METODOLOGÍA

Primordialmente se trabajó con el método de investigación científica que se resume en los siguientes pasos; observación, reconocimiento del problema, hipótesis, predicciones, experimentación, análisis de los resultados y comunicación de los hallazgos.


CONCLUSIONES

La finalidad de este verano científico fue elaborar placas nuevas, probando nuevas tengas de elaboración mediante, el ajusto de las las fórmulas previamente ya investigadas en otros veranos de investigación, así como el ajuste del monde utilizado para la elaboración de dichas placas, se logró elaborar un total de 10 placas las cuales fueron: Cuatro placas con la formula 123  Cuatro placas con PVA en malla de fibra de penca de agave  Dos placas sin PVA en malla de fibra de penca de agave . Por otra parte también se realizaron placas testigos las cuales tendrían como finalidad de poder realizar comparativas útiles para poder realizar conclusiones, dichas conclusiones ayudarán a poder tomar en cuenta aspectos tanto económicos, como de tiempos de elaboración, las placas elaboradas testigos fueron :  Dos de solo yeso Dos de yeso + fibra  Dos de yeso + EPS Lo anterior redactado, da un informa claro de respecto a la elaboración de placas. Por otra parte, como un resultado añadido, realizamos tambien 2 de los múltiples ensayos que por norma deben realizarse.  Los ensayos realizados en este verano fueron: El ensayo de reacción al fuego  Densidad laminar.  Sin embargo, acerca de los ensayos y sus respectivas comparativas no podemos decir mucho al respecto, ya que quedaron pendiente el resto de ensayos para una continuación próxima.
Ramirez Roman Marian Joselyn, Universidad de Guadalajara
Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington

PROTOTIPO FUNCIONAL PARA LA GENERACIóN DE BIOGáS CASERO QUE POR MEDIO DE UNA APLICACIóN MóVIL QUE PERMITA LA GESTIóN DEL ESTIéRCOL VACUNO, PARA COMUNIDADES RURALES DEL ESTADO DE JALISCO, MéXICO.


PROTOTIPO FUNCIONAL PARA LA GENERACIóN DE BIOGáS CASERO QUE POR MEDIO DE UNA APLICACIóN MóVIL QUE PERMITA LA GESTIóN DEL ESTIéRCOL VACUNO, PARA COMUNIDADES RURALES DEL ESTADO DE JALISCO, MéXICO.

Ramirez Roman Marian Joselyn, Universidad de Guadalajara. Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

Podemos decir que, en México la ganadería bovina destaca en los estados de Veracruz y Jalisco, representando el 13% y 12% de la producción total, respectivamente. Chiapas, Sinaloa y Baja California también tienen participación, aunque menor al 12%. Para impulsar el sector ganadero, se ha observado un crecimiento significativo en Jalisco.  En este estado la crianza de animales se da en algunas zonas traseras de los hogares rurales ya que estas cuentan con un amplio terreno el cual les permite tener animales para uso ganadero generando un gran apoyo de subsistencia y economía. Pero la mala gestión del estiércol producido a llevado a tener problemas ambientales en algunas viviendas. De esta manera, La investigación señala que el biodigestor beneficiaría a hogares en comunidades rurales de Jalisco, permitiéndoles ahorrar dinero al evitar la compra de cilindros de gas LP.  La mayoría de los estados mexicanos carecen de una red de gas domiciliario. Por ello, se ha estudiado la viabilidad del biogás como alternativa. Un biodigestor diseñado para aprovechar el estiércol producido en la ganadería se convierte en una solución prometedora. La investigación señala que el biodigestor beneficiaría a hogares en comunidades rurales de Jalisco, permitiéndoles ahorrar dinero al evitar la compra de cilindros de gas LP.  El precio promedio del gas LP varía entre 7.74 y 10.94 pesos mexicanos por litro, lo que hace que el biogás sea una opción atractiva. El uso de una aplicación móvil ayudaría a los usuarios a conocer la duración del biogás disponible y su capacidad para alimentar electrodomésticos en el hogar como lo es la estufa.  En resumen, el enfoque en la ganadería y el aprovechamiento del estiércol mediante biodigestores ofrecen una prometedora alternativa de energía para comunidades rurales en Jalisco, disminuyendo su dependencia de los cilindros de gas y brindándoles un valioso servicio. 



METODOLOGÍA

En la metodología podemos destacar las lecturas de artículos académicos y manuales especializados y la búsqueda en las bases de datos académicas para buscar trabajos relevantes relacionados a la problemática planteada. 


CONCLUSIONES

Como resultados podemos definir la elaboración de un biodigestor en las comunidades rurales a pequeña escala para el autoabastecimiento parcial de gas natural con una implicación innovadora tecnológica, la reducción de costos en el hogar para la obtención de gas y la aportación en la disminución de contaminación por mal manejo del estiércol al ambiente y recursos hídricos.  En conclusión, podemos mencionar la importancia de enseñar a las comunidades rurales de Jalisco los beneficios que obtendrían al dar un segundo uso al estiércol, ya que con los biodigestores caseros es posible dar un autoabastecimiento parcial de gas al hogar y sustituir otros métodos de combustión como son la leña o el gas LP(licuado en petróleo) y el uso de apps para el monitoreo de la producción y consumo del mismo.  
Ramirez Rosales Brandon Kevin, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato

IMPLEMENTACIóN DE UN SISTEMA DE RECONOCIMIENTO FACIAL MEDIANTE INTELIGENCIA ARTIFICIAL E INTERNET DE LAS COSAS


IMPLEMENTACIóN DE UN SISTEMA DE RECONOCIMIENTO FACIAL MEDIANTE INTELIGENCIA ARTIFICIAL E INTERNET DE LAS COSAS

Ramirez Rosales Brandon Kevin, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Juan Pablo Serrano Rubio, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El reconocimiento facial es una tecnología emergente que ha ganado relevancia en los últimos años debido a su amplia gama de aplicaciones, desde seguridad hasta interacción humano-máquina. Sin embargo, la implementación de sistemas de reconocimiento facial que sean precisos y eficientes sigue siendo un desafío. Este trabajo se centra en el desarrollo de un sistema de reconocimiento facial utilizando técnicas avanzadas de inteligencia artificial (IA) e Internet de las Cosas (IoT).



METODOLOGÍA

La metodología empleada en este proyecto de investigación se basó en un enfoque mixto de investigación teórica y práctica, dividido en seis etapas clave: Investigación teórica: Se realizó un estudio exhaustivo del estado actual de las técnicas de reconocimiento facial y su intersección con la inteligencia artificial y el Internet de las Cosas. Diseño del sistema: Se diseñó un sistema integrado de IA y IoT, estableciendo la arquitectura lógica del sistema. Codificación y validación del modelo: Se desarrolló y validó un modelo de red neuronal para el reconocimiento facial. Implementación del sistema IoT: Se implementó un sistema de IoT que interactúa con el sistema de reconocimiento facial para activar o desactivar actuadores. Pruebas del sistema: Se realizaron pruebas integrales del sistema de reconocimiento facial y del sistema de IoT para garantizar su correcto funcionamiento. Documentación del proyecto: Se documentó el proyecto en su totalidad y se redactó un resumen del mismo.


CONCLUSIONES

Se espera que el sistema de reconocimiento facial desarrollado sea capaz de identificar rostros con alta precisión y eficiencia. Además, la integración con IoT permitirá una amplia gama de aplicaciones, desde seguridad hasta interacción humano-máquina. Este proyecto contribuye al avance de las tecnologías de IA y IoT, y abre nuevas posibilidades para su aplicación en el campo del reconocimiento facial. La experiencia adquirida durante el Verano de la Investigación Científica ha reforzado mi formación académica y me ha permitido conocer desde otra óptica la tecnología de reconocimiento facial y su interacción con el Internet de las Cosas.
Ramírez Ruiz José Ramón, Instituto Tecnológico de La Piedad
Asesor: Dr. Elías Ruíz Hernández, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo

DETECCIóN DE NIVELES DE URBANIZACIóN PARA CATEGORIZACIóN DE ZONAS GEOGRáFICAS DE MéXICO MEDIANTE REDES NEURONALES CONVOLUCIONALES


DETECCIóN DE NIVELES DE URBANIZACIóN PARA CATEGORIZACIóN DE ZONAS GEOGRáFICAS DE MéXICO MEDIANTE REDES NEURONALES CONVOLUCIONALES

Ramírez Ruiz José Ramón, Instituto Tecnológico de La Piedad. Asesor: Dr. Elías Ruíz Hernández, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En México existe mucha disparidad entre zonas urbanas y rurales. Aún dentro de las regiones urbanas de ciudades de tamaño medio y grande, Existen grados de disparidad, es decir, algunas ciudades tienen regiones de bajo grado de urbanizaci ́on y a solamente unos pocos kilómetros existen zonas industriales con algo grado de desarrollo urbano, tal como carpeta asfáltica, señalética, hogares con servicios, semáforos, entre otros elementos tanto visuales como no visuales. En este trabajo se plantea el reconocimiento de cuatro grados de urbanización a través de técnicas meramente visuales y en particular, mediante imágenes provenientes de satélites. (Open Street Map o WorldStrat). El modelo propuesto utiliza una red neuronal convolucional no transferida que usa ocho capas detectar de forma automática los cuatro niveles de urbanización en regiones de México a través de solamente una imagen RGB tomada vía satélite. Se busca ayudar a detectar los niveles de urbanización dentro de una misma ciudad de tamaño medio o grande para poderlas clasificar en estos niveles en una ciudad de forma automática.



METODOLOGÍA

  Se utilizó TensorFlow y librería keras en Python para crear un modelo de red neuronal convolucional (CNN) para clasificar las imágenes en cuatro categorías. En un principio se utilizó el modelo pre-entrenado VGG16 y mediante aprendizaje por transferencia se adaptó la arquitectura para reconocer estas cuatro categorías de niveles de urbanidad. Sin embargo, al realizar las primeras pruebas se notó que el grado de exactitud del modelo era bajo debido al alto grado de invarianza con el que trabajan estos modelos genéricos. En particular, el modelo VGG16 utiliza 16 capas. Por lo anterior, se optó realizar reingeniería y crear desde cero un modelo con base en la estructura inicial del VGG16 pero con una menor cantidad de capaz para reducir el exceso de generalización de las categorías visuales con las que trabaja el modelo pre-entranado.. De esta manera se modeló una estructura de ocho capas con cuatro salidas para cada clase (industrial, urbano, no urbano y urbano de baja densidad). Una vez creado el modelo se determinaron los conjuntos de datos (datasets) para entrenar el modelo, por lo que se realizó una revisión de la literatura para encontrar algunos datasets de acceso libre. El dataset WorldStrat contiene 100gbs de imágenes satelitales de diferentes partes del mundo. Para nuestro enfoque, utilizamos solamente imágenes de la República Mexicana.  para ello, se diseñó un script basado en Python que ayudó a separar las imágenes que pertenecen a México y así poder clasificarlas para el entrenamiento del modelo. Al terminar el entrenamiento nos resultó un modelo con una validación del 99% al finalizar las épocas. pero para generar un modelo más general y reducir el riesgo de sobreajuste, se incorporaron también imágenes de OpenStreetMap para generar un modelo más robusto a diferentes alturas de imágenes de satélite, aunque preservando el tipo de imágenes (También son RGB). Para las pruebas se repartieron las imágenes de prueba en las cuatro categorías, con un total de 510 imágenes que representan regiones urbanas o no urbanas de 1 kilómetro cuadrado o menos. Para estas pruebas se consideraron igual imágenes de los dos sitios antes mencionados. (Worldstrat y OpenStreetMap). Los resultados apuntaron a una clasificación de 362 imágenes clasificadas correctamente del total de 510. Si bien hubo algunas confusiones intraclase, dichos errores de precisión y recuerdo resultan consistentes con aquellas categorías que se parecen bastante incluso para un experto en el dominio, tal como urbano e industrial. Al final se obtuvo un método que solamente con imágenes visuales provenientes de satélite determina con un grado de granularidad de cuatro categorías si una región es urbana o no y en el caso de ser urbana, que grado de urbanización presenta. Desde baja densidad, promedio e industrial.


CONCLUSIONES

Se creó un modelo que reconoce a partir de datos visuales provenientes de satélite Al terminar de realizar las pruebas se obtuvo que el modelo tuvo una exactitud del 65% sobre cuatro categorías de imágenes. Midiendo por categorías, se obtuvo una precisión de 64% para la clase industrial, un 90% de la clase no urbano, un 48% de la clase urbano y finalmente un 56% de la clase urbano de baja densidad. Si bien la confusión es más alta en la clase urbano, se considera que esto puede ser comprensible ya que dicha clase esta a mitad de camino entre las clases industrial y urbano de baja densidad. Se considera que esta evaluación puede mejorarse si por un lado se incorpora información no visual, tal como datos estadísticos provenientes de instituciones públicas tal como INEGI, que nos permitan descubrir algunos otros aspectos tal como negocios, tipos de negocios, vialidad, etc, que ayuden a determinar algunos aspectos que no se pueden recuperar solamente de forma visual, donde el valor en metros representados por pixel puede ser aún bajo. Por otro lado, incorporar este modelo en el marco del descubrimiento de ciudades inteligentes puede ayudar a incluso incrementar a futuro el grado de granularidad que puede detectarse. Finalmente, esta información puede ser útil para poder descubrir áreas de oportunidad en municipios donde su desarrollo urbano es de baja densidad. Para sugerir políticas públicas por parte de los tomadores de decisiones. Un modelo automático que ayuda en este proceso puede ser una herramienta muy conveniente en este sentido.
Ramírez Santana Delia Karina Aide, Universidad Politécnica de Victoria
Asesor: Dr. Gerardo Vázquez Guzmán, Instituto Tecnológico Superior de Irapuato

INVERSORES MULTINIVEL SIN TRANSFORMADOR PARA APLICACIONES EN SISTEMAS FOTOVOLTAICOS DE BAJA POTENCIA


INVERSORES MULTINIVEL SIN TRANSFORMADOR PARA APLICACIONES EN SISTEMAS FOTOVOLTAICOS DE BAJA POTENCIA

Ramírez Santana Delia Karina Aide, Universidad Politécnica de Victoria. Asesor: Dr. Gerardo Vázquez Guzmán, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El control en electrónica de potencia es un campo crucial para asegurar una gestión eficiente y segura de la energía eléctrica. El diseño y aplicación de técnicas de control avanzadas permiten optimizar la conversión, transmisión y distribución de la potencia eléctrica, reduciendo pérdidas, mejorando la calidad de la energía y potenciando la integración de fuentes renovables en los sistemas eléctricos. Explorar y desarrollar nuevas estrategias de control para aplicaciones en electrónica de potencia representa un desafío apasionante y necesario para alcanzar un futuro energético sostenible y fiable.



METODOLOGÍA

Antes de sumergirse en aplicaciones más complejas, es esencial comprender los fundamentos de la electrónica de potencia. Asegúrate de dominar los conceptos básicos como la conversión de energía AC-DC y DC-DC, el funcionamiento de los rectificadores, inversores y convertidores de potencia. Familiarízate con los componentes utilizados en estos circuitos y cómo interactúan entre sí. Estudiar casos reales de aplicación de la Electrónica de Potencia en la industria me ayuda a comprender cómo se abordan los desafíos prácticos del control y las aplicaciones en escenarios del mundo real. Llevo un registro meticuloso de mis avances, notas de clase, resultados de experimentos y proyectos. Esto me ayuda a organizar mis ideas y facilita la revisión antes de exámenes importantes.


CONCLUSIONES

Puedo concluir que el Control en Electrónica de Potencia permite comprender y manipular eficientemente el flujo y la conversión de energía eléctrica, abriendo puertas a diversas aplicaciones en áreas como la electrificación de vehículos, generación de energía renovable y sistemas de distribución. Mediante el conocimiento del Control, podemos desarrollar y optimizar circuitos de conversión de potencia, como convertidores y inversores que es en lo que se enfoco esta investigacion, con el fin de mejorar la eficiencia energética y garantizar una gestión adecuada de los recursos eléctricos. Además, esta habilidad nos capacita para investigar y proponer soluciones innovadoras, enfrentando desafíos tecnológicos y medioambientales.
Ramírez Santiago Gisela Briseida, Instituto Politécnico Nacional
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

ANáLISIS MECáNICO DE UN SOPORTE DE ALA DE MATERIAL COMPUESTO EN UN AVIóN LIGERO


ANáLISIS MECáNICO DE UN SOPORTE DE ALA DE MATERIAL COMPUESTO EN UN AVIóN LIGERO

Ramírez Santiago Gisela Briseida, Instituto Politécnico Nacional. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Análisis Mecánico de un Soporte de Ala de Material Compuesto en un Avión Ligero Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California. Estudiante: Ramírez Santiago Gisela Briseida, Instituto Politécnico Nacional.   PLANTEAMIENTO DEL PROBLEMA En la industria aeronáutica siempre hay áreas para innovar y mejorar ciertos diseños. En esta investigación se realizó un análisis de comparación en la resistencia a tensión de un soporte elaborado con aluminio 7075 y de material compuesto reforzado con fibra de carbono. Principalmente, lo que se busca es emplear materiales que sean ligeros pero resistentes en la fabricación de aviones, por ello, se está buscando el empleo de materiales compuestos los cuales nos brindan esas dos características, para esta línea de investigación se busca emplear la fibra de carbono en el soporte de un avión ligero.



METODOLOGÍA

METODOLOGÍA Se realizó una investigación con respecto las características de un avión ligero y sobre los materiales compuestos de donde se obtuvo que estos, en particular la fibra de carbono tiene una gran resistencia a las fuerzas de tensión, asimismo, que el rendimiento de la fibra dependerá del acomodo del tejido, específicamente de los ángulos. También se investigó sobre geometrías y materiales del que se fabrican las alas de los aviones, así como el peso que las alas representan del peso total del avión ligero, lo que nos arrojó que representan el 15 % del peso total. Con toda la teoría, lo que siguió fue buscar un diseño de avión del cual extraer las medidas del perfil. En este caso, se seleccionó el avión el PAC MFI-17, de acuerdo con la ficha técnica del avión, se tiene un peso de despegue máximo de 1,200 kg por lo que el peso aproximado de las alas es de 180 kg (1766 N) y con una longitud del soporte del ala de 2.122 m. Posteriormente, se procedió a realizar las simulaciones en SolidWorks del soporte del avión ligero. Se realizaron dos simulaciones, por un lado, considerando que el soporte estuviera fabricado con aluminio 7075, y el otro considerando que estuviera fabricado de fibra de carbono con una configuración . Los resultados de las simulaciones mostraron que la fibra de carbono tiene un mejor desempeño, ya que tiene un límite de resistencia superior en comparación con el aluminio. Por lo tanto, la capacidad de soportar una fuerza a tensión es superior en la pieza de fibra de carbono en comparación con la pieza de aluminio.


CONCLUSIONES

CONCLUSIONES En esta estancia de verano se logró adquirir mayor conocimiento sobre los materiales compuestos, sobre todo el comprender que este tipo de materiales son útiles cuando se trabaja con fuerzas a tensión y cuya resistencia tiene relación con el acomodo de la fibra en cada capa. Con las simulaciones realizadas se llega a la conclusión que se podría fabricar el soporte de un avión ligero con fibra de carbono bajo condiciones de tensión. Por lo tanto, este material compuesto es una gran alternativa por sus excelentes propiedades mecánicas. Los trabajos futuros de esta investigación es estudiar el comportamiento del soporte del ala al ser sometido a casos de cargas complejas y así determinar su uso seguro en un avión ligero.
Ramírez Trujillo Guadalupe Alondra, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

IMPLEMENTACIóN DE VIDEOJUEGOS EN REALIDAD VIRTUAL PARA FORTALECER EL NúCLEO AXIAL EN LA REHABILITACIóN DEL CONTROL POSTURAL EN ADULTOS MAYORES


IMPLEMENTACIóN DE VIDEOJUEGOS EN REALIDAD VIRTUAL PARA FORTALECER EL NúCLEO AXIAL EN LA REHABILITACIóN DEL CONTROL POSTURAL EN ADULTOS MAYORES

Ramírez Trujillo Guadalupe Alondra, Instituto Tecnológico de Estudios Superiores de Zamora. Ramos Ramírez Jennifer Paulina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Según diversos investigadores, el envejecimiento puede ser influenciado por factores tanto primarios (genética) como secundarios (ejercicio, nutrición, lesiones y trastornos patológicos). Esta combinación de factores contribuye a que los adultos mayores experimenten alteraciones en el control reactivo y retrasos en las respuestas musculares, lo que les demanda más tiempo para recuperar el equilibrio. Así, se observa un retraso en la activación de las respuestas posturales para mantener el equilibrio. Dado que PROBAUAM ha demostrado ser efectivo para mejorar la estabilidad en este grupo de población, se busca incorporar la tecnología de VR como una alternativa que pueda contribuir al control postural en adultos mayores. El objetivo general de este proyecto es crear y evaluar un sistema de VR que forme parte del programa de ejercicios terapéuticos PROBAUAM, diseñado para mejorar el control postural en adultos mayores. La propuesta surgió a raíz de que los adultos mayores pueden experimentar problemas en el control de su postura, lo que puede dar lugar a respuestas inadecuadas en los ajustes posturales, aumentando así el riesgo de inestabilidad y caídas.



METODOLOGÍA

La Universidad Autónoma de Manizales cuenta con una serie de actividades que forman parte de su programa para mejorar la estabilidad y el control postural de los adultos mayores, este programa cuenta con 3 distintas fases, cada una teniendo la duración de una semana y contando con distintos ejercicios cada día, siendo la actividad 1 del día 1, de la fase 1 la que se decidió tomar. Se optó por realizar este ejercicio con la ayuda de VR, para motivar a la persona en rehabilitación y que tenga un objetivo que lo guíe a realizar la actividad correctamente. El ejercicio de la actividad mencionada trata de que el paciente sentado haga flexión activa de la cadera iniciando con un tronco erguido, es decir, debe realizar movimientos constantes hacia arriba con las piernas estando sentado apoyando las manos en los muslos. La etapa número 1, crear la escena. Esta se basa en que el adulto mayor tendrá una carrera en triciclos con su sobrino hasta llegar a la meta. El escenario consta de diferentes assets que forman una casa y un jardín, una carretera en donde se sitúa la carrera, triciclos, assets para ambientar y finalmente una meta. La escena también cuenta con audios para ambientación que fueron obtenidos de repositorios de recursos gratuitos y de uso libre. Luego se comenzó a crear un escenario tridimensional, el primer avance de la escena realizada fue tener un mapa de navegación, usando la función NavMesh de Unity que permite crear agentes que por medio de programación e IA puedan moverse en espacio determinado. Después se usaron dos triciclos, uno para cada jugador. El jugador número 1, que representa al usuario y el jugador número 2 que representa el sobrino y la meta. Terminado el escenario, se configura la escena donde pasarán los triciclos de los jugadores, generando una guía de navegación. En la etapa número 2, programación. Para comenzar, tanto el NPC como el jugador controlan la ruta por la que deben viajar mediante los distintos objetivos que fueron definidos por un arreglo de puntos que al detectar que el triciclo se acerca a uno de ellos en un radio de 0.5 de distancia, automáticamente cambia el objetivo al siguiente para no interrumpir su continuidad. El NPC cuenta con una velocidad aleatoria, la cual cambia después de 4 segundos, el NPC se detiene y avanza con una nueva velocidad, para esto se colocó un rango de 0 a 3 unidades, la función aleatoria toma ese rango de referencia para ir alternando la velocidad. El usuario avanza solo si hace eleva los pies correctamente, es decir el movimiento que debe realizar el usuario primero debe de alcanzar una altura adecuada y por consiguiente debe alternar la elevación de los pies, si eleva el mismo pie el sistema lo detectará y eso hará que su velocidad disminuya, pero si va alternando la elevación el usuario seguirá avanzando. Para programar los movimientos, se usaron 3 cubos dentro de la escena de Unity, los cuales se encargan de detectar los movimientos, en este caso, los movimientos detectados fueron configurados a través de los controles de VR, se modificaron de tal manera que dos cubos siguieran los controles y el restante se utilizará para detectar cuando cada cubo choque con él, ya que, como se mencionó anteriormente, las manos del usuario deben de estar encima de los muslos, esto hará que el movimiento sea detectado por el sistema y hará que el triciclo avance. Todo esto se especificó en base al lenguaje C#. Etapa número 3, pruebas con VR. Las pruebas se realizaron con los equipos de VR HTC VIVE, al comenzar las pruebas se notó que el tamaño de la escena no era correcto, es decir, los assets eran grandes y esto hacía que el usuario se percibiera pequeño. Se ajustaron las escalas, todo esto aun con el equipo de VR puesto hasta llegar al tamaño indicado, Mediante las pruebas realizadas se verificó que la velocidad de los jugadores fuera correcta, que la velocidad del NPC no fuese muy rápida y si el usuario podría vencer en la carrera al NPC; Para esto se simuló el mismo ejercicio a realizar mientras que el NPC avanzaba. También, se identificó que había que modificar tal velocidad que, a pesar de ser aleatoria, era difícil rebasar al NPC.


CONCLUSIONES

Durante la estancia del verano de investigación, se lograron adquirir diversos conocimientos sobre el desarrollo de videojuegos y de escenas usando Unity, así como también conocimientos referentes al lenguaje C# y la importancia que tiene modificando las escenas. También se identificaron los problemas de estabilidad y control postural que los adultos mayores puedan experimentar y los factores que pueden llegar a provocarlos. No obstante, al ser un proyecto amplio que consta de tres distintas fases, todavía no ha sido concluido, se espera terminar el proyecto, así como hacer distintas pruebas para que el adulto mayor pueda comenzar a utilizar el sistema.
Ramírez Ulloa Abraxis Baruch, Instituto Tecnológico de Tepic
Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer

MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS


MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS

Díaz Ibarra Jatsiry Citlally, Instituto Tecnológico de Tepic. Gutiérrez Cervantes Silvia Marlene, Instituto Tecnológico Superior de Irapuato. Herrera Diaz Ailed Lourdes, Instituto Tecnológico de Tepic. Juárez Ochoa Carmen Andrea, Instituto Tecnológico Superior de Irapuato. Mancilla Flores Lizeth Berenice, Universidad de Guadalajara. Ramírez Ulloa Abraxis Baruch, Instituto Tecnológico de Tepic. Savalza Castillo Karla Veronica, Universidad Autónoma de Nayarit. Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer



PLANTEAMIENTO DEL PROBLEMA

En la actualidad Colombia está enfrentando diversos retos a nivel del comercio internacional debido a las diferentes fuerzas que trae la globalización y que han llegado para transformar como se producen, los diferentes productos servicios que necesitan los consumidores, de igual manera, representa una oportunidad para que las empresas nacionales desarrollen estrategias con el propósito de lograr mayor productividad y competitividad en un mercado compuesto por clientes mucho más exigentes en cuanto a sus preferencias y necesidades. La globalización es parte esencial cuando se habla de competencia y actualización de metodologías, debido a que las empresas nacionales tienen la posibilidad de renovar sus procesos con el fin de automatizarlos como lo hacen algunas  empresas extranjeras, aunque se debe destacar que la entrada de nuevas tecnologías no se debe relacionar con la salida de capital humano.  La reingeniería de procesos está relacionada con la reducción de costos y aumento de utilidades, pero no con el recorte de personal como la gente lo supone. Las empresas en Colombia tienen tiene solo una opción en su planeamiento estratégico: es involucrase decididamente en procesos de transformación tecnológica con el fin de lograr estándares mundiales de alto nivel con el fin de lograr su sostenibilidad en el tiempo.



METODOLOGÍA

Tener casos de éxito en la adaptación a las megatendencias en el sector empresarial es fundamental, por lo que cuando se realizó una visita pedagógica  en la empresa Cohan: (Cooperativa de Hospitales de Antioquia), donde se pudo observar cómo se desarrolló un proyecto de automatización en sus procesos de venta, el personal directivo logró la implementación de almacenes verticales automatizados  para la optimización de procesos de picking y dicha implementación fue exitosa tanto así que sus ventas y tiempos de entrega mejoraron drásticamente. Antes la entrega de un pedido podía durar hasta 8 días para llegar al cliente final, ahora se entrega en 24 horas y lo más importante de todo, no salió ningún auxiliar de sus operaciones lo que la hacen un ejemplo a seguir de muchas empresas Colombianas de su sector ya que, tomaron las megatendencias a su favor y decidieron adaptarse a por medio de la tecnología. Como se ha dado a conocer, los recursos son siempre escasos y por ello es necesario invertir en aquellos proyectos que le den a la empresa la mayor rentabilidad posible tal como lo hizo la empresa Cohan, la tecnología en sí misma no es la solución, pero haciendo una planeación adecuada, la tecnología agrega valor, ayuda a que nuestras operaciones sean más eficientes, eviten errores y reduce los costos operativos y tiempos logísticos, estos elementos hacen que un proyecto sea rentable. En este caso, debemos estar plenamente convencidos de la relación entre la inversión y el sistema de almacenamiento que necesitamos. También, visitamos una de la empresa más representativas de la industria del Café en Colombia, Colcafé; esta es la primera empresa colombiana de café en exportar café en  diferentes presentaciones. Esta empresa en su proceso implementa un software con el cual se escanea el código de barras que está colocado en el pallet con la carga de mercancía, al momento de escanearlo arroja una ficha técnica, donde se especifica el historial del producto, es decir, detallando datos importantes como si será exportado o será distribuido a nivel nacional, y en caso de ser exportación nos indica el país de destino.


CONCLUSIONES

Con base en la información proporcionada, es importante destacar que las megatendencias globales tienen un impacto significativo en la eficiencia logística de las empresas colombianas. Las megatendencias son fuerzas transformadoras a gran escala que afectan a nivel mundial y que generan cambios importantes en la sociedad, la economía y la tecnología. Cada una de las empresas que se visitaron y evaluaron, implementan de forma distinta las megatendencias, sin embargo, todas lo realizan con la misma finalidad que es eficientizar y optimizar sus procesos. Algunas de las megatendencias globales relevantes para la eficiencia logística en Colombia incluyen la globalización, los cambios demográficos, la variabilidad y cambio climático, la escasez de recursos, la hiperconectividad, el traslado de los ejes del poder, y la urbanización. Estas tendencias han dado lugar a desafíos y oportunidades para las empresas que operan en el país, especialmente en el ámbito logístico. En conclusión, las megatendencias globales están transformando la forma en que las empresas colombianas abordan la eficiencia logística. Aquellas que logren adaptarse y aprovechar las oportunidades que estas tendencias ofrecen, a través de la implementación de tecnologías avanzadas, prácticas sostenibles y estrategias innovadoras, estarán en una mejor posición para mantenerse competitivas y satisfacer las demandas cambiantes de un mercado globalizado y en constante evolución. La colaboración entre el sector público y privado también es esencial para superar los desafíos logísticos y mejorar la infraestructura, lo que contribuirá en última instancia al crecimiento económico y desarrollo sostenible del país.
Ramos Anastacio Amanda Rubi, Instituto Tecnológico de Querétaro
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

ANDADERA RESCATADA


ANDADERA RESCATADA

Ramos Anastacio Amanda Rubi, Instituto Tecnológico de Querétaro. Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Rescatar una andadera vieja y encontrar una solución que permita reutilizar la andadera de manera segura y eficiente para el nuevo usuario, garantizando su comodidad y bienestar. Se requiere un enfoque cuidadoso y experto para realizar ajustes y reparaciones adecuadas que se adapten a las necesidades y características específicas del usuario, asegurando la funcionalidad y seguridad del dispositivo. Nuestra propuesta busca cambiar esta realidad al desarrollar una andadera que cumpla con altos estándares de calidad y seguridad, al mismo tiempo que se centra en la sostenibilidad ambiental. Al utilizar materiales reciclados cuidadosamente seleccionados, no solo reduciremos el impacto en el medio ambiente, sino que también contribuiremos a la promoción de prácticas más responsables en el diseño de productos de apoyo.



METODOLOGÍA

Se analizará detalladamente la andadera vieja para determinar su estado general y su viabilidad para ser reutilizada y modificada. Se identificarán las partes y componentes que necesitan reparación, sustitución o ajustes para adaptarla a las necesidades del nuevo usuario. Se desarrollará un plan de diseño detallado para la adaptación de la andadera. Esto incluirá los ajustes ergonómicos necesarios, la incorporación de materiales reciclados en las partes dañadas o desgastadas, y la consideración de aspectos de seguridad y estabilidad. Esta metodología se centrará en lograr una adaptación sostenible de la andadera vieja, aprovechando materiales reciclados para reducir el impacto ambiental y ofrecer una solución práctica y accesible para el nuevo usuario. El proyecto busca destacar el valor de la reutilización responsable de equipos médicos y promover prácticas más sostenibles en el campo de la asistencia médica.


CONCLUSIONES

En conclusión, el proyecto "Andadera Rescatada" ha sido una iniciativa apasionante que ha buscado fusionar la innovación y la conciencia ambiental para ofrecer una solución accesible y responsable a las necesidades de movilidad reducida. A lo largo del desarrollo de este proyecto, hemos logrado demostrar las ventajas y desafíos de fabricar una andadera utilizando exclusivamente materiales reciclados. Tanto como la Sra. Alfonsa María de Jesús Bustos madre del el Sr. Mario Rafael Hernández Bustos, usuario de la andadera,  quedaron satisfechos son el resultado del proyecto. La principal fortaleza de esta propuesta ha sido el enfoque hacia la sostenibilidad ambiental, al reducir significativamente la cantidad de desechos generados y al fomentar la reutilización de materiales. Esta apuesta ha generado un impacto positivo en la comunidad, promoviendo prácticas más conscientes y sostenibles entre los colaboradores y usuarios potenciales. En resumen, estamos convencidos de que la andadera con materiales reciclados es un paso en la dirección correcta hacia un futuro más sostenible y consciente, y esperamos que este proyecto sea un punto de partida para impulsar más acciones en beneficio de nuestro planeta y de aquellos que requieren asistencia en su vida diaria.
Ramos Avalos Roberto, Universidad Tecnológica de Nayarit
Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara

APLICACIóN INFORMATIVA CON REALIDAD AUMENTADA PARA SMARTPHONE PARA EL CENTRO UNIVERSITARIO DE LA COSTA


APLICACIóN INFORMATIVA CON REALIDAD AUMENTADA PARA SMARTPHONE PARA EL CENTRO UNIVERSITARIO DE LA COSTA

Cervantes Paz Alejandra, Universidad Autónoma Benito Juárez de Oaxaca. Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit. Ramos Avalos Roberto, Universidad Tecnológica de Nayarit. Sangri Espitia Luis Arturo, Instituto Tecnológico de Matamoros. Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La problemática detectada en el Centro Universitario de la Costa (CUC) de Puerto Vallarta Jalisco conforme ha pasado el tiempo ha ido aumentando cada vez más y por ende sigue afectando a toda la comunidad estudiantil y a todos los usuarios que visitan por primera vez las instalaciones de este centro de estudios, ya que, este instituto tiene una alta demanda de solicitudes de ingreso debido a que también se encuentra ubicado en un municipio de grado turístico y recibe estudiantes tanto locales que habitan en el mismo estado o municipio y hasta alumnos internacionales. Otro de estos motivos es que el centro  universitario está afiliado a distintos programas de estudio lo que conlleva a recibir estudiantes de distintas partes nacionales e internacionales. Por estas razones al visitar por primera vez sus instalaciones  los alumnos se encuentran desorientados ya que desconocen dónde se encuentra cada área de las cuales se compone el campus, debido a que esta institución es muy amplia y se desconoce la ubicación de los mapas de los edificios o algún personal específico o asignado que oriente a los estudiantes o usuarios que ingresan por primera vez a este centro universitario, otro problema detectado es que los señalamientos dentro del instituto están bastante deteriorados y dañados, por lo tanto no son muy entendibles, lo que conlleva a verse involucrados en la problemática mencionada anteriormente.



METODOLOGÍA

Definición del Alcance y Objetivos: En esta fase inicial, el equipo se reunirá con representantes del Centro Universitario para comprender los requisitos y expectativas de la aplicación de realidad aumentada. Se establecerá el alcance del proyecto y se definirán los objetivos específicos, centrándose en proporcionar información detallada sobre instalaciones, edificios, departamentos, oficinas y el reptilario del campus. Planificación y Diseño: El equipo diseñará un plan detallado para el desarrollo de la aplicación. Esto incluirá la asignación de tareas, la definición de los entregables y la estimación de tiempos para cada fase del proyecto. Además, se definirán los requisitos para la captura de datos mediante la tecnología Vuforia y la integración de los área targets generados en Unity para crear el entorno virtual. Fase de Escaneo y Generación de Área Targets: En esta etapa, el equipo llevará a cabo el escaneo de las áreas relevantes del campus utilizando la tecnología Vuforia. Los datos recopilados se utilizarán para generar los área targets necesarios para la aplicación de realidad aumentada. Desarrollo del Entorno Virtual en Unity: Con los área targets generados, el equipo procederá a desarrollar el entorno virtual en Unity. Se crearán los modelos 3D y la interfaz de usuario necesaria para presentar la información adicional de cada ubicación en el campus. Implementación y Pruebas: En esta fase, se integrarán los area targets y el entorno virtual en la aplicación de realidad aumentada. Se llevarán a cabo pruebas exhaustivas para garantizar que la información se muestre correctamente en cada área target y que la aplicación funcione sin problemas. Pruebas de Campo y Retroalimentación: Una vez que la aplicación esté lista, se llevarán a cabo pruebas en campo en el campus universitario para validar su funcionalidad y experiencia de usuario. Se recopilará la retroalimentación de los usuarios para realizar ajustes y mejoras necesarias. Entrega y Despliegue Definitivo: Con todas las funcionalidades implementadas y las pruebas completadas, se preparará la aplicación para su lanzamiento definitivo en el campus universitario. Se llevará a cabo una capacitación más completa para el personal y los usuarios finales. Seguimiento y Mantenimiento Continuo: Una vez que la aplicación esté en funcionamiento completo, se realizará un seguimiento continuo para detectar y resolver cualquier problema que pueda surgir. Se considerará la posibilidad de agregar nuevas funcionalidades en el futuro para mejorar aún más la experiencia de los usuarios.


CONCLUSIONES

El desarrollo de una aplicación informativa con realidad aumentada para Smartphone en el Centro Universitario de la Costa (CUC) promete ser una herramienta valiosa para proporcionar información detallada sobre las instalaciones del campus, incluyendo edificios, departamentos, oficinas y el reptilario. Los usuarios podrán navegar con facilidad y confianza por el centro universitario, lo que mejorará significativamente su experiencia de ingreso y estancia, facilitando su adaptación y comodidad en el campus. La metodología implementada para el desarrollo de la aplicación ha sido cuidadosamente planificada y ejecutada en colaboración con representantes del Centro Universitario, asegurando que los objetivos del proyecto estén alineados con las necesidades reales de los usuarios. El aprovechamiento de tecnologías como Vuforia para el escaneo y generación de área targets, junto con el entorno virtual en Unity, ha permitido una experiencia de realidad aumentada fluida y precisa, garantizando la solidez técnica del proyecto. Esta tecnología no solo facilita la navegación en el campus, sino que también impulsa la imagen del Centro Universitario de la Costa como una institución moderna. La aplicación representa un avance significativo hacia la mejora de la calidad educativa y la satisfacción de la comunidad universitaria, consolidando al CUC como un referente en el ámbito educativo tecnológico.
Ramos Coria Ximena, Instituto Tecnológico de Morelia
Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo

CERTIFICACIóN DE EQUIPOS DE CONTROL DE PRESIóN DE POZOS PETROLEROS


CERTIFICACIóN DE EQUIPOS DE CONTROL DE PRESIóN DE POZOS PETROLEROS

Ramos Coria Ximena, Instituto Tecnológico de Morelia. Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

La industria del petróleo es un sector que siempre afronta muchos retos entre el mantenimiento de las instalaciones, la seguridad en el trabajo, etc, estas actividades industriales involucran demasiadas tareas de alto riesgo tanto para los trabajadores como para el ambiente. Debido a esto, las empresas petroleras cuentan con el apoyo de instituciones de inspección acreditados, que les brindan servicios de certificación de equipos.  La certificación de equipos de control de presión de pozos petroleros se realiza con el fin de evaluar si el equipo sigue en óptimas condiciones, asegurando que el equipo cumpla con los requisitos de seguridad establecidos, esto ayuda a que las empresas se mantengan al frente en un entorno competitivo, mejorando la producción y la gestión de la empresa 



METODOLOGÍA

Pemex solicita la certificación de sus ECP a instituciones certificadas para esta actividad, tal como lo es el IMP. Las instituciones certificadas dan mantenimiento a los ECP y realizan las pruebas de hermeticidad (presión) para determinar que el equipo puede volver a utilizarse con seguridad. Las pruebas realizadas determinan los criterios de aceptación o rechazo para cada componente.  La certificación de equipos tiene una serie de pasos, los cuales se deben cumplir y tiene que haber evidencias fotográficas de estas, ya que se realiza un reporte con toda la información.  Los pasos que se llevan a cabo son los siguientes:  1. Recepción del equipo a certificar. Una vez que se recibe el equipo de control de presión (ECP) lo primero que se realiza es el diagnóstico inicial de cómo se recibe el equipo. Posteriormente se lleva a cabo el desarme del ECP de sus principales componentes (BOP, trampa, lubricadores, válvulas, etc.). En todo momento se toma evidencia fotográfica para el reporte.   2. El segundo paso consiste en realizar la limpieza de los componentes del ECP. Esta se lleva a cabo por medio de desengrasante, diésel o en algunos casos se usa el Sand Blast, donde realizan una limpieza a presión de chorro de arena, el objetivo de esta limpieza es quitar el óxido, retirarle la pintura y cualquier suciedad.  3. El tercer paso es realizar las pruebas no destructivas (PND) con la finalidad de determinar si tienen alguna fisura o alguna señal de una posible falla, estas pruebas son: líquidos penetrantes, partículas magnéticas y ultrasonido (US).  4. Se realizan las pruebas de presión para determinar que no existen fugas a la presión de trabajo requerida.  5. Se aplica el recubrimiento anticorrosivo, la pintura y se etiqueta el equipo para su entrega.    Pruebas no destructivas usadas en la certificación de los ECP  Inspección visual.  La inspección visual implica la observación directa de la superficie de un objeto de prueba para evaluar la presencia de discontinuidades en la superficie como grietas, deformaciones, desgaste y otros signos de daño o desgaste.   Se observan las piezas si no vienen corroídas, desgastadas o con alguna fisura, esta revisión se hace por si alguna pieza tiene algún defecto repararla o remplazarla, el personal certificador tiene que estar seguro de que las piezas estén en excelentes condiciones para que el ECP vuelva a operar.  Líquidos penetrantes.  La prueba utiliza un líquido con tinte que se aplica en la superficie de un objeto para detectar defectos en la superficie. El líquido penetra en las discontinuidades abiertas en la superficie y es liberado por capilaridad, formando una mancha visible en la superficie que indica la presencia de un defecto. Los líquidos penetrantes son una técnica efectiva para detectar defectos superficiales, como grietas, porosidad y falta de penetración en soldaduras. Además de aplicarse a las roscas de los componentes también realizan esta prueba en las roscas de los tubos lubricadores.  Ultrasonidos (US).  El ultrasonido utiliza ondas sonoras de alta frecuencia para inspeccionar objetos y materiales. La técnica envía ondas sonoras a través del material y registra los tiempos de retorno y la amplitud de las ondas reflejadas para producir una imagen de la estructura interna del objeto. La técnica permite la detección de defectos internos, como porosidad, falta de penetración en soldaduras, grietas y otros problemas que pueden afectar la integridad del objeto. Esta prueba la realizan para medir el espesor de los componentes críticos del ECP.  Después de haber realizado estas tres pruebas, se arman los componentes del ECP para realizar la prueba de presión.  Prueba de presión.  Una vez ensamblados se realizan las pruebas de presión del BOP, las bridas y los lubricadores, en esta prueba la presión de prueba la especifica el fabricante, esta deberá realizarse a 1.5 veces la presión de diseño del equipo. La presión de operación de las bridas es de 5,000 psi, si tomamos el rango de seguridad que es de 1.5, la presión de prueba será de 7,500 psi. Este es el límite al que deben llegar con la presión, ya no se debe pasar debido a que puede ocurrir un accidente catastrófico. De igual manera se prueba los demás componentes. Esta prueba se hace con la finalidad de ver si el equipo no tiene alguna fuga.  Por último, ya que el ECP haya pasado todas las pruebas de presión, el equipo se manda a pintar y aplicar el recubrimiento anticorrosivo, ahí mismo se le pone la fecha de recertificación para ya ser entregado a la empresa. 


CONCLUSIONES

La certificación del equipo de control de presión (ECP) es muy importante debido a que se da mantenimiento a todos los componentes del ECP, se verifica su integridad mecánica y su hermeticidad (pruebas de presión). Cuando se termina la certificación se documenta si el ECP puede seguir operando y bajo qué condiciones de presión. Para esto, se toman en cuenta los criterios de aceptación especificados y los requisitos estipulados en códigos y normas que aplican. Las pruebas realizadas determinan si el equipo es capaz de funcionar bajo condiciones de seguridad a la presión de trabajo, además de brindar seguridad al personal que es un aspecto muy importante, también ofrece un funcionamiento eficaz que hace que las empresas no tengan pérdidas económicas, debido a que en este tipo de industrias si la producción llega a parar por algún fallo del equipo, ocasiona perdidas enormes. 
Ramos Gómez Cynthia, Universidad de Guadalajara
Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco

INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN UNIVERSIDADES MEXICANAS DE JALISCO Y GUANAJUATO


INGRESO, EGRESO Y TITULACIóN DE ESTUDIANTES MUJERES EN FACULTADES DE INGENIERíA EN UNIVERSIDADES MEXICANAS DE JALISCO Y GUANAJUATO

Alvarado Nava Nallely Elizabeth, Universidad de Guadalajara. Alvarez Cabrera Ruth, Universidad de Guadalajara. Gonzalez Hinojosa Juliana, Instituto Tecnológico Superior de Irapuato. Ramos Gómez Cynthia, Universidad de Guadalajara. Asesor: Mg. Martha Sofia Carrillo Landazábal, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

Esta investigación se realiza debido a la preocupante disparidad de género que se ha observado en las facultades de ingeniería en universidades mexicanas, particularmente en las regiones de Jalisco y Guanajuato. Aunque en las últimas décadas ha habido un aumento significativo en el número de mujeres que ingresan a carreras de ciencias, tecnología, ingeniería y matemáticas (STEM), todavía persisten desafíos en la retención y titulación de estas estudiantes. El ingreso de mujeres a las facultades de ingeniería ha aumentado, pero en muchos casos, se observa una disminución gradual de su presencia a lo largo de la carrera. Esta tendencia sugiere la existencia de barreras que afectan negativamente la permanencia y éxito académico de las estudiantes en estas áreas. El propósito fundamental de esta investigación es identificar y analizar los factores que inciden en el ingreso, permanencia, egreso y titulación de las estudiantes mujeres en las facultades de ingeniería de dichas regiones. Algunos posibles factores a considerar incluyen estereotipos de genero arraigados en la sociedad y en el ámbito académico, falta de modelos a seguir femeninos en posiciones de liderazgo en el campo, sesgos inconscientes en la evaluación y tutoría de las estudiantes, así como la falta de programas específicos de apoyo para el desarrollo profesional y académico de las mujeres en ingeniería.



METODOLOGÍA

La investigación se llevó a cabo mediante la recolección de datos numéricos de información relacionada con los estudiantes de dicha Institución de Educación Superior en México. La información fue obtenida de la base de datos de La Asociación Nacional de Universidades e Instituciones de Educación Superior (ANUIES) en sus anuarios estadísticos. Se estudiaron las diferencias existentes en los últimos tíes años, para permitir encontrar discrepancias entre los datos y de esta forma compararlos estadísticamente. El estudio consta de cuatro fases: Fase 1. Estudio de población y muestreo: se describe de dónde provienen los datos. Fase 2. Recopilación de datos: identificación de las variables que se van a medir Fase 3. Análisis de datos: consiste en el análisis y procesamiento de la información y los datos. Fase 4. Obtención de los resultados.


CONCLUSIONES

En conclusión, esta investigación sobre el ingreso, egreso y titulación de estudiantes mujeres en facultades de ingeniería en universidades mexicanas de Jalisco y Guanajuato ha sido de vital importancia para comprender y abordar la brecha de género existente en el ámbito de carreras STEM. A través del análisis exhaustivo de los datos recopilados, se ha confirmado la persistente desigualdad de género en estas áreas de estudio, evidenciando que, aunque el número de mujeres que inician carreras en ingeniería ha aumentado, muchas de ellas enfrentan obstáculos que limitan su permanencia y titulación. Los resultados han permitido identificar factores críticos que afectan la participación de las mujeres en la ingeniería, como estereotipos culturales, sesgos en la evaluación y tutoría, así como la falta de modelos a seguir y programas de apoyo específicos para ellas. Estos hallazgos instan a la necesidad de desarrollar estrategias y políticas que promueven la igualdad de oportunidades y la equidad de género en las facultades de ingeniería. Al crear un ambiente más inclusivo y diverso en estas carreras, se podrán aprovechar los talentos y perspectivas únicas de las mujeres, lo que a su vez impulsaría la innovación y el avance tecnológico de manera más significativa. Asimismo, se detecta la importancia de fomentar la participación temprana de las niñas en actividades STEM y de ofrecer mentoría y redes de apoyo para fortalecer su interés y confianza en estos campos. Esta investigación, sin duda, sienta las bases para futuros estudios y acciones que contribuya a cerrar la brecha de género en la ingeniería y a construir un futuro más igualitario y prometedor para todas las estudiantes interesadas en seguir una carrera en ciencias, tecnología, ingeniería y matemáticas en México. Las estrategias presentadas ofrecen un enfoque integral para promover la participación de mujeres en carreras STEM y cerrar la brecha de género en estos campos. Cada una de estas estrategias aborda desafíos específicos que han obstaculizado históricamente la inclusión de mujeres en ciencia, tecnología, ingeniería y matemáticas. Es esencial hacer hincapié en que la lucha por la equidad de género en carreras STEM debe ser constante y que estas estrategias deben implementarse de manera concertada y sostenida para logra resultados significativos. La promoción de la participación de mujeres en STEM no solo es un asunto de justicia y derechos humanos, sino también una oportunidad para enriquecer estos campos con una diversidad de talento, perspectivas e ideas. Trabajar hacia un futuro más diverso e igualitario en carreras STEM no solo beneficio a las mujeres, sino que también impulsa la innovación y el progreso en la sociedad en su conjunto. Al adoptar estas estrategias y continuar buscando nuevas formas de promover la inclusión, estamos dando pasos significativos para lograr un mundo donde todas las personas, sin importar su género, tengan igualdad de oportunidades para participar y liderar en los campos de ciencia, tecnología, ingeniería y matemáticas
Ramos Larrieta Mariana, Instituto Tecnológico de Pachuca
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

ANáLISIS DEL PROCESO DE MANTENIMIENTO EN UNA COMPAñíA PORTUARIA A TRAVéS DE LA SIMULACIóN DE EVENTOS DISCRETOS.


ANáLISIS DEL PROCESO DE MANTENIMIENTO EN UNA COMPAñíA PORTUARIA A TRAVéS DE LA SIMULACIóN DE EVENTOS DISCRETOS.

Mondragón Granados Daniela Mariana, Instituto Tecnológico de Pachuca. Ramos Larrieta Mariana, Instituto Tecnológico de Pachuca. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales procesos en las empresas portuarias es la transferencia de carga; para ello, los equipos electromecánicos utilizados deben cumplir con una serie de requisitos que garanticen su buen funcionamiento, lo cual puede ocasionar un incremento en los costos de producción. Por lo tanto, toda mejora que permita reducir pérdidas y costos en la producción a corto, mediano y largo plazo, son una decisión asertiva que las empresas deberían tomar para mantener la sustentabilidad. Bajo esta directriz, el mantenimiento ha tomado un papel importante debido a que ya no es solo un área de la empresa, sino que ahora se considera una parte importante del proceso productivo. 



METODOLOGÍA

Una vez que el tema de investigación ha sido asignado se realiza una visita empresarial para la recopilación de información y la creación de una base de datos. Posterior a ello se construye un modelo de simulación que permita conocer las áreas de oportunidad dentro del proceso seleccionado. Finalmente se generan propuestas de mejora y el proyecto es sustentado ante directivos de la universidad.


CONCLUSIONES

En los resultados se aprecian retardos o colas en la etapa de ejecución del trabajo que afectan directamente al tiempo final de ejecución del mantenimiento. Estos retardos se dan en la llegada de los insumos o repuestos necesarios para llevar a cabo el mantenimiento respectivo, lo cual puede ser el causante de la falta de disponibilidad de los equipos del área de operaciones de manera oportuna. Esto impacta negativamente los tiempos planificados para cada mantenimiento. En los resultados de la simulación se evidencia que al incluir una persona en el proceso este presenta mejoras en cuanto a los tiempos de respuesta; sin embargo, se propone hacer un estudio de funciones para no contratar a alguien sino realizar una redistribución de las cargas de trabajo.
Ramos Ledezma Nadiezhda Natividad, Instituto Tecnológico de Matamoros
Asesor: Mg. Jaime Eduardo Arturo Calvache, Fundación Universidad de América

APROVECHAMIENTO DE NEUMáTICOS AL FINAL DE SU VIDA úTIL MEDIANTE PIRóLISIS RáPIDA COMO ESTRATEGIA DE PROMOCIóN DE LA ECONOMíA CIRCULAR


APROVECHAMIENTO DE NEUMáTICOS AL FINAL DE SU VIDA úTIL MEDIANTE PIRóLISIS RáPIDA COMO ESTRATEGIA DE PROMOCIóN DE LA ECONOMíA CIRCULAR

Ramos Ledezma Nadiezhda Natividad, Instituto Tecnológico de Matamoros. Asesor: Mg. Jaime Eduardo Arturo Calvache, Fundación Universidad de América



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el sector del transporte desempeña un papel fundamental en la economía mundial, siendo responsable de la movilización de una amplia gama de productos. Este sector se ha convertido en un pilar clave para el desarrollo económico, facilitando el comercio, la distribución eficiente de mercancías y el acceso a servicios vitales en todas partes del mundo. Los neumáticos son un componente esencial e irremplazable en la industria automotriz y por supuesto del transporte. Sin embargo, la producción masiva y el manejo inadecuado de estos materiales al final de su vida útil han dado lugar a un grave problema medioambiental en la actualidad. En México, al igual que en muchos países de América Latina, el manejo inadecuado de los neumáticos usados tiene un grave impacto sobre los recursos naturales. La industria hulera desempeña un papel crucial en este problema, ya que es responsable de la fabricación de neumáticos utilizados en el sector del transporte, representando aproximadamente tres cuartas partes del total del uso del hule y siendo un indicador clave del comportamiento de esta industria.



METODOLOGÍA

Inicialmente se realizando un estudio de cienciometría y estado del arte sobre la problemática asociada a las llantas fuera de uso y la contaminación que se genera al final de su vida útil, pero teniendo como perspectiva, su aplicación y reutilización como un material que puede ser nuevamente ingresado a la cadena productiva, gracias a los diferentes usos que se le puede dar y el valor agregado que tendría dentro de un enfoque de economía circular, en este proceso se utilizaron las plataformas Scopus y ScienceDirect. Se utilizaron términos de búsqueda adecuados al tema, los más relevantes fueron: end-of-life tires and environment impact, waste Tyres in a Circular Economy, pyrolysis of waste tires y fast pyrolysis para obtener un conjunto de datos significativo en los artículos publicados entre los años 2013 a 2023. Posteriormente, se investigaron las problemáticas ocasionadas por la mala disposición de los neumáticos usados. Entre los problemas principales identificados se encuentran incendios incontrolables en vertederos, liberación de microplásticos al medio ambiente, contaminación del suelo y del agua, proliferación de vectores y la obstrucción de vías fluviales, entre otros. Además, la falta de regulación (o falta de implementación práctica) y la ausencia de programas efectivos de gestión de neumáticos usados en muchos países agravan esta problemática. Para la selección del reactor en el proceso tecnológico de pirólisis se exploraron diversos tipos de reactores, y después de un proceso de selección utilizando una matriz Pug se optó por el reactor de lecho fluidizado como el más adecuado para su implementación en el proceso planteado en esta investigación, luego se identificó el esquema tecnológico del proceso completo para una planta piloto que funcione para este tipo de reactor. Se llevó a cabo también un análisis y una simulación del modelo cinético para la pirólisis térmica propuesto en la literatura, el modelo se basa en un esquema de reacción que considera un intermedio y reacciones paralelas para la formación de los diferentes productos: gas (C4), líquido no aromático (C5C), aromáticos (C), alquitrán (C11+), char (negro de humo de bajo grado), intermedio y el neumático original; los resultados preliminares son satisfactorios y coherentes a lo reportado en la literatura por los autores.


CONCLUSIONES

Las conclusiones obtenidas de la revisión, análisis y evaluación de artículos científicos para esta investigación revelan que la pirólisis rápida en reactores de lecho fluidizado representa una solución comparativamente eficiente para el aprovechamiento de neumáticos usados y la mitigación de los problemas ambientales asociados a su mala disposición. El modelo cinético de pirolisis térmica utilizado para la simulación en esta investigación mostró resultados preliminares satisfactorios y coherentes a lo reportado en la literatura por los autores. Este proyecto se alinea principalmente con los ODS 12 y 13, buscando promover prácticas sostenibles de producción y consumo, así como la adopción de tecnologías limpias y respetuosas con el medio ambiente para la gestión adecuada de neumáticos usados y la reducción del impacto ambiental asociados a su desecho.
Ramos Montiel Karen, Universidad Autónoma de Tamaulipas
Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes

VALORIZACIóN DE LAS PLUMAS DE POLLO COMO SOPORTE DE CATALIZADORES PARA PRODUCCIóN DE BIOCOMBUSTIBLES.


VALORIZACIóN DE LAS PLUMAS DE POLLO COMO SOPORTE DE CATALIZADORES PARA PRODUCCIóN DE BIOCOMBUSTIBLES.

Ramos Montiel Karen, Universidad Autónoma de Tamaulipas. Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

El consumo de pollo genera grandes cantidades de residuos que deben eliminarse adecuadamente, en el mundo se crían alrededor de 50 mil millones de pollo cada año, se destaca que México es el sexto mayor productor de pollo de engorde en el mundo, lo que provoca una gran cantidad de desechos de plumas que constituyen alrededor del 5-10% del peso del pollo. La naturaleza altamente estable y resistente de la queratina de las plumas causada por abundantes enlaces cruzados de disulfuro en un alto contenido de cistina (7 - 13 %), enlaces de hidrógeno e interacciones hidrofóbicas ha limitado su utilización a gran escala, y la mayoría de los desechos de plumas terminan en vertederos, lo que genera problemas ambientales y desperdicio de recursos, sin embargo, estudios científicos recientes como soporte de catalizadores mostraron resultados excelentes. Las plumas de pollo están compuestas mayormente por queratina por lo general en más 90% de su peso, por lo tanto, las plumas pueden convertirse en un compuesto o producto de alto valor, formados por fibras de queratina, de esta manera, la valorización de las plumas de pollo es una opción interesante para la fabricación de soporte de catalizadores para estudios exploratorios de producción de biocombustibles.



METODOLOGÍA

Para el tratamiento de la materia prima, se inició con un lavado de detergente con 125ml en 5 litros de agua desionizada para lavar 750g de pluma de pollo por 2 horas posteriormente se realizaron enjuagues con agua desionizada para ser lavado con 10% en volumen en solución de etanol analítico en agua desionizada, se finalizó con lavados de agua desionizada hasta retirar el etanol. La muestra lavada se secó a temperatura ambiente por 48 horas. A partir de las muestras de plumas de pollo pretratadas con lavado y secado, se procedió a cortar y separar manualmente el raquis, ramus y calamus, Se tomo el ramus como fibra de queratina para experimentar dos rutas que se planteo para la preparación de soporte de catalizadores para la producción de biodiesel. Como primera ruta se preparó tres soluciones de hidróxido de potasio para la impregnación de 2 M, 1 M y 0.5 M, con agitación durante 8 horas Se utilizo 2 g de pluma de pollo y 40 ml de las tres soluciones preparadas, se observo que a mayor concentración de KOH hubo mayor destrucción de las moléculas, sin embargo, con la impregnación de 0,5 M de KOH se recupero un 68% de la masa inicial de pluma de pollo,  con un mortero se pulverizo para lograr un polvo fino obteniendo el catalizador, con ello se desarrolló la reacción de transesterificación utilizando aceite de cártamo que reacciono con metanol, añadiendo nuestro catalizador impregnado con KOH, no se obtuvieron los FAMES (Ester metílico de ácido graso) deseados con la mayor concentración llegando a solo 3% lo cual no es suficiente para la producción de biodiesel. Como segunda ruta se desarrollaron procesos térmicos como, calcinación, pirolisis y tratamiento hidrotermal al ramus de la pluma de pollo, lo que se espera de estos procesos es generar un soporte de catalizador mas resistente al contacto con el KOH, y su posterior activación y asi ser usado como catalizador para la producción de biodiesel. En el tratamiento térmico de pirolisis se emplearon dos rampas de 215 º C por 2 h y 400 º C por 1 h obteniendo una recuperación de 27% en peso después del tratamiento, sin embargo, por la apariencia del material se hizo la prueba de alquitrán la cual salió negativa, por lo que se realizaron pruebas de transesterificación, que no se obtuvieron los resultados deseados, por lo que se experimento a temperaturas menores a 400º C.  En el tratamiento Hidrotermal se empleó una relación de 1 g de ramus de pluma de pollo y 7 g de agua desionizada por 12 horas a 180 º C, el resultado fue lavado con papel filtro y agua desionizada presentando un olor penetrante a azufre, se recupero un 2% del material inicial, por lo que se tienen que cambiar las condiciones de reacción.


CONCLUSIONES

Durante mi estancia de verano logre adquirir nuevos conocimientos tanto teóricos como prácticos, principalmente acerca del tema de la obtención del biodiesel, así como el funcionamiento de los catalizadores. Al utilizar plumas de pollo como materia prima para soporte de catalizador, fue difícil, al ser muy ligero en peso y su manejo fue algo tedioso ya que nunca había trabajado con ellas, sin embargo, me encanto mucho este desafío, de manipularlas y aprender de ellas acerca de su composición y estructura, y como se desarrollan estudios científicos para su evaluación como catalizador. Las experimentaciones desarrolladas con impregnación de KOH a 0,5 M se recupero un 68% en masa con bajo rendimiento de producción de biodiesel del 3%, por lo que los resultados de tratamientos térmicos nos podrían rendir mejores resultados.
Ramos Ramírez Jennifer Paulina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

IMPLEMENTACIóN DE VIDEOJUEGOS EN REALIDAD VIRTUAL PARA FORTALECER EL NúCLEO AXIAL EN LA REHABILITACIóN DEL CONTROL POSTURAL EN ADULTOS MAYORES


IMPLEMENTACIóN DE VIDEOJUEGOS EN REALIDAD VIRTUAL PARA FORTALECER EL NúCLEO AXIAL EN LA REHABILITACIóN DEL CONTROL POSTURAL EN ADULTOS MAYORES

Ramírez Trujillo Guadalupe Alondra, Instituto Tecnológico de Estudios Superiores de Zamora. Ramos Ramírez Jennifer Paulina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Según diversos investigadores, el envejecimiento puede ser influenciado por factores tanto primarios (genética) como secundarios (ejercicio, nutrición, lesiones y trastornos patológicos). Esta combinación de factores contribuye a que los adultos mayores experimenten alteraciones en el control reactivo y retrasos en las respuestas musculares, lo que les demanda más tiempo para recuperar el equilibrio. Así, se observa un retraso en la activación de las respuestas posturales para mantener el equilibrio. Dado que PROBAUAM ha demostrado ser efectivo para mejorar la estabilidad en este grupo de población, se busca incorporar la tecnología de VR como una alternativa que pueda contribuir al control postural en adultos mayores. El objetivo general de este proyecto es crear y evaluar un sistema de VR que forme parte del programa de ejercicios terapéuticos PROBAUAM, diseñado para mejorar el control postural en adultos mayores. La propuesta surgió a raíz de que los adultos mayores pueden experimentar problemas en el control de su postura, lo que puede dar lugar a respuestas inadecuadas en los ajustes posturales, aumentando así el riesgo de inestabilidad y caídas.



METODOLOGÍA

La Universidad Autónoma de Manizales cuenta con una serie de actividades que forman parte de su programa para mejorar la estabilidad y el control postural de los adultos mayores, este programa cuenta con 3 distintas fases, cada una teniendo la duración de una semana y contando con distintos ejercicios cada día, siendo la actividad 1 del día 1, de la fase 1 la que se decidió tomar. Se optó por realizar este ejercicio con la ayuda de VR, para motivar a la persona en rehabilitación y que tenga un objetivo que lo guíe a realizar la actividad correctamente. El ejercicio de la actividad mencionada trata de que el paciente sentado haga flexión activa de la cadera iniciando con un tronco erguido, es decir, debe realizar movimientos constantes hacia arriba con las piernas estando sentado apoyando las manos en los muslos. La etapa número 1, crear la escena. Esta se basa en que el adulto mayor tendrá una carrera en triciclos con su sobrino hasta llegar a la meta. El escenario consta de diferentes assets que forman una casa y un jardín, una carretera en donde se sitúa la carrera, triciclos, assets para ambientar y finalmente una meta. La escena también cuenta con audios para ambientación que fueron obtenidos de repositorios de recursos gratuitos y de uso libre. Luego se comenzó a crear un escenario tridimensional, el primer avance de la escena realizada fue tener un mapa de navegación, usando la función NavMesh de Unity que permite crear agentes que por medio de programación e IA puedan moverse en espacio determinado. Después se usaron dos triciclos, uno para cada jugador. El jugador número 1, que representa al usuario y el jugador número 2 que representa el sobrino y la meta. Terminado el escenario, se configura la escena donde pasarán los triciclos de los jugadores, generando una guía de navegación. En la etapa número 2, programación. Para comenzar, tanto el NPC como el jugador controlan la ruta por la que deben viajar mediante los distintos objetivos que fueron definidos por un arreglo de puntos que al detectar que el triciclo se acerca a uno de ellos en un radio de 0.5 de distancia, automáticamente cambia el objetivo al siguiente para no interrumpir su continuidad. El NPC cuenta con una velocidad aleatoria, la cual cambia después de 4 segundos, el NPC se detiene y avanza con una nueva velocidad, para esto se colocó un rango de 0 a 3 unidades, la función aleatoria toma ese rango de referencia para ir alternando la velocidad. El usuario avanza solo si hace eleva los pies correctamente, es decir el movimiento que debe realizar el usuario primero debe de alcanzar una altura adecuada y por consiguiente debe alternar la elevación de los pies, si eleva el mismo pie el sistema lo detectará y eso hará que su velocidad disminuya, pero si va alternando la elevación el usuario seguirá avanzando. Para programar los movimientos, se usaron 3 cubos dentro de la escena de Unity, los cuales se encargan de detectar los movimientos, en este caso, los movimientos detectados fueron configurados a través de los controles de VR, se modificaron de tal manera que dos cubos siguieran los controles y el restante se utilizará para detectar cuando cada cubo choque con él, ya que, como se mencionó anteriormente, las manos del usuario deben de estar encima de los muslos, esto hará que el movimiento sea detectado por el sistema y hará que el triciclo avance. Todo esto se especificó en base al lenguaje C#. Etapa número 3, pruebas con VR. Las pruebas se realizaron con los equipos de VR HTC VIVE, al comenzar las pruebas se notó que el tamaño de la escena no era correcto, es decir, los assets eran grandes y esto hacía que el usuario se percibiera pequeño. Se ajustaron las escalas, todo esto aun con el equipo de VR puesto hasta llegar al tamaño indicado, Mediante las pruebas realizadas se verificó que la velocidad de los jugadores fuera correcta, que la velocidad del NPC no fuese muy rápida y si el usuario podría vencer en la carrera al NPC; Para esto se simuló el mismo ejercicio a realizar mientras que el NPC avanzaba. También, se identificó que había que modificar tal velocidad que, a pesar de ser aleatoria, era difícil rebasar al NPC.


CONCLUSIONES

Durante la estancia del verano de investigación, se lograron adquirir diversos conocimientos sobre el desarrollo de videojuegos y de escenas usando Unity, así como también conocimientos referentes al lenguaje C# y la importancia que tiene modificando las escenas. También se identificaron los problemas de estabilidad y control postural que los adultos mayores puedan experimentar y los factores que pueden llegar a provocarlos. No obstante, al ser un proyecto amplio que consta de tres distintas fases, todavía no ha sido concluido, se espera terminar el proyecto, así como hacer distintas pruebas para que el adulto mayor pueda comenzar a utilizar el sistema.
Ramos Rivera Andres Sebastian, Instituto Tecnológico de Tepic
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

DESARROLLO DE UN MODELO DE PREDICCIóN PARA ENFERMEDADES CARDIOVASCULARES UTILIZANDO TéCNICAS DE MACHINE LEARNING


DESARROLLO DE UN MODELO DE PREDICCIóN PARA ENFERMEDADES CARDIOVASCULARES UTILIZANDO TéCNICAS DE MACHINE LEARNING

Estrada Garcia Christopher Jair, Instituto Tecnológico de Tepic. Lupian Ibarra Aldo, Universidad de Guadalajara. Ramos Rivera Andres Sebastian, Instituto Tecnológico de Tepic. Rivera Basulto Alberto Dair, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El problema de las enfermedades cardiovasculares es una preocupación de salud pública a nivel mundial debido a su alta incidencia y consecuencias graves para la salud de las personas. Las enfermedades cardiovasculares, también conocidas como enfermedades del corazón, afectan a los vasos sanguíneos y al corazón, y pueden incluir condiciones como la enfermedad coronaria, el infarto de miocardio, la insuficiencia cardíaca, el accidente cerebrovascular y otras enfermedades relacionadas. La evidencia del problema de las enfermedades cardiovasculares está respaldada por numerosos estudios epidemiológicos y datos recopilados por organizaciones de salud a nivel mundial. Según la Organización Mundial de la Salud (OMS), las enfermedades cardiovasculares son la principal causa de muerte en todo el mundo. Se estima que cada año, alrededor de 17.9 millones de personas mueren debido a enfermedades cardiovasculares, lo que representa aproximadamente el 31% de todas las muertes a nivel global. Además, se estima que más del 80% de estas muertes ocurren en países de ingresos bajos y medianos, lo que indica una marcada desigualdad en el acceso a la atención y la prevención. Si el problema de las enfermedades cardiovasculares no es intervenido de manera efectiva, se espera que la carga de la enfermedad siga aumentando en las próximas décadas. Con el envejecimiento de la población y el aumento de factores de riesgo como la obesidad, el sedentarismo, el tabaquismo y la dieta poco saludable, se prevé que el número de casos y la mortalidad por enfermedades cardiovasculares continúen en aumento. Esto tendrá un impacto significativo en la calidad de vida de las personas y aumentará la presión sobre los sistemas de salud en todo el mundo. El proyecto de análisis de datos que se realizó, puede tener un papel importante en el control y mejora del pronóstico de las enfermedades cardiovasculares. Al aplicar técnicas de inteligencia artificial y aprendizaje automático en el conjunto de datos de las enfermedades cardiovasculares, se pueden identificar patrones y factores de riesgo asociados con mayor precisión y rapidez. Estos modelos predictivos pueden ayudar a predecir qué grupos de personas tienen mayor riesgo de desarrollar enfermedades cardiovasculares y permitir una intervención temprana y personalizada. Además, puede proporcionar información valiosa para diseñar estrategias de prevención y control más efectivas. Al comprender mejor los factores de riesgo y los determinantes de las enfermedades cardiovasculares, las autoridades de salud pueden implementar políticas y programas de prevención más específicos y dirigidos. Esto puede incluir campañas de concientización sobre la importancia de la actividad física, una dieta saludable y el control del tabaquismo, así como la mejora del acceso a la atención médica y la detección temprana de factores de riesgo.



METODOLOGÍA

Universo y Muestra: La investigación incluyó personas de Suiza, Hungría y Estados Unidos (Cleveland) sometidas a evaluaciones médicas sobre enfermedades cardiovasculares. Se utilizó una muestra representativa de Suiza, Hungría y Estados Unidos debido a restricciones de recursos y tiempo, generalizando los resultados al universo de estas poblaciones con precauciones. Tipo de Investigación: El enfoque de la investigación es de tipo mixto, con un alcance exploratorio y descriptivo. Fuentes primarias y secundarias: La fuente primaria es el conjunto de datos de Kaggle, como fuente secundaria se tienen los diferentes documentos consultados relacionadas con las diferentes fases de la metodología CRISP-DM. Metodología de desarrollo:  Se emplearon las siguientes metodologías y algoritmos para la investigación y análisis de datos: CRISP-DM (Cross Industry Process Model for Data Mining), MLP, DTC con Log Loss, Regresión logística, DTC con entropía.


CONCLUSIONES

La investigación de análisis de datos aplicada a las enfermedades cardiovasculares muestra el impacto que el análisis de datos puede tener en la comprensión de fenómenos complejos y la mejora de procesos. Esta disciplina puede ayudar a los profesionales de la salud a identificar factores de riesgo, analizar tendencias epidemiológicas y desarrollar modelos predictivos para la prevención temprana y la atención personalizada del paciente. En resumen, el análisis de datos es una herramienta poderosa que promueve la detección temprana e implementación de estrategias de prevención y tratamiento más efectivas, lo que ayudará a mejorar la calidad de vida de las personas y reducir la carga de estas enfermedades en la sociedad. RESULTADOS Debido a que la muestra de nuestros resultados es más gráfica, el formato que nos brinda delfín para explicarlos no nos permite agregar las tablas y gráficas de los resultados, sin embargo, obtuvimos resultados satisfactorios en los cuales nuestros modelos de Machine Learning nos daban aproximaciones muy cercanas a 0.90 en nuestra escala normalizada (0.84 y en algunos casos 0.83) lo que son muy buenos datos, pero pueden mejorar ya que estamos hablando de un modelo de predicción de problemas cardiovasculares y necesitamos los rangos más altos que se puedan obtener dado que es un modelo de prevención y entre más acertado sea, más posibilidades de salvar una vida se pueden lograr. 
Ramos Sánchez Marcel Alexander, Universidad Tecnológica de Nayarit
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología

DESARROLLO DE SISTEMA DE LOCALIZACIóN EN ENTORNOS CERRADOS EMPLEANDO TECNOLOGíAS BLUETOOTH DE BAJO CONSUMO ENERGéTICO


DESARROLLO DE SISTEMA DE LOCALIZACIóN EN ENTORNOS CERRADOS EMPLEANDO TECNOLOGíAS BLUETOOTH DE BAJO CONSUMO ENERGéTICO

Mendoza Cardenas Raymundo, Instituto Politécnico Nacional. Ramos Sánchez Marcel Alexander, Universidad Tecnológica de Nayarit. Terán Cuevas Edgar Román, Instituto Politécnico Nacional. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La creciente necesidad de sistemas de localización en entornos interiores precisos y eficientes es evidente en la actualidad. Estos sistemas son vitales en aplicaciones industriales para optimizar procesos, rastrear activos y mejorar la gestión de inventarios, lo que reduce costos y aumenta la productividad. En el aspecto de seguridad, la tecnología de posicionamiento en interiores mejora la protección en edificios, permitiendo el monitoreo continuo y una rápida respuesta en situaciones de emergencia. En espacios públicos como centros comerciales y hospitales, la experiencia del usuario se enriquece mediante guías de navegación y servicios personalizados. Aunque los avances tecnológicos y el GPS en exteriores son ampliamente disponibles, la localización en interiores enfrenta desafíos únicos. La señal GPS no es confiable debido a obstáculos físicos y la interferencia de señales inalámbricas que afecta la precisión. Es necesario buscar enfoques alternativos, como redes de sensores inalámbricos con tecnología Bluetooth de bajo consumo de energía (BLE) y algoritmos de multilateración (MLAT), que han demostrado su eficacia en la localización de objetos en interiores.



METODOLOGÍA

En el presente proyecto se emplearon seis nodos Bluetooth Low Energy (BLE) para llevar a cabo la recolección de datos. Estos nodos se dividieron en dos tipos: tres BC037S BlueCharm y tres ESP32 EXPRESSIF. La elección de nodos de diferentes modelos permitió evaluar y comparar su desempeño en el contexto específico de este proyecto. Cada uno de los nodos utilizados, BC037S BlueCharm o ESP32 EXPRESSIF, funcionó como un emisor de señales Bluetooth y tuvo la capacidad de transmitir información relevante. Estos nodos fueron ubicados estratégicamente en el área de interés para asegurar una cobertura óptima y recopilar datos representativos de distintas ubicaciones dentro del espacio bajo estudio.  Para lograr una implementación efectiva de algoritmos de localización, se llevó a cabo una caracterización detallada de los sensores BLE utilizados. Este proceso consistió en realizar mediciones del indicador de fuerza de la señal recibida (RSSI, por sus siglas en inglés, Received Signal Strength Indicator) a diferentes distancias de los nodos. Mediante estas mediciones, se obtuvo una relación entre la distancia y el valor de RSSI, que permitió establecer una expresión matemática que relaciona ambos parámetros.  Durante todo el proceso de caracterización, se prestó especial atención a factores que pudieran afectar la precisión de las mediciones, como la presencia de interferencia de señales y la geometría de los espacios de prueba, que incluyen el Laboratorio de Redes y Comunicaciones (NETCOM Laboratory) y el Lobby del edificio de la División de Ciencias, Ingenierías y Tecnología (DCIT) de la Universidad Autónoma del Estado de Quintana Roo (UQROO). Se observó que el valor del RSSI puede experimentar variaciones significativas en cada iteración debido a estas influencias externas.  Para abordar este desafío y mejorar la confiabilidad de las mediciones, se implementaron filtros de Kalman. El uso de este tipo de filtros en el proceso de localización resultó positivo para mitigar los efectos de la interferencia y otros factores que afectan el RSSI en aproximadamente un 6%.    Para el procesamiento y presentación de los datos recopilados, se utilizó una tarjeta Raspberry Pi 400, una microcomputadora potente y versátil. Está Raspberry Pi 400 actuó como centro de control, recibiendo las señales emitidas por los nodos BLE y aplicando algoritmos específicos de localización, como multilateración, trilateración y ponderación inversa.  La multilateración permitió calcular la ubicación precisa de la estación base a partir de la distancia medida desde múltiples nodos emisores. La trilateración, por su parte, utilizó la distancia desde al menos tres nodos para calcular la posición relativa del receptor en el plano cartesiano. La ponderación inversa se utilizó para asignar pesos a las mediciones en función de su confiabilidad, mejorando la precisión de las estimaciones de distancia.  Finalmente, los resultados se presentaron de manera visual y accesible mediante una página web desarrollada utilizando el framework Flask, HTML, CSS y la biblioteca Plotly para la visualización de datos. Esta interfaz gráfica permitió a los usuarios interpretar fácilmente la ubicación de los nodos y la estación base, lo que resultó en un análisis más completo y una comprensión clara de los datos recopilados.


CONCLUSIONES

Durante la estancia de verano, se lograron adquirir valiosos conocimientos teóricos sobre los sistemas de localización en espacios interiores y se pusieron en práctica mediante la implementación de un sistema de localización. Para esto, se emplearon nodos BLE y una Raspberry Pi 400 como estación base. Los resultados obtenidos a través de los algoritmos de localización y filtros de Kalman demostraron la obtención de mediciones precisas y confiables.  Además, se diseñó una interfaz web para la presentación de los datos, lo que facilitó el análisis y la interpretación de los resultados. Si bien el proyecto aún se encuentra en desarrollo debido a su complejidad, se han sentado las bases para futuros desarrollos y aplicaciones en escenarios similares.  Es importante mencionar que, debido a la etapa actual de desarrollo, no es posible mostrar un plan de pruebas, pero se espera que con mejoras continuas, el sistema alcance una mayor precisión y se optimicen los costos de implementación. De esta manera, se abrirán nuevas posibilidades de aplicación en diversos ámbitos, aumentando la utilidad y el alcance de este innovador sistema de localización en entornos interiores.
Ramos Santos Kevin Emilio, Universidad Autónoma de Baja California
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

AUTOMATIZACIóN Y CONTROL DE PROTOTIPOS APLICADOS AL CAMPO


AUTOMATIZACIóN Y CONTROL DE PROTOTIPOS APLICADOS AL CAMPO

Gomez Avalos Alondra, Instituto Tecnológico de Morelia. Ramos Santos Kevin Emilio, Universidad Autónoma de Baja California. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En México la agricultura desempeña un papel fundamental para el ingreso económico de muchas familias, en el año 2017 6.4 millones de personas estaban empleadas en actividades agrícolas según el Censo Agrícola, Ganadero y Forestal del INEGI, para estas familias la cosecha de sus siembras representa el total de su sustento, por ello cualquier problema relacionado a la salud de los cultivos tiene un impacto directo en su bienestar y en su economía. Aunque existen dispositivos tecnológicos que permiten tener una mayor seguridad y efectividad en la cosecha de los cultivos, estos dispositivos tienen un costo muy elevado, lo cual los hace inaccesibles para la gran mayoría de los agricultores, cuyas condiciones económicas no les permiten adquirir dichos dispositivos. Por ello se busca desarrollar e implementar dispositivos de bajo costo, capaces de realizar mediciones y otras acciones concretas según la necesidad, con el fin de permitir el acceso a estas tecnologías a los agricultores mexicanos, de forma que estás sean efectivas, baratas y sencillas de utilizar.



METODOLOGÍA

Se realizó una investigación de los parámetros más elementales para llevar a cabo estudios respecto a la salud y condiciones de los cultivos, esto con el fin de incluir la adquisición de estos parámetros en los dispositivos a desarrollar. Estos parámetros son: temperatura y humedad del ambiente, así como la temperatura, humedad y el nivel de pH del suelo. Después de la elección de parámetros a adquirir, se realizó la búsqueda de sensores que nos permitiesen obtener dichos parámetros, una vez elegido el más adecuado, según su costo, facilidad de obtención y su precisión, se realizó la compra, y posterior a su llegada, se realizaron distintas pruebas para determinar su correcto funcionamiento y la exactitud de sus mediciones. Una vez probados los sensores, se eligió el controlador necesario para realizar la adquisición de los datos, se optó por un Atmega328P, comúnmente conocido como Arduino Uno, esto debido a su fácil adquisición, su bajo costo, facilidad de implementación para proyectos de electrónica, así como la fiabilidad de los procesos desarrollados. Se realizaron distintos prototipos cuyo objetivo era la adquisición de los parámetros, así como su almacenamiento, esto con el fin de poder utilizar los datos para un posterior análisis, esto permite establecer correlaciones entre los parámetros y el estado del cultivo, ya sea la detección o desarrollo de una plaga conforme a la evolución de la temperatura, humedad y pH. Para el almacenamiento de los datos se implementó una memoria SD, esto permite que el almacenamiento de los datos, y su posterior extracción para un análisis a posteriori fuese llevado a cabo de manera sencilla. Los prototipos desarrollados fueron probados en un ambiente controlado, esto con el fin de simular todas las condiciones, a las que los prototipos serían expuestos durante su funcionamiento en un ambiente real, dichas pruebas fueron un éxito, validando que los prototipos estaban listos para una prueba de campo. Para realizar las pruebas de campo se optó por un lugar que cumpliese con las condiciones reales a las que estarían sometidas los prototipos, en este caso fue en las instalaciones del Centro Universitario de la Ciénaga campus La Barca, el cual cuenta con una zona utilizada para cultivo.


CONCLUSIONES

Las pruebas de campo realizadas, demostraron que los prototipos lograron cumplir su objetivo de manera satisfactoria, permitiendo la adquisición de los parámetros elegidos, además de su correcto almacenamiento en una memoria SD, la cual fue extraída de los prototipos, y con los datos recopilados, se realizó un análisis para determinar la correlación de la presencia de una plaga específica en los cultivos de maíz. Esto tiene un gran impacto, permitiendo obtener los datos necesarios para realizar diversos análisis con los datos adquiridos, logrando que estos prototipos sean una herramienta de gran utilidad para realizar diversos estudios en los campos de cultivo, llevando la implementación de estas tecnologías a la población de agricultores, permitiendo una mejora en la salud de sus cultivos, logrando evitar grandes pérdidas que suponen un problema en su calidad de vida. Así como permitir a investigadores tener una herramienta para realizar la adquisición de parámetros para sus investigaciones.
Rascon Baca Ruendi Rubín, Universidad Autónoma de Occidente
Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente

CONCIENCIA ARTIFICIAL: LA CONVERGENCIA DE DOS MUNDOS


CONCIENCIA ARTIFICIAL: LA CONVERGENCIA DE DOS MUNDOS

Mondragon Vazquez Pedro Antonio, Universidad Autónoma de Occidente. Rascon Baca Ruendi Rubín, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la inteligencia artificial (IA) ha generado múltiples avances en diferentes campos y ha demostrado su eficacia en la emulación de habilidades humanas específicas. Sin embargo, una de las cuestiones más preocupantes y complejas es la viabilidad de que las IA pueden adquirir conciencia, es decir, tener una experiencia subjetiva y una comprensión consciente del mundo. Hablar de una inteligencia artificial con conciencia autónoma supone una serie de dilemas e interrogantes, siendo uno de ellos: ¿Aquella AI que goce de conciencia autónoma seguirá sirviendo a los intereses con los que fue disenada en un principio? Por lo cual; el propósito de este proyecto de investigación es fomentar el debate sobre la capacidad de adquisición de conciencia en una inteligencia artificial, sus alcances y consecuecias.



METODOLOGÍA

Los métodos e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en la revisión de la literatura existente sobre la emulación de habilidades relacionadas con la conciencia en IA. Además, se analizaron las investigaciones, estudios y avances técnicos relevantes, lo que permitió comprender los enfoques utilizados y los logros alcanzados en cada una de estas habilidades. Posteriormente, se exploraron las diferentes posturas en la IA respecto a la posibilidad de simular la conciencia en una máquina. Se examinó la postura de la IA fuerte, que defiende que toda actividad mental, incluyendo la conciencia, puede ser replicada mediante procesos computacionales y se contrastó la postura de la IA débil, que sostiene que la conciencia es una característica exclusiva del cerebro humano y que no puede ser alcanzada a través de la computación tradicional.  


CONCLUSIONES

Al término de la estancia de verano se llegó a la conclusión de los siguientes puntos: No existe consenso científico definitivo sobre si la inteligencia artificial puede crear conciencia. Los avances en la emulación de habilidades relacionadas
Rasgado Moreno Rodolfo, Universidad Veracruzana
Asesor: Dr. Francisco Javier Naranjo Chávez, Universidad Autónoma de Coahuila

ANáLISIS POR SIMULACIóN DEL CAMPO DE VELOCIDAD Y GRADIENTE DE TEMPERATURA DE UN AEROCONDENSADOR INSTALADO EN LA LAGUNA


ANáLISIS POR SIMULACIóN DEL CAMPO DE VELOCIDAD Y GRADIENTE DE TEMPERATURA DE UN AEROCONDENSADOR INSTALADO EN LA LAGUNA

García Meléndez Johana Lizzeth, Instituto Tecnológico de Matamoros. Rasgado Moreno Rodolfo, Universidad Veracruzana. Asesor: Dr. Francisco Javier Naranjo Chávez, Universidad Autónoma de Coahuila



PLANTEAMIENTO DEL PROBLEMA

En la industria de la generación eléctrica, existen las plantas de ciclo combinado que utilizan aerocondensadores en lugar de torres de enfriamiento. El agua es un recurso renovable el cual su reabastecimiento mediante el ciclo del agua está siendo comprometido particularmente en la zona lagunera, dado que la eficiencia de los aerocondensadores está fuertemente influenciada por las condiciones ambientales [1, 2]. En la laguna, la eficiencia del aerocondensador se ve afectado por los fenómenos climatológicos, es por ello por lo que se realizó un análisis para encontrar como es que las condiciones de la zona afectan a la tasa de transferencia de calor del aerocondensador.



METODOLOGÍA

Algunos autores han investigado distintos aspectos para mejorar el rendimiento de los aerocondensadores, Kumar et al. [1] trabajó simulaciones numéricas 3D para estudiar el efecto de la transferencia de calor en distintas variaciones de un tubo anular aletado de una pequeña chimenea. En los aerocondensadores se utilizan ampliamente este tipo de tubos aletados para mejorar la transferencia de calor, por otro lado, Jean Lin et al.  [2] presentó un análisis de diversas mejoras en un aerocondensador con una configuración de tubos aletados colocados en forma de A, muy similar al objeto de este estudio. Venter et al. [3] analizó el rendimiento del aerocondensador con la implementación de un windscreen, ellos encontraron en qué situaciones o condiciones mejora la eficiencia del aerocondensador. Se sabe que la principal característica de los sistemas de enfriamiento es la transferencia de calor por lo que visualizarlo de una manera gráfica en diversas situaciones de temperatura ambiente (25 °C, 35 °C y 40 °C) van afectando al sistema. Se puede representar de una mejor manera el comportamiento del sistema por medio de mapas de contorno y vectores. En la presente investigación se optó por utilizar Ansys student para realizar una simulación de un aerocondensador ubicado en la región de la Laguna. Se realizó un modelo, despreciando ciertas características del aerocondensador real centrándose principalmente en los tubos aletados y los ventiladores. Se aplicó un mallado hexaédrico sin sobrepasar los 512k celdas/nodos que permite la licencia estudiantil. Una vez realizado el mallado, se utilizó Fluent ® para poder configurar la simulación del aerocondensador. Para la simulación se utilizó la ecuación de la energía, y el método Spalart-Allmaras de turbulencia; posteriormente se definieron las condiciones de frontera, las cuáles para la entrada del aire: Velocidad inicial: 20 km/h (5.55556 m/s) Temperatura inicial: 30°C (303 K) Las condiciones de salida son las siguientes: Presión manométrica: 0 Pa Todos los ventiladores se configuraron: Velocidad máxima de 8 m/s La caída de presión se configuró con un modelo polinomial de dos coeficientes, 250 y -50. Los radiadores que se encuentran arriba de los ventiladores cuya configuración es: El coeficiente de transferencia de calor es de 5000 kW/m2 La temperatura es de 326 K El flujo de calor se estableció en 29600 W/m^2 Para el solucionador dentro de Fluent ® se aplicó una discretización de mínimos cuadrados y un método de solución Couple; esta configuración es el mejor modelo de solución para condiciones de turbulencia en aire, considerando la ley de gases ideales. Se inicializó el método numérico en la entrada; es decir, velocidad de entrada por el noreste de 5.56 m/s, una presión manométrica de 1.29521e-09 Pa, una temperatura de 303 K y una viscosidad turbulenta de 0.0001460735 m^2/s. Finalmente, se realizaron 200 iteraciones monitoreando la continuidad, velocidad, energía y coeficientes de turbulencia.


CONCLUSIONES

Para el procesamiento de los resultados, se utilizó CFD-Post ®. En el cual se colocó un plano basado en el plano YZ a 6 m del origen, otro plano basado en el plano XY a 60 m del origen y por último un plano basado en el eje YZ a 18.5 m del origen. Posteriormente se agregaron mapas de contorno de velocidad para el primer y el segundo plano, y por último un mapa de contorno de temperatura para el tercer plano. El primer mapa de contorno muestra que la velocidad máxima que emana de los ventiladores es de 11.21 m/s, mostrándose en los últimos ventiladores de la primera y última calle de ventiladores. El segundo mapa de contorno muestra que la velocidad máxima es de 16.95 m/s encontrándose en la tercera, cuarta y sexta fila transversal. El último mapa de contorno muestra que la temperatura máxima alcanzada es de 326.125 K, esta estela de temperatura se extiende hasta 500 m desde el aerocondensador. Se realizó un análisis numérico en ANSYS Fluent ®, para observar el campo de velocidades y el gradiente de temperatura. En base a los resultados se puede concluir que las condiciones ambientales de la laguna están afectando la transferencia de calor del aerocondensador, Venter et al. menciona que la instalación de un windscreen periférico es beneficioso si la condición de velocidad del viento es superior a los 16 m/s [3], por lo que se podría considerar la instalación de un windscreen, para mitigar las corrientes de viento 16.95 m/s que se visualizó en la simulación y así aumentar la transferencia de calor y con ello la eficiencia de la planta. Sólo faltaría hacer un trabajo de simulación para encontrar la configuración en la localización de los windscreen que pueda obtener los mejores resultados en transferencia de calor en las condiciones ambientales de la Laguna.   Bibliografía [1]J. B. J. A. K. N. P. K. V. Ankur Kumar, "3D CFD simulations of air cooled condenser-II: Natural draft around a single finned tube kept in a small chimney," International Journal of Heat and Mass Transfer, vol. 92, pp. 507-522, 2016. [2]A. J. M. T. S. K. S. G. Jennifer Lin, "Improving air-side heat transfer performance in air-cooled power plant condensers," Applied Thermal Engineering, 2020. [3]M. O. J. M. A.J. Venter, "A numerical analysis of windscreen effects on air-cooled condenser fan performance," Applied Thermal Engineering, 2021.  
Raya Rodríguez Jaqueline, Instituto Tecnológico de Morelia
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

ANáLISIS MULTIVARIABLE DE LAS COMPETENCIAS ACADéMICAS DEL PROGRAMA DE PSICOLOGíA


ANáLISIS MULTIVARIABLE DE LAS COMPETENCIAS ACADéMICAS DEL PROGRAMA DE PSICOLOGíA

Chávez Barajas Victoria, Instituto Tecnológico de Morelia. Raya Rodríguez Jaqueline, Instituto Tecnológico de Morelia. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

La salud mental juega un papel fundamental en la sociedad actual, ya que afecta a todos los aspectos de la vida de las personas. Está abarca el bienestar emocional, psicológico y social, y tiene un impacto directo en nuestra capacidad para funcionar de manera óptima en nuestras actividades diarias, tanto en el trabajo como en nuestras relaciones personales. De acuerdo con (Bautista, 2021), en Colombia durante el año 2021, aproximadamente el 4,7 % de los casos tanto de hombres como de mujeres necesitaron ser derivados al sistema de salud. En el 50 % de los casos, se abordaron mediante orientación psicológica, brindando información y apoyo, mientras que en el 40 % de los casos se requirió un seguimiento continuo. En América Latina, las tasas de abandono escolar varían entre el 40% y el 75%. En Colombia, alrededor del 36% de todas las personas que abandonan lo hacen al finalizar su primer año de estudio. Es esencial que los futuros psicólogos desarrollen habilidades interpersonales sólidas. De acuerdo con (Lein MS & Wills PhD, 2007), tanto la aplicación de un enfoque de comunicación asertiva como el aprendizaje y la utilización del asesoramiento (counseling) benefician tanto la salud de los pacientes como a los profesionales involucrados.



METODOLOGÍA

En la presente investigación se desarrollan las etapas de análisis de eficiencia y análisis exploratorio. (ver ilustración 1); En la primera se explorarán datos de las pruebas SABER de la carrera de psicología en Colombia mediante la aplicación del método clustering que permitirá identificar grupos, patrones y características similares de los datos evaluados. Para la segunda etapa se realizará un análisis de eficiencia en base a un estudio de componentes principales (PCA) para describir a los individuos y observaciones por múltiples variables interrelacionadas.  Finalmente se interpreta cada componente principal para comprender qué variables están más correlacionadas y cómo contribuyen a la variabilidad de los datos.  


CONCLUSIONES

La metodología empírica creada fue adecuada para identificar las competencias académicas que son fuertes y débiles dentro del programa de psicología. Se realizó un análisis de clúster en RStudio para un conjunto de datos de universidades en Colombia. Para la primera etapa Se obtuvieron son 4 grupos donde el grupo 4 tiene las competencias más adecuadas y el grupo 2 las más débiles. En cambio, el PCA nos ayudó a resumir y visualizar la información en un conjunto de datos que contiene individuos/observaciones descritas por múltiples variables cuantitativas interrelacionadas. Se registraron 97 datos los cuales representan las universidades y departamentos en base a variables que fueron las pruebas SABER (WC.PRO, ENG.PRO, CS.PRO, CR.PRO, QR.PRO, ENG.HS, SC. HS, CR. HS, NS. HS y MATH.HS). Realizamos un análisis de las coordenadas para identificar los datos en los cuadrantes pudimos observar que en el cuadrante 1 y 3 tienen una suma de 53 datos lo que representa el 55% de los individuos; los cuales tienen un desempeño muy bajo o nulo en cuanto a las pruebas de conocimiento, en contraste con los que se encuentran en el cuadrante 2 y 4 que tienen una suma de 44 datos que equivale a un 46% de los individuos, de los cuales el 22% representan el cuadrante 2 son mejores en las pruebas Saber 11 y el 24% representan el cuadrante 4 que son mejores en las pruebas Saber PRO. Los resultados pueden ser utilizados por las universidades para identificar áreas de mejora y diseñar estrategias para mejorar su desempeño en las competencias evaluadas. Además pueden ser utilizados por los organismos encargados de la evaluación de la calidad de la educación para identificar las universidades que se destacan por su desempeño y aquellas que necesitan mejorar en estos aspectos. En resumen, esta investigación enfatiza la necesidad de priorizar la salud mental en la sociedad actual y el papel crucial de la psicología en este proceso. Es fundamental invertir en la formación adecuada de profesionales capacitados para abordar eficazmente los desafíos de la salud mental y promover el bienestar general de la población.
Razo Rangel Diego Alejandro, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

OPTIMIZACIóN Y CREACIóN DE RUTAS PARA REDUCIR LA DISTANCIA Y EL TIEMPO EN TRáNSITO


OPTIMIZACIóN Y CREACIóN DE RUTAS PARA REDUCIR LA DISTANCIA Y EL TIEMPO EN TRáNSITO

Razo Rangel Diego Alejandro, Instituto Tecnológico Superior de Irapuato. Tenorio Mendoza Jonathan Yael, Instituto Tecnológico Superior de Irapuato. Velez Parra Irwin Jared, Instituto Tecnológico Superior de Irapuato. Zúñiga Páramo Karen Fernanda, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La creación de rutas eficientes y bien planificadas en logística es esencial para minimizar costos. Reducir el tiempo de tránsito y la distancia, optimizar la cantidad de carga en el transporte y seleccionar rutas seguras ayuda a mejorar el stock y la seguridad. Una adecuada planificación también permite la trazabilidad de los envíos para un seguimiento y control efectivo durante todo el proceso logístico. En la investigación, se propone centrarse en modelos TTRP (problema de rutas para camiones y remolques), donde se consideran vehículos compuestos por un camión y un remolque, y diferentes tipos de clientes que pueden ser atendidos por el camión solo o la unidad completa. El objetivo del TTRP es encontrar un conjunto de rutas con distancia total mínima, asegurando que cada cliente sea visitado por un vehículo compatible con su demanda y capacidad, sin superar el número limitado de camiones y remolques disponibles. Una particularidad del TTRP es que tanto el camión como el remolque tienen cierta capacidad de carga, y las mercancías pueden transferirse entre ellos durante la ruta en las plazas de aparcamiento del remolque.



METODOLOGÍA

La identificación y análisis de los procesos internos son fundamentales para construir rutas eficientes que minimicen costos y tiempos de transporte. Para ello, se consideran datos como la cantidad de clientes, sus coordenadas, las capacidades de los vehículos y las restricciones operativas. Se utilizará el método PLEB (Programación Lineal Entera Binaria) para la construcción de rutas, que es un algoritmo matemático para resolver problemas de optimización con variables de decisión enteras binarias. Factores importantes para la planeación de rutas incluyen determinar qué tipo de vehículo (tracto, tráiler o mixto) utilizar, la cantidad y tipo de clientes a atender, la secuencia de los destinos y el uso de softwares como el Lenguaje R para saber las rutas optimas y Veusz para graficar las rutas obtenidas. La planeación de rutas es esencial para garantizar entregas rápidas y puntuales, y se realiza trazando las rutas de distribución en un mapa, identificando los puntos de entrega y las mejores vías para cada zona, considerando la disponibilidad de vehículos para cubrir las entregas. En este trabajo, se utilizaron dos métodos para crear rutas eficientes: El método del vecino más cercano para la creación de rutas a partir de una secuencia de ubicaciones. Este algoritmo heurístico busca encontrar una solución aproximada al problema del viajante de comercio, minimizando la distancia o tiempo total recorrido. Aunque no garantiza la solución óptima, es eficiente y proporciona resultados rápidos. El método de clusters es otra estrategia empleada en la creación de rutas eficientes. Consiste en agrupar puntos de interés en clústeres según su proximidad espacial y luego generar rutas para visitar estos clústeres en un orden específico. Este enfoque busca optimizar la planificación de rutas al considerar la agrupación de ubicaciones cercanas.


CONCLUSIONES

La construcción de rutas es una práctica clave en diversos sectores para optimizar el movimiento de personas, vehículos o mercancías, mejorando la eficiencia y reduciendo costos y tiempos de viaje. El problema del enrutamiento de camiones y remolques (TTRP) es un desafío logístico que busca determinar la ruta óptima para una flota de camiones y sus remolques, cumpliendo con demandas de entrega y restricciones operativas. Se utilizan técnicas de optimización combinatoria y algoritmos heurísticos, como el método de Programación Lineal Entera Binaria, para encontrar soluciones óptimas o aproximadas. El lenguaje de programación R se utiliza para aplicar el modelo matemático y generar la ruta óptima, gracias a sus capacidades en estadísticas y análisis de datos. Veusz, una herramienta de visualización de datos científicos se emplea para representar gráficamente las rutas seleccionadas por R, facilitando la visualización y comprensión de la ruta óptima.
Razo Viramontes Mirna Estefanía, Universidad de Guadalajara
Asesor: Mtra. Miriam Vega Hernández, Benemérita Universidad Autónoma de Puebla

INSTRUMENTACIÓN LEGAL ACTUAL EN MATERIA DE ECONOMÍA CIRCULAR EN MÉXICO: REVISIóN SISTEMáTICA SEGúN LAS DIRECTRICES PRISMA


INSTRUMENTACIÓN LEGAL ACTUAL EN MATERIA DE ECONOMÍA CIRCULAR EN MÉXICO: REVISIóN SISTEMáTICA SEGúN LAS DIRECTRICES PRISMA

Razo Viramontes Mirna Estefanía, Universidad de Guadalajara. Asesor: Mtra. Miriam Vega Hernández, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Frente a un modelo económico despilfarrador que conduce al cambio climático, es necesario buscar alternativas con estrategias estructuradas que ayuden a implementar un modelo de economía circular, de esta manera aprovechar los recursos, reducir desperdicios y dejar atrás el modelo lineal y su uso excesivo de materias primas. México se encuentra iniciando en temas de sustentabilidad y economía circular, es por esto por lo que resulta vital elaborar un plan de acción donde organizaciones, gobierno y sociedad estén comprometidos en la transformación. En este contexto, el objetivo de este estudio es realizar una revisión bibliográfica de la instrumentación legal actual en materia de economía circular en México de los últimos 5 años.



METODOLOGÍA

Con el fin de lograr el objetivo planteado y resolver la pregunta de investigación ¿Cómo evaluar la instrumentación legal actual en materia de economía circular en México?, se ha realizado una revisión sistemática según las directrices PRISMA, que consistió en realizar una búsqueda en las bases de datos wdg.búsqueda, Dialnet, Science Direct, SciELO y Google Académico como macro base de datos, con el fin de evaluar los datos disponibles referentes a las actualizaciones en este contexto. Además, se consultó SEMARNAT e iniciativas de ley relativas a la economía circular para conocer la situación en México. En primera instancia se han utilizado los siguientes términos como palabras clave en la búsqueda: Economía Circular en México, Situación actual de la economía circular en México, Iniciativas de ley en materia de economía circular en México. Con un rango no mayor de cinco años de su publicación para identificar los estudios con las últimas actualizaciones. La revisión sistemática es útil en este aspecto, ya que proporciona una síntesis del estado del conocimiento en el área de interés, a partir de la cual se ha podido identificar las prioridades para futuras investigaciones y abordar preguntas que de otro modo no podrían ser respondidas por estudios individuales e identificar problemas o deficiencias que deben ser corregidas.


CONCLUSIONES

Durante la estancia de verano se logró identificar los inicios de México en temas de sustentabilidad y economía circular, aunque ya existen propuestas de regulación de manejo de residuos y ecodiseño, estas no han sido aprobadas en todo el país, sin embargo, algunas empresas se encuentran realizando ajustes en sus productos e innovando en sus procesos con el objetivo de ser empresas socialmente responsables y reducir su impacto ambiental. En este contexto y con la información recabada, es necesario elaborar un plan de acción donde organizaciones, gobierno y sociedad estén comprometidos para transitar. Los resultados que se esperan obtener de esta revisión permitirán tomar decisiones considerando tanto el contexto global como la vulnerabilidad a la que se pueden enfrentar las regiones del país en los distintos sectores: políticos, tecnológicos, económicos, ambientales, sociales o legales; con el fin de construir una visión integral del contexto actual y en estudios posteriores diseñar una estrategia factible de implementación.
Real Moya Manuel Andres, Universidad Autónoma de Baja California
Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca

ANáLISIS DE SEñALES EEG DE IMAGINACIóN MOTORA PARA EL CONTROL DE UNA PRóTESIS DE MANO


ANáLISIS DE SEñALES EEG DE IMAGINACIóN MOTORA PARA EL CONTROL DE UNA PRóTESIS DE MANO

Real Moya Manuel Andres, Universidad Autónoma de Baja California. Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Las Interfaces Cerebro-Computador (BCI) han surgido como una tecnología capaz de mejorar la calidad de vida de personas con discapacidades motoras. Al permitir una conexión directa entre el cerebro humano y dispositivos externos, como prótesis de mano, las BCI ofrecen una solución prometedora para restaurar la funcionalidad perdida y brindar una mayor independencia a los usuarios. En este trabajo de investigación se busca la implementación de una prótesis de mano que sea capaz de realizar un movimiento de agarre básico. Para ello se utilizará un equipo electroencefalografía capaz de medir las señales producidas por el cerebro durante el proceso de agarre para posteriormente ser analizadas mediante una técnica de machine learning que pueda indicarle a una prótesis el movimiento a ejecutar.



METODOLOGÍA

El desarrollo del proyecto para el análisis de señales EEG, se enfocó en 4 etapas: diseño del experimento, adquisición, procesamiento y visualización de datos. En la parte de diseño del experimento, se utilizó una diadema de electroencefalografía Emotiv Epoc+ la cual permite obtener los datos cerebrales de cualquier individuo mediante técnicas no invasivas. Este dispositivo utiliza el sistema internacional 10-20 para la ubicación de los electrodos. De los 14 electrodos con los que cuenta el dispositivo, los electrodos utilizados fueron FC5 y FC6 los cuales se localizan en la parte frontal-central del lado izquierdo y derecho de la cabeza respectivamente. Área altamente relacionada a la planeación y ejecución motora. El experimento fue apoyado con una interfaz gráfica donde se le presentaba al sujeto de prueba estímulos con imágenes correspondientes a dos tipos de posiciones de mano, las cuales se denominaron abierto y cerrado. La secuencia de dichas imágenes se realizó en orden aleatorio. Con una duración de 5 segundos por imagen y un tiempo de descanso de 3 segundos entre imágenes. El tiempo total del experimento fue de 5 minutos. Posteriormente, se realizó la etapa de adquisición de los datos en un ambiente controlado con perturbaciones mínimas, donde participó un único sujeto de prueba del sexo masculino con 23 años. Para adquirir los datos experimentales se realizaron dos tipos de prueba, uno con imaginación motora y uno con ejecución motora con el fin de determinar las similitudes en ambos casos para posterior uso. Durante la prueba de imaginación motora se le pidió al sujeto de prueba que al presentarse uno de los dos estímulos visuales imaginaran su brazo derecho realizando dicho movimiento. En el caso de ejecución motora, se le pidió que realizaran físicamente el movimiento con el mismo brazo. Se realizaron un total de 8 pruebas repartidas en 4 días consecutivos siendo 2 pruebas por día, con una frecuencia de muestreo de 128 muestras por segundo Para la etapa de procesamiento, se aplicó un filtro pasa bajas de 64 Hz con el fin de cumplir con el teorema de muestreo de Nyquist-Shannon y evitar un solapamiento y un filtro pasa banda de 0.1 Hz a 30 Hz con el fin de eliminar el ruido de línea que ocurre normalmente a 60 Hz. Para la extracción de características se determinó como área de interés la corteza sensoriomotora, la cual se encuentra en la parte anterior y posterior al surco central de la corteza. En ella se tienen los llamados ritmos sensoriomotores, más específicamente el ritmo Mu (8-12 Hz) el cual se atenúa ante la planeación o ejecución de un movimiento (ERD), y se recupera segundos después del estímulo (ERS). De manera complementaria se tiene el ritmo Beta (12-30 Hz), el cual también ocurre en la corteza sensoriomotora. Para visualizar el comportamiento de la señal, se segmentaron las épocas correspondientes a ambos casos (mano abierta y mano cerrada) utilizando un canal de estímulos sincronizado con la interfaz del experimento, dando un total de 38 épocas para el caso abierto y 38 épocas para el caso cerrado. Debido a que los parpadeos ocurren en una frecuencia de 1-13 Hz y se encuentran dentro de la frecuencia de interés de 8-12 Hz, se realizó una búsqueda de los picos de voltaje generados por el parpadeo. En caso de que la época estuviera contaminada se optó por dejarla fuera del análisis. Posteriormente se obtuvo el promedio de las épocas para cada caso, lo que se conoce como un Potencial Relacionado al Evento (ERP). La señal promediada obtenida para cada caso muestra ciertas características que pueden ser utilizadas, más concretamente picos de voltaje conocidos como componentes y el tiempo en que se presentan dichos picos. De manera complementaria se realizó un análisis espectral utilizando las bandas de frecuencia. Durante el tiempo del ERP se espera que ocurra una disminución en la amplitud de la frecuencia Mu aproximadamente en el tiempo en que se presentó el estímulo para posteriormente volver a aumentar pasado unos segundos. En promedio se obtuvo una atenuación 0.2 segundos después de la presentación del estímulo. Las características obtenidas en el análisis de ERP y de frecuencias forman parte del vector de características, el cual se utilizará para entrenar una Red Neuronal Artificial (ANN) que sea capaz de discriminar entre ambos estímulos.


CONCLUSIONES

Los resultados obtenidos hasta el momento han mostrado un comportamiento parecido en cada prueba realizada. Si bien es muy pronto para concluir si los datos serán útiles para discriminar ambas acciones, queda a trabajo posterior la implementación de alguna técnica de machine learning como una Red Neuronal Artificial que compruebe su efectivad, así como su uso en alguna prótesis o dispositivo de asistencia.
Reales Mercado Abrahan Jose, Universidad Simón Bolivar
Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac

CARACTERIZACIóN DE LA RESISTENCIA A LA FRACTURA DEL ACERO AISI 4140 MEDIANTE TéCNICAS DE ENVEJECIMIENTO ACELERADO.


CARACTERIZACIóN DE LA RESISTENCIA A LA FRACTURA DEL ACERO AISI 4140 MEDIANTE TéCNICAS DE ENVEJECIMIENTO ACELERADO.

Reales Mercado Abrahan Jose, Universidad Simón Bolivar. Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la industria y la ingeniería de materiales, es crucial poder determinar con certeza el comportamiento y la integridad de los materiales a lo largo de su vida útil. Esto implica prevenir la formación de fisuras, la corrosión y otros factores que puedan afectar la funcionalidad y seguridad de los componentes. A pesar de los avances en la mecánica de la fractura desde los aportes de A. Griffith en 1920, la falta de herramientas experimentales y analíticas adecuadas ha dificultado la obtención de resultados confiables y precisos.   El envejecimiento acelerado es un proceso experimental vinculado al análisis de fracturas y fisuras, y se ha establecido como una práctica valiosa para determinar la presencia de grietas, su propagación, la influencia del medio corrosivo y el impacto de la corrosión en el deterioro de los componentes mecánicos. Sin embargo, en el estudio de las fracturas y grietas en metales, se deben considerar factores adicionales, como las propiedades mecánicas del material y la interacción de factores electroquímicos, mecánicos y ambientales en el proceso de formación de fisuras por corrosión. El problema radica en la necesidad de desarrollar métodos de prueba confiables y efectivos que aprovechen el análisis experimental por envejecimiento acelerado para predecir con precisión la vida útil de los materiales, mejorar su durabilidad y resistencia a lo largo del tiempo y, en última instancia, prevenir accidentes y fallos prematuros en los componentes estructurales.



METODOLOGÍA

El acero AISI 4140 es un material muy utilizado en la industria aeroespacial, automotriz y muchas más; por las buenas propiedades mecánicas que presenta y la buena respuesta a cambios de estas mismas propiedades mediante tratamientos térmicos. Bajo el enfoque de resistencia a la fractura, encontramos múltiples casos que crean una alerta en el área de materiales e ingeniería, dado que actualmente se es necesario llegar a un valor aproximado del tiempo de vida, que puede tener un componente para llevar a cabo sus funciones de manera óptima, sin llegar a fallar. También, se ha avanzado en estudios que simulen el entorno al que se va a someter un componente, uno de ellos es el método de envejecimiento acelerado, que por medio de variaciones en parámetros como radiación, filtros UV y nivel de niebla salina, se puede llegar a plasmar un completo análisis sobre durabilidad, que posteriormente van a contribuir en la optimización de diseños, selecciones de materiales y usos de recubrimientos, entre muchos más aspectos. Lo mencionado anteriormente, hace parte de un sinfín de sucesos reales que han marcado la historia como catástrofes, llegando a afectar la seguridad y confiabilidad a nivel industrial, que como ingenieros siempre buscamos obtener en cualquier diseño o creación optima. En base a todo lo que abarca una falla por grietas, este proyecto tiene como uno de los objetivos, dar a conocer estudios y/o análisis posibles que se pueden aplicar a materiales en busca de la prevención de fallas y ofrecer a su vez calidad y buen rendimiento de componentes. Por lo tanto, se origina como apertura al estudio de este comportamiento, un análisis a un acero AISI 4140 para monitorear el efecto de envejecimiento acelerado mediante la aplicación de radiación UV a 380 nm, trabajando a 50°C, ambiente de humedad al 40% a causa de una cámara de niebla salina al 5%. Todas las condiciones basadas en normas ASTM G154 y ASTM D4587-0. Se realiza un análisis metalográfico a 3 probetas, la probeta a se encuentra sin envejecimiento, la b y c con 180 horas de envejecimiento (Figura 2). El tamaño, se observa en la periferia del espécimen la aparición de microfracturas típicas de la degradación del material. Posteriormente, la estimación de la tendencia a. Se realiza la degradación que presenta este material, aplicando la técnica de regresión lineal a los valores encontrados en la longitud de la fisura encontrada en la periferia. La Figura 3 representa la longitud de la degradación, medida en pequeñas grietas ubicadas al borde, posteriormente la figura 4 representa la tendencia a la degradación.


CONCLUSIONES

A partir del estudio realizado sobre el análisis de fractura en el material AISI 4140 a través del envejecimiento acelerado, se pueden extraer algunas conclusiones importantes:   1- El envejecimiento acelerado es una herramienta valiosa para simular el comportamiento a largo plazo de los materiales en un período de tiempo reducido. Esto permite obtener información rápida y confiable sobre la resistencia a la fractura y la degradación del material en entornos adversos, lo que facilita la toma de decisiones en el diseño y selección de componentes.   2-La interacción de factores electroquímicos, mecánicos y ambientales en la formación de fisuras por corrosión destaca la importancia de un enfoque multidisciplinario para abordar el problema. El envejecimiento acelerado proporciona una plataforma para estudiar estos aspectos combinados y comprender mejor su impacto en la integridad de los materiales.   3- La correlación entre las propiedades mecánicas del material y su resistencia a la fractura es fundamental para predecir la vida útil y evitar fallas prematuras. El envejecimiento acelerado ofrece una oportunidad para evaluar de manera integral las propiedades mecánicas y la propagación de grietas en un corto período de tiempo.  
Rendón Valdéz Moisés, Instituto Tecnológico de Cuautla
Asesor: Dr. Hugo Alberto Rojas Hernández, Instituto Tecnológico de Cuautla

ESTUDIO DE LOS DEFECTOS DE SOLDADURA PRODUCIDOS POR SOLDADURA POR ARCO ELéCTRICO


ESTUDIO DE LOS DEFECTOS DE SOLDADURA PRODUCIDOS POR SOLDADURA POR ARCO ELéCTRICO

Rendón Valdéz Moisés, Instituto Tecnológico de Cuautla. Asesor: Dr. Hugo Alberto Rojas Hernández, Instituto Tecnológico de Cuautla



PLANTEAMIENTO DEL PROBLEMA

El avance de la tecnología hace uso de materiales cada vez más complejos, por lo que aquellos que actualmente se usan deben ser de la mejor calidad y tener las características más adecuadas para las aplicaciones dispuestas, sin embargo, en el caso de los metales, los avances tardan más en llegar a aplicarse, por ello gran parte de los errores que existen en las estructuras conformadas por dichos elementos tienden a presentar problemas en sus uniones, particularmente en aquellas uniones soldadas. Los problemas más comúnmente vistos son fallas en el proceso de soldadura como lo es la falta de fusión, el exceso de porosidad, una penetración incompleta del material de aporte en el material a soldar, grietas, etc. Estos problemas son críticos en la soldadura por arco eléctrico en aleaciones de aluminio, debido a que la porosidad se ve influenciada por otros problemas, que al manifestarse, actúan sinérgicamente causando una falla catastrófica, y si bien es cierto que las propiedades mecánicas de las uniones soldadas de aluminio están ligadas a otros factores, en la mayoría de los casos los parámetros de la soldadura y las circunstancias en su aplicación tienen un mayor peso en el resultado final, y aun así es posible controlar algunas de las variables tratadas antes, durante y después del proceso de soldadura para minimizar el impacto que pueda manifestarse en las uniones soldadas de aluminio. En la actualidad el uso del aluminio está ampliamente extendido en todas las industrias desarrolladas (industria médica, industria automovilística, industria aeronáutica, industria aeroespacial, industria balística, etc.), por ello es una de las opciones más viables y económicas para aplicaciones que tengan altas exigencias mecánicas, de comportamiento ante la corrosión y maquinabilidad. Por ello es necesario dar con aquello que obstaculice el correcto uso de este material en aplicaciones que requieran de uniones soldadas (uniones soldadas con el método TIG).



METODOLOGÍA

Por medio de la investigación de los parámetros básicos de soldadura (proceso de soldadura TIG), las diversas circunstancias envueltas en la aplicación de la soldadura y errores causados por una práctica deficiente o elementos anómalos en la soldadura (insumos de baja calidad, falta de elementos de protección, bajo rendimiento del soldador designado, etc.). Se analizó el impacto de los parámetros de soldadura en los resultados, observando con particular atención a la proporción usada de los gases de protección (argón, helio y argón-helio) y su relación con la aparición de porosidades en la soldadura, para de esta manera determinar cuáles es la proporción adecuada (equilibrada) de los gases de protección para trabajar con una aleación de aluminio (Al6061-T6), mediante soldadura de tipo TIG sin generar afectaciones por porosidad.


CONCLUSIONES

Por medio de la investigación se han logrado recuperar información de vital importancia para entender adecuadamente el funcionamiento de la soldadura de tipo TIG, los parámetros presentes de manera directa e indirecta (los que podemos controlar y los que no), así como algunos elementos que se pueden considerar para tener mejores resultados. La observación de las diversas pruebas de ensayos de fatiga, microscopia óptica y microscopía electrónica de barrido, ha permitido evaluar los cambios estructurales que sufre la soldadura al aplicar diferentes concentraciones de los gases de protección, siendo que la soldadura haya sido aplicada de la manera ideal por un profesional certificado, con lo que la caracterización mecánica en los diferentes grupos de ensayos realizados muestre consistencia. Con los datos recabados se ha logrado definir el comportamiento esperado de las diversas concentraciones de gases de protección, y con ello los valores aceptables, inaceptables, excelentes e ideales para trabajar con las aleaciones de aluminio (Al6061-T6) al ser soldadas por soldadura de tipo TIG. Por ello, este trabajo ha sido sumamente satisfactorio, puesto que gran parte de la información recabada por medio de los diversos estudios realizados para la caracterización mecánica y estructural, ha sacado a la luz datos que tienen el potencial de cambiar el modo en que se tratan los procesos, siendo que ahora tenga verdadera importancia el evaluar a fondo la interacción de los gases de protección con los metales trabajados en procesos de soldadura.
Resendez Ruiz Stephany Yelitza, Universidad Politécnica de Victoria
Asesor: Mg. Ivanhoe Rozo Rojas, Universidad Católica de Colombia

ANÁLISIS DE LAS HERRAMIENTAS LEAN APLICADAS AL ÁREA DE LA SALUD, A PARTIR DE UNA REVISIÓN DE LITERATURA


ANÁLISIS DE LAS HERRAMIENTAS LEAN APLICADAS AL ÁREA DE LA SALUD, A PARTIR DE UNA REVISIÓN DE LITERATURA

Resendez Ruiz Stephany Yelitza, Universidad Politécnica de Victoria. Asesor: Mg. Ivanhoe Rozo Rojas, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Él área de la salud presenta grandes deficiencias tales como: Retrasos en tiempos de espera Mala calidad y seguridad de los pacientes Mala administración en inventario Organización deficiente Una gran solución al mayor porcentaje de los problemas se realiza con las Lean tolos, ya que son de gran utilidad para mejorar la atención al paciente y la gestión de los recursos. Lean tools es un término aplicado a las técnicas y enfoques de gestión, provienen de la Industria Manufacturera, pero gracias a su eficiencia y versatilidad se han aplicado en otras áreas tales como la salud.



METODOLOGÍA

Para el desarrollo de la investigación se realizó una revisión de literatura donde se utilizó la metodología prisma. En la base de datos Scopus se ingresaron dos ecuaciones de búsqueda con base en dos criterios diferentes. La primera ecuación de búsqueda fue realizada con palabras clave y datos muy generales, la segunda ecuación de búsqueda fue construida de una forma más específica con palabras clave más técnicas y una serie específica de filtros. Los resultados de ambas fueron similares pero en la segunda ecuación de búsqueda los resultados eran más escasos por los filtros que se añadieron. Se descargaron los documentos en formato RIS para su revisión en el software VOSViewer donde se lograron ver las redes bibliométricas de ambas ecuaciones. De igual forma, se descargaron los artículos de ambas ecuaciones en formato CSV para su revisión en Excel. El archivo de Excel contenía los siguientes datos: Autor, Autor ID, Titulo, Año, Volumen, Numero de Articulo, Pagina Inicio, Pagina Final, Numero de citaciones, DOI, Link, Resumen, Palabras Clave del Autor, Palabras clave del Índice, Tipo de Documento, EID. En la revisión de literatura los artículos fueron examinados para encontrar las principales Lean Tools usadas en cada artículo. Así mismo se realizó un investigación de las Convergencias y Divergencias entre ambas ecuaciones En las convergencias se encontraron relaciones y similitudes entre las técnicas usadas en los últimos años, la herramienta Lean más usada en la actualidad en el área de la salud es DMAIC (definir, medir, analizar, mejorar y controlar), una herramienta metodológica enfocada en la mejora incremental de procesos existentes. En las divergencias se pudo apreciar una diferencia entre las Lean Tools usadas en el campo de la salud en los últimos cinco años y las Lean Tools usadas en años anteriores. Se logró observar que hay una variación entre las herramientas Lean usadas anteriormente (Diagrama de causa raíz, Lluvia de ideas, Análisis de Pareto) y se percató de que hay una constante en las herramientas Lean usadas en el área de la salud en la actualidad; DMAIC. Esta investigación servirá para el personal del campo la salud al momento de tratar de elegir o de inclinarse hacia alguna herramienta Lean ya que notará que en la revisión de lectura se obtuvo como resultado que la herramienta DMAIC es aparentemente la mas usada gracias a su eficiencia. Se espera que en un futuro se implementen nuevas herramientas Lean en este campo para seguir contribuyendo a la mejora continua del mismo.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos relacionados con la revisión de literatura, misma donde se logró adquirir conocimiento acerca de las ecuaciones de búsqueda generadas en bases de datos. Se adquirieron conocimientos acerca del análisis de artículos científicos. De igual manera, se aprendió a usar herramientas de software relacionadas con la búsqueda de documentos tales como Scopus y herramientas de software para construir y visualizar redes bibliométricas tales como VOSViewer.
Reséndiz Pérez José Ariel, Instituto Tecnológico de Querétaro
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

APLICACIóN DE ESCRITORIO PARA REALIDAD VIRTUAL.


APLICACIóN DE ESCRITORIO PARA REALIDAD VIRTUAL.

Reséndiz Pérez José Ariel, Instituto Tecnológico de Querétaro. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una de las metas del avance de las nuevas tecnologías es la creación de entornos mediante los cuales se puedan realizar simulaciones que permitan al ser humano experimentar con entornos que de otra manera no le sería posible. Esto da oportunidad a muchas posibilidades en las que se han identificado márgenes de mejora, como lo es el área de la educación o de industria, para ello, se pretende llegar a conocer más sobre el campo de la realidad virtual, que puede permitir dichas experiencias. La realidad virtual (RV) es una tecnología que crea una experiencia simulada e inmersiva para el usuario, permitiéndole interactuar con un entorno generado por computadora que parece real y tridimensional. A través de dispositivos de realidad virtual, el usuario puede sentir que está presente dentro de ese mundo virtual y experimentar sensaciones visuales y auditivas que pueden ser muy similares a las que se experimentan en el mundo real. Dentro de este contexto, la investigación en el área concede la oportunidad a la exploración del uso de esta tecnología y su aplicación en diferentes ámbitos de nuestra sociedad actual, principalmente en materia de educación, donde existe mucho margen de mejora a la hora de crear nuevas experiencias para que el alumno consiga cimentar conocimientos que de otras maneras le serian bastante difíciles de comprender.



METODOLOGÍA

Como parte de todo proyecto en el que se requiere el uso de las tecnologías de la información, es necesario tener conocimiento básico de lenguajes de programación y codificación en general, pues esto es la base de todos los programas que se crean y en los que intervienen tópicos como programación orientada a objetos o interfaces de usuario. Lo segundo es contar con algún software o IDE que nos permita la creación y ejecución de diferentes proyectos audiovisuales que reaccionen a las interacciones del usuario dependiendo de sus acciones. Se busca algún programa que cumpla o dé soporte a los siguientes requisitos: Sintaxis simplificada Enfocado en gráficos y multimedia Multiplataforma Comunidad Interactividad Librerías Open-source Para este caso, se opta por Processing, un IDE que cumple con la mayoría de estos requisitos y que implementa el lenguaje de programación preferido para la creación de este tipo de proyectos, el cual es java. Processing es un lenguaje de programación y un entorno de desarrollo integrado (IDE) diseñado para ayudar a los artistas, diseñadores, educadores y programadores a crear proyectos visuales y interactivos de manera sencilla. Fue creado por Ben Fry y Casey Reas en el MIT (Massachusetts Institute of Technology) en 2001, y desde entonces ha ganado una gran popularidad en la comunidad creativa y educativa. Por último, es necesario el dispositivo de salida mediante el cual serán visualizadas las simulaciones de realidad virtual, se necesita un artefacto que permita aislar los sentidos principales del usuario (vista y oído) del mundo real, para permitir una inmersión dentro del mundo virtual. Existen muchas alternativas de marcas y especificaciones, por ejemplo, se cuenta con las gafas de realidad virtual de Apple que, a pesar de ser un gran avance con tecnología de punta, puede salirse del presupuesto de cualquier investigación estudiantil debido al alto costo que representa su obtención.  Es por ello que se puede optar por una opción más válida para la iniciación dentro de esta área, el cuál es el AR y VR de Google, una pequeña caja de cartón con dos lentes especiales. Si se decanta por esta alternativa, es necesario un medio externo en el que se puedan ejecutar los códigos y los materiales audiovisuales, un simple teléfono celular puede funcionar. Con este conjunto de herramientas y saberes, tenemos lo necesario para iniciar cualquier proyecto que involucre realidad virtual y simulaciones con materiales audiovisuales que reaccionen a interacciones del usuario.


CONCLUSIONES

Durante la estancia de verano, se pudieron aprender las bases de esta gran área de oportunidad aún no explorada, y que permite satisfacer muchas áreas de oportunidad de nuestra sociedad actual, especialmente en materia de educación donde la presentación de otros estímulos diferentes a la educación tradicional para los alumnos puede generar mejor aprendizaje de tópicos que de alguna otra manera serían difíciles de comprender. La simulación mediante material audiovisual permite conocer escenarios e interactuar con situaciones sin la necesidad de estar presentes o arriesgar la integridad del usuario, como es el caso de aprender a utilizar maquinaria para la industria, en donde se pueden conocer los riesgos de primera mano sin necesidad de que sean reales. Se espera que la investigación en este campo crezca pronto, obteniendo una gran herramienta que permitirá que muchos de los sesgos que no son explorados aún puedan ser conocidos por las personas y con ello, el aprovechamiento de estas tecnologías para futuras generaciones.
Revelo Obando Luisa Fernanda, Pontificia Universidad Javeriana
Asesor: Dr. Álvaro Can Chulim, Universidad Autónoma de Nayarit

CARACTERíSTICAS FíSICAS DEL SUELO RELACIONADAS CON EL RIEGO EN LA PLANICIE DEL RíO SAN PEDRO EN NAYARIT


CARACTERíSTICAS FíSICAS DEL SUELO RELACIONADAS CON EL RIEGO EN LA PLANICIE DEL RíO SAN PEDRO EN NAYARIT

Revelo Obando Luisa Fernanda, Pontificia Universidad Javeriana. Asesor: Dr. Álvaro Can Chulim, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

La planicie del Río San Pedro está conformada por suelos aluviales. Los sedimentos que dieron origen a estos suelos fueron transportados por el río a las llanuras y lechos de inundación que conformaron abanicos aluviales (Ortega et al., 2023). A lo largo de los años, en los suelos de la planicie se han modificado las propiedades fisicoquímicas por las actividades agrícolas intensivas que se desarrollan en ella. De manera particular, en esta zona de estudio se destaca la agricultura como principal actividad económica. Por lo tanto, el objetivo de esta investigación es realizar una caracterización física de los suelos de la planicie del Río San Pedro en Nayarit, para determinar las láminas de riego adecuadas a cada característica actual de los suelos. Teniendo en consideración que estos variarán en un perfil altitudinal, desde el pie de la sierra hasta las zonas de influencia marina y también en la profundidad de los suelos, con la hipótesis de que altitudinalmente los suelos arcillosos se encontrarán ubicados en la parte baja y en el perfil vertical en los primeros centímetros de la superficie. Con esta información se contribuirá con conocimiento técnico-científico para el manejo adecuado de la agricultura en el área de estudio.



METODOLOGÍA

Descripción del área de estudio El estudio se realizó en la planicie del Río San Pedro en Nayarit, en la provincia fisiográfica denominada Llanura Costera del Pacífico, subcuenca San Pedro-Tuxpan, la cual abarca parte de los municipios de Rosamorada y Santiago Ixcuintla y completamente Ruíz y Tuxpan. Esta área se destaca por poseer cultivos principalmente de frijol azufrado, mango, tabaco y maíz. Los suelos presentes en el lugar son aluviales y Fluvisol. De acuerdo con el Inegi (2019) la zona presenta un clima cálido subhúmedo con lluvias en verano. Mediante el sistema Clicom (2019) con datos de la estación meteorológica 18034-Santiago Ixcuintla (1951-2002) se obtuvo el promedio anual de temperatura de 27 ºC, precipitación de 1239 mm y evaporación de 1607 mm. La Tabla 1 contiene las coordenadas de los puntos de muestreo en el área de estudio ya descrito.                   Tabla 1. Coordenadas del Punto de Muestreo Los municipios en donde se realizaron muestreos se localizan en la Llanura Costera del Pacífico y se muestran a continuación (Figura 1). Figura 1. Municipios Muestreados en la Llanura Costera del Pacífico Muestreo de suelos Para llevar a cabo el muestreo de suelos, se ubicaron previamente 7 puntos siguiendo un perfil lineal altitudinal desde el pie de sierra hasta la zona de influencia marina, a 5 km de distancia entre cada uno, con ayuda el sistema de información geográfico Google Earth (Figura 2).                                     Figura 2. Puntos de Muestreo Se tomaron muestras de suelo cada 10 cm hasta una profundidad de 90 cm en 4 sitios ubicados a cada 10 km y otros intermedios cada 5 km a una profundidad de 30 cm (capa arable). Posterior a la extracción, las muestras se trasladaron al Laboratorio de Análisis de Suelos y Metales Pesados del CEMIC 03 de la Universidad Autonoma de Nayarit (UAN) para ser estudiadas y analizadas. Para el proceso de Secado y Tamizado, se extendieron las muestras en recipientes plasticos para secarse durante 5 días (Figura 3). De manera continua, se tamizaron las muestras con mallas número 10 (2 mm).               Figura 3. Proceso de Secado de las Muestras de Suelo Parámetros medidos Una vez secas y tamizadas, a las muestras se les determinó Textura por el método de Bouyoucos (Figura 4), Densidad Aparente por el método del cilindro y el punto de Saturación (Figura 5), de acuerdo con los procedimientos la Norma Oficial Mexicana NOM-021-RECNAT-2000. Figura 4. Procedimiento para la Determinación de la Textura por el Método de Bouyoucos. Figura 5. Procedimiento para la Determinación del Punto de Saturación Estimación de parámetros de riego Con la información registrada de los procedimientos para la determinación de la textura, la densidad aparente y el punto de saturación, se procedió a calcular otras variables como la capacidad de campo, el punto de marchitez permanente y lamina de riego como se sigue a continuación: Capacidad de Campo (Castellanos, 2000):                                        CC=(PS/1.84) - 0.48 Punto de Marchitez Permanente (Castellanos, 2000):                                        PMP=CC(0.595) Lamina de Riego: Lr= ((CC-PMP)Da(h))/100


CONCLUSIONES

Resultados de la capa arable En la Tabla 2, se resume todos los resultados de las variables estudiadas para cada uno de los puntos en su capa arable, a 30 cm de profundidad. En la Tabla 3 se presentan resultados de la textura de los suelos.g Tabla 2. Resultados de las propiedades físicas de la capa arable de los suelos para cada punto de Muestreo. Tabla 3.  Resultados de la textura para todas las muestras por el método de Bouyoucos. De la Tabla 2 se tiene que, en un perfil altitudinal, a medida que se va acercando a la parte baja y zona costera, puntos de muestreo 6 y 7, se concentran los suelos con partículas finas tales como los Franco Arcillosos. Además, se observa también que para los puntos 1, 3, 5 y 7 sus estratos no presentan variaciones relevantes en cuanto al tipo de suelo a medida que aumenta la profundidad. Sin embargo, si es posible observar que en las partes superficiales de cada punto de estudio se encuentran los suelos de grano más fino; este fenómeno se justifica por el uso constante de maquinaria, la cual genera fracturación del suelo y, por ende, modificaciones en sus propiedades físicas como la textura. A partir de la Tabla 2 y Tabla 3, se infiere que el punto de estudio 6 presenta mayor punto de saturación en comparación al conjunto de datos, debido a que es un suelo con granulometría muy fina y a su ubicación en una zona de depresión. Por lo anterior, al estar esta muestra más concentrada por partículas finas necesita mayor cantidad de agua para saturarse. CONCLUSIONES Se destaca que el principal tipo de suelo en la planicie de la cuenca del Río San Pedro en Nayarit es franco-arcilloso y se obtuvo una lámina de riego promedio de 3 cm.
Reyes Carmona Jesus Alejandro, Universidad Autónoma de Ciudad Juárez
Asesor: Mg. Katherine Rosero Florez, Corporación Politécnico de la Costa Atlántica

ANáLISIS COMPARATIVO DE EMPRENDIMIENTOS Y ADOPCIóN DE LA TECNOLOGíA PARA LA OPTIMIZACIóN DE RECURSOS: BARRANQUILLA - CIUDAD DE MéXICO.


ANáLISIS COMPARATIVO DE EMPRENDIMIENTOS Y ADOPCIóN DE LA TECNOLOGíA PARA LA OPTIMIZACIóN DE RECURSOS: BARRANQUILLA - CIUDAD DE MéXICO.

Reyes Carmona Jesus Alejandro, Universidad Autónoma de Ciudad Juárez. Sánchez Díaz Edén Jair, Instituto Tecnológico de Toluca. Asesor: Mg. Katherine Rosero Florez, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El emprendimiento se presenta como una valiosa oportunidad para mejorar la calidad de vida de los ciudadanos, y ha sido adoptado por numerosos países en vías de desarrollo como un impulsor de la estabilidad económica tanto a nivel nacional como regional y local, es así como lo declara (Rada, 2014) donde manifiesta que el emprendimiento se ha convertido en un proceso que ha generado un impacto positivo en la creación de empresas en América Latina a lo largo del tiempo, contribuyendo a la generación de empleo, a la mejora de la eficiencia en la productividad y al aumento de la competitividad tanto a nivel nacional como internacional, es por ello, que se ha tenido un crecimiento notable en el respaldo y promoción de esta estrategia económica. Por otra parte, existe la variable de las tecnologías, de acuerdo con (Portafolio, 2021) las tecnologías permiten optimizar las operaciones de una empresa al hacer que sus procesos sean más eficientes, eliminando duplicaciones, errores y retrasos en el flujo de trabajo. En el entorno empresarial productivo, la tecnología desempeña un papel fundamental al impulsar emprendimientos que buscan fortalecer su productividad y utilidad en la sociedad. Una de las situaciones que logro poner a flote la necesidad de la tecnología en todos los emprendimientos y organizaciones para su crecimiento, fue la pandemia generada por el covid-19, este suceso obligo a los emprendedores a tener que adaptarse a una era digital que les permitiera el desarrollo de su negocio, sin embargo, esto ha presentado otro detalle a tomar en cuenta, y es la adopción de la tecnología en los negocios. De acuerdo con un informe (Lozano, 2020) en México se ha observado un fenómeno preocupante en relación al acceso a la tecnología por parte de los nuevos emprendimientos, el 90% de estas empresas se ven limitadas debido a la falta de acceso al financiamiento, impidiéndoles adquirir este valor agregado en sus organizaciones, esta falta de acceso a la tecnología tiene como consecuencia directa que el 75% de los emprendimientos en México no puedan crecer, ya que no cuentan con las herramientas necesarias para optimizar sus operaciones y procesar la información de manera eficiente. Es evidente que esta situación representa un obstáculo significativo para el desarrollo y éxito de estas empresas, lo cual pone en riesgo su capacidad de competir tanto a nivel nacional como internacional, impidiendo a su vez que puedan prosperar y alcanzar su máximo potencial. De acuerdo con (Endeavor Insight, 2016) en el contexto de Colombia se hace imprescindible un cambio en la mentalidad de los empresarios locales, quienes deben dejar de considerar la incorporación de la tecnología como un gasto y comenzar a verlo como una inversión estratégica. Este cambio resulta fundamental para que los negocios tengan una oportunidad real de dar un salto significativo en la adopción de herramientas tecnológicas adecuadas. Como respuesta a esta necesidad, en los últimos años se ha observado un incremento en los esfuerzos tanto públicos como privados para respaldar el emprendimiento tecnológico en el país. Se ha trabajado en la expansión de las actividades empresariales centradas en el sector tecnológico y se ha promovido un mayor interés a nivel regional e internacional hacia este sector empresarial en Colombia.



METODOLOGÍA

La investigación realizada en este trabajo de grado se clasifica como "aplicada" según lo que declara (minciencia, 2021). El propósito principal es abordar una problemática concreta y proporcionar soluciones prácticas y aplicables para mejorar la implementación de tecnologías en emprendimientos de Colombia (Barranquilla) y México (Ciudad de México). El enfoque utilizado en este estudio es "mixto" (Sampieri, 2014). Se emplea una combinación de métodos cuantitativos y cualitativos para obtener una visión completa y enriquecedora de la implementación de tecnologías en los emprendimientos de ambos países. El alcance de esta investigación es "explicativo" (Bernal, 2010). Se busca identificar las causas y factores que influyen en la falta de adopción y aprovechamiento óptimo de las tecnologías en los emprendimientos de Colombia y México.


CONCLUSIONES

La presente investigación tiene como objetivo proporcionar información valiosa, con el fin de analizar la optimización de recursos y aplicación de tecnologías en emprendimientos de la ciudad de Barranquilla y Ciudad de México, a partir de esta meta promover la eficiencia de los procesos empresariales, el cual, pretende obtener como resultado una caracterización de los tipos de emprendimientos empresariales que se desarrollan en las ciudades objeto de estudio, a través de una búsqueda de fuentes secundarias información que identifiquen los tipos de emprendimientos, asimismo, se realizará una comparativa de información de las fuentes encontradas para  hermanar similitudes teóricas de esta forma comparar y analizar las políticas gubernamentales y los marcos regulatorios para emprendedores en ambas ciudades, resaltando sus diferencias y similitudes. Otro de los resultados esperados consiste en examinar casos de éxitos de emprendimientos empresariales productivos basados en la adaptación de tecnologías, para esto se realizará una selección de casos exitosos de emprendimientos en ambas ciudades que hayan implementado con éxito tecnologías innovadoras en sus procesos empresariales.
Reyes Castañeda Andrés Josue, Instituto Tecnológico de Morelia
Asesor: Dra. María del Rocío Carranza Alcántar, Universidad de Guadalajara

MONITOREO DE SENSORES A TRAVéS DE SERVIDOR LAMP, UTILIZANDO RASPBERRYPI Y ESP32


MONITOREO DE SENSORES A TRAVéS DE SERVIDOR LAMP, UTILIZANDO RASPBERRYPI Y ESP32

Ayala Sosa Luis Alfredo, Instituto Tecnológico de Morelia. Reyes Castañeda Andrés Josue, Instituto Tecnológico de Morelia. Asesor: Dra. María del Rocío Carranza Alcántar, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El presente documento tiene como objetivo presentar el procedimiento detallado para la prueba y monitoreo de un sensor DHT11, el cual proporciona información crucial sobre la temperatura y humedad del entorno. Para llevar a cabo esta tarea, se ha empleado una computadora de tamaña reducido, Raspberry Pi 3 con un sistema operativo Raspbian OS, a la cual se le instaló un servidor LAMP. Además, se complementa con un microcontrolador ESP32 programado mediante Arduino IDE. La colaboración entre estos componentes permite establecer una comunicación efectiva entre el sensor, arduino IDE y la Raspberry Pi 3.



METODOLOGÍA

Se eligió la configuración LAMP ya que ofrece diferentes herramientas que son bastante útiles además de la gran cantidad de información que existe de las mismas, con esta configuración el microcontrolador ESP32 podrá conectarse a al servidor alojado en la Raspberry Pi, donde se estará almacenando los datos emitidos por este, los cuales pueden ser lecturas de diferentes sensores según se requiera o comandos para el uso o control de un servomotor por ejemplo. Para este caso práctico se realizarán pruebas con un sensor de temperatura y humedad DHT11. Por medio de la consola de la Raspberry se realizó la debida instalación de Apache, MySQL y PHP, además de la configuración básica al crear un usuario y contraseña para acceder a phpmyadmin y visualizar las bases de datos además se configuró el tamaño de los datos ya que el servidor tendría que almacenar y recibir información. Se creó un archivo php el cual sería el encargado de comunicarse con el ESP32, recibir los datos y almacenarlos en una variable para después entrar a la base de datos y registrarlos dentro de la misma.


CONCLUSIONES

Al final del proyecto de investigación, se logró establecer con éxito una conexión adecuada entre un ESP32 y el servidor LAMP alojado en una Raspberry Pi. El código desarrollado para el ESP32 funcionó sin problemas, y se pudo verificar la confirmación de lectura, análisis y envío de los datos recopilados del sensor DHT11 a través del monitor serial. Los registros obtenidos del sensor DHT11 mostraron mediciones precisas y consistentes, lo que respaldó la eficacia del sensor. Mediante la imagen 3 y 4 se puede observar cómo se llevaron a cabo las interconexiones. Finalmente, este proyecto sienta las bases para expandir las capacidades y funcionalidades del sistema. Se podrían considerar mejoras como la incorporación de más sensores para monitorear diversas variables ambientales, como la humedad del suelo o la calidad del aire. Además, se podría explorar la integración de técnicas de análisis de datos avanzadas para extraer patrones y tendencias significativas, lo que permitiría una toma de decisiones más informada en tiempo real. este proyecto sienta las bases para expandir las capacidades y funcionalidades del sistema. Se podrían considerar mejoras como la incorporación de más sensores para monitorear diversas variables ambientales, como la humedad del suelo o la calidad del aire. Además, se podría explorar la integración de técnicas de análisis de datos avanzadas para extraer patrones y tendencias significativas, lo que permitiría una toma de decisiones más informada en tiempo real. 
Reyes Guerrero Joel, Instituto Tecnológico Superior de Cajeme
Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa

DESARROLLO DE UNA APLICACIóN WEB PARA EL RECONOCIMIENTO DE MéTRICAS DE LA SALUD


DESARROLLO DE UNA APLICACIóN WEB PARA EL RECONOCIMIENTO DE MéTRICAS DE LA SALUD

Beltrán Clark Paola Edilia, Instituto Tecnológico Superior de Cajeme. Hernandez Navarro Lourdes Vanessa, Instituto Politécnico Nacional. Reyes Guerrero Joel, Instituto Tecnológico Superior de Cajeme. Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El trasfondo de este proyecto se centra en la creciente prevalencia de enfermedades crónicas en la población mexicana, como la diabetes, hipertensión y obesidad, junto con la falta de un adecuado monitoreo de la salud. Los métodos tradicionales de seguimiento de parámetros vitales, como los niveles de glucosa, lecturas de presión sanguínea, mediciones de peso y registros alimenticios, requieren inserción manual de datos, lo que puede ser poco conveniente para los usuarios. Esta situación brinda una oportunidad significativa para desarrollar una solución más eficiente y precisa. El alto nivel de enfermedades crónicas en la población mexicana revela que la ineficiencia y limitaciones de los métodos tradicionales de almacenamiento y monitoreo de parámetros vitales representan un obstáculo importante para mejorar la calidad de vida en nuestro país. La entrada manual de datos requiere demasiado tiempo, es propensa a errores y puede generar imprecisiones y registros incompletos, dificultando una vigilancia adecuada de la salud. Además, las personas con limitaciones físicas enfrentan desafíos para comunicar de manera efectiva su estado de salud a los profesionales médicos. Por lo tanto, es imperativo desarrollar una solución que automatice la captura de datos, mejore la precisión y eficiencia, ofrezca información personalizada y mejore la accesibilidad para una mejor gestión de la salud. Es aquí donde surge la necesidad de crear una aplicación web, adaptable a las necesidades individuales de los pacientes, facilitando así el control y seguimiento de su estado de salud.



METODOLOGÍA

El desarrollo de nuestra aplicación web comenzó con una exploración en profundidad de las necesidades y expectativas de los usuarios. Para obtener información sobre los requisitos del público objetivo, empleamos una combinación de métodos, incluidas interacciones directas con usuarios potenciales, consultas con profesionales de la salud y una revisión exhaustiva de la investigación existente sobre aplicaciones de gestión de métricas de salud. Además de recopilar comentarios directos de los usuarios, realizamos un análisis exhaustivo de las aplicaciones de gestión de métricas de salud existentes disponibles en el mercado. Este análisis reveló las fortalezas y debilidades de las soluciones de la competencia, lo que nos permitió identificar áreas de oportunidad únicas y diferenciar nuestra aplicación. En el desarrollo de nuestra aplicación web, adoptamos un enfoque de desarrollo de software ágil, específicamente Scrum, para garantizar la flexibilidad, la colaboración y la iteración rápida a lo largo del ciclo de vida del proyecto. Las metodologías ágiles son adecuadas para proyectos con requisitos en evolución, ciclos de retroalimentación estrictos y un enfoque en la entrega de valor incremental a los usuarios. El desarrollo de nuestra aplicación web involucró una colección de tecnologías cuidadosamente seleccionadas para garantizar solidez, seguridad y escalabilidad. Seleccionamos cada componente en función de su idoneidad para los requisitos de la aplicación y la experiencia de nuestro equipo de desarrollo. Dentro de las tecnologías utilizadas podemos encontrar: React.js: esta librería se utilizó para la creación de la interfaz de la plataforma. Bootstrap: una librería que nos permitió añadir la responsividad y el atractivo visual de las diferentes páginas. Node.js: el entorno seleccionado para el manejo de datos e información entre la interfaz y el servidor. Express: este framework nos permitió establecer rutas de acceso a la información de los usuarios. MySQL: un sistema de gestión de base de datos relacionales. Google Vision API: una API diseñada por Google que se encarga del reconocimiento de imágenes. Chart.js: una biblioteca que se encarga de la representación gráfica de datos. Al combinar estas tecnologías y bibliotecas, desarrollamos con éxito una aplicación web eficaz y fácil de usar con una función de reconocimiento de imágenes de vanguardia. Esto nos permitió crear una aplicación que no solo satisfizo las necesidades de los usuarios, sino que también brindó una experiencia fluida e intuitiva en varios dispositivos y plataformas.


CONCLUSIONES

El desarrollo de nuestra aplicación web para la gestión de métricas de salud marca un hito importante en el empoderamiento de las personas para que se hagan cargo de su bienestar con ayuda de la tecnología. Al ofrecer una plataforma integral para realizar un seguimiento de las métricas de salud, establecer objetivos y obtener información valiosa, la aplicación tiene el potencial de impactar positivamente en la vida de los usuarios de múltiples maneras. La aplicación web representa más que un logro tecnológico; encarna nuestro compromiso de promover la gestión proactiva de la salud y fomentar un impacto positivo en la vida de las personas. A medida que continuamos refinando y expandiendo la aplicación, seguimos dedicados a mantener los estándares de privacidad de datos, uso ético de la tecnología y enfoque en el usuario. Con una visión de un mundo más saludable y más informado, esperamos con ansias el viaje de la aplicación y el potencial que tiene para marcar una diferencia duradera en la vida de las personas.
Reyes Mejía Jessica Magali, Universidad Autónoma del Estado de México
Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo

RESPUESTA SíSMICA DE DISTRIBUIDOR VIAL DE MORELIA


RESPUESTA SíSMICA DE DISTRIBUIDOR VIAL DE MORELIA

Reyes Mejía Jessica Magali, Universidad Autónoma del Estado de México. Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los distribuidores viales desempeñan un papel crucial en la red de transporte vehicular, facilitando la conectividad eficiente y segura entre diferentes vías y permitiendo un flujo continuo del tránsito. Sin embargo, la seguridad y la capacidad de los distribuidores viales para resistir eventos sísmicos son fundamentales para evitar daños significativos y garantizar la funcionalidad del sistema de transporte. En este contexto, resulta esencial comprender y evaluar la respuesta dinámica de estructuras ante efectos sísmicos, con el fin de asegurar su diseño, construcción y operación en condiciones seguras y efectivas.   El objetivo principal de esta investigación es caracterizar y evaluar la respuesta sísmica de un distribuidor vial mediante la combinación de mediciones experimentales y el desarrollo de un modelado numérico. Para ello, se analizará el distribuidor vial Mil cumbres, recientemente construido, ubicado en Avenida Acueducto, Pascual Ortiz de Ayala, 58250 Morelia, Michoacán.



METODOLOGÍA

Se realizó el modelo numérico del distribuidor vial Mil cumbres en el programa SAP2000, el cual es un programa de elementos finitos con una interfaz gráfica 3D orientada a objetos; está diseñado para realizar de manera integrada la modelación, análisis y dimensionamiento de una amplia gama de problemas de ingeniería estructural. Este modelado se basó en los datos y planos obtenidos del expediente técnico. Para los elementos estructurales se emplearon dos tipos de vigas tipo cajón de concreto simplemente apoyadas, la primera es de 1.8 m de alto y la segunda de 0.85 m, con una resistencia de 400 kg/cm2; cabezales de 3.1 m de alto y cabezales de 2 x 1 m con una resistencia de 400 kg/cm2; columnas octagonales de 2.4 x 2 m y columnas rectangulares de 1.5 x 1.8 m, con una resistencia de 350 kg/cm2. Todos ellos se modelaron con elementos tipo barra con seis grados de libertad en cada nudo (tres desplazamientos y tres rotaciones, correspondientes a la dirección x, y, z). La losa de concreto reforzado tiene un espesor de 18 cm y resistencia de 250 kg/cm2; se modeló con elementos tipo Shell con secciones rectangulares. Por último, los apoyos elastométricos de neopreno se modelaron con elementos tipo link de dos nudos. Posteriormente, se efectúo el análisis modal espectral, con el objetivo de conocer los modos de vibración del distribuidor vial, mediante los periodos y formas modales. El distribuidor fue sometido además de las cargas permanentes al especto de diseño de la ciudad de Morelia.


CONCLUSIONES

Se obtuvieron las frecuencias de vibración y sus respectivos periodos de 120 modos, observando si sus desplazamientos son transversales o longitudinales para cada modo a lo largo de todo el distribuidor vial. Finalmente, el modelo numérico fue calibrado con mediciones de vibración ambiental realizadas con acelerómetros portátiles (sensores triaxiales) de la marca Kinemetrics.
Reyes Moreno Brizeyda Eluzaid, Universidad Veracruzana
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA


DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA

Pérez del Angel Brenda Berenice, Universidad Veracruzana. Reyes Moreno Brizeyda Eluzaid, Universidad Veracruzana. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La aplicación de la IA en la arquitectura presenta desafíos y oportunidades. Impulsa la creatividad del arquitecto y mejora la toma de decisiones al proporcionar análisis de datos y simulación avanzada. Para aprovechar estos beneficios, es importante formarse en su uso y estar al tanto de los avances tecnológicos en este campo. Al saber esto nos hacemos las siguientes interrogantes: ¿Cuál es el impacto de la IA en la creatividad y en la toma de decisiones del arquitecto en el proceso de diseño? ¿Qué tanto nos beneficiaria el aplicar estas nuevas plataformas y como debemos de empezar a usarlas?



METODOLOGÍA

01 ZEPHYR OBJETO PINÁCULO- 02 OBJETO PERSONAL- 03 FACHADA COLONIAL La aplicación Zephyr 3D mediante un ejercicio preliminar de reconstrucción. Utilizamos 30 fotografías proporcionadas por el asesor del proyecto y aprendimos a emplear las herramientas necesarias para las tareas futuras. Tras finalizar el proyecto, pudimos exportar la figura en 3D para su impresión. Realizamos una segunda actividad de fotogrametría de manera individual, permitiéndonos elegir el objeto a reconstruir siempre que siguiéramos todos los pasos del proceso. En esta ocasión, al tratarse de un objeto pequeño, solo utilizamos pocas fotografías. También es importante mencionar que Zephyr se descargó de forma gratuita, lo que limitó la cantidad máxima de fotos a 50. Para concluir con la fotogrametría, abordamos una última actividad enfocada en la aplicación arquitectónica con una fachada colonial detallada y compleja, lo que requirió las 50 fotografías disponibles para lograr una reconstrucción precisa. 04 INVESTIGACIÓN INTELIGENCIA ARTIFICIAL Comenzamos investigando sobre que es principalmente para poder entender y no confundirnos. Continuando con la investigación vimos los demás punto que son: que no es la IA, como se implenta en la enseñanza y en la profesión de arquitectura. Una ves hecho todo el analisis logramos identificar y diferenciarla. Logramos encontrar mucha información sobre este tema no solo en el área en que nos estamos desarrollando, además de que se pueden hacer uso de algunas aplicaciones de otras áreas. Gracias a eso también logramos comprender que es un beneficio para nosotros y que con ella podemos realizar mejores trabajos arquitectonicos. Se maneja por medio de algoritmos para poder hacer uso de ella necesitamos ser especificos con lo que deseamos generar.   05 INVESTIGACIÓN INTELIGENCIA ARTIFICIAL PLATAFORMAS Tras haber analisado la información de la actividad anterior encontramos que existen distintas áreas dentro de la IA enfocado en arquitectura. Dentro de cada área existen plataformas y aplicaciones que algunas son de paga y otras de acceso gratis. Acontinuación se muestran las aplicaciones encontradas. Generación de diseños arquitectónicos Autodesk Generative Design The Living - Generative Components Generative Components es de paga, pero cuenta con licencia educativa. Design Explorer (Rhino/Grasshopper) Archimatix Modelo y renderizado Autodesk Revit SketchUp Blender 3ds Max Cinema 4D V-Ray Análisis de datos urbanos CityEngine UrbanSim UrbanFootprint Space Syntax Detección de errores y conflictos Navisworks Solibri Model Checker Tekla BIMsight Synchro 4D Fuzor Es importante mencionar que estas no son todas plas aplicaciones y plataformas existente, son solo algunos ejemplos. Al ser un mundo donde cada dia nos estamos actualizando, contamos con la creación de nuevas plataformas para cada área. 05B INTELIGENCIA ARTIFICIAL TUTORIAL 01 PLATAFORMA GENERA Aprendizaje, aplicacion de plataforma y difusión por medio de video. Por medio de esta plataforma logramos hacer renders de calidad en cuestón de segundos, brindandonos diferentes contextos del objeto, es decir se puede colocar diferentes entornos ya sea de dia o de noche, colocar que tipo de obra será. De esta manera podemos dar a conocer distintas ideas de un mismo proyecto. 06 INTELIGENCIA ARTFICIAL TUTORIAL 02 PLUGIN VERAS Aprendizaje, aplicación y disfusión de uso de software más la implementación de un plugin. A traves se logro realizar renders de calidad , en un periodo corto. Esto nos ayuda a poder entregar al docente o cliente más opciones de diseño. Sin embargo al ser una plataforma con algoritmos necesitamos colocar la información necesaria, estilo, color, el nombre del arquitecto de la escencia que queremos replicar. En el tenemos que especificar si será un exterior o un interior de la obra.  Es una plataforma gratuito y de facil manejo por lo que lo hace asequible en el aprendizaje e implementación en la arquitectura.


CONCLUSIONES

En la estancia vimos distintos programas sobre IA que nos ayudarán mucho en nuestra formación, ya que cada se estan desarrollando nuevas plataformas y aplicaciones por lo que no debemos de quedarnos atras en este tema. Es importante comenzar a usarlas ya que nos beneficia en el campo laboral al querer mostrarle a algún cliente el trabajo, de esta forma podemos expresar de una mejor  manera el diseño que hagamos. Enriquece nuestro desarrollo profesional y habilidades creativas. La incorporación de nuevas tecnologías me permitirá ofrecer soluciones innovadoras y sostenibles. 
Reyes Sánchez Alejandro Adrián, Instituto Tecnológico de Tlalnepantla
Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato

DISEÑO CONCEPTUAL DE CAMARA DE SANDBLAST PARA EMBARCACIONES


DISEÑO CONCEPTUAL DE CAMARA DE SANDBLAST PARA EMBARCACIONES

Reyes Sánchez Alejandro Adrián, Instituto Tecnológico de Tlalnepantla. Asesor: M.C. Juan Pablo Razón González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

Un barco es propenso a la corrosión por distintos factores ambientales agresivos,además de la acumulación de percebes y grelos en el vientre de las embarcaciones afectando el estribor, contaminando el agua. Además, del riesgo de inhalación de partículas por parte de los operadores al realizar la aplicación del método de Sandblast.



METODOLOGÍA

En primer lugar se realizó la investigación a cerca del proceso de sandblast, sus principales aplicaciones y métodos. Posteriormente, se definió el ámbito donde estaría dirigido la cámara, así se va de lo general a lo particular en el trabajo documental. A través de una matriz morfológica, se proponen tres tipos de embarcaciones y sus principales caracteristicas, ventajas y desventajas y las enlisté, con ello fue más fácil la elección por la opción más completa y que cumpliera las necesidades principales. Posteriormente, se inicia con bocetos a mano alzada, ya que se conocían los elementos necesarios para la aplicación de este proceso, fue más sencillo y unicamente se propusieron las medidas, definiendo la forma de la cámara, la distribución de componentes y los materiales de fabricación. Lo siguiente fue diseñarlos en 3D con el software SolidWorks uno a uno cada elemento, pieza y componente. Una vez que se tenían con todas las piezas de la cámara, se procedío a ensamblarlos; primero con las paredes, luego con los elementos auxiliares que irían en el exterior, seguidos de los del interior, dejando al final tanto las boquillas y bracket de chorreado, como la tubería hacía los brackets. Una vez ensamblada la mayor parte de la cámara, se tomaron las medidas al interior de la misma y se realizó el diseño de cada uno de los tubos que fueron necesarios, fue en este punto donde se tuvo que regresar a la parte de conceptualizar de acuerdo a las características que se requieren para el material y el fluido a transportar en el interior de esta.Finalmente llegó el momento de hacer ensamblar la tubería, se colocaron uno a uno los tubos y los codos, partiendo del equipo de sandblast. Con la cámara terminada, se proccedió a realizar un modelado fotorealista, donde era posible identificar los materiales, los acabados finales y de alguna manerar visualizar cómo luciría la cámara. La última actividad con respecto al modelado fue la generación de planos, la manera de elaborarlos fue de lo general a lo particular, es decir, que primero se realizó el plano de la cámara con sus vistas en un Sistema Americano; luego, uno a uno con sus vistas, todos los elementos que consituyen la cámara, como por ejemplo: paredes, contenedores, tubería, soportes, por mencionar algunos. En este punto, fue necesario generar un cuadro de datos que sirviera de 'formato' que permitiera depositar información importante y especifica de cada una de las piezas que se representaba en el plano.


CONCLUSIONES

El desarrollo del trabajo de investigación, permitió definir de manera sencilla el diseño de la cámara de sandblasting implicó un proceso de investigación; en un principio, de las aplicaciones que tiene este proceso y posteriormente, un campo dónde pudiera generar gran impacto en el país y contribuir a la economía, pero consecuentemente descubrí que es de mayor importancia el cuidado de la salud de los operadores y así, se contaba con dos puntos de mejora. Al momento de recabar la información, de indagar y conocer este proceso, el reto más grande fue encontrar la información correcta, actualizada ya que este proceso es muy poco empleado en México, si no es que nada empleado. Además de que la principal fuente de información estadística, está a cargo de PEMEX y era aún más complicado contar con la información de manera libre y objetiva. Posteriormente, seleccionar la información correcta para que de esta manera pudiera ser ligada a los objetivos del proyecto fue un poco más sencillo. El diseño conceptual se realizó mediante un software, lo cual nos habla de la importancia de esta herramienta para la modelación de piezas, mecanismos, elementos de sujeción mecánica, entre otros, ya que es en este punto donde se pueden realizar un rediseño y ajuste de componentes de manera libre y sin más complicaciones. De este modo, pudimos generar el diseño conceptual de una cámara de sandblast para un astillero y poder realizar tareas de mantenimiento preventivo y correctivo en los cascos de embarcaciones, haciendo una propuesta en su automatización de manera que se contemple una reducción en la intervención por un operador en el proceso dentro de la cámara. Una vez que se tenía el modelo terminado, pude realizar un análisis de las propuestas realizadas y que contara con todas las características, es decir, que fue más sencillo visualizar las ventajas que había sobre el resto y así poder hablar de sus ventajas. Dentro de los puntos de mejora, hasta donde mi trabajo me permitió observar es la propuesta de una estructura ideal en el ámbito de la ingeniería civil, en la rama de análisis estructural, la mecánica de suelos; por otro lado, es el impacto ambiental y la reducción de costo por manufactura. Finalmente, el diseño obtenido y propuesto, permite tener un acercamiento en primer lugar, a los equipos de arenado, los procesos y elementos seleccionados para el proyecto, los accesorios que se necesitan para un correcto funcionamiento; en segundo lugar al ámbito portuario, a la economía que rodea toda esta esfera de gran impacto en nuestro país que requiere de una transformación estructural, de implementar su desarrollo, proponer técnicas de mantenimiento eficientes y que reduzcan el impacto ambiental.
Reyes Sanchez Dayan Pamela, Universidad César Vallejo
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

LA CULTURA DE LA CALIDAD COMO HERRAMIENTA DE GESTIÓN INTERNA Y ADAPTACIÓN AL ENTORNO. UN ESTUDIO DE CASOS MÚLTIPLES EN EMPRESAS LATINOAMERICANAS. CASO: APLICACIÓN DEL BENCHMARKING EN LA GESTIÓN DE LA AGENCIA DE TRANSPORTES CMC EN LA CIUDAD DE GUASAVE, SINALOA


LA CULTURA DE LA CALIDAD COMO HERRAMIENTA DE GESTIÓN INTERNA Y ADAPTACIÓN AL ENTORNO. UN ESTUDIO DE CASOS MÚLTIPLES EN EMPRESAS LATINOAMERICANAS. CASO: APLICACIÓN DEL BENCHMARKING EN LA GESTIÓN DE LA AGENCIA DE TRANSPORTES CMC EN LA CIUDAD DE GUASAVE, SINALOA

Palomo Garcia Emily Jazel, Instituto Tecnológico de Piedras Negras. Reyes Sanchez Dayan Pamela, Universidad César Vallejo. Salgado Álvarez Evelyn America, Instituto Tecnológico de Ciudad Juárez. Zavala López Quetzali Daniela, Universidad Politécnica de Texcoco. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La agencia de Transportes CMC es una empresa de paquetería y carga situada en el municipio de Guasave, Sinaloa; teniendo envíos en toda la zona norte y central del país caracterizada por su calidad en el ámbito de la logística, constantemente busca mantenerse a la vanguardia respecto al resto de compañías dedicadas al mismo rubro, derivando en la necesidad de buscar constantemente nuevas ideas y modelos que le permitan mantener su posicionamiento, analizando las cualidades y necesidades de la agencia de transporte se optó por implementar la herramienta para la gestión de calidad Benchmarking con el fin de incrementar la productividad y calidad de su servicio tomando como punto de comparación a la empresa Mercado Libre.



METODOLOGÍA

En primera instancia se realizó una comparativa en el modelo de negocios de mercado libre respecto a su proceso de envíos analizando detalladamente los siguientes puntos en común de ambos negocios Procesamiento de las cargas Logística del servicio Administración de contenedores y almacén Trazamientos de rutas Sistema de Navegación Inspección y mantenimiento de vehículos Monitoreo de las rutas  Evaluación de entrega del cliente Cada uno de estos aspectos fue evaluado en una escala de 1 a 5 para medir el nivel de rendimiento con base encuestas realizadas por personal interno y consumidores, si existía una diferencia en un punto específico donde Mercado Libre tuviera una nota superior se detectaba una oportunidad de mejora, en primera instancia la comparativa arrojo que el tipo de contenedores implementados por Mercado Libre estaban diseñados con un procesos ergonómico adaptados al tipo de mercancía las cuales requerían ciertas características para evitar cualquier tipo de maltrato durante su traslado, los contenedores estaban clasificados de acuerdo al material de carga, plásticos, maderas, metal, entre otros; en base a ello se tomó medida diversificar los tipos de contenedores para el transporte de mercancías específicas que permitan entregar cargas en mejores condiciones. El siguiente punto de comparación donde existió una diferencia significativa fue en el sistema de navegación, la propuesta utilizada por Mercado Libre permite realizar entregas de forma agilizada seleccionando un trayecto preestablecido dónde pueden evitarse retrasos por tráficos o congestionamiento vial, se trata de un software avanzado que gestiona las rutas más óptimas para manejar, indicando las horas adecuadas de circulación para coordinar los descansos de los conductores optimizando los tiempos de entrega y garantizando un mejor calidad, posterior a ello se trabajó en un sistema de navegación para la compañía CMC que utiliza un algoritmo similar que permita reducir el mayor número de incidencias y retrasos durante el transporte de mercancías.  Otra área de oportunidad encontrada fue el monitoreo de rutas, una de las problemáticas habituales en la compañía CMC es el hecho de que tanto los monitoristas cómo los ruteros en ocasiones olvidan recibir el sello de entrega que valida cuando un envió fue realizado, esto es un punto de alto rigor debido a que si se omite debe regresarse nuevamente al destino para obtenerlo, situación que genera una pérdida de tiempo y dinero para la compañía, tomando como referencia nuevamente el método empleado en Mercado Libre dónde la validación para cargamentos de dicha magnitud ahora se realiza de forma digital utilizando unos celulares que los transportistas llevan con una clave por parte del cliente y un número de carga, los datos se vacían en el sistema una vez la carga ha sido entregada llevando un control total de los envíos.  Cómo última observación se consideró la evaluación de entregas del cliente; ambas empresas utilizan el clásico sistema de una lista de cualidades que el cliente califica en base a su experiencia, mientras que en CMC sólo se calificaba de forma general el envío, en Mercado Libre adicionalmente se califica al transportista de forma individual, no solía considerarse un punto relevante evaluar al repartidor, pero posteriormente termino llevándose a la práctica calificando aspectos como: Actitud del repartidor, estado de la mercancía, tiempo de entrega, comunicación, ahora incluso cuando se trata de clientes frecuentes ellos pueden solicitar un repartido en particular con base en su experiencia previa si el servicio les pareció de su agrado, fortaleciendo en el proceso la relación de cliente a empresa.


CONCLUSIONES

Las mejoras introducidas permitieron lograr un incremento en el nivel de satisfacción del cliente, redujo notablemente los gastos de transporte, el nuevo sistema de rutas ha optimizado considerablemente los tiempos de entrega aumentando la productividad de la compañía CMC. La selección de la metodología BenchMarking resultó sumamente favorable, considerando que Mercado Libre es la empresa de E-commerce más grande de Latinoamérica con uno de los sistemas de entrega por excelencia a nivel mundial resultó un excelente punto de comparación, permitiendo extraer atributos favorables de este negocio para fortalecer los puntos débiles de la empresa de transportes y cargas CMC. La evaluación de personal y la opción para seleccionar un transportista de forma predilecta han logrado atraer a un mayor número de clientes, la necesidad de seguir compitiendo en la industria logística y la aplicación de herramientas para la gestión de la calidad seguirán ayudando a mantener el posicionamiento de este negocio en el futuro.
Reyes Silva Elias Yael, Instituto Tecnológico Superior de Huauchinango
Asesor: Dra. Valentina Hernandez Piedrahita, Servicio Nacional de Aprendizaje SENA - Regional Caldas

POTENCIANDO INNOVACIóN TECNOLóGICA: SOPORTE ELECTRóNICO EN PROTOTIPADO, SENA REGIONAL CALDAS


POTENCIANDO INNOVACIóN TECNOLóGICA: SOPORTE ELECTRóNICO EN PROTOTIPADO, SENA REGIONAL CALDAS

Reyes Silva Elias Yael, Instituto Tecnológico Superior de Huauchinango. Asesor: Dra. Valentina Hernandez Piedrahita, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Título: Potenciando Innovación Tecnológica Planteamiento del problema: La innovación tecnológica es clave para abordar desafíos ambientales y mejorar la eficiencia energética en medio de la preocupación por el cambio climático y la sostenibilidad. Proyectos que optimizan el uso de energía renovable, como la solar, son fundamentales. Proyecto 1: "Optimización de la captación de la irradiancia en paneles solares": Enfocado en generar energía a partir de la luz solar con paneles solares. Desafíos incluyen la eficiencia de captación debido al ángulo del panel respecto al sol, reflexión y factores ambientales. Proyecto 2: "Estación Meteorológica con Comunicación I2C y SPI": Objetivo: desarrollar estación meteorológica avanzada para medir variables climáticas. Limitaciones de estaciones disponibles: precisión, cantidad de variables y capacidad de comunicación. Ambos proyectos buscan optimizar la captación solar y mejorar medición y comunicación en estaciones meteorológicas. Esto aumentará la eficiencia de paneles solares y obtendrá datos climáticos precisos para planificación energética, agricultura, meteorología y gestión ambiental. Objetivo general: Potenciar la innovación tecnológica en energía renovable y medición climática, reduciendo el impacto ambiental y avanzando hacia una sociedad más sostenible y consciente del medio ambiente.



METODOLOGÍA

Metodología Proyecto 1: Optimización de la captación de la irradiancia en paneles solares Diseño del sistema: Seguimiento solar con motores NEMA 17 ajusta automáticamente ángulo de paneles según posición del sol. Adquisición de componentes: paneles solares, motores NEMA 17 y Arduino. Programación del Arduino: Recepción de datos de sensores de luz y cálculo de posición del sol con fórmulas matemáticas. Implementación de algoritmo de seguimiento solar para maximizar captación de irradiancia. Pruebas y ajustes: Verificación de precisión y eficiencia del sistema en condiciones de luz solar. Ajustes en programa y sistema mecánico para optimizar rendimiento. Evaluación de resultados: Comparación con sistema estático de paneles solares. Evaluación de mejora en generación de energía y viabilidad económica. Metodología Proyecto 2: Estación Meteorológica con Comunicación I2C y SPI Diseño de la estación meteorológica: Sensores para medir variables climáticas: temperatura, humedad, presión atmosférica, etc. Determinación del número y tipo de Arduinos para gestionar sensores y comunicación. Selección y adquisición de sensores: Selección y adquisición de sensores adecuados para cada variable climática. Conexión y prueba individual de sensores en los Arduinos. Programación de los Arduinos: Procesamiento de datos de sensores mediante protocolos I2C y SPI para transmitirlos entre Arduinos. Implementación de sistema de sincronización para compartir datos precisamente. Comunicación entre los Arduinos: Establecimiento de comunicación unidireccional mediante protocolos I2C y SPI para intercambiar datos. Aseguramiento de integridad y confiabilidad de los datos durante la comunicación. Pruebas y ajustes: Verificación de precisión y consistencia de las mediciones de la estación meteorológica. Ajustes en programa y configuración de sensores para mejorar calidad y confiabilidad de los datos. Evaluación de resultados: Evaluación de calidad y confiabilidad de los datos recopilados por la estación meteorológica. Análisis de eficiencia y rendimiento del sistema de comunicación I2C y SPI. Ambos proyectos buscan potenciar la innovación tecnológica en energía renovable y medición climática, utilizando Arduino para el desarrollo y programación de los sistemas.


CONCLUSIONES

Conclusiones Proyecto 1: Optimización de la captación de la irradiancia en paneles solares El sistema de seguimiento solar con motores NEMA 17 y fórmulas matemáticas resultó exitoso. Se logró un aumento significativo en la captación de la irradiancia solar, maximizando la eficiencia de generación de energía eléctrica. Las fórmulas matemáticas demostraron precisión y confiabilidad, permitiendo un seguimiento autónomo durante todo el año. En resumen, el proyecto potenció la innovación tecnológica en energía renovable, contribuyendo a soluciones sostenibles y eficientes para la generación de energía a partir de fuentes renovables. Conclusiones Proyecto 2: Estación Meteorológica con Comunicación I2C y SPI La estación meteorológica con comunicación I2C y SPI logró obtener y transmitir datos climáticos de manera efectiva. La comunicación entre los Arduinos permitió una recopilación detallada de variables climáticas en tiempo real, brindando información valiosa para diversas áreas. La eficiencia y confiabilidad de los datos recolectados y transmitidos por la estación meteorológica demostraron su utilidad en meteorología, agricultura, gestión ambiental y planificación energética. En conclusión, el proyecto "Estación Meteorológica con Comunicación I2C y SPI" fue exitoso al potenciar la innovación tecnológica en medición climática y contribuir a una sociedad más consciente del medio ambiente.
Reyes Solís Paola Vanessa, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dra. Lizbeth Sánchez Flores, Benemérita Universidad Autónoma de Puebla

ESTUDIO DEL DESARROLLO ECONóMICO DE LA RUTA 1


ESTUDIO DEL DESARROLLO ECONóMICO DE LA RUTA 1

Reyes Solís Paola Vanessa, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Lizbeth Sánchez Flores, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los transportes en masa son un modo de transporte automotor que utiliza camiones operando en carriles con derecho de paso exclusivo, con el objetivo de aumentar la velocidad comercial, mejorar la confiabilidad de los tiempos de operación y el confort del pasajero. En los últimos años el aumento de la demanda de transporte y del tránsito vial han traído como consecuencia, particularmente en las ciudades grandes, incrementos en la congestión, demoras, accidentes y problemas ambientales, bastante mayores que los considerados aceptables por los ciudadanos. El aumento explosivo de esos fenómenos se debe a la facilidad creciente de acceso a automóviles, fruto del aumento del poder adquisitivo de las clases socioeconómicas de medianos ingresos, el mayor acceso al crédito, la reducción relativa de los precios de venta, una mayor oferta por recirculación de autos usados, el crecimiento de la población, la reducción del número de habitantes por hogar y la escasa aplicación de políticas estructuradas en el área del transporte urbano. El transporte urbano en las ciudades mayores insume alrededor de 3½% del PIB regional, por lo que se convierte en el transporte usual de las personas de un ingreso bajo, estas personas mayormente son comerciantes y/o consumidores, por lo que se llevara a cabo un estudio del impacto que tienen los transportes en masas, a lo largo de los tramos en lo que circulan ya que muchos estudios realizados en diferentes partes del mundo señalan que al establecerse rutas nuevas de transportes en masas, con el tiempo también se establecen nuevas unidades económicas.



METODOLOGÍA

Se realizó un recorrido al tramo tlaxcalancingo-cháchapa para realizar una observación física la cual permitió tomar decisiones de los tramos a investigar, como resultado de la observación se decidió estudiar el tramo que comprende la estación la rosa a la terminal chachapa, en el cual se realizaria el estudio de campo y la aplicación del instrumento. Se utilizaron datos de uno de los directorios del instituto nacional de estadística y geografía (INEGI), específicamente del directorio  estadístico nacional de unidades económicas (DENUE). Los datos que proporciona el DENUE permiten identificar a las unidades económicas por el nombre comercial, el tipo de organización jurídica (personas físicas o morales), por su actividad económica y por su tamaño (con base en el estrato de personal ocupado); así como, ubicarlas en el territorio mexicano por regiones, localidades, manzanas y calles. El Directorio también provee las coordenadas geográficas de la ubicación de los establecimientos para que puedan ser visualizados en la cartografía digital o en imágenes satelitales, para esta investigación se necesitó la información temporal de tres censos, los cuales comprendían de los años 2010, 2015 y 2022. Con la información brindada por el DENUE se utilizaron las aplicaciones de Google my maps y de Google earth las cuales posibilitaron trazar puntos geográficos en los lugares en los que se encontraban las unidades económicas, esto con el fin de identificar y localizar cada una de las unidades cercanas a la ruta 1. Al tener los puntos establecidos se procedió a trazar polígonos para delimitar el área que ocupa cada unidad económica, todo esto con el fin de conocer la localización exacta de las unidades ya que posteriormente se realizaría trabajo de campo. Con los resultados obtenidos al trazar los polígonos de los tres periodos, se realizó una base de datos en Excel con el fin de tener un mejor control de la información ya que se contaba con una cantidad considerable de datos por cada empresa. En la herramienta Excel se realizaron tablas dinámicas que ayudarían a conocer la variabilidad de las unidades económicas, las cuales se clasificaron como: Nuevas, Se mantuvieron y Desaparecieron. Con los resultados obtenidos se procedió a llevar acabo el trabajo de campo el cual constaba de realizar encuestas a las unidades económicas según las actividades que mas se llevaran acabo en la zona en este caso fueron: Comercio al por menor con un 44.56% Otros servicios excepto actividades gubernamentales con un 15.75% Servicios de alojamiento temporal y de preparación de alimentos y bebidas con un 13.40% Industrias manufactureras con un 8.88% Para realizar las encuestas se tomó una muestra de 33 unidades económicas correspondientes al 40% de unidades económicas denominadas como nuevas en el año 2022, estas encuestas fueron realizadas de forma presencial utilizando la aplicación de Google my forms y fueron validadas mediante audios grabados al momento que ocurría la encuesta, todo esto con el fin de verificar cada una de las respuestas que se obtenían por parte de los empresarios o empleados a quienes se les encuestaba. Por último, se realizó y estudió la estadística descriptiva de las encuestas realizadas.


CONCLUSIONES

A lo largo del estudio se obtuvieron distintas conclusiones en dependiendo el periodo estudiado: En el periodo estudiado del año 2010 al 2015 se obtuvo como resultado que las unidades económicas tuvieron un incremento del 3% el cual corresponde a un total de 14 unidades económicas. En el periodo estudiado del año 2015 al 2022 se obtuvo como resultado que las unidades económicas tuvieron un decremento del 10% el cual corresponde a un total de 55 unidades económicas, cabe destacar que en este periodo de estudio México se vio afectado por la pandemia mundial conocida como COVID-19. En el 2022 a pesar del decremento que se tuvo en el periodo 2015 - 2022, la mayoría de las unidades económicas que forman parte del tramo son unidades nuevas las cuales corresponden al 47% siendo un total de 345 empresas nuevas. Conclusión general: Dados los resultados obtenidos de los estudios realizados anteriormente se llegó a la conclusión de que se tuvo un incremento total de 277 unidades económicas en el tramo del entronque la rosa a la terminal de Chachapa, así como también se identificó que el ruta no tuvo un impacto total en el establecimiento de las unidades, ya que según los resultados obtenidos por medio de las encuestas el intercambio económico es mayormente entre las personas que residen a la redonda de las mismas.
Reyes Vazquez Erika Janneth, Instituto Tecnológico de Matamoros
Asesor: Mg. Andrea Tamayo Londoño, Institución Universitaria Colegio Mayor de Antioquia

VALORIZACIÓN ENERGÉTICA Y MATERIAL DE BIOMASAS


VALORIZACIÓN ENERGÉTICA Y MATERIAL DE BIOMASAS

Ortega Estrada Carlos Eduardo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Reyes Vazquez Erika Janneth, Instituto Tecnológico de Matamoros. Asesor: Mg. Andrea Tamayo Londoño, Institución Universitaria Colegio Mayor de Antioquia



PLANTEAMIENTO DEL PROBLEMA

Los reactores anaerobios de flujo ascendente, o por sus siglas en ingles Upflow Anaerobic Sludge Blanket (UASB) son sistemas en ausencia de oxígeno donde con la ayuda de microorganismos se logra degradar parte de la materia orgánica presente en distintos residuos líquidos, logrando así remover gran parte de contaminación y transformarlo en biogás y un subproducto líquido conocido como biol, el cual está siendo estudiado con fines agroindustriales.   Objetivo General Conocer la digestión anaerobia como proceso para la valorización energética y material de biomasas residuales, a partir del seguimiento a la producción de biogás y la obtención, caracterización y aplicación del efluente líquido (biol).   Objetivos Específicos Indagar sobre los usos agronómicos del biol mediante bioensayos. Formular un biomaterial a base de biochar y biol para usos   agronómicos. Aplicar técnicas moleculares para la caracterización del biol. Ajustar parámetros en el diseño del reactor UASB para la   obtención   del biol. Modelar los parámetros operacionales del reactor UASB.



METODOLOGÍA

Módulo uno: USOS AGRONÓMICOS Planta control Planta biol + agua Planta biol+ agua + micorriza Planta biol Pesar el suelo Medir pH y conductividad eléctrica Germinar las semillas de maíz Plantas las semillas del maíz Llevar a cabo el registro Módulo dos: DESARROLLO DE BIOMATERIALES Biochar de distintas biomasas (maíz, de caña de azúcar, de arroz y de quinoa) De una previa técnica de pirolisis se pesaron 20 g de cada una de las biomasas Impregnación con el biol a una relación 1:40, por lo que se adicionaron 800 mL de biol a cada muestra por 24 h Filtración al vacio Secado al horno por X h Preparación del suelo (medición de pH y CE) Pesar 60 g de suelo Adicionar X g de biochar Realizar capacidad de retención de agua Incubación por 30 días Módulo tres: CARACTERIZACIÓN MOLECULAR Preparación de la muestra de biol Rompimiento de las membranas y estructuras Separación de fases Extracción de ADN Lectura de ADN y ARN Módulo cuatro: DISEÑO DE UN BIOREACTOR Identificación de las variables de diseño Dimensionamiento del reactor en base a correlaciones de diseño Dibujo del reactor empleando softwares de dibujo 3D Impresión 3D Módulo cinco: MODELADO DE UN BIOREACTOR Muestreo del reactor Determinación de parámetros (pH, ST, SV y AGV) Registro y análisis de datos Obtención de curvas de superficie y tablas


CONCLUSIONES

Resultados Mod 1: Las plantas en tratamiento con biol no tuvieron un crecimiento notorio a comparación a las plantas control. Mod 2: Los biochars están en espera de resultados de caracterización para determinación de iones como fósforo, calcio, nitrógeno y potasio. Mod 3: La lectura de ADN fue óptima. Mod 4: Se logró imprimir diferentes partes de un bioreactor como el separador de tres fases, el embudo, el filtro y las tapas con la tecnología 3D. Mod 5: Los datos mostrados en la determinación de parámetros no permitieron un óptimo modelado u obtención de curvas. Conclusión A lo largo de la estancia se estuvieron trabajando diversos proyectos con distintos docentes, donde el proyecto de la docente a cargo fue el pilar para el desarrollo de los demás proyectos. Por medio del reactor anaerobio granular de flujo ascendente se obtuvieron dos salidas aprovechables, el biogás y el efluente líquido, conocido como biol, este último fue la base para la realización a distintos proyectos, tales como la impregnación de biochar de distintas biomasas con biol y aplicación de biol como fertilizante orgánico.
Reynoso Ríos Julia Leticia, Instituto Politécnico Nacional
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

MONITOREO HIGROTéRMICO PARA LA ESTIMACIóN DE ISLAS DE CALOR EN TRES TRANSECTOS PONIENTE-ORIENTE EN ZONA HISTóRICA, MORELIA, MéXICO.


MONITOREO HIGROTéRMICO PARA LA ESTIMACIóN DE ISLAS DE CALOR EN TRES TRANSECTOS PONIENTE-ORIENTE EN ZONA HISTóRICA, MORELIA, MéXICO.

Reynoso Ríos Julia Leticia, Instituto Politécnico Nacional. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los últimos años hemos observado un aumento de temperatura global debido principalmente a los gases de efecto invernadero que el cambio climático han causado. Se ha observado un aumento de hasta 1.2° por encima de las temperaturas de la era preindustrial. Esto debido a que a partir del siglo XIX la principal causa de los cambios climáticos han sido las actividades antropogénicas. Las islas de calor urbano (ICU) se definen como la diferencia de temperatura de una zona urbana en comparación al área circundante. Esto afecta principalmente al confort térmico de las personas que vive en estos sectores. En la actualidad alrededor del 78% de la población mexicana vive en localidades urbanas, de acuerdo con el Censo de Población y Vivienda (INEGI, 2010), además de que este dato resulta ir en aumento. Por lo que parece indispensable el estudio de las ICU para el planteamiento de soluciones que ayuden a reducir estos aumentos de temperatura. La migración de las áreas rurales a zonas urbanas es un factor importante que provoca estas ICU, pero este problema es multifactorial, también son factores los: gases de efecto invernadero, los vehículos de combustible fósil, la disminución de áreas con vegetación, la falta de profesionales comprometidos con el diseño urbano, la ausencia de normativa vigente en el área, entre otras causas.



METODOLOGÍA

Se eligieron tres transectos con orientación poniente-oriente, en la ciudad de Morelia, Patrimonio de la Humanidad con 1130 monumentos histórico-arquitectónicos, la capital de Michoacán, que es el primer ligar de turismo no playa en México. Los transectos se eligieron por su densidad peatonal y vehicular. Además, en cada uno de estos transectos, se eligieron tres puntos de revisión donde el equipo se quedaría estático. Se realizaron mediciones de temperatura de bulbo seco y humedad relativa con ayuda de un dispositivo marca Elitech, modelo RC-51h, calibrados previamente durante una semana. Estos dispositivos están diseñados para realizar mediciones en un rango de (-30 °C a 70 °C) y (5 % a 95%) respectivamente. Este método se llevó a cabo según la Norma ISO 7626: 1998 Instrumentos para medir cantidades físicas, especificaciones para los instrumentos que miden cantidades físicas del medio ambiente, en ambientes cálidos, templados o fríos. Las directrices de la medición según los ejes son: Eje Y: intervalos de medición a cada 30 segundos para contar con un número de datos estadísticamente representativos. Eje Z: altura ubicada a 1.50m, punto de ubicación promedio del corazón. Eje X: ubicación transversal a 0.50 m de la fachada, para que la radiación de estas no interfiera en la temperatura ambiental. El procedimiento se realizó el día 27 de julio del año 2023, en un horario de las 11:00 a 12:00 horas. En los puntos seleccionados en cada transecto, los equipos se quedaron estáticos alrededor de 7 minutos. Y, en estos espacios, se registró manualmente el horario, los materiales de los espacios donde se colocó el dispositivo, geometría o relación de aspecto para establecer los perfiles de edificios (ancho, altura y largo de la calle), orientación, el aforo vehicular (promedio de autos que transita por minuto), el recubrimiento de las calles y disponibilidad de árboles (INEGI), y el equipo se encargará de recopilar la temperatura (°C) y humedad relativa (%w). Los datos así obtenidos en campo se compilaron, se llevaron a gabinete, y se graficaron ambas variables (t y %w) en función del tiempo. Se buscaron las coincidencias presentadas y las discrepancias en cada caso. Se agregó información sobre el tipo de material de construcción, el aforo vehicular y las áreas verdes, para obtener conclusiones.


CONCLUSIONES

Las ICU son un problema en aumento, esto debido a la alta migración de zonas rurales a zonas urbanas. Estas afectan principalmente al medio ambiente y a los habitantes de dichas ciudades, puesto que estan relacionadas con la falta de confort térmico de los residentes, y además pueden ser un detonante de problemas para personas vulnerables como ancianos, infantes, las personas sin hogar, los mexicanos con enfermedades crónico-degenerativas y la necesidad de equipo eléctrico que modifique el clima del entorno con la alta demanda de energía. Como resultados del monitoreo higrotérmico, los puntos iniciales que se encontraban en el poniente también son las zonas más transitadas de la ciudad, las temperaturas iban en aumento hasta la llegada de los segundos puntos de revisión, y posteriormente a la llegada de los terceros y últimos puntos de revisión en el oriente la temperatura disminuía, se consideró que esto se debía a la reducción de la densidad vehicular y en específico en un transecto este último punto se trataba de un bosque. Por su parte la humedad relativa cambiaba proporcionalmente con la temperatura, en el sentido que cuando esta aumentaba la humedad disminuía, e igualmente en el sentido contrario, cuando la temperatura disminuía la humedad relativa aumentaba. Por lo que se puede estimar que existen ICU en la zona centro de la ciudad, donde la densidad vehicular es mayor. La problemática se ve incrementada pues en zonas protegidas por UNESCO-ONU, no es posible modificar los materiales patrimoniales, tampoco la traza urbana; pero sí se podrían implementar medidas que disminuyan el tráfico vehicular con mejoras en el transporte público, las propuestas de calles peatonales cerradas al tráfico vehicular (medida que ya se ha venido implementando en la ciudad desde el año 2016) y aumentar las zonas con vegetación.
Reynoso Romo Juan Ramón, Universidad de Guadalajara
Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla

FABRICACIóN, PROGRAMACIóN Y VALIDACIóN DE DISPOSITIVO DE MEDICIóN DE RUIDO AMBIENTAL


FABRICACIóN, PROGRAMACIóN Y VALIDACIóN DE DISPOSITIVO DE MEDICIóN DE RUIDO AMBIENTAL

Reynoso Romo Juan Ramón, Universidad de Guadalajara. Zaragoza Jr. Victor Manuel, Universidad de Guadalajara. Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En los países que se encuentran en desarrollo se identifica una problemática persistente que se caracteriza por ser teórica y con baja relación a la aplicación industrial. La necesidad de fabricar, programar y validar un dispositivo de medición de flexión en elementos estructurales delgados se justifica por la importancia de adquirir un profundo conocimiento en áreas fundamentales como Vibraciones Mecánicas o Mecánica de Sólidos. Los prototipos funcionales permiten la validación de dispositivos que se fabrican con la finalidad de medir, analizar y reportar, el comportamiento de los elementos estructurales que conforman la disposición de un chasis, armazón, armadura o estructura, tanto de las construcciones civiles como de la industria metalmecánica, ya sea de funcionamiento estático o móvil. Siendo la resonancia y la perdida de rigidez por efecto de cargas armónicas que se presenta en los elementos estructurales esbeltos. Es de suma relevancia determinar experimentalmente los efectos y cambios que se generan en la frecuencia fundamental por una excitación armónica de amplitud constante aplicada a una columna esbelta de sección transversal constante. El resultado es una gráfica comparativa de la respuesta dinámica determinada por métodos analíticos y de manera experimental en un modelo didáctico instruccional.



METODOLOGÍA

El diseño del modelo de estudio se desarrolló mediante tecnologías de diseño, fabricada por impresión 3D y se configuro de manera flexible, adaptativa e integrada, por ello tiene la capacidad funcional, tanto para instrumentarse como viga o columna. En nuestro caso la configuración utilizada es tipo columna. El modelo cuenta con una masa en la parte superior para generar un movimiento más notorio, en la misma parte superior se encuentra colocado un acelerómetro MPU6050 conectado al Arduino; en la parte inferior está colocado un peso para evitar movimientos no deseados. Para la operación en la adquisición, acondicionamiento, análisis y presentación de datos, se utilizaron distintos programas tanto en Arduino como en Matlab y Simulink. Al momento de configurar la tarjeta Arduino se utilizaron dos programas, uno para la calibración de ejes del acelerómetro y un segundo programa para la configuración de la tarjeta a modo de adquisición de datos. En la utilización del programa Matlab en su extensión Simulink se realizó la configuración para la adquisición, visualización y almacenamiento de datos proporcionados por el MPU6050. Estos datos almacenados se utilizaron desde el Workspace de Matlab para así procesar la señal, tanto con la transformada de Fourier (FFT) como en la conversión de aceleración a distancia por medio de scripts en Matlab. La FFT en señales es utilizada para pasar la propia señal, que se encuentra en función del tiempo, a un dominio de frecuencia, facilitando la obtención de información, de esta manera es más sencillo el análisis de las señales por su simplificación, así como la muestra de características que no son fácilmente identificables en el dominio del tiempo. Esto permite analizar la señal en términos de sus frecuencias constituyentes, lo que puede ser útil para entender su contenido espectral y realizar operaciones de filtrado, compresión de datos y modulación. En Simulink para la adquisición y visualización de datos obtenidos por medio del sensor, el programa consta de tres graficas distintas para cada eje (x,y,z). Dicho programa consta de un I2C Read para la lectura de los datos obtenidos mediante Arduino, después se encuentra un bloque que nos realiza una operación de productos para la conversión del valor obtenido en función de la gravedad, posteriormente pasa a Demux el cual extrae la señal del vector de entrada y emite señales separadas, las cuales están ordenados de arriba hacia abajo en el orden x, y y z que corresponden a cada uno de los ejes; donde luego va hacia un filtro pasabajas con valor de referencia 3 en el cual se tienen dos salidas, una hacia el bloque To Workspace que nos manda los valores al workspace de Matlab, y la otra hacia el scope donde permiten visualizar rápidamente los datos de la simulación a lo largo del tiempo. Durante el análisis de las gráficas experimentales de vibraciones con y sin amortiguamiento, se observa que existe una gran similitud con las gráficas de la solución exacta, avanzando de la compresión analítica conceptual a la aplicación práctica en cuanto a las propiedades dinámicas de la estructura: Periodo y Frecuencia. El presente estudio de investigación aplicada se centra en la transferencia de tecnología y busca proporcionar una experiencia integral que puede ser reproducida exitosamente, ya sea a través de un enfoque educativo guiado por un docente o de manera autodidacta sin requerir asistencia externa.


CONCLUSIONES

Este modelo experimental busca ser aplicado en la instrucción de las materias fundamentales en el plan de estudios de la licenciatura en ingeniería. Estas asignaturas abarcan un extenso contenido analítico, tanto en los principios que describen los fenómenos físicos, como en las conexiones que brindan soluciones a diferentes tipos de situaciones o escenarios que involucran condiciones operativas regulares o de emergencia, sin importar si son poco significativas o catastróficas. Adquirir una comprensión clara de la relación entre las condiciones operativas de una estructura y las consecuencias que se producen al exceder sus propiedades geométricas, físicas o mecánicas, es un aspecto crucial en el ámbito de la ingeniería. Este conocimiento y experiencia son altamente valiosos, ya que fortalecen la formación del ingeniero y les otorgan la capacidad de analizar y predecir el comportamiento de elementos estructurales esbeltos frente a vibraciones mecánicas. Dicho entendimiento se puede lograr más fácilmente haciendo uso de la tecnología tanto para adquirir señales, procesarlas y analizar las distintas condiciones que se presentan en las estructuras con la finalidad de poder tener información precisa y particular de cada estructura.
Ricardez Vasquez Donaldo Ismael, Instituto Politécnico Nacional
Asesor: Dra. Carolina Romero Salazar, Universidad Autónoma Benito Juárez de Oaxaca

DISEñO Y CONSTRUCCIóN DE UN COLECTOR SOLAR PARABOLOIDE EN PéTALOS PARA COCCIóN DE ALIMENTOS


DISEñO Y CONSTRUCCIóN DE UN COLECTOR SOLAR PARABOLOIDE EN PéTALOS PARA COCCIóN DE ALIMENTOS

Ricardez Vasquez Donaldo Ismael, Instituto Politécnico Nacional. Asesor: Dra. Carolina Romero Salazar, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Si bien en las ciudades y áreas urbanizadas de México los métodos de cocción de alimentos emplean gas (natural o L.P.) o electricidad (ya sea con parrillas de efecto joule o de inducción), según un estudio del 2017 de la COFEPRIS, el 20% de la población cocina usando biomasa, la cual conlleva muchos problemas, desde la baja eficiencia de la combustión, afectaciones a la salud por el humo y cenizas generadas, la deforestación que genera y la dificultad para transportar el combustible. Se han planteado múltiples soluciones para estas problemáticas, una de éstas son las cocinas solares con varios tipos de concentradores de radiación: de cajón, disco parabólico, canal parabólico, parabólico compuesto (CPC), o una combinación de las tecnologías de tubos evacuados, absorbedores selectivos y concentradores CPC. El objetivo de este proyecto es construir un colector solar paraboloide en pétalos basándonos en el artículo Diseño y construcción de reflectores solares en pétalos: paraboloide y catenoide para evaluar la factibilidad de la implementación de este modelo.



METODOLOGÍA

Basándonos en el artículo antes mencionado, elegimos primero el diámetro y el foco del colector, los autores mencionan que los sistemas usados en cocinas solares comerciales para uso doméstico tienen un diámetro entre 1.4 y 1.8 metros, por lo cual, se eligieron las siguientes medidas recomendadas para el diseño del reflector solar paraboloide. Primera propuesta para reflector solar paraboloide: Diámetro de 1.8 metros Distancia focal de 1 metro 8 pétalos Para dibujar los pétalos se usó AutoCAD ya que puede trazar puntos de una función, además que puede exportar a archivos XDF, los cuales son compatibles con el software de un CNC de corte de madera XCARVE 1000, el cual se usó para cortar los pétalos. Para el recubrimiento de los pétalos se eligió vinilo reflectante de tipo espejo el cual se comercializa en internet, este material está recomendado en el artículo en el que nos basamos para el desarrollo del colector, sin embargo, no se encontraron las características específicas de reflectancia. Se eligió melamina blanca como el material de base de los pétalos, esto con el fin de que el vinilo se adhiriera con facilidad, se buscó una lámina delgada ya que se requiere de cierta flexibilidad y se encontró una lámina de 1.22m x 2.45m. Al hacer pruebas en el CNC se encontró que su área de trabajo es solo de 75cm x 75cm y en esta no caben los pétalos diseñados para las características propuestas, por lo cual se tuvo que rediseñar el colector de paraboloide. Segunda propuesta para reflector solar paraboloide: Diámetro de 1.45 metros Distancia focal de 1 metro 8 pétalos Esta nueva propuesta se siguió considerando un paraboloide de 8 pétalos, pero se descubrió que es muy difícil para una persona alcanzar el punto focal, por lo que se propuso sólo colocar 6 pétalos para dejar un espacio donde la persona que cocine pueda alcanzar fácilmente los alimentos. Con el nuevo diseño se cortó la melamina con la forma de los pétalos y posteriormente se le adhirió el vinilo por la parte de arriba como la sugerencia de uso marcaba, y por detrás se utilizó pegamento blanco para madera en las pestañas restantes. Para la base del paraboloide se decidió usar MDF, haciendo una estructura de fácil ensamblado, con el fin que sea fácil de construir, guardar y transportar si es necesario. Primero se hicieron cálculos a mano y luego los dibujos en AutoCAD para pasar al corte de las piezas, estas requirieron ser lijadas para poder encajar unas con otras. Se diseñó la base para ser armada en sentido horario, del lado derecho los pétalos estarían sujetos por ligas a su base, con tal de que se formara la curva de la parábola, del lado izquierdo se pusieron soportes de esquina para que funcionaran a forma de rieles para el pétalo y se conectara con un pequeño empuje. Para unir todas las bases y pétalos del centro se usó MDF en corte circular que se acoplaba a todas las bases de cada pétalo y las mantenía estables. Quedó pendiente la tarea del diseño y construcción de la base para los alimentos para realizar pruebas el colector con alimentos, sin embargo, fue posible realizar el ensamble del colector.


CONCLUSIONES

Si bien no se pudo probar el funcionamiento del colector solar, se obtuvieron las siguientes conclusiones con base en su proceso de diseño, construcción y el resultado final. El material elegido para construir los pétalos es óptimo, la melamina sigue la forma del paraboloide, aunque si se desea cortar de forma diferente se sugiere usar tijeras grandes y afiladas. El vinil reflectante de uso para ventanas funciona bien en conjunto con la melamina, una vez armado el colector se probó de forma rústica la temperatura en el punto focal y a toque sencillo se sentía la radiación calentando el brazo, sin embargo, se recomienda el uso de lentes oscuros con protección a la hora de manipular el colector y sus pétalos ya que puede lastimar los ojos. Para adherir el vinilo a la melamina es mejor usar un pegamento que los una completamente sin alterar las propiedades del vinil, preferentemente un adhesivo en aerosol, ya que al deformarse con la forma del paraboloide aparecieron arrugas en el vinilo, lo cual, aunque no se probó, teóricamente afecta la reflexión de la luz y a su vez disminuye la eficiencia del colector. La base de MDF funcionó mejor de lo que se esperaba, dándole la forma además de una buena solidez al colector, su tiempo de ensamblado fue de menos de 40 minutos, aunque se podrían buscar mejores formas de sujetar los pétalos en lugar del uso de ligas, también se le podría dar un tratamiento al MDF para hacerlo más resistente y evitar su rápido desgaste al aire libre. Las dimensiones del colector son perfectas para el funcionamiento en condiciones no controladas, su tamaño ayuda a colocarlo casi en cualquier lugar y pesa menos de 5 kilos armado, por lo que si se necesita se puede mover rápida y fácilmente si no se desea desensamblar y ensamblar de nuevo. 
Rico Muñiz Jesus Misael, Universidad de Guadalajara
Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara

SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS DE SULFURO DE CADMIO


SíNTESIS Y CARACTERIZACIóN DE PELíCULAS DELGADAS DE SULFURO DE CADMIO

de Luna Garcia Naomi Janette, Universidad de Guadalajara. Rico Muñiz Jesus Misael, Universidad de Guadalajara. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las celdas solares son dispositivos cuya función es convertir la energía solar en energía eléctrica. Los paneles solares comerciales consisten en celdas de silicio en diferentes presentaciones: monocristalino, policristalino y amorfo. Su costo de producción es alto y su eficiencia (porcentaje de energía solar que es convertida en energía eléctrica) es deficiente, siendo necesaria la instalación de una gran cantidad de paneles para la producción de relativamente pequeñas cantidades de energía electrica. Existen distintas variables que influyen en la eficiencia de los paneles solares como la cantidad de luz reflejada en la superficie del panel, la intensidad del sol, el ambiente, la localización del panel y los materiales con los que están constituidos. A pesar de que actualmente los paneles más comunes son los de silicio, se están desarrollando nuevas tecnologías en las que se emplean otros materiales (semiconductores) con el fin de obtener una eficiencia energética mayor y así reducir la cantidad de paneles necesarios para la producción de energía eléctrica. En este trabajo de investigación se estudió el sulfuro de cadmio como posible aplicación de material ventana en paneles solares. El sulfuro de cadmio es un semiconductor de tipo n, es decir, posee electrones extras en su estructura cristalina lo que puede ayudar a facilitar el flujo de electrones en un panel solar al recibir la radiación solar.



METODOLOGÍA

Se realizó la síntesis y caracterización de películas delgadas de sulfuro de cadmio (CdS) mediante el método de deposición por baño químico (CBD). El proceso consiste en mezclar disoluciones acuosas en un vaso de precipitado en baño “maría” a altas temperaturas. La síntesis se desarrolló de la siguiente manera: ● Se realizaron cuatro soluciones que fueron mezcladas en el siguiente orden: a) CdCl2 b) NH4OH c) KOH d) (Cs(NH2)2 Se mezclaron en un vaso de precipitado con agua, a baño maría, cuando el agua alcanzó la temperatura de 75°C. Para las soluciones se utilizaron: cloruro de cadmio (CdCl2), hidróxido de amonio (NH4OH), hidróxido de potasio(KOH) y tiourea (CS(NH2)2). ● Posteriormente se colocaron 6 sustratos de vidrio y de vidrio con una delgada película de FTO dentro del vaso con la mezcla y se extrajo un vidrio cada 15 minutos, de manera que la primera muestra se extrajo a los 15 min., la segunda a los 30 y así sucesivamente hasta extraer las 6 muestras. ● Una vez concluido el tiempo de reacción, los sustratos se limpiaron con ácido clorhídrico para evitar interferencias en la caracterización. Las películas depositadas en los sustratos de vidrio se caracterizaron con espectroscopia UV-vis en el rango de longitud de onda 200 a 800 nm. Se obtuvo la gráfica de transmitancia del material, la cual fue utilizada para calcular el Eg del semiconductor mediante el método de Tauc plot. Para la caracterización electroquímica se usaron las películas depositadas en FTO y se caracterizaron con un potenciostato. Se realizaron los ensayos de OCV (Potencial de circuito abierto), de PEIS (Espectroscopia de impedancia electroquímica) y una curva de cronoamperometría para determinar las propiedades electroquímicas del sulfuro de cadmio.


CONCLUSIONES

Mediante las mediciones en el Uv-Vis de las películas, se obtuvieron gráficos de transmitancia en los que el punto de absorción fue en una longitud de onda de aproximadamente 550 nm. Al someterlo al análisis de Tauc ploc, para obtener los valores de Eg de cada muestra, se obtuvieron para los tiempos 15, 30, 45, 60, 75 y 90 min, valores de 2.29, 2.34. 2.31, 2.32, 2.34, 2.31 eV. Los resultados de la espectroscopia electroquímica nos demuestran que al contacto con la radiación solar, el material es capaz de producir una corriente eléctrica: Se obtuvieron dos curvas de nyquist; una pertenecía a la muestra siendo irradiada con radiación solar con intensidad de un sol y la otra cuerva pertenece a la muestra en oscuridad total. Mediante la comparación de las curvas encontramos que la muestra irradiada con 1 sol mostró menor resistividad que la muestra en completa oscuridad. Según la gráfica obtenida del ensayo de cronoamperometría, al recibir la radiación solar se registran valores de aproximadamente 0.020 I/mA y al cambiar a un entorno sin radiación el valor era igual a 0. En base a los resultados obtenidos en la caracterización del CdS podemos concluir que es un material fotosensible por lo que sí es posible su aplicación en la fabricación de celdas solares. Esperamos que en un futuro, con la investigación de otros materiales en conjunto con el CdS , obtener paneles solares con una mayor eficiencia en la generación de energía eléctrica a partir de radiación solar así como en la optimización de laproducción de estos de manera que se incremente la eficiencia y reduzca el costo para obtener una mejor relación costo-beneficio.
Rico Zamora Angel Fernando, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE ELECTROMECáNICA EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE ELECTROMECáNICA EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU

Rico Zamora Angel Fernando, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La CAPASU es un organismo operador con características y funciones de un organismo público descentralizado, con personalidad jurídica y patrimonio propios. Y asume la responsabilidad de operar, administrar, mantener, conservar, rehabilitar, ampliar y mejorar los servicios de agua potable, alcantarillado y saneamiento del Municipio de Uruapan, Michoacán. Durante los últimos meses se ha incrementado la reparación de los diferentes equipos de bombeo, así como la constante reparación del componente arrancador en los diferentes puntos de extracción del agua en la ciudad de Uruapan De acuerdo a la descripción del problema la reparación frecuente de los equipos de bombeo se origina de diferentes factores: Mediciones deficientes ya que no se cuenta con un control de cada cuando se realiza la última reparación y mucho menos de la actividades que realizan Materiales variables, algunos de ellos (rodamientos habitualmente) son reconstruidos o de baja calidad Mano de obra deficiente, no se cuenta con personal capacitado para realizar las diferentes actividades en el área Métodos anticuados e incorrectos, no se cuenta con mantenimiento preventivo o predictivo



METODOLOGÍA

El presente proyecto tuvo como finalidad determinar una propuesta de mejora utilizando la filosofía Lean Service para incrementar la productividad en los diversos procesos de la empresa, específicamente en el área de electromecánica de la empresa CAPASU (Comisión de Agua Potable, Alcantarillado y Saneamiento del Municipio de Uruapan). Se realizó mediante el análisis del estado actual de la empresa, utilizando las distintas herramientas de la ingeniería, se pudo evaluar la situación en la que se encontraban sus principales procesos operativos, además de verificar su planeamiento estratégico, logrando identificar distintas situaciones problemáticas en la empresa, relacionadas a su desempeño operativo cuyo impacto se relaciona directamente a la productividad de la compañía Algunos de los beneficios son: Eficiencia mejorada Aumento de la satisfacción del cliente Reducción de costos Mejora continua Mayor rentabilidad Andrea y Botero (2010)


CONCLUSIONES

En base a todas la decadencias en el área se realizó lo siguiente: Hoja de procesos: En esta se explica paso a paso la manera correcta de la revisión de los equipos de bombeo, así como el arrancador y todos sus componentes dentro del mismo. Esto se hizo para facilitar la revisión que el personal debe de hacer y no tenga la necesidad de llamarle al encargado por este tipo de cosas tan relativamente sencillas. Hoja de procesos para planta tratadora Santa Bárbara: De igual manera se realizó un tipo instructivo en donde se explica paso a paso la manera correcta de la revisión de los equipos de bombeo Rutina de revisión semanal: En esta se explayan los diferentes puntos de bombeo que hay en la zona y de igual manera la rutina más eficaz que se debe de seguir para no tener tantos tiempos de traslados de un bombeo a otro. Formato de reportes: Es de vital importancia contar con estos formatos ya que no cuentan con ningún tipo de control cuando un equipo falla o necesita reparación inmediata. Introducción al plan de mantenimiento preventivo: En este se introducen las principales actividades a realizar, así como su frecuencia para las respectivas tareas. Es importante contar con este plan de mantenimiento ya que el que tienen actualmente esta muy mal elaborado.
Rios Esparza Sofia Guadalupe, Instituto Tecnológico de Hermosillo
Asesor: Dra. Luisa Fernanda Mónico Muñoz, Fundación Universitaria Los Libertadores

EVALUACIÓN DE LAS CELDAS DE HIDRÓGENO COMO ALTERNATIVA AL QUEROSENO EN LA AVIACIÓN: UN ENFOQUE HACIA LA SOSTENIBILIDAD ENERGÉTICA AERONÁUTICA.


EVALUACIÓN DE LAS CELDAS DE HIDRÓGENO COMO ALTERNATIVA AL QUEROSENO EN LA AVIACIÓN: UN ENFOQUE HACIA LA SOSTENIBILIDAD ENERGÉTICA AERONÁUTICA.

Rios Esparza Sofia Guadalupe, Instituto Tecnológico de Hermosillo. Asesor: Dra. Luisa Fernanda Mónico Muñoz, Fundación Universitaria Los Libertadores



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la búsqueda de alternativas más sostenibles y respetuosas con el medio ambiente en la industria de la aviación ha adquirido una importancia creciente. La quema de queroseno, principal combustible utilizado en las aeronaves convencionales ha sido responsable de una gran parte de las emisiones de gases de efecto invernadero y de la contaminación atmosférica en todo el mundo. El propósito de esta investigación es evaluar las celdas de hidrógeno como alternativa al queroseno en la aviación. Así mismo se tiene como objetivos específicos el informar las diferentes alternativas que existen para poder almacenar y crear hidrógeno cuidando las propiedades de este y a su vez procurando la economía de este mismo cumpliendo con los requerimientos para la aviación. De igual modo se busca comparar entre los diferentes tipos de almacenamiento, la generación, tipos de celdas y costos para que el beneficiario pueda equiparar estas características y tomar la mejor alternativa dependiendo el producto que se busca realizar, tomando en cuenta las ventajas y desventajas que se tiene al momento de producir hidrógeno.



METODOLOGÍA

La investigación adopta un enfoque cualitativo para explorar las perspectivas y experiencias de los actores relevantes, y se basa en una sólida revisión teórica para proporcionar un marco conceptual sólido sobre la viabilidad del hidrógeno en la aeronáutica y el uso de celdas de hidrógeno como alternativa al queroseno en la aviación. Este proyecto incluye una primera fase teórica donde se realiza la búsqueda de información sobre los nuevos descubrimientos y enfoques de las celdas de hidrógeno en la aviación. La segunda fase incluye una comparación, donde se detalla las confrontaciones que se tiene entre el combustible actual y su posible reemplazo, en este caso, celdas de hidrógeno. Para finalmente concluir el impacto ambiental generado por cada una de ellas.


CONCLUSIONES

La obtención de hidrógeno como fuente de energía primaria se puede lograr mediante diversos métodos y fuentes, cada uno con ventajas y desafíos en eficiencia, costos y emisiones de gases. Es importante desarrollar tecnologías más eficientes y limpias para impulsar la transición hacia una matriz energética más sostenible y renovable.   El hidrógeno ofrece ventajas, como su abundancia en el universo, su carácter limpio y su contribución a la mejora de la calidad del aire, promoviendo la seguridad energética y sostenibilidad. Sin embargo, hay desafíos en su almacenamiento debido a su baja densidad y punto de ebullición, lo que requiere soluciones para una producción segura y económica.   En la aviación, se utilizan dos tecnologías principales de celdas de combustible de hidrógeno: membrana de intercambio protónico y óxido sólido, cada una con aplicaciones específicas. Para el almacenamiento de hidrógeno en la aviación, se consideran opciones comprimidas o líquidas, cada una con sus ventajas y desafíos.Aunque el costo actual de las celdas de combustible de hidrógeno para la aviación es alto, se espera que avances tecnológicos y producción a gran escala reduzcan los costos en el futuro. La adopción de estas tecnologías en la aviación puede reducir las emisiones y promover la sostenibilidad ambiental. Es vital continuar impulsando la investigación y el desarrollo, y fomentar la colaboración entre industrias y gobiernos para acelerar su adopción y alcanzar objetivos de movilidad sostenible y reducción de emisiones en la aviación.
Ríos Fuentes Karla Araceli, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO


DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE APRENDIZAJE INTERACTIVO

Arias Aguilar Emmanuel, Instituto Tecnológico de Querétaro. Ceja Govea María Fernanda, Instituto Tecnológico de Estudios Superiores de Zamora. Gutiérrez Nava Martin Uriel, Instituto Tecnológico de Chilpancingo. Herrera Tovar Mariela, Instituto Tecnológico de Estudios Superiores de Zamora. Melgoza Tamayo Maria Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Ríos Fuentes Karla Araceli, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los profesores en general tienen la necesidad de medir el aprendizaje de sus estudiantes. Para esto se piensa que una aplicación personalizable y gratuita pueda ayudar. Por supuesto existen muchas herramientas hoy en día, quizá la mas famosa sea Kahoot, sin embargo, en esa aplicación los estudiantes pueden responder sin necesidad de pensar en la respuesta, basta con oprimir cualquier botón. Otra forma de jugar mientras se mide el aprendizaje de los estudiantes es que ellos deban teclear la respuesta. En la aplicación se plantea realizar preguntas específicas por el profesor en el momento, y que así mismo las respondan los estudiantes, con esto se ayudará al aprendizaje constante de los estudiantes y se tendrán ventajas de mayor rendimiento.



METODOLOGÍA

La metodología utilizada consistió en una serie de pasos para creación de la aplicación web desde la planificación de las tecnologías utilizadas. 1. Recopilación de requerimientos con el cliente Se tuvo una reunión con el cliente para conocer el tipo de proyecto en el cual se estaría trabajando durante la estancia, a su vez se plantearon los requerimientos importantes para un buen desarrollo de la aplicación. En este caso, el cliente fue una profesora. 2. Planteamiento y estudios de las tecnologías Se realizó un análisis de diferentes tecnologías, con la finalidad de seleccionar y estudiar las que sean más acordes al tipo de proyecto y requerimientos que fueron planteados por el cliente. 3.Asignación de equipos de trabajo Se realizó el análisis de las actividades a realizar en el desarrollo de la aplicación y se asignaron equipos de trabajo y actividades para cada uno. 4. Creación de tablero de trabajo Se creó un tablero con las actividades asignadas con anterioridad para poder tener definidas las actividades, metas y avances durante el desarrollo. 5. Realización del prototipo de baja fidelidad Con los integrantes de los equipos de trabajo compuestos por dos integrantes en cada uno, se diseñaron las interfaces de cada una las pantallas de la aplicación web 6. Creación del modelo entidad- relación Se diseñó y se discutió el modelo entidad-relación con el propósito de definir los datos requeridos de acuerdo a la necesidad de la aplicación 7. Creación e implementación de la base de datos Se realiza creación de la base de datos con ayuda del diagrama entidad-relación 8. Conexión de base de datos Se realiza la conexión de la base de datos back-end y front-end 9. Implementación de Front-end Con ayuda mediante los prototipos de baja fidelidad la creación de front-end de las pantallas de la aplicación web. 10. Implementación de Back-end Se agregó la funcionalidad de las pantallas y el quiz con el uso de la base de datos. Resultados finales Se realizan las implementaciones correspondientes para la creación de de la aplicación web para su total funcionalidad.  


CONCLUSIONES

Este trabajo de investigación se implementó una aplicación web para impulsar el aprendizaje en estudiantes durante sesiones en línea, se concluyó con una aplicación web remasterizada con un diseño más dinámico y con funciones adicionales a las proporcionadas en el inicio del proyecto. La siguiente parte del proyecto consistirá en hacer análisis del uso de esta aplicación considerando distintos tipos de usuarios y grupos.
Rios Perez Eduardo Daniel, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. Jorge Iván Silva Ortega, Universidad de la Costa

EVALUACION DEL ESCENARIO DE CORTOCIRCUITO CON INTEGRCION DE FUENTES NO CONVENCIONALES A GRAN ESCALA


EVALUACION DEL ESCENARIO DE CORTOCIRCUITO CON INTEGRCION DE FUENTES NO CONVENCIONALES A GRAN ESCALA

Rios Perez Eduardo Daniel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Jorge Iván Silva Ortega, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El modelamiento y análisis de sistemas de energía renovable conectados a la red, junto con la presentación de fallas de cortocircuito en los sistemas de subtransmisión, se ha convertido en un área de estudio crucial. Estos sistemas presentan desafíos particulares debido a la interacción entre fuentes de energía renovable, como la energía solar y eólica, y la red eléctrica convencional. El objetivo es garantizar la estabilidad, la calidad de la energía y la seguridad operativa de la red en presencia de fallas de cortocircuito.  En la actualidad, el crecimiento acelerado de sistemas de energía renovable conectados a la red ha dado lugar a un escenario complejo en el que fuentes no convencionales, como la energía solar y eólica, interactúan con la red eléctrica convencional. Si bien estas fuentes renovables ofrecen beneficios significativos en términos de sostenibilidad y reducción de emisiones de carbono, también plantean desafíos cruciales en la operación segura y confiable del sistema de subtransmisión.  Uno de los problemas más críticos que se enfrenta en este contexto es el análisis de cortocircuito en sistemas de subtransmisión que involucran una integración a gran escala de fuentes no convencionales. Las características dinámicas y la variabilidad inherente de las fuentes renovables presentan nuevos escenarios de cortocircuito que difieren de los casos tradicionales. Estas fallas pueden afectar la estabilidad, la calidad de la energía y la seguridad operativa de la red, lo que potencialmente compromete la continuidad del suministro eléctrico. 



METODOLOGÍA

En la presente investigación, se exploró modelamiento y análisis de sistemas de energía renovable conectados a la red, centrándonos específicamente en las fallas de cortocircuito en los sistemas de subtransmisión. Se analizaron las implicaciones técnicas y los desafíos asociados con estos escenarios, así como las estrategias y herramientas utilizadas para predecir, mitigar y solucionar los problemas derivados de las fallas de cortocircuito. Además, se examinan los avances tecnológicos y las mejores prácticas en el diseño y operación de sistemas de energía renovable para garantizar una integración segura y eficiente con la red eléctrica.   Revisión Bibliográfica: Para fundamentar y respaldar este trabajo de investigación, se llevó a cabo una exhaustiva revisión de la literatura científica. Se consultaron artículos científicos, libros y trabajos de grado relacionados con el análisis de cortocircuito en sistemas de energía renovable, así como con la integración de fuentes no convencionales a gran escala en redes eléctricas. Esta revisión permitió establecer una base científica sólida para la elaboración del estudio.  Selección del Software de Simulación: Para realizar el análisis de flujo de carga y el nivel de cortocircuito en un sistema real, se evaluaron diferentes softwares de simulación disponibles en el mercado. Considerando la capacidad de representar sistemas de energía eléctrica complejos y su amplia aplicación en investigaciones similares, se optó por utilizar NEPLAN V555, debido a su robustez y versatilidad.  Elección del Caso de Estudio: Con el fin de evaluar el comportamiento de las corrientes y flujos de carga en sistemas reales, se seleccionaron dos casos de estudio. En primer lugar, se trabajó con un sistema simplificado de la red eléctrica (IEEE-9), que permitió una comprensión inicial del software de simulación y sus aplicaciones. Posteriormente, se utilizó un sistema más detallado que representa el sistema de energía eléctrica en el departamento del Atlántico (IEEE-33), con el objetivo de analizar situaciones más complejas y realistas.  Análisis de Integración de Fuentes No Convencionales: Como parte fundamental del estudio, se llevó a cabo un análisis de la integración de una fuente no convencional de energía renovable en el sistema IEEE-9. Se consideraron diferentes escenarios de integración y se evaluaron los niveles de cortocircuito que podrían presentarse en la red como resultado de esta incorporación. Este análisis proporcionó información valiosa sobre los posibles impactos de la integración de energía renovable en la seguridad y estabilidad del sistema.  Evaluación de Resultados: Finalmente, se evaluaron los resultados obtenidos de las simulaciones y análisis realizados. Se compararon y analizaron los datos obtenidos en cada caso de estudio para obtener conclusiones significativas sobre la interacción entre fuentes no convencionales de energía y la red eléctrica convencional. Estos resultados proporcionaron una visión más clara sobre los desafíos y oportunidades asociados con la integración de energía renovable a gran escala 


CONCLUSIONES

Durante el desarrollo de este trabajo, se han explorado dos enfoques para simular la interconexión de sistemas fotovoltaicos a la red eléctrica, identificando puntos críticos de sobrecarga y potenciales situaciones de cortocircuito. Entre las principales observaciones y contribuciones, se destacan:  1.- Se ha observado una disminución significativa en las fallas de cortocircuito al integrar sistemas fotovoltaicos en la red eléctrica. Esto indica que la incorporación de energía solar fotovoltaica puede tener un impacto positivo en la seguridad y estabilidad del sistema eléctrico.  2.- La implementación de sistemas fotovoltaicos también ha demostrado su capacidad para actuar en situaciones de contingencia por fallas en el sistema. La flexibilidad y adaptabilidad de estas fuentes de energía renovable pueden ayudar a mantener la continuidad del suministro eléctrico en caso de eventos inesperados.  3.- Mediante la integración de fuentes de energía renovable, como las centrales fotovoltaicas, se contribuye significativamente a mejorar la calidad de la energía suministrada a la red eléctrica. La generación limpia y sostenible permite reducir las emisiones de gases de efecto invernadero y avanzar hacia un desarrollo más sostenible y amigable con el medio ambiente. 
Ríos Ríos José Indalecio, Universidad Autónoma de Zacatecas
Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

CLASIFICACIóN DE IMáGENES DE RETINOPATíA DIABéTICA SEGúN SU DIAGNóSTICO Y GRADO DE DETERIORO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO (DEEP LEARNING)


CLASIFICACIóN DE IMáGENES DE RETINOPATíA DIABéTICA SEGúN SU DIAGNóSTICO Y GRADO DE DETERIORO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO (DEEP LEARNING)

Ríos Ríos José Indalecio, Universidad Autónoma de Zacatecas. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La Retinopatía Diabética (RD) es una complicación ocular causada por la Diabetes Mellitus, resulta de anormalidades macro y microvasculares, además de un metabolismo de glucosa deficiente, afectando la visión y siendo una de las principales causas de ceguera alrededor del mundo, cuando no se detecta y trata de manera temprana. El tratamiento temprano puede frenar el desarrollo de las lesiones, sin embargo, no puede revertirlas, pero reduce significativamente el riesgo de pérdida de la visión. En México, según un estudio realizado por Prado et al. y publicado en la revista Mexicana de Oftalmología en septiembre del 2009, se mostró que el 71% de los pacientes diagnosticados con diabetes tienen lesiones de retinopatía diabética. Los pacientes con diabetes tipo 1 tuvieron mayor prevalencia. Tomando en cuenta que esta patología tiene una prevalencia considerablemente alta, la detección y el tratamiento precoz son cruciales para mantener una calidad de vida óptima en los pacientes. Es por eso que para contribuir de forma positiva en esta problemática, en este verano de investigación, se implementó un algoritmo basado en técnicas de Deep learning para la detección y clasificación de imágenes del fondo de la retina, con base en los signos asociados a la RD, para predecir el curso de la enfermedad y del tratamiento.



METODOLOGÍA

Para resolver la tarea de clasificación de las imágenes según el grado de avance de la enfermedad, se utilizó el modelo de red neuronal propuesto por Kaiming He et al.[3] en 2015, siendo una arquitectura de red residual de 18 capas, descripción por la cual recibe su nombre ResNet-18 (ver figura 3). Esta red proporciona solución a varias tareas complejas que involucran la visión por computadora y la clasificación de imágenes. Entre sus características se encuentran las siguientes; 1.    Uso de bloques residuales: Característica que la distingue de otras redes, ya que se trata de una red que aprende también de los residuos o restos y no solo de la función principal de mapeo. 2.    Capas convolucionales: Al igual que otras arquitecturas de red basadas en redes neuronales convolucionales, esta incluye capas convolucionales, son 18 en total. 3.    Filtro: Los filtros convolucionales en esta red tienen un tamaño de 3x3, son considerados pequeños y óptimos para capturar características como bordes, texturas y otros patrones. 4.    Estructura: Las capas de esta red se agrupan en cuatro bloques principales con activaciones ReLU. Para implementar este modelo se utilizó el software de computador Deep Learning Tool, desarrollado por la empresa MVTec, el cual pone a disposición varios modelos de redes neuronales pre entrenadas. En la fase de entrenamiento, se usó el 90% de las imágenes de nuestra base de datos para entrenamiento y el 10% restante fue para la evaluación en cada iteración. Se configuró el entrenamiento, durante 80 épocas, con un ritmo de aprendizaje de 0.0001 y un optimizador Adam con un momento de 0.9. Para evaluar la precisión de las clasificaciones se utilizaron las métricas Error de Top-1 y la puntuación F1. Las clasificaciones realizadas con los datos de validación se usaron para conformar una matriz de confusión en la que se evaluó la precisión, la sensibilidad, la tasa de falsos positivos y la tasa de falsos negativos.  


CONCLUSIONES

Como conclusión, el verano de investigación fue una experiencia enriquecedora, donde se adquirieron sólidos conocimientos sobre fundamentos de aprendizaje automatizado, aprendizaje profundo y procesamiento de datos. Durante el desarrollo del proyecto, se utilizó una combinación de herramientas comerciales y desarrollo propio, destacando la aplicación del software Deep Learning Tool de MVTec. A través de este trabajo, se logró profundizar en el conocimiento de condiciones patológicas relevantes para su clasificación, de acuerdo con el nivel de deterioro y el diagnóstico de la Retinopatía Diabética. Asimismo, el proceso permitió poner en práctica las habilidades adquiridas en la modificación de parámetros para obtener un mejor rendimiento en el entrenamiento de la red neuronal. La comprensión de cómo ajustar adecuadamente los parámetros y estrategias para enfrentar el desbalance de datos resultó fundamental para obtener resultados prometedores. Esta investigación sentó las bases para futuros trabajos en el área de diagnóstico médico asistido por inteligencia artificial, además nos abre nuevas oportunidades para seguir explorando el potencial del aprendizaje profundo en el campo de la salud y la medicina.
Rios Salido Mario Andree, Universidad de Sonora
Asesor: Dr. Daniel Aguirre Aguirre, Universidad Nacional Autónoma de México

DESARROLLO DE SOFTWARE Y FABRICACIóN ADITIVA DE TOPóGRAFO CORNEAL


DESARROLLO DE SOFTWARE Y FABRICACIóN ADITIVA DE TOPóGRAFO CORNEAL

García Mancinas Luis Fernando, Universidad de Sonora. Rios Salido Mario Andree, Universidad de Sonora. Asesor: Dr. Daniel Aguirre Aguirre, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La topografía corneal es una técnica oftalmológica con la cual se realiza un mapeado sobre la superficie de la ventana frontal transparente del ojo conocida como córnea. Este mapeo es similar a un mapa 3D en el cual podremos identificar irregularidades como podrían ser distorsiones o curvaturas. Esto debido a que la córnea tiene un papel fundamental en la visión, ya que es responsable de enfocar la luz que entra en el ojo y dirigirla hacia la retina, donde se procesa la información visual.  Por otra parte, la topografía corneal se utiliza en diferentes situaciones como podría ser medir distorsión además del nivel de daño de la visión al sufrir un traumatismo en la córnea. Con el uso de esta técnica también es posible detectar astigmatismo además de casos tempranos de queratocono y poder llevar un seguimiento sobre el avance de la enfermedad, otro uso para este estudio es la adaptación de lentes de contacto buscando cual sería el óptimo en cada paciente. El procedimiento para realizar una topografía corneal es rápido, además de generar muy poca molestia en el paciente, el punto negativo es que los equipos comerciales que se utilizan en diferentes clínicas y hospitales son de tamaño considerable, haciéndolo poco práctico en cuestiones de movilidad. Es por esto que, buscamos fabricar un equipo el cual sea práctico, ligero, compacto y de un bajo costo.  



METODOLOGÍA

La realización del topógrafo corneal se llevó en ocho etapas, las cuales se detallan a continuación: Simulación del experimento: en esta etapa se utilizó el software Matlab, para llevar a cabo simulaciones del experimento. Diseño y manufactura aditiva: En esta etapa se diseñaron dos diferentes prototipos, este diseño se realizó utilizando el programa SolidWorks. Para esto se buscó manufacturar un dispositivo el cual nos ayudó a tomar las fotografías de los ojos de los pacientes, para ello se crearon diferentes prototipos del mismo, en donde se evaluaron diferentes tipos de parámetros el cual nos ayudó a elegir los más óptimo. Además, cómo se mencionó en el planteamiento, debe ser un dispositivo ligero y de bajo costo. Después de elegir los mejores parámetros, se imprimieron ambos prototipos en una impresora 3D comercial. Toma de fotografías de prueba: En este punto se realizaron diferentes evaluaciones en donde se tomaron diferentes fotografías, a diferentes superficies (tanto superficies de vidrio como ojos humanos). Esto ayuda a saber sí la calidad de la fotografía es la correcta, además también se notó la falta de iluminación del dispositivo por lo cual, nos lleva a buscar alguna fuente de iluminación óptima. Modificación del dispositivo: Se observó qué la falta de iluminación sería un problema a la hora de tomar las fotografías, por lo cual se optó por agregar luces led neón, las cuales nos ayudaran a que las fotografías salieran con mayor iluminación y claridad.  Creación de circuito de iluminación: En este punto se realizó un pequeño circuito qué controla el encendido y apagado de los leds, así como controlar la intensidad de luz.  Pruebas de prototipo final: Resuelto el problema de la iluminación, se procede al ensamble final del dispositivo funcional, esto tomando en cuenta todas las características de diseño anteriormente planteadas. Desarrollo de software: Después de tomar las imágenes con el dispositivo, estas entran a un software desarrollado en Matlab, donde se hace una limpieza y binarización de la imagen para quedarnos solamente con lo importante. Después, un algoritmo probabilístico nos ayuda a encontrar el radio y la constante de conocidas qué tiene el ojo de la imagen tomada anteriormente. Validación del algoritmo: Esta es la última etapa, donde validamos qué nuestro algoritmo nos esté dando los valores correctos, para ello hacemos uso de un lente con un radio de curvatura conocido, se toma la fotografía y se introduce al software. El software en este punto debe devolvernos un valor muy aproximado al radio de curvatura real del lente.


CONCLUSIONES

Se logró obtener un radio de curvatura muy aproximado al real, esto puede ayudar a encontrar el mismo en diferentes lentes u ojos. Por ejemplo, sí se desea validar lentes de contacto, se puede hacer uso del dispositivo y se pueden obtener buenos resultados. Está investigación puede continuar, y se puede mejorar el algoritmo. Pueden introducirse diferentes técnicas cómo ML, el cual pueda mostrarnos por ejemplo, el cómo cambiaría un radio de curvatura a través del tiempo sí se utiliza algún tipo de lente, así cómo además puede ayudarnos a predecir diferentes tipos de enfermedades.  Dentro de la experiencia cómo estudiantes dentro del programa delfín, nos llevamos mucho aprendizaje, y enseñanzas, agradecemos al Dr.Daniel Aguirre por permitirnos llevar a cabo está investigación y a la Universidad Nacional Autonoma de Mexico por permitirnos utilizar sus instalaciones durante este verano. Así mismo agradecemos al programa delfín y a la Universidad de Sonora por apoyar y respaldar nuestro trabajo dentro del programa.  
Rios Sanchez Francisco Obed, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SITIO WEB COMO HERRAMIENTA DE CONCIENTIZACIóN INFANTIL ENTRE LOS 6 A 12 AñOS SOBRE LA DISCAPACIDAD EN MéXICO EN 2023


DISEñO E IMPLEMENTACIóN DE UN SITIO WEB COMO HERRAMIENTA DE CONCIENTIZACIóN INFANTIL ENTRE LOS 6 A 12 AñOS SOBRE LA DISCAPACIDAD EN MéXICO EN 2023

de la Cruz Arzate Haleb, Instituto Tecnológico de Ciudad Altamirano. Rios Sanchez Francisco Obed, Instituto Tecnológico de Ciudad Altamirano. Rodriguez Noguez Leslim Noemi, Instituto Tecnológico de Ciudad Altamirano. Villanueva Ortega Manuel, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la discapacidad forma parte de nuestras sociedades porque en ellas encontramos personas con una variedad de condiciones físicas, intelectuales, mentales, psicosociales, sensoriales, auditiva y visuales que obstaculizan su participación de forma plena y efectiva en las sociedades. Estas discapacidades pueden ser desde el nacimiento o desarrollarse a lo largo de la vida, además de manifestarse en diferentes maneras y niveles de gravedad. Conocer acerca de las discapacidades es de gran importancia para las sociedades, ya que esto permite el desarrollo, comunicación y satisfacción de las personas que cuentan con estas condiciones, por lo tanto se han hecho grandes progresos para que el mundo sea más accesible para las personas que viven con discapacidad; sin embargo, se requiere mucho más trabajo para satisfacer sus necesidades (Organización Panamerica de la Salud, s/f). De acuerdo con la Organización Mundial de la Salud (Organización Mundial de la Salud, 2023) señalo que, a nivel mundial, se calcula que 1300 millones de personas, es decir, el 16 % de la población mundial, sufren actualmente una discapacidad importante. Sin embargo, las personas con discapacidad son objeto de discriminación y exclusión, fomentando así, las desigualdades sociales en el mundo.  Entre las causas de esta situación se debe por la falta de conocimiento que hay en la sociedad sobre esta condición dando como resultado que las personas con discapacidad no puedan gozar de sus derechos plenamente.   En América Latina y el Caribe, según el Banco Mundial (Banco Mundial, s.f.) señala que, en 2020, vivieron 85 millones de personas con discapacidad, es decir, uno de cada tres hogares vive con una persona con algún tipo de discapacidad, sin embargo, los hogares con personas con discapacidad son más vulnerables pues se estima que uno de cada cinco hogares en situación de pobreza extrema vive una persona con discapacidad. En el ámbito de educación, el analfabetismo es cinco veces mayor en las personas con discapacidad y el 15 % de niños con discapacidad no van a la escuela. En el ámbito laboral, una de cada dos personas con discapacidad no trabaja en el mercado laboral y los que trabajan, ganan entre el 6 y 11 % menos por el mismo empleo que otros trabajadores. Como resultado, la discriminación produce países que no se desarrollan por el límite de oportunidades que ofrece.   A nivel nacional, de acuerdo con cifras en el Censo de Población y Vivienda 2020 del INEGI (INEGI, s/f) en México hay aproximadamente 6 millones de personas con algún tipo de discapacidad, posteriormente, de acuerdo con ENADIS 2022 (INEGI, 2023), 33.8 % de las personas con discapacidad de doce años y más manifestó haber sido discriminado durante los últimos doce meses. En México, según el Banco Mundial (Banco Mundial, 2021) las personas con discapacidad tienen una media del 24 % de no completar su educación primaria y el 30 % si pertenecen a una minoría etnoracial y, además, un trabajador con discapacidad gana en promedio $ 0.8 de cada dólar que recibe un trabajador sin discapacidad. En términos generales, México es un país en donde las personas con discapacidad encuentran dificultades en su vida cotidiana generando falta de oportunidades, pobreza, falta de reconocimiento en las leyes, falta de acceso a la educación y claramente, la discriminación.  



METODOLOGÍA

Para la metodología se realizó por la metodología cascada que consta de los sguientes pasos: 1.- Especificación de requisitos: Para obtener los requisitos era necesario obtenerlos de primera mano por parte de la población de estudio, es decir, los niños de 6 a 12 años, La encuesta se realizo en Google Forms, este cuestionanrio consto de 14 preguntas. 2.- Analisis: Con la información obtenida se crearon tablas de información en donde se proporcionaba los porcentajes de las respuesta. 3.- Diseño: Para el diseño se realizo bajo la experiencia UI/UX 4.- Implementación: Se implemento con las tecnologías HTML, CSS y Javascript. Se realizo la pagina index (página principal) en donde se encuentran las diferentes discapacidades que existen: fisicas, mentales e intelectuales, viscerales, sensoriales y  multiples. 5.- Evaluación y pruebas: Se revisó a que no hubiera fallas de lógica y de sintaxis. 6.- Documentación de proyecto: Se desarrollaron informes cada viernes de las diferentes actividades que se realizaron en la semana. 7.- Entrega del informe final: Se entrego el resumen de lo desarrollado en la instancia.  


CONCLUSIONES

En conclusión, el lograr concientizar a una población es un reto ya que esta tiene diferentes estigmas y perspectivas acerca de las discapacidades, una de las formas que más alcance se tiene es a través de la internet y se logra la importancia de sensibilizar a través de la información a los niños, debido a que el programa es corto se tuvo que realizar una encuesta a los niños de 6 a 12 años, sin embargo, como nos encontramos en periodo de vacaciones no se logró aplicar las encuestas de manera correcta. Sin embargo, el contenido del sitio web se extrajo de diferentes fuentes de información como organizaciones internacionales y nacionales. Con esta información se realizo el sitio web mostrando contenido informativo que servirá para que los niños conozcan acerca de las diferentes discapacidades que existen en el país.
Rivera Alvarez Jesus Omar, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Dunstano del Puerto Flores, Universidad de Guadalajara

ESTUDIO,DISEñO E IMPLEMENTACIóN DE CONTROLADORES PID DIGITALES


ESTUDIO,DISEñO E IMPLEMENTACIóN DE CONTROLADORES PID DIGITALES

Rivera Alvarez Jesus Omar, Instituto Tecnológico Superior de Cajeme. Valverde Luna Irvin Yeremy, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Dunstano del Puerto Flores, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El avance tecnológico ha impulsado la evolución de los sistemas hacia su digitalización y la necesidad de implementar controladores capaces de garantizar un funcionamiento óptimo y eficiente. Los controladores basados en componentes analógicos ya no son viables para satisfacer las demandas actuales, lo que ha llevado al desarrollo de sistemas digitales más sofisticados y con respuestas similares al tiempo continuo. Estos nuevos controladores deben ser estables, robustos e inteligentes para enfrentar los desafíos de la era tecnológica actual. En este contexto, los convertidores de voltaje han adquirido una importancia crucial en el manejo de la energía en los aparatos electrónicos. Estos dispositivos son indispensables para el aprovechamiento eficiente de la energía, lo que ha motivado a la creación de convertidores de voltaje más inteligentes y avanzados. El desarrollo de controladores ha sido fundamental para lograr esta mejora en los convertidores, permitiendo un manejo más eficiente y cuidadoso de la energía eléctrica. La mayor problemática se enfoca en la necesidad de sistemas digitales más complejos requiere el desarrollo de controladores digitales avanzados que sean capaces de proporcionar respuestas cercanas al tiempo continuo.



METODOLOGÍA

1. Primero se realizó una breve introducción acerca de los conceptos básicos del control digital, donde el principal objetivo fue sintonizarnos con el material de investigación y nuestros compañeros a trabajar. 2. Una vez que se comprendió la idea básica de la investigación, comenzamos a caracterizarnos con Arduino Uno, enfocándonos principalmente en comprender el ancho de banda y todo lo relacionado a las señales PWM de la placa. 3. Comenzamos con un repaso a la transformada Z con el propósito de analizar y sintetizar lo aprendido en la práctica de la investigación a desarrollar. Todo esto utilizando códigos de Matlab y observando las respuestas discretas de algunas funciones de transferencia.  4. Se discretizaron sistemas dinámicos en tiempo continuo, principalmente mediante el método Tustin, con el propósito de implementar estos sistemas discretos en Arduino. Trabajamos con una gran variedad de sistemas, de primer orden y segundo orden como los subamortiguados, críticamente amortiguados, sobreamortiguados e incluso oscilador. Esto para posteriormente poder implementar con mas facilidad el compensador y función de transferencia de nuestra planta dentro del arduino para que funcionara como un simulador. 5. Se estudio el diseño de controladores en el dominio de la frecuencia, primeramente, abarcando los diagramas de bode y su estabilidad, para después pasar al estudio de los compensadores de atraso y adelanto. También se estudió la forma de obtención de la función de transferencia de un convertidor Buck para después implementar está en arduino simulando la planta de nuestro sistema.  6. Se simularon varios códigos en Matlab donde desarrollábamos el proceso para el diseño de sistemas de control digitales, donde conocimos el comportamiento y la implementación que tienen los compensadores de adelanto y atraso de fase para el diseño de sistemas de control digitales. 7. Obtuvimos la función de transferencia del sistema a controlar, en este caso el convertidor buck y se implemento en arduino en lazo abierto. 8. Mediante simulación diseñamos un controlador digital.


CONCLUSIONES

Durante nuestra estancia de verano los temas abordados nos brindaron una comprensión profunda acerca de los sistemas de control digitales y su implementación práctica en Arduino, donde para abordar estos desafíos, fue necesaria una adecuada integración de tecnologías y aplicaciones, donde la sinergia entre los controladores, convertidores y sistemas en los que se implementan, es fundamental para lograr un funcionamiento armonioso y eficiente en el manejo de la energía eléctrica. Fue impresionante conocer todo lo que desarrollamos, aunque, al ser un proyecto de una gran extensión, no logramos realizar una física de todo lo que desarrollamos, pero es agradable saber que dejamos este camino preparado para próximos estudiantes y que en próximo futuro podrá ser implementado y complementado con nuestra investigación desarrollada.
Rivera Basulto Alberto Dair, Universidad de Guadalajara
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

DESARROLLO DE UN MODELO DE PREDICCIóN PARA ENFERMEDADES CARDIOVASCULARES UTILIZANDO TéCNICAS DE MACHINE LEARNING


DESARROLLO DE UN MODELO DE PREDICCIóN PARA ENFERMEDADES CARDIOVASCULARES UTILIZANDO TéCNICAS DE MACHINE LEARNING

Estrada Garcia Christopher Jair, Instituto Tecnológico de Tepic. Lupian Ibarra Aldo, Universidad de Guadalajara. Ramos Rivera Andres Sebastian, Instituto Tecnológico de Tepic. Rivera Basulto Alberto Dair, Universidad de Guadalajara. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El problema de las enfermedades cardiovasculares es una preocupación de salud pública a nivel mundial debido a su alta incidencia y consecuencias graves para la salud de las personas. Las enfermedades cardiovasculares, también conocidas como enfermedades del corazón, afectan a los vasos sanguíneos y al corazón, y pueden incluir condiciones como la enfermedad coronaria, el infarto de miocardio, la insuficiencia cardíaca, el accidente cerebrovascular y otras enfermedades relacionadas. La evidencia del problema de las enfermedades cardiovasculares está respaldada por numerosos estudios epidemiológicos y datos recopilados por organizaciones de salud a nivel mundial. Según la Organización Mundial de la Salud (OMS), las enfermedades cardiovasculares son la principal causa de muerte en todo el mundo. Se estima que cada año, alrededor de 17.9 millones de personas mueren debido a enfermedades cardiovasculares, lo que representa aproximadamente el 31% de todas las muertes a nivel global. Además, se estima que más del 80% de estas muertes ocurren en países de ingresos bajos y medianos, lo que indica una marcada desigualdad en el acceso a la atención y la prevención. Si el problema de las enfermedades cardiovasculares no es intervenido de manera efectiva, se espera que la carga de la enfermedad siga aumentando en las próximas décadas. Con el envejecimiento de la población y el aumento de factores de riesgo como la obesidad, el sedentarismo, el tabaquismo y la dieta poco saludable, se prevé que el número de casos y la mortalidad por enfermedades cardiovasculares continúen en aumento. Esto tendrá un impacto significativo en la calidad de vida de las personas y aumentará la presión sobre los sistemas de salud en todo el mundo. El proyecto de análisis de datos que se realizó, puede tener un papel importante en el control y mejora del pronóstico de las enfermedades cardiovasculares. Al aplicar técnicas de inteligencia artificial y aprendizaje automático en el conjunto de datos de las enfermedades cardiovasculares, se pueden identificar patrones y factores de riesgo asociados con mayor precisión y rapidez. Estos modelos predictivos pueden ayudar a predecir qué grupos de personas tienen mayor riesgo de desarrollar enfermedades cardiovasculares y permitir una intervención temprana y personalizada. Además, puede proporcionar información valiosa para diseñar estrategias de prevención y control más efectivas. Al comprender mejor los factores de riesgo y los determinantes de las enfermedades cardiovasculares, las autoridades de salud pueden implementar políticas y programas de prevención más específicos y dirigidos. Esto puede incluir campañas de concientización sobre la importancia de la actividad física, una dieta saludable y el control del tabaquismo, así como la mejora del acceso a la atención médica y la detección temprana de factores de riesgo.



METODOLOGÍA

Universo y Muestra: La investigación incluyó personas de Suiza, Hungría y Estados Unidos (Cleveland) sometidas a evaluaciones médicas sobre enfermedades cardiovasculares. Se utilizó una muestra representativa de Suiza, Hungría y Estados Unidos debido a restricciones de recursos y tiempo, generalizando los resultados al universo de estas poblaciones con precauciones. Tipo de Investigación: El enfoque de la investigación es de tipo mixto, con un alcance exploratorio y descriptivo. Fuentes primarias y secundarias: La fuente primaria es el conjunto de datos de Kaggle, como fuente secundaria se tienen los diferentes documentos consultados relacionadas con las diferentes fases de la metodología CRISP-DM. Metodología de desarrollo:  Se emplearon las siguientes metodologías y algoritmos para la investigación y análisis de datos: CRISP-DM (Cross Industry Process Model for Data Mining), MLP, DTC con Log Loss, Regresión logística, DTC con entropía.


CONCLUSIONES

La investigación de análisis de datos aplicada a las enfermedades cardiovasculares muestra el impacto que el análisis de datos puede tener en la comprensión de fenómenos complejos y la mejora de procesos. Esta disciplina puede ayudar a los profesionales de la salud a identificar factores de riesgo, analizar tendencias epidemiológicas y desarrollar modelos predictivos para la prevención temprana y la atención personalizada del paciente. En resumen, el análisis de datos es una herramienta poderosa que promueve la detección temprana e implementación de estrategias de prevención y tratamiento más efectivas, lo que ayudará a mejorar la calidad de vida de las personas y reducir la carga de estas enfermedades en la sociedad. RESULTADOS Debido a que la muestra de nuestros resultados es más gráfica, el formato que nos brinda delfín para explicarlos no nos permite agregar las tablas y gráficas de los resultados, sin embargo, obtuvimos resultados satisfactorios en los cuales nuestros modelos de Machine Learning nos daban aproximaciones muy cercanas a 0.90 en nuestra escala normalizada (0.84 y en algunos casos 0.83) lo que son muy buenos datos, pero pueden mejorar ya que estamos hablando de un modelo de predicción de problemas cardiovasculares y necesitamos los rangos más altos que se puedan obtener dado que es un modelo de prevención y entre más acertado sea, más posibilidades de salvar una vida se pueden lograr. 
Rivera Carcaño Neri Yedali, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO PARA LA DEGRADACIóN DE TINTES DE LA INDUSTRIA TEXTIL.


SíNTESIS Y CARACTERIZACIóN DE TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO PARA LA DEGRADACIóN DE TINTES DE LA INDUSTRIA TEXTIL.

Alcántara Sánchez Jonathan Emmanuel, Universidad de Guadalajara. Rivera Carcaño Neri Yedali, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua tiene un severo impacto no solo en los ecosistemas sino también en la salud. En las últimas décadas, se ha observado un incremento en la contaminación de ríos, mares, lagos y otros cuerpos de agua dulce; esto ocasionado por la descarga de aguas residuales sin tratar, al vertimiento y a la máxima emisión de productos químicos y materiales peligrosos. La industria textil es, después de la industria del petróleo, la segunda industria más contaminante del medio ambiente. En la etapa del proceso conocida como de tintorería y acabados se generan efluentes líquidos que contienen contaminantes de muy diversa naturaleza. Una fracción importante de los residuos, son los colorantes textiles. Estos compuestos químicos son poco biodegradables, por lo que presentan gran persistencia en el medio ambiente y los métodos de tratamiento biológicos tradicionales no son eficientes en su remoción, razón por la cual se ha visto un gran avance en el desarrollo de métodos de remoción, adsorción y/o degradación de colorantes.



METODOLOGÍA

El proceso experimental comenzó con la preparación del material fotocatalizador: TiO2-Au y TiO2-Ag. TiO2-Au / TiO2-Ag El fotocatalizador se preparó utilizando dióxido de titanio (TiO2), trihidróxido de oro [Au(OH)3], urea (CH4N2O) y agua destilada y en el caso del material fotocatalizador dopado con plata, se utilizó nitrato de plata (AgNO3). Se pesó el material necesario para preparar 8 muestras, se colocaron junto a vasos de precipitado a los que previamente se les vertió 5 ml de agua destilada. A continuación, el contenido de cada charola con reactivo fue depositado en un vaso de precipitado con agua destilada, inicialmente se agregó la urea (CH4N2O) hasta que ésta se disolviera, después se añadió el TiO2, agitando suavemente hasta homogeneizar la solución y finalmente se agregó el Au(OH)3, en el caso de la plata al final se agregó el AgNO3. Después de agregar y mezclar los reactivos uniformemente se calentaron las muestras empleando parrillas de calentamiento a una temperatura aproximada de 70 ºC, en un arreglo de 4 muestras por parrilla, se dejaron por un período de tiempo hasta que la mayor parte del agua en la solución se evaporó y dio como resultado un sólido arcilloso con apariencia semihúmeda; en el caso de la plata un factor determinante para finalizar la síntesis fue la coloración rosácea de la solución, generada por la oxidación de la plata, este proceso de evaporación duró un tiempo aproximado de 40-50 min, después de evaluar la consistencia del sólido, se retiraron los vasos del calentamiento y se esperó a que alcanzara el equilibrio térmico para poderlos manipular, se prosiguió a retirar el sólido del vaso y se vertió sobre crisoles de porcelana de 30 ml. Después de obtener los productos de la síntesis se llevaron a calcinar las muestras, en una mufla (FELISA modelo FE361) que se precalentó hasta alcanzar los 800 °C, al alcanzar la temperatura requerida, se introdujo cada crisol durante 5 min y posteriormente fueron retirados y expuestos a temperatura ambiente. Se extrajo el contenido de cada crisol y se vertió en un mortero para generar un polvo más fino el cual se transfirió a un vial. Se repitió este procedimiento hasta obtener un total de 5.5269 g de TiO2-Au y 4.8645 g de TiO2-Ag. Pruebas de degradación  Para llevar a cabo la degradación se construyó un fotoreactor que emitiera luz UV. Se trabajó con azul de metileno (AM) a 3 concentraciones distintas (10, 20 y 30 ppm). El experimento se realizó a 3 diferentes temperaturas (25, 30 y 35 ºC). Se tomaron 20 ml de disolución (H2O y AM) a 10, 20 y 30 ppm en vasos de precipitado y se agregó 0.1 g de TiO2-Au a cada muestra, lo mismo se realizó para el TiO2-Ag. Para favorecer la homogeneidad durante la degradación, se suministró aire al sistema para evitar la sedimentación del material. Se realizaron 5 experimentos, el primero sin radiación UV durante 30 min, del segundo al quinto, durante 1 hora con radiación UV, teniendo un tiempo total de 4 horas de fotocatálisis. Al término de cada experimento, se tomaron alícuotas de 2ml de cada muestra y se recolectaron en viales plásticos. Las muestras se introdujeron en una centrífuga (Hermle Z 216M) a 7200 rpm durante 1.5 min. Una vez separadas las 2 fases, se recolectaron  aproximadamente 2 ml de líquido en una celda para medir su absorbancia en un espectrofotómetro UV-Vis (Thermo Scientific GENESYS 10S). Finalmente, los datos obtenidos fueron graficados para su posterior análisis y/o discusión.


CONCLUSIONES

Durante la estancia se adquirieron nuevos conocimientos sobre materiales semiconductores, los efectos de la temperatura y la actividad fotocatalítica del TiO2, se logró aprender nuevas técnicas y rutas de síntesis de nanomateriales. De acuerdo a los resultados obtenidos por la espectroscopía UV-Vis se observó un aumento en la actividad fotocatalítica en función de la temperatura, sobre todo en las muestras de TiO2-Ag, donde existió una disminución de la absorbancia a mayor concentración del colorante hasta que convergió en una longitud de onda con respecto al otro material sintetizado.
Rivera Hernández Ana Elizabeth, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Dr. Jorge Andrés García Barbosa, Universidad Santo Tomás

MODELO CAD DE UNA BARRA SOPORTE PARA PROTESIS HIBRIDAS IMPLANTOSOPORTADAS.


MODELO CAD DE UNA BARRA SOPORTE PARA PROTESIS HIBRIDAS IMPLANTOSOPORTADAS.

Rivera Hernández Ana Elizabeth, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Dr. Jorge Andrés García Barbosa, Universidad Santo Tomás



PLANTEAMIENTO DEL PROBLEMA

La fundición a la cera perdida es un proceso para crear objetos, simples o complejos, usando diversos metales (oro, plata, latón, bronce), mediante la fundición de un modelo o patrón original. Es una de las técnicas más antiguas con las que se le da forma al metal, pues existe desde hace 6000 años, pero sigue estando muy extendida como método para producir joyas, productos odontológicos y arte. La evolución de la fundición a la cera perdida con herramientas digitales demuestra que la tecnología no nos tiene que separar del pasado. Si se usan correctamente, estas técnicas pueden producir piezas de alta calidad a escala, desde joyería personalizada a piezas automovilísticas producidas en serie. El resultado es un nuevo grado de eficiencia en la producción y de libertad de diseño impresionante.



METODOLOGÍA

En primer lugar, se definio en investigaciones pasadas la cantidad de implantes que se colocarán ya que influirá en el diseño de la prótesis. El número de implantes vendrá determinado tanto por la biomecánica de la prótesis como por la ubicación de la misma, en la mandíbula o en el maxilar superior El número y la localización de los implantes, así como la conformación del cuerpo de la prótesis y la oclusión deben realizarse teniendo en cuenta los factores anatómicos, funcionales e higiénicos. Para esto nosotros llevamos a cabo este proceso en prótesis hibridas implante soportadas, en modelos en CAD y posteriormente estas fueron impresas en 3D para que este proceso se lleve a cabo de una manera más eficiente y rápida. Esto es para que se puedan implementar nuevas tecnologías en odontología en la ciudad de Bucaramanga. Anteriormente se estudió y analizo toda la simetría y diseño de la barra, la parte de los tornillos y dientes en lo que estos están sujetados Se hicieron pruebas y errores en las investigaciones pasadas para que se realizara la siguiente fase del proceso de manufactura en las dentaduras. En este verano de investigación se diseñó el árbol de fundición a la cera perdida, en el cual ya se tenía e diseño de la barra soportada, lo que se tuvo que diseñar en CAD fue los Canals de inyección El proceso que se llevó acabo para realizar el modelo CAD: -Se inició dibujando a mano alzada el boceto de los canales de inyecciones que llevaría la barra proporcionada por el investigador. -Se realizaron diversos bocetos de diseños en spaceclaim para llegar con el boceto final a diseñar y estos sean colocados en la barra soporte. -Realizamos el diseño en boceto 3D, dibujando el inicio del proceso de fundición a la cera perdida. Comenzando por la introducción del cilindro es el paso final para inyectar el metal, pero en este caso sería impresos como hemos mencionado posteriormente. -Se dibujan los serie y runners que es por donde tendría que ir cayendo la cera, que en este caso no sería así. Estos van alineados a la barra que ya se tiene diseñada. -Antes de finalizar verificamos que las dimensiones y ejes vayan de acuerdo al tamaño de la barra soporte, para que esta no tenga que ser modificada. -Finalizamos haciendo correcciones de molduras de los canales de inyecciones y que este quede estético para que al momento de ser impreso en 3D en el futuro no sufra modificaciones o que presente errores al momento de su fabricación, y sea enviada a la sede de odontología.


CONCLUSIONES

En conclusión, haber participado en esta pasantía de verano en la universidad santo tomas ha sido enriquecedor en cuanto a mis conocimientos en el área de manufactura. Hemos demostrado como la tecnología va avanzado y va mejorando todo el aspecto de la odontología.
Rivera Lomelí Esteban, Universidad de Guadalajara
Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara

OPTIMIZACIóN DE PARáMETROS DE UNA ESTUFA DE HIDRóGENO


OPTIMIZACIóN DE PARáMETROS DE UNA ESTUFA DE HIDRóGENO

Rivera Lomelí Esteban, Universidad de Guadalajara. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proyecto surgió a partir de un viaje a través de Latinoamérica realizado por el estudiante de ingeniería Manuel Alejandro Montoya Haro en el cual él pudo detectar la situación y dificultades que las personas atravesaban por el uso de las estufas tradicionales de leña, a partir de esta idea nació la idea Hidrocook, estufas que generan hidrógeno verde con pocos recursos, la cual ha presentado bastantes problemas para poder despegar al mercado, y aunque la idea se ha apoyado por instituciones internacionales, los requerimientos necesarios para cubrir las necesidades de estos grupos vulnerables no han sido solventadas, sin embargo, con la ayuda de los algoritmos metaheurísticos se ha podido encontrar la solución a uno de los problemas que presentaba el proyecto, la cual eran sus dimensiones ideales para solventar las necesidades.



METODOLOGÍA

Para la implementación de este proyecto se utilizaron técnicas metaheurísticas basados en la resolución de problemas computacionales, utilizando individuos cuya representación son soluciones numéricas y la optimización de funciones multivariables, aplicando conceptos y definiciones del cálculo diferencial. Para modelar el problema analíticamente se consideró una estufa de hidrógeno como un prisma rectangular que debe de tener un volumen máximo (Vmax) de 250,000 cm3,  por lo que se dio un enfoque  basado en un problema de optimización, en el cual queremos conocer cuáles deben de ser las dimensiones mínimas del prisma rectangular. En otras palabras, cuáles tienen que ser las dimensiones del largo, ancho y la altura (x,y,z) de tal manera que una estufa de hidrógeno (prisma rectangular) cumpla con el requisito de tener un volumen de 2.5x105cm3. Basándose en el cálculo diferencial, específicamente hablando en las definiciones y criterios de la primera y segunda derivada, para encontrar puntos críticos, máximos y mínimos. Con este enfoque analítico de optimización propuesto se encontraron las dimensiones mínimas teóricas para el volumen de una estufa modelado como un prisma. No obstante, se propuso otras técnicas de optimización utilizando algoritmos metaheurísticos para corroborar que las dimensiones teóricas obtenidas eran las más óptimas para la construcción de la estufa de hidrógeno propuesta, en el cual se basa este proyecto. Dos de los tres algoritmos metaheurísticos implementados en este proyecto se basan en la naturaleza, es decir, se basan en el comportamiento de determinadas especies, por ejemplo el algoritmo Artificial bee colony (ABC) basado en el comportamiento inteligente de los enjambres de abejas en la búsqueda de miel, donde las abejas se comportan como partículas las cuales tienen como función encontrar las mejores condiciones o soluciones a un cierto problema. Debido al teorema No free lunch, el cual menciona que no existe un algoritmo aprendizaje universal que se desempeñe de mejor manera en comparación con otros algoritmos, en otras palabras el desempeño o el performance de varios algoritmos dependerá del problema a desarrollar. Con este en mente, se usaron los algoritmos Artificial Bee Colony (ABC), Sine Cosine Algorithm (SCA), Dung Beetle Optimizer (DBO), los cuales se compararon para ver cuál de ellos tiene un mejor desempeño para encontrar las soluciones al problema.


CONCLUSIONES

El principal objetivo durante el desarrollo del proyecto era buscar las dimensiones más óptimas para la construcción de una estufa de hidrógeno, por lo que al usar diferentes métodos tales como técnicas analíticas y metaheurísticas nos proporcionó una idea y mayor información del problema inicial. Con respecto al desempeño de los tres algoritmos utilizados en este proyecto, se encontró que los tres tuvieron un desempeño similar, es decir, no se encontraron diferencias significativas que nos dieran a indicar cuál de los algoritmos propuestos fue el mejor. Basándose en las soluciones obtenidas numéricamente por los  algoritmos SCA, ABC, DBO y comparando estos resultados con los obtenidos teóricamente, podemos señalar que las dimensiones no difieren significativamente y eso nos dice que el planteamiento inicial que fue modelar una estufa como un prisma rectangular fue un método acertado. Al profundizar más sobre los algoritmos y técnicas metaheurísticas encontré que existen varios algoritmos que están basados en principios y leyes de la física y en lo personal es una área que yo desconocía totalmente y al ser físico en formación el hecho de poder aprender más a fondo sobre estos nuevos algoritmos es todo un nuevo desafío que estoy seguro me ayudarán como futuro investigador desarrollando nuevos algoritmos y técnicas de optimización.
Rivera López Emely Guadalupe, Universidad de Sonora
Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara

AISLAMIENTO, CARACTERIZACIÓN Y MODIFICACIÓN DE XILANAS EXTRAÍDAS DE LA FIBRA DE AGAVE (AGAVOIDEAE)


AISLAMIENTO, CARACTERIZACIÓN Y MODIFICACIÓN DE XILANAS EXTRAÍDAS DE LA FIBRA DE AGAVE (AGAVOIDEAE)

Rivera López Emely Guadalupe, Universidad de Sonora. Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los desarrollos de las nuevas tecnologías han traído un nuevo mercado más compatible con la reproducibilidad y sustentabilidad ecológica colocando en primera instancia el aprovechamiento de biomateriales lignocelulósicos extraídos de plantas y árboles. El agave azul (A. Tequilana Weber var Azul) de la familia Asparagaceae es una de las plantas más abundantes en la región occidental de México. El uso de plantas del género agave se basa en el desarrollo de bebidas originalmente el tequila y otras como el mezcal, agua ardiente, bacanora y algunas melazas. Sin embargo, el manejo de esta planta crea una gran cantidad de fibra, subproducto con el que se realizan algunos materiales como; plantillas de agave para zapatos, canastas entre otros productos artesanales. Esta fibra tiene una gran cantidad de materia lignocelulósica de la que se han elaborado varios biopolímeros, siendo bajo estas circunstancias nuestro motivo de selección como materia prima para la elaboración de materiales de origen lignocelulósicos ya que son biomateriales con mayor biodisponibilidad haciendo hincapié en las hemicelulosas, entre las cuales se encuentran las xilanas de agave valor que se aproxima al 20% de la fibra, este material se utilizara para la elaboración de hidrogeles dado a que estas son sustancias, que permiten ser un vehículo para él envió o extracción de compuestos de interés por su capacidad para retener agua. Nuestro objetivo es utilizar la fibra de agave para extraer las hemicelulosas y obtener las xilanas, modificarlas con reacciones de succinilacion (SX) y tiramidización (TA) para la formación de hidrogeles, de la misma forma caracterizar estos geles a través del FT-IR y reometría.



METODOLOGÍA

Etapa 1: deslignificación o blanqueo del bagazo de agave obtención de xilanas nos enfocamos en dos metodologías, la primera por método Wise con algunas modificaciones, esta se basa en extracción con clorito NaClO2, a la cual esta se le agregaba NaOH a 24 % a  baño maría en 75°C, más 10 ml de CH3COOH glacial, hasta cumplir las 6 horas La segunda metodología es por organosol, 100 gr de fibra base seca en el digestor tipo Jayme con un hidromódulo 1:1 v/v 50 % etanol 50% agua y el 0.3 % de CH3COOH respecto a la base seca. Etapa 2: aislamiento de α-celulosas y hemicelulosas Precipitación de las holocelulosas mediante el protocolo Timell con KOH al 24%, donde en un matraz Erlenmeyer se coloca la holocelulosa obtenida, se le añade KOH al 24 % con agitación manual ocasional, se rotavapora hasta obtener 100 ml, se coloca en el horno al vacío sobre 60°C, de esta fracción se obtienen aproximadamente 20 gr de hemicelulosas. Una vez precipitada la reacción se centrifuga a 4000 RPM a 30°C durante 30 min y se recuperan las xilanas de agave.  Etapa 3: reacciones de modificación (SX), conjugación (TA) y formación de hidrogeles Modificación con anhidrido succínico (SX) se les agredo a las xilanas 10 mL de DFM, 2.5 gr de anhídrido succínico (S) y 5 mg de acetato de sodio. Se tapó el matraz y se colocó nitrógeno se dejó reaccionar 24 horas. Se obtuvo 0.800 gr de xilanas de agave succiniladas, la muestra se etiqueto como AX-S.  En la conjugación con Tiramina (TA) se sigue un protocolo de acuerdo con Kuzmenko y colaboradores (2014), donde a 500 mg de xilanas succiniladas AX-S se colocan en un matraz se añade 87 mg de EDAC y 63 mg de NHS, el sistema se vuelve acondicionar con una atmosfera de nitrógeno. Se preparan 63 mg de tiramina en 6 ml de solución de DMF y se le añaden gota por gota por 3 días, después se va a la estufa de vacío, se obtienen 310 mg de xilanas succiniladas y conjugadas con tiramina, se les etiqueto como AX-TA. Formación de hidrogel  Se colocan 25 mg de xilanas AX-SX-TA en un tubo de eppendorf donde se agrega 350 uL de agua HPLC y pasa al vortex hasta su disolución completa, después se le añaden 48 uL de HRP, vuelve al vortex por 30 segundos en 2500 rpm, finalmente se añade el H2O2, después de añadir el peróxido el gel se forma inmediatamente.


CONCLUSIONES

Después de la deslignificación y las siguientes metodologías aplicadas a la formación de hidrogel sobre el procesamiento de fibra se obtuvo un rendimiento de lignina equivalente al 30.64 %, al igual que un 41.30 % de celulosa y un 28.06 % de hemicelulosa. En cuanto a la evaluación de FT-IR, los resultados de la fibra y xilanas obtenidas se analizaron en el infrarrojo, los espectros fueron obtenidos mediante la espectroscopia de FT-IR con cristal de diamante en un rango de 1800-2300 cm-1. En los espectros se visualizó la respectiva banda correspondiente en 895 cm-1 correspondiente al enlace β-(1-4) y la banda en los 1735 cm-1 de los grupos carboxilos de xilanas de agave, luego del proceso de succinilación. Finalmente, en el espectro 1518 cm-1 se apreció la conjugación de la tiramina. Una vez evaluada en el infrarrojo, se evaluó el comportamiento de viscoelasticidad del gel por medio de un equipo de reometria, donde el comportamiento reológico mostro sobre un módulo elástico un orden de magnitud mayor en los primeros 10 minutos, lo que indico que el material gelaba rápidamente, después de 20 min mostro de nuevo un incremento de tres ordenes de magnitud, demostrando que se consolido el gel.
Rivera Rojas Karen Arlet, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA


DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA

Rivera Rojas Karen Arlet, Benemérita Universidad Autónoma de Puebla. Vázquez Mora Jimena, Instituto Tecnológico de Tepic. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La fabricación digital y la IA no son tema nuevo, sin embargo, hay pocas personas que consideran obtener esas habilidades para su desarrollo profesional, la existencia de herramientas como la fotogrametría, la realidad virtual, el corte laser y la impresión 3D es desaprovechada si no se tiene a alguien con el conocimiento para manipularlas hacia el enfoque que requiera cada área. El objetivo dentro del programa delfín fue realizar practicas para el dominio total o parcial de estas herramientas de software y hardware que rigen las tecnologías de la fabricación digital y sobre todo encontrar sus aplicaciones en el área de la arquitectura desarrollando pequeños proyectos con este enfoque, ya fuese recreativo o funcional.



METODOLOGÍA

La primera actividad trabajada fue la fotogrametría en el software 3DF Zephyr. Esta aplicación permitió obtener un modelo 3D de un objeto real a partir de fotografías tomadas de distintos puntos al objeto. Finalmente, el modelo se puede exportar en distintos formatos para trabajarlo según se necesite. Se aprendió que para obtener el modelo se necesitan mínimo alrededor de 40 fotografías y preferentemente estas se deben de tomar de forma paralela axial al objeto, en un lugar que no proyecte sombras, para este caso fue útil que estuviese nublado en la ciudad. En el segundo ejercicio se practicó tomando fotos de objetos pequeños y fue aquí donde se conocieron los parámetros necesarios gracias a la prueba y error, y con esta experiencia para el último ejercicio se trató de captar una fachada colonial del centro histórico y pasarlo a modelo 3D. Se optó por la del palacio municipal ya que se ubica en esquina y tiene molduras interesantes. Para capturar se tuvo la idea de programar una ráfaga de 100 fotografías y dar un paso alrededor cada segundo para conseguir los ángulos suficientes, fue una opción muy eficiente pero se concluyó que las herramientas que más pudieron ayudar era un estabilizador o incluso un dron. Aun con este simple método se consiguió un modelo 3D.  Los detalles no son perfectos, esto por el desbalance en las fotografías y el desenfoque de varias de estas, pero este error se puede corregir utilizando mejor tecnología de captura. De igual forma como solo se contaba con fotografías frontales la cúpula no se alcanzó a modelar bien, para esto harían falta fotografías aéreas, aunque otra forma de resolverlo es pasando el modelo a un programa de modelado y completar la estructura. Después pasamos a la realidad virtual y el primer paso fue conocer el software con el que se trabajaría para usar las gafas RV Oculus. Se aprendió a hacer la calibración desde cero de las gafas y los controles para posteriormente controlar el manejo de estas en un recorrido ya existente y una aplicación para dibujo simple.  Posterior a la introducción se tomó un modelo 3D de un proyecto que previamente se había trabajado en el programa sketchup y texturizado en enscape este último brinda la oportunidad de ver el modelo en RV, así cada integrante pudo hacer un recorrido en las instalaciones del proyecto de forma virtual,  aunque la interacción es un poco limitada se caminar por los espacios libremente. La tercera etapa consistió en el manejo del software Slicer en el cual se puede obtener el archivo de planos para el ensamblaje de un modelo 3D ya sea en corte láser u origami, para esa practica se tomó uno de los objetos que se habían modelado con fotogrametría, después se trabajo en la aplicación de la cortadora donde se ajusta la hoja con los planos, finalmente se obtuvieron los cortes en el MDF para su ensamblaje. Por último, se trabajó con la impresión 3D por resina con LycheeSlicer con un modelo en formato STL para la práctica. Se aprendió a preparar desde el software los parámetros para enviar una impresión, la configuración de los bastones y del objeto en si, así como un poco del funcionamiento de la impresora para comprender cual debería ser el mejor manejo que se le puede dar y en que ocasiones es más conveniente que una de filamento, también se practicó como preparar la impresora al inicio y final de cada proyecto. Paralelo a todas estas actividades se indagó sobre la inteligencia artifical y las diferentes plataformas que se ofrecen de forma gratuita para trabajar imagenes u otros elementos que puedan apoyar la labor arquitectonica.      


CONCLUSIONES

Con las actividades trabajadas concluimos algunas aplicaciones para el área de la arquitectura. Empezando por la fotogrametría que extiende las oportunidades del modelado 3D ya que nos permite colocar objetos ya existentes sin necesidad de modelar de cero lo que en muchas ocasiones es necesario porque hay elementos que no se encuentran en internet. La herramienta de la realidad virtual brinda la opción de ofrecerle un recorrido más real a un cliente y no solo se limita a eso ya que también sirve al arquitecto para conocer mejor su propio proyecto y revisar si es habitable o hay detalles que corregir analizándolo de forma más realista. Finalmente, el corte laser e impresión 3D tienen aplicación en la materialización del proyecto, no se debe quedar en solo maquetas, se puede aplicar a gran escala, imprimiendo elementos decorativos o moldes para elementos estructurales personalizados para cada proyecto. La IA forma parte de diferentes software utilizados en la arquitectura, aun así hay diversas plataformas que permiten generar imágenes, cálculos y distribuciones de manera rápida, esto puede agilizar el trabajo del arquitecto en algunas de sus tareas que realiza.
Rivera Sanchez Marian Lizeth, Instituto Tecnológico de Querétaro
Asesor: Mtra. Edith Adriana Méndez Saucedo, Instituto Tecnológico Superior de Guanajuato

DISEñO DE HORNO DE FUNDICIóN.


DISEñO DE HORNO DE FUNDICIóN.

Diaz Barrera Juan José, Instituto Tecnológico Superior de Guanajuato. Rivera Sanchez Marian Lizeth, Instituto Tecnológico de Querétaro. Asesor: Mtra. Edith Adriana Méndez Saucedo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las prácticas en la educación son muy importantes ya que permiten a los estudiantes el conocer cómo sería el ambiente de trabajo o de manera más cercana cual es el proceso industrial de algún producto. Uno de los procesos de manufactura más empleados en la industria es la fundición. Esta se encarga de llevar los metales hasta el punto de fusión, para que el metal adopte la forma deseada a través de un molde. De acuerdo con las necesidades de la institución se planea llevar a cabo la investigación y elaboración del diseño de un horno de fundición con fines educativos, para la materia de procesos de fabricación en la carrera de ingeniería industrial en el Instituto Tecnológico Superior de Guanajuato. El objetivo principal de esta investigación es diseñar un horno de fundición de acero de bajo costo, accesible y seguro para su uso en entornos educativos y de aprendizaje. Este proyecto permitirá a los estudiantes y a aquellos interesados en los procesos de fabricación involucrados en la producción de acero, adquirir una experiencia práctica y una comprensión más profunda de los principios fundamentales detrás de este proceso. Además, se pretende fomentar la creatividad y la experimentación en el ámbito de la metalurgia, abriendo las puertas a nuevas posibilidades en la formación y el desarrollo de futuros profesionales en el campo de la fabricación de acero. La investigación se centrará en el desarrollo de un horno de fundición de acero que cumpla con criterios específicos, como la capacidad de alcanzar temperaturas de fusión adecuadas y mantenerlas durante períodos prolongados, la seguridad del operador, la eficiencia energética y la facilidad de uso y mantenimiento.



METODOLOGÍA

Principalmente se realizó la definición del problema que se basa en el diseño de horno de fundición que ayudará en las prácticas de la materia de procesos de fabricación, ya que la institución busca mejorar las formas de enseñanzas en sus alumnos. Posterior a ello se llevó a cabo la revisión bibliográfica en revistas científicas, documentales, bibliotecas instituciones, páginas web y obtención de información con ayuda de profesionales en el tema de la fundición. El diseño experimental se llevó a cabo mediante la investigación de los antecedentes de diseño, como la temperatura y las variables relacionadas, así como la composición del acero, el tipo de combustible utilizado, el tiempo de fundición, materiales refractarios y el crisol. Después de esta investigación se llevó a cabo en el software de diseño Solid Works el diseño del horno de fundición con los parámetros necesarios. Una vez que se tiene el diseño del horno de fundición se procedió a realizar la simulación para entender el comportamiento de la temperatura dentro de este.


CONCLUSIONES

Durante la estancia en el verano de investigación Delfín 2023 se han logrado adquirir conocimientos teóricos sobre el tema de fundición y sobre la propiedad de los materiales, esto se ha puesto en práctica con el diseño de un horno de fundición en el software Solid Woks y la simulación de temperaturas. Se espera que este diseño sirva de práctica para los alumnos en la materia de Procesos de Fabricación.
Rivera Serrano Gil Alberto, Universidad Autónoma de Sinaloa
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA


DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA

Luna Robles Yara Karen, Instituto Tecnológico de Tepic. Rivera Serrano Gil Alberto, Universidad Autónoma de Sinaloa. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La Digitalización de la Fotogrametría e implementación de inteligencia artificial (IA), es una técnica que se utiliza para obtener información precisa sobre la forma, tamaño, posición y dimensiones de objetos o espacios a través de la realización de fotografías. La fotogrametría se utiliza en diversas disciplinas, especialmente en la topografía, la agricultura, la arquitectura, el ordenamiento del territorio y la ocupación del suelo.   Aunque la fotogrametría es una técnica muy eficiente en México, según un artículo publicado en la revista Scielo, llamado fotografía aérea para el estudio de la ciudad: el crucero de El Caballito; explica que en México al igual que en otros lugares, puede enfrentar diversas problemáticas. Uno de ellos es el acceso a tecnología y equipos; La adquisición de equipos y tecnología especializada en fotogrametría puede ser costosa, lo que puede limitar el acceso a esta técnica para algunas instituciones o profesionales en México.   La mayor problemática que se presenta en este tipo de implementación de IAS es la poca rentabilidad en el uso de equipos como la impresora en corte laser o las gafas VR, debido al precio de cada uno de ellos; ya que a que es muy cómodo tenerlos, pero poco accesible adquirirlos de forma individual.



METODOLOGÍA

Primero, llevé a cabo la fotogrametría de un objeto pináculo utilizando la aplicación 3DF Zhephyr. Me proporcionaron 50 fotos del objeto, y las importé al programa para comenzar el proceso. En la segunda actividad, la tarea era tomar fotografías de un juguete u objeto irregular y realizar la fotogrametría. Escogí una figura de garza de cerámica y utilicé 3DF Zhephyr para realizar el proceso. Exporté los objetos en formatos PDF y Obj para trabajar con ellos en otros programas.   En la tercera actividad, me enfoqué en fotogrametrizar la fachada de un edificio histórico del centro. Esto me ayudó a familiarizarme más con 3DF Zhephyr. Para la cuarta actividad, elegimos un proyecto y lo renderizamos en Enscape para poder utilizar gafas de realidad virtual y hacer recorridos virtuales. Aunque la experiencia fue interesante, me sentí un poco incómodo debido al espacio limitado de movimiento con las gafas.   Para la quinta actividad, retomamos el juguete que habíamos fotogrametrizado previamente, en mi caso, el muñeco de Black Adam. Utilicé Rhino 7 para corregir los desperfectos y agujeros en la malla del objeto, y luego lo exporté nuevamente en formato Obj. Con el programa Slicer for Fusion, modifiqué el objeto para adaptarlo a una cortadora láser, ya sea en paneles o como un ensamblaje. También aprendí sobre impresión 3D con resina, instalando y desinstalando una impresora de resina con cuidado.   En la última actividad, instalé el programa Lychee Slicer para preparar mi objeto para la impresión 3D con resina. Además, seleccioné un objeto arquitectónico y lo modifiqué siguiendo las instrucciones proporcionadas. Esta experiencia en fotogrametría y modelado 3D ha sido enriquecedora y me ha permitido explorar diversas herramientas y aplicaciones para trabajar con objetos digitales y en impresión 3D.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y sobre todo prácticos acerca de la inteligencia artificial enfocada en la arquitectura, en el uso de softwares como Lychee Slicer, Rhino 7, 3DF Zhephyr y Oculus; para posteriormente ponerlos en práctica en la impresión de objetos a escala, cortes de piezas en laser y visualización de modelos arquitectónicos con ayuda de gafas VR. A pesar de que usar este tipo de equipos resulta muy optimizable, también es poco común adquirir uno de forma individual, debido a su alto costo en el mercado en la actualidad, y al poco conocimiento que aun se tiene de las aplicaciones que son necesarias para usar dichos equipos.
Rivera Valencia Ramon Angel, Instituto Tecnológico de Sonora
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

ÓXIDOS SEMICONDUCTORES PARA FOTOCATáLISIS


ÓXIDOS SEMICONDUCTORES PARA FOTOCATáLISIS

Rivera Valencia Ramon Angel, Instituto Tecnológico de Sonora. Valenzuela Barreras Maria Jose, Universidad de Sonora. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los óxidos semiconductores con estructura tipo Delafosita (ABO2, donde A y B representan a cationes de la tabla periódica, y O al elemento químico oxígeno) son materiales que han sido muy poco estudiados debido a sus complicados métodos de síntesis que se han utilizado. Sin embargo, debido a que presentan una energía de banda prohibida ‹ 2 eV, pueden tener múltiples aplicaciones en muchas áreas de la ciencia y la tecnología, por ejemplo: diseño de sensores químicos para detección de gases operados a temperaturas bajas (‹ 200 °C), bio sensores, catalizadores, foto catalizadores, entre otras. En el presente trabajo fueron sintetizadas las delafositas AgMnO2, CuMnO2 y CrMnO2 para investigar su aplicación como fotocatalizadores utilizando dos diferentes métodos de síntesis química.  



METODOLOGÍA

Las síntesis se llevaron a cabo utilizando dos diferentes métodos: precipitación y polimerización. En ambas síntesis se utilizaron nitratos como fuentes de cationes, particularmente: Ag(NO3) (Sigma Aldrich, 99% de pureza), Mn(NO3)2 · 4H2O (Sigma Aldrich, 99.9% de pureza), Cu(NO3)2 · 3H2O (Sigma Aldrich, 99.9% de pureza), Cr(NO3)3 · 9H2O (Sigma Aldrich, 99.9% de pureza). Como agente precipitante se utilizó ácido fórmico (Sigma Aldrich, 98% de pureza) y como agente polimerizante alcohol polivinílico (PVA) (Mw 89,000-98,000, 99% Sigma Aldrich). Una vez mezclados y disueltos los nitratos se calcinaron a 500°C por 6 hrs. En todos los casos se obtuvieron polvos de color negro muy obscuro. Se escogió el colorante verde malaquita como un modelo de contaminante para ser degradado. De todos los materiales, se escogió CuMnO2 para ser utilizado como fotocatalizador. En particular, se degradó una solución de verde malaquita (a una concentración de 5X10-5 M) utilizando 20 mg del polvo en 40 ml del colorante. Las muestras fueron analizadas utilizando un espectrofotómetro  NanoDrop 2000. Se estimó una fotodegradación de más del 90% en 30 min de exposición al sol. También se utilizó un microscopio electrónico de transmisión (JEOL) para el análisis de la morfología de los polvos obtenidos en cada síntesis.  


CONCLUSIONES

Estos óxidos fueron sintetizados por dos diferentes métodos de síntesis. Por el método de polimerización se obtuvieron nanoestructuras porosas, mientras que utilizando el método de precipitación se obtuvieron micro estructuras con morfologías muy diferentes (micro cubos, micro cilindros, entre otras). Se alcanzó a evaluar la actividad fotocatalítica de uno de ellos (CuMnO2) en luz visible. Mostrando resultados muy favorables   
Robles Andrade Jorge, Instituto Tecnológico Superior de Huauchinango
Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.


GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO.

Robles Andrade Jorge, Instituto Tecnológico Superior de Huauchinango. Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

La degeneración de los motores eléctricos  generada por la falta de la implementación de un buen  sistema de mantenimiento en la industrial es la principal causa de fallos  críticos, de acuerdo a un estudio realizado por el Consejo Nacional de Fabricantes de Maquinaria Agrícola, se estima que el costo promedio de un paro inesperado en la producción es de $20,000 dólares por hora, por lo cual nos podemos dar cuenta que incluso la más pequeña interrupción en la producción, genera grandes pérdidas económicas a los empresarios.   El tipo de mantenimiento de mayor aplicación actualmente para la temporada postcosecha  es el mantenimiento correctivo, el cual es ineficiente, caro e inseguro,  este tipo de mantenimientos solo repara la falla una vez que esta ya se presentó, provocando paros en la cadena de producción y generando pérdidas económicas bastante considerables.   Actualmente el alto costo de los instrumentos necesarios para realizar un buen sistema de mantenimiento predictivo no permite fácilmente a los empresarios instalar este tipo de sistemas, los cuales son considerablemente más eficientes, confiables y seguros, esto debido a su capacidad única de predecir con cierto tiempo de antelación las fallas que se presentaran en el sistema, dándole tiempo al empresario de programar sesiones de mantenimiento cuando el equipo no esté operando, evitando así paros repentinos.



METODOLOGÍA

El desarrollo de este proyecto se centró en la idea de diseñar un nuevo sistema de monitoreo mediante la integración de inteligencia artificial, que sea capaz de predecir posibles fallas de los motores eléctricos empleados en las industrias, de una manera mucho más efectiva y rápida al mismo tiempo que se mantiene  un costo de equipo mucho más bajo que los que se encuentran en el mercado.     Planificación mediante el Modelo CIM:   El modelo CIM involucra tres conceptos clave, manufactura, integración y automatización mediante la integración de los diversos departamentos y el uso de sistemas computarizados. Su principal objetivo es el de reducir costos y al mismo tiempo aumentar las ganancias.   Selección y configuración de sensores:   Los requerimientos del proyecto de investigación indican que se trabaje con dos tipos de sensores, uno encargado del monitoreo de la temperatura y el segundo se encargara de la medición de las vibraciones existentes.   Estas dos variables son de gran importancia para predecir fallos en los motores, un aumento en los niveles normales de vibración o temperatura es un alto indicativo de una falla mecánica o eléctrica.     Mediante una investigación bibliográfica, revisando los distintos tipos  de sensores de grado industrial existentes en el mercado se optó por seleccionar los siguientes sensores:   1.Para el sensor de vibración se optó por un acelerómetro triaxial, el cual  es un sensor que mide la aceleración en tres ejes: X, Y y Z.   2.Para el sensor de  temperatura se propone un sensor PT100 el cual  mide la temperatura utilizando un resistor de platino. Los sensores de temperatura PT100 se utilizan a menudo para medir la temperatura de los motores.   La calibración y la buena instalación de estos sensores son de vital importancia para obtener los mejores resultados posibles.     Recolección y procesamiento de datos   La tarjeta de adquisición de datos seleccionada será una Raspberry PI, encargada de la recolección y reprocesamiento de los datos de los sensores, dicha tarjeta contara con comunicación a internet ya sea mediante cable de red Ethernet o mediante WI-FI.   Los sensores serán los encargados de mandar las muestras recolectadas de los motores, posteriormente la Raspberry Pi se encargara de reprocesarlos sacando una media a los datos y transmitirlos a un servidor en línea, dicho servidor se encargara de procesar los datos  mediante el uso de una inteligencia artificial la cual tendrá la tarea de identificar patrones de  posibles fallos y mandar las correspondientes alertas de una forma mucho más precisa y rápida.   Estos datos ya procesados de dejaran disponibles para los distintos equipos que se conecten y requieran el uso de estos datos incluyendo la misma Raspberry Pi la cual genera la alarmas del sistema de acuerdo a los datos recibidos.     Los algoritmos de procesamiento de señales y aprendizaje automático se integrarán en el sistema de recopilación de datos y la base de datos del historial de errores, generando hojas de cálculo y graficas de comportamiento, facilitando la comprensión del usuario.       Implementación de alertas remotas y locales:   Una de las principales intenciones del sistema es que sea capaz de ofrecer alertas a nivel remoto desde el dispositivo móvil del operador, supervisor o incluso del empresario, esto mediante el uso de bases de datos conectadas a la nube. Dicho sistema será capaz de mostrar datos tales como temperatura, vibración en tiempo real  así como graficas de estado y alertas de incrementos en estos variables. De modo local el sistema contara con alarmas sonoras y visuales, dependiendo del grado riesgo detectado.     Planeación de las pruebas físicas   Con el fin de entrenar a la inteligencia artificial, y hacer que esta sea capaz de predecir con un mayor grado de rapidez y exactitud las futuras fallas en los equipos, se planeó realizar pruebas en equipos durante plazos de 8 horas en funcionamiento, repetibles dos veces al día, durante un lapso de un mes.   Con el fin de proporcionar la mayor información posible a la IA se planteó el monitoreo de motores en distintos estados de desgaste, yendo desde motores nuevos, hasta motores que ya presentan fallas o los cuales están propensos a presentarlas.   Concluida la etapa de pruebas se analizaran los datos recolectados y la capacidad de la inteligencia artificial de reconocer patrones de comportamiento y predicción de fallas.


CONCLUSIONES

Se realizaron investigaciones bibliográficas con la finalidad de encontrar el mejor modelo de los sensores (de temperatura y vibración) y del motor eléctrico que fuera el más indicado para este tipo de proyecto.   Se reforzó el conocimiento referente a la investigación bibliográfica, y al diseño de sistemas de monitoreo y procesamiento de datos.
Robles Lomeli Isaac de Jesus, Universidad de Guadalajara
Asesor: Dr. Francisco Ronay López Estrada, Instituto Tecnológico de Tuxtla Gutiérrez

DESARROLLO DE UN SISTEMA DE NAVEGACIóN AUTóNOMA PARA EL SEGUIMIENTO DE TRAYECTORIAS EN TIEMPO REAL UTILIZANDO ALGORITMOS DE CAMPOS POTENCIALES ARTIFICIALES EN LA PLATAFORMA TURTLEBOT3 CON ROS2 EN UN AMBIENTE TIPO ALMACéN


DESARROLLO DE UN SISTEMA DE NAVEGACIóN AUTóNOMA PARA EL SEGUIMIENTO DE TRAYECTORIAS EN TIEMPO REAL UTILIZANDO ALGORITMOS DE CAMPOS POTENCIALES ARTIFICIALES EN LA PLATAFORMA TURTLEBOT3 CON ROS2 EN UN AMBIENTE TIPO ALMACéN

Robles Lomeli Isaac de Jesus, Universidad de Guadalajara. Asesor: Dr. Francisco Ronay López Estrada, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se realiza el desarrollo de un sistema de navegación autónoma de un robot móvil diferencial de dos ruedas en un entorno desconocido y dinámico en el tiempo. El objetivo principal consiste en diseñar algoritmos de planificación y seguimiento de trayectorias, así como detección y evasión de obstáculos eficiente, para que el robot pueda desplazarse de un punto A a un punto B, con la intención de reducir tiempos de entrega y transporte de materiales, siendo estas unas de las principales problemáticas presentes en la cadena de suministro. Para lograr esto, se ha seleccionado el robot Turtlebot 3 Burger como banco de pruebas para pruebas simuladas y experimentales, a través del meta sistema operativo ROS 2 embebido a una Raspberry pi 4. ROS es una plataforma para programación de robots con múltiples herramientas para el control modular de cada uno de los componentes que conforman al sistema, esto se ve reflejado en una alta eficiencia de software y un mejor manejo de fallas. Además de establecer la comunicación utilizando el sistema operativo Linux, específicamente Ubuntu 22.04. Para el desarrollo de este proyecto se usó el modelo "burger" y "waffle pi" ambos de la familia turtlebot3 los cuales están equipados con componentes esenciales para su funcionamiento, incluyendo el Sensor LiDAR LDS_02, que permite realizar tareas de navegación, mapeo simultáneos (SLAM) y navegación autónoma. Además, ambos cuentan con una computadora de placa única o (SBC por sus siglas en inglés) Raspberry Pi 4 como Sistema de Computación a Bordo, la Placa OpenCR 1.0 para la conexión de los motores y sensores, dos servomotores Dynamixel XL430 - W250 - T, y una batería de Li-Po de 11.1 V con 1800 mAh. Por último, se agregó una cámara raspberry Pi V2.



METODOLOGÍA

La metodología utilizada en este trabajo consiste en varios pasos para lograr la navegación autónoma del robot móvil. En primer lugar, se instaló una versión de ROS 2 compatible en la computadora y en la Raspberry Pi 4, configurando el nombre de usuario y la contraseña para una comunicación efectiva a través del protocolo de comunicación SSH, la cual funciona a través de una arquitectura cliente/servidor, lo cual se traduce a una comunicación encriptada para una mayor seguridad al momento de trabajar en línea con estos equipos. Se estudió el modelo cinemático del sistema, el cual nos permite conocer la posición y orientación del robot en función de las velocidades lineales y angulares que se envían como consignas de control al sistema y se desarrolló el algoritmo de campos potenciales artificiales. Este enfoque permite abordar la problemática de la odometría en la robótica móvil, que consiste en estimar la posición del robot en un entorno desconocido. Para la estimación de la posición, se utilizan los datos de los dos motores y sus encoders con una resolución de 4096 pulsos por revolución, lo que proporciona información sobre el cambio de posición del robot. En el ámbito matemático, para un robot diferencial se emplean las siguientes ecuaciones que representan el modelo cinemático del sistema: Px = xr + a cos(θr ) Py = yr + a sin(θr ) Relacionando la pose con la velocidad lineal y angular, obtenemos: ˙Px = v cos(θr ) − aw sin(θr ), ˙Py = v sin(θr ) + aw cos(θr ), ˙θr = w donde ˙Px y ˙Py son la velocidad v del sistema y ˙θr es la velocidad angular. En paralelo a la odometría, se utiliza el sensor LIDAR, que emite un haz de luz por cada grado de giro para muestrear el entorno y detectar obstáculos y áreas libres. El robot Turtlebot 3 waffle es especialmente útil para este propósito, ya que permite el uso de la cámara Raspberry Pi para el procesamiento de imágenes, como la lectura de códigos QR que almacenan coordenadas. Se llevaron a cabo pruebas simuladas y experimentales para la validación de resultados con la parte teórica, En el entorno simulado en Gazebo, se utilizó un modelo 3D desarrollado en Blender para representar un almacén. El robot salió desde un punto inicial y siguió una línea usando la cámara para detectar un código QR que contenía coordenadas para el punto B. Durante este proceso, el robot planificó en tiempo real la ruta más óptima, evitando obstáculos estáticos. Las pruebas físicas se llevaron a cabo en un espacio de 4x5 metros para simular el almacén. Sin embargo, las superficies irregulares del piso afectaron la precisión del robot para llegar a las coordenadas establecidas. Por lo tanto, se sugiere utilizar un piso liso y con la menor inclinación posible para reducir el margen de error acumulativo de la odometría.


CONCLUSIONES

La estimación de la posición del robot se abordó mediante el uso de encoders en los motores y ecuaciones matemáticas que consideran el cambio de posición y orientación del robot. Sin embargo, es importante tener en cuenta los errores acumulativos de la odometría, que pueden afectar la precisión de la posición estimada. Además, se ha incorporado el sensor LIDAR para muestrear el entorno y detectar obstáculos, lo que mejora aún más la capacidad del robot para navegar de manera autónoma. Las pruebas simuladas y físicas realizadas han demostrado la eficiencia del sistema en la planificación de rutas y la evasión de obstáculos estáticos. Para futuras mejoras, se propone cambiar el algoritmo utilizado por el algoritmo A estrella para lograr un mapeo más ágil y preciso, reduciendo significativamente la posibilidad de colisiones. En conclusión, este trabajo representa un avance significativo en la navegación autónoma de robots móviles en entornos dinámicos, con potenciales aplicaciones en el campo de la logística y el transporte de materiales.
Robles Mora Alejandra, Universidad de Guadalajara
Asesor: Dr. Juan José Rodríguez Peña, Instituto Politécnico Nacional

JARDINES BOTáNICOS


JARDINES BOTáNICOS

Robles Mora Alejandra, Universidad de Guadalajara. Asesor: Dr. Juan José Rodríguez Peña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el mundo contemporáneo, la tecnología de la realidad virtual (RV) ha avanzado significativamente y se ha aplicado en diversos campos para mejorar la experiencia y la eficiencia. Uno de los dominios en los que la realidad virtual ha demostrado un potencial prometedor es en la detección y el estudio de plantas en jardines botánicos. Este resumen de trabajo explora la utilidad de la realidad virtual en este contexto y destaca la importancia de adquirir un conocimiento detallado de las características de las plantas. En los jardines botánicos, la identificación precisa de las plantas es fundamental para el mantenimiento, la conservación y la educación. La realidad virtual ofrece una herramienta valiosa al permitir a los visitantes explorar un entorno virtual inmersivo donde pueden interactuar con modelos tridimensionales de plantas. Esto no solo enriquece la experiencia del visitante, sino que también facilita la identificación de especies a través de características como hojas, flores, tallos y frutos. Además, la realidad virtual posibilita la simulación de diferentes condiciones de crecimiento y etapas de desarrollo de las plantas, lo que amplía la comprensión de los visitantes sobre los ciclos de vida vegetal.



METODOLOGÍA

Se utilizo el entrono de power apps para crear la aplicacion mencionada, la cual su principal caracteristica es el poder visualizar un diseño de la planta en 3D en realidad virtual, para poder realizar todo esto se realizó el siguiente conjunto de pasos 1. Diseño del Entorno Virtual: Selección de especies: Se elegirán un conjunto representativo de especies de plantas presentes en el jardín botánico para crear modelos tridimensionales. Modelado y texturización: Se realizará la creación de modelos 3D detallados de las plantas seleccionadas, prestando especial atención a las características como hojas, flores y frutos. Se aplicarán texturas realistas. Escenarios virtuales: Se diseñarán ambientes virtuales que representen hábitats naturales de las plantas, incorporando elementos como luz, sombra y sonidos ambientales para una experiencia inmersiva. 2. Captura de Datos y Creación de Bases de Datos: Fotografías y mediciones: Se recopilarán fotografías de alta resolución y se tomarán medidas precisas de las características de las plantas reales para garantizar la fidelidad de los modelos virtuales. Base de datos de atributos: Se establecerá una base de datos que contenga información detallada sobre las características morfológicas, ecológicas y taxonómicas de las plantas. 3. Desarrollo de la Plataforma de Realidad Virtual: Programación y desarrollo: Se utilizarán herramientas de desarrollo de RV para construir la plataforma virtual. Se implementará la interacción de los usuarios con las plantas, permitiendo la observación en detalle y la manipulación de los modelos. Integración de datos: Se integrarán los modelos 3D y los datos de la base de datos en la plataforma, asegurando la precisión y la coherencia. 4. Pruebas y Evaluación: Pruebas de usabilidad: Se llevarán a cabo pruebas con usuarios para evaluar la facilidad de navegación, la interacción con los modelos y la comprensión de las características presentadas. Evaluación de la identificación: Se realizarán pruebas para medir la precisión de la identificación de especies utilizando la plataforma de realidad virtual en comparación con los métodos tradicionales.


CONCLUSIONES

La presente investigación ha explorado la aplicación de la tecnología de realidad virtual en el ámbito de la detección de plantas en jardines botánicos y la importancia de adquirir conocimiento sobre las características de las plantas. A través del desarrollo de una aplicación que cumple con los requisitos propuestos, se han obtenido resultados prometedores que resaltan el potencial y la utilidad de esta tecnología en la educación botánica y la conservación de la diversidad vegetal. La creación de un entorno virtual inmersivo con modelos tridimensionales detallados de plantas seleccionadas ha demostrado ser una herramienta valiosa para mejorar la experiencia de los visitantes en los jardines botánicos. La interacción con estas representaciones virtuales ha permitido a los usuarios explorar en detalle las características de las plantas, desde sus hojas hasta sus flores y frutos. Esto ha enriquecido su comprensión de la morfología y la biología de las plantas de manera significativa. La capacidad de interactuar con modelos tridimensionales y explorar diferentes etapas de crecimiento y condiciones ambientales ha fomentado un aprendizaje más profundo y duradero. Esto subraya la importancia de la experiencia práctica y visual en la educación botánica. En conclusión, la aplicación de realidad virtual para la detección de plantas en jardines botánicos y el estudio de sus características ha demostrado ser una herramienta poderosa y efectiva. La tecnología ha mejorado la identificación precisa, enriquecido el conocimiento botánico y ha aumentado la apreciación de la biodiversidad vegetal. Como resultado, se abre la puerta a futuras investigaciones en la integración de tecnologías emergentes en la educación ambiental y la conservación de las plantas en riesgo.
Robles Palacios Viridiana, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Gerónimo Arámbula Villa, Instituto Politécnico Nacional

CARACTERIZACIóN DE HARINA DE MAíZ NIXTAMALIZADO Y ESTUDIOS FISICOQUíMICOS, REOLóGICOS Y DE TEXTURA DE MASA Y TORTILLAS, ELABORADAS CON MASAS CON HUMEDADES DIFERENTES


CARACTERIZACIóN DE HARINA DE MAíZ NIXTAMALIZADO Y ESTUDIOS FISICOQUíMICOS, REOLóGICOS Y DE TEXTURA DE MASA Y TORTILLAS, ELABORADAS CON MASAS CON HUMEDADES DIFERENTES

Robles Palacios Viridiana, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Gerónimo Arámbula Villa, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La tortilla es uno de los alimentos principales de la dieta tradicional mexicana. El consumo de este alimento por habitante, en México, fue de alrededor de 75 kilogramos (kg) al año, pues se ingieren aproximadamente, en promedio, de 7 a 10 tortillas diarias. De acuerdo al Inegi, en 2019 se reportó que en México existen más de 110,000 tortillerías. Las características de textura en los alimentos se ven influidas por la cantidad y la forma molecular en el que el agua está enlazada a los componentes químicos que los constituyen, como son las proteínas, carbohidratos entre otros ya que agua actúa como un solvente en los alimentos lo que influye en la textura, el sabor y la nutrición de los alimentos. La elaboración de tortillas de maíz nixtamalizado no cuenta con un proceso estandarizado de elaboración. Además, normalmente no se realizan bajo Buenas Prácticas de Manufactura y el tortillero o molinero, mediante su conocimiento empírico, agrega la cantidad de agua que cree necesaria para su elaboración, conllevando que, en ocasiones, las tortillas no satisfagan las necesidades del cliente provocando desagrado y dejen de consumirla.   Al ser uno de los alimentos más importantes de México es necesario garantizar que al llegar a las manos del consumidor, cuente una buena calidad de textura y sabor lo cual implica tener un buen manejo de la cantidad de agua agregada durante la elaboración de las masas con las que se obtendrán las tortillas.



METODOLOGÍA

Para la elaboración de la harina de maíz nixtamalizado se utilizaron 5 kg de maíz blanco hibrido Sinaloa el cual se coció con 10 litros de agua y con el 2%(p/p) de cal (Ca(OH)2) a 90°C por 20 minutos. Se dejó reposar por 14 horas para después, lavarlo ligeramente con agua para retirar la cal en exceso y los restos de pericarpio. para luego realizar la molienda del nixtamal en un molino de piedras y obtener la masa de maíz nixtamalizado. Se secó en un secador tipo flash. La masa deshidratada se molió en un molino con cabezal de martillos y como resultado se obtuvo la harina de masa con harina de maíz nixtamalizado (HMN). Se determinó la humedad de la HMN por la técnica 44-19 de la AACC(1983) por triplicado (7.9% p/p). Con esta base se establecieron 5 niveles de humedad a evaluar: 47.5%, 50%; 52.5%, 55% y 57% p/p. Para la elaboración de las tortillas, se pesaron 250 g de HMN con sus cantidades de agua respectiva para cada prueba. Se elaboraron las tortillas en una maquina tortilladora manual de rodillos La cocción de las tortillas se llevó a cabo en un comal de acero calentado a 270±10°C con tiempos de cocimiento 18, 54 y 18 s y después se enfriaron y se pesaron de nuevo. Para determinar las propiedades de textura de la masa y de las tortillas se utilizó el Texture Analyzer,  se determinó la fuerza de compresión y tensión de tortillas, y adhesión y cohesión de masa para tortillas. Para la fuerza de tensión se utilizaron las tortillas fueron cortadas en forma de I en la parte central de la tortilla y se colocaron en las pinzas de retención. Para la fuerza al corte se utilizaron las mitades de las tortillas utilizadas en la prueba de tensión y se usó una cuchilla plana de 3 mm de espesor y 6.93 cm de ancho. Para la medición de adhesión y cohesión a la masa, se moldeó en un molde de plástico en forma de anillo. Se utilizó una punta de prueba la cual es una esfera de acero inoxidable. Se midió el color de las tortillas y harina con un colorímetro y se utilizó como estándar la placa blanca. Se midió la Actividad de agua de tortilla y harina con el equipo Aqua Lab. Se determinó el Perfil de viscosidad amilográfica de las tortillas y harina  en el equipo Rapid Visco Analyzer. Las muestras utilizadas fueron tortillas secas con tamaño de partícula menor a 0.25 mm (tamiz US, No.60) las cuales se ajustaron a la humedad de 14% en peso para agregar agua destilada y alcanzar un peso total de 28 g. Para la caracterización de la harina de maíz nixtamalizado, se obtuvo utilizando el método de AACC mientras que para la determinación del pH se siguió el método 02-52 de la AACC. El Índice De Absorción (IAA)y Solubilidad (ISA) se midieron a través del método de Anderson. Para la determinación de tamaño medio de partícula se utilizaron una serie de tamices (US, No 40, 60, 80 y 100 y el contenedor). Los tamices se colocaron en equipo ROTAP por 10 minutos.


CONCLUSIONES

En general las masas nixtamalizadas requieren una correcta fuerza de adhesión y cohesión para troquelar la tortilla, si la masa presenta alta fuerza de adhesión, la masa se vuelve más pastosa y no se puede troquelar, mientras que si tiene una cohesión muy baja la masa se vuelve quebradiza. Los parámetros de actividad de agua y Perfil de Viscosidad Amilográfica de las tortillas presentaron pequeños cambios significativos a diferentes humedades. La masa de 52.5% de humedad presentó la fuerza adecuada de adhesión y cohesión para troquelar tortillas. Respecto a la textura, las tortillas elaboradas con masas con 52.5% de humedad requirieron menor esfuerzo de corte lo cual significa que presentaron mayor suavidad y flexibilidad que las masas con menor humedad, ya que se requirió mayor fuerza para su rompimiento en comparación con las demás masas. Con base a los resultados obtenidos, se puede concluir que la humedad recomendada para la fabricación de tortillas de maíz nixtamalizado es de 52.5% (p/p). Las características de este tratamiento evaluado fueron: harina con humedad de 7.9%,  pH de 9.72, actividad de agua de 0.432, Tamaño Medio de Partícula de 641.77 µms, índice de solubilidad de 6.189% y 2.541 de índice de absorción (g gel/g muestra, Cabe mencionar que, debido a los diferentes factores que pueden influir en las propiedades de las tortillas como son: distintos tipos de granos, tipo de cal utilizada, proceso de nixtamalización entre otros, las condiciones de humedad pueden ir cambiando, dejando este campo abierto para más investigación.
Robles Valenzuela Pedro Ivan, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

IMPLEMENTACIóN DE GOOGLE Y POWER APPS EN NORMA ISO 21001 DE LA UNIVERSIDAD TECNOLóGICA PASO DEL NORTE


IMPLEMENTACIóN DE GOOGLE Y POWER APPS EN NORMA ISO 21001 DE LA UNIVERSIDAD TECNOLóGICA PASO DEL NORTE

Ávila Tinoco Javier Eduardo, Instituto Tecnológico de Ciudad Juárez. Robles Valenzuela Pedro Ivan, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

Caso de estudio Servicio - Implementación de Google y Power apps en NORMA ISO 21001 de la universidad tecnológica paso del norte. Asesor: Dr. Ivan Martínez Mendoza Estudiante: Avila Tinoco Javier Eduardo, Robles Valenzuela Pedro Ivan. Planteamiento del problema Las empresas que ofrecen un bien o servicio están dedicadas a enfocarse totalmente en la satisfacción al cliente. Son las encargadas de asegurarse en cumplir con las expectativas y requisitos propuestos por el cliente, por lo cual, es necesario para estas empresas llevar un total control sobre los servicios que se ejecutan y los bienes que se producen, para asegurarse que el trabajo se este realizando adecuadamente por parte de los trabajadores. Como sabemos la tecnología está creciendo día con día, y nos tenemos que adaptar al entorno en que vivimos. Con el crecimiento de la tecnología también crecen los problemas, por lo que se debe de tener una gestión de calidad optima y apoyándonos con herramientas de Google apps y Power apps, nos pueden ser útiles al documentar y optimizar actividades, manteniendo la efectividad en cada operación.



METODOLOGÍA

Se definió el proyecto elaborando una breve introducción sobre la empresa, se elaboró un enunciado problema con apoyo de la implementación de las Power apps y Google Apps en la gestión de calidad en la cual nos estamos apoyando en la ISO 21001. Hemos logrado adquirir conocimiento de las diferentes aplicaciones de Power apps y Google apps, aplicando a la automatización de los sistemas de gestión de calidad. Se realizo un plan de acción de mejora para las variables que intervienen en el proceso, se generaron posibles soluciones, se evaluaron las soluciones, se pusieron a prueba las diferentes aplicaciones mencionadas, recabando información para identificar cuáles de estas pueden ser más útiles e implementadas en una empresa para realizar de manera más sencilla y eficaz nuestras tareas más exigentes.


CONCLUSIONES

Durante la estancia de verano hemos logrado adquirir conocimiento de las diferentes aplicaciones de Power apps y Google apps, aplicando a la automatización de los sistemas de gestión de calidad. En conjunto con la Universidad Tecnológica Paso del Norte hemos aprendido como utilizar diversas herramientas que antes no imaginábamos tener al alcance desde cualquier dispositivo ya sea ordenador o móvil, y lo mejor es que hemos aprendido como usarlas tanto en el ámbito casual del día a día como en el ámbito profesional, ya que estas apps te hacen las tareas más sencillas y te ayudan a recordar tus tareas pendientes.
Rocha Miramontes Francisco Javier, Universidad Politécnica de Sinaloa
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

ESTUDIO DE CALIDAD DE LA ENERGíA EN SISTEMA FOTOVOLTAICO INTERCONECTADO DE 3 KW


ESTUDIO DE CALIDAD DE LA ENERGíA EN SISTEMA FOTOVOLTAICO INTERCONECTADO DE 3 KW

Rocha Miramontes Francisco Javier, Universidad Politécnica de Sinaloa. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En el actual proceso de transición energética, las fuentes de energía renovables, especialmente la energía solar fotovoltaica, están cobrando importancia debido a su eficiencia y facilidad de instalación. Esta tendencia ha llevado a un aumento en la adopción de sistemas fotovoltaicos en la generación distribuida, lo que contribuye a una mayor presencia de energía renovable en la red eléctrica. Aunque este avance es positivo para reducir la dependencia de combustibles fósiles y abordar el cambio climático, es necesario considerar el efecto de estos sistemas en la calidad de la energía. El proyecto de investigación se enfoca en evaluar la eficiencia y la presencia de armónicos en sistemas fotovoltaicos conectados a la red eléctrica. Por un lado, se examina la eficiencia de sistemas fotovoltaicos que utilizan inversores centrales, elementos clave que convierten la corriente generada por los paneles solares en corriente alterna. Por otro lado, se investiga cómo estos sistemas afectan la calidad de la energía debido a la presencia de armónicos, que pueden causar problemas como distorsiones de tensión, corriente  y disminución del rendimiento. Este análisis es esencial para comprender el impacto de los sistemas fotovoltaicos en la red y para desarrollar soluciones y políticas que mejoren la calidad de la energía en el contexto de la creciente adopción de la energía solar. La investigación se realiza en un entorno universitario, aprovechando recursos técnicos y especializados para abordar la falta de conocimiento en ingeniería de sistemas fotovoltaicos y su interacción con la red eléctrica. Los resultados contribuirán a optimizar sistemas existentes y mejorar la calidad de la energía proporcionada por estos sistemas.  



METODOLOGÍA

El estudio tuvo lugar en la Universidad Politécnica de Sinaloa, donde se analizó un sistema fotovoltaico conectado a la red. Este sistema consta de 8 paneles policristalinos de 325W en serie fabricados por Solar Technology y un inversor de 3 kW de Fronius, específicamente el modelo Fronius IG Plus 3.0-1 UNI. Para evaluar la calidad de la energía generada, se utilizó un analizador de redes Fluke 438 ll, un equipo preciso y confiable conforme a la norma IEC 61000. Se realizaron mediciones durante 32 horas continuas para capturar datos completos sobre la calidad de la energía en diferentes momentos del día y la noche. El analizador FLUKE 435 registró variables eléctricas como tensión, corriente, frecuencia, potencia activa y reactiva, factor de potencia y armónicos en la red, sin embargo para esta investiagación se tomó un efoque a la parte de armónicos. Se llevó a cabo un monitoreo constante, a lo largo de 32 horas se tomaron mediciones y registros cada hora para un análisis detallado de la eficiencia del sistema en distintos momentos. Para evaluar la eficiencia, se utilizó la fórmula η = Potencia de salida / Potencia de entrada, midiendo la potencia de entrada con un multímetro y un amperímetro de gancho, y la potencia de salida con el analizador de redes. Estudiar la eficiencia de sistemas fotovoltaicos es crucial para asegurar su óptimo funcionamiento, maximizar su rendimiento y cumplir con objetivos ambientales y normativos. También informa sobre mantenimiento y mejoras. Además, se realizó un análisis de armónicos en el software ETAP® para evaluar el cumplimiento normativo y el rendimiento del sistema, utilizando datos de irradiación solar basados en un modelo matemático del software y configurados en las coordenadas del estudio.


CONCLUSIONES

Podemos concluir que el estudio realizado con el analizador de redes eléctricas y el software de aplicación PowerLog proporcionó resultados importantes sobre la calidad de energía en el sistema eléctrico bajo análisis. Se observó una evolución importante de los armónicos de voltaje y corriente presentes en las líneas y el neutro. Se detectó una gran la presencia de armónicos de corriente de orden impar (3, 5 y 7) en el neutro y líneas que excedieron los límites establecidos, lo cual representa un riesgo potencial para las instalaciones de la universidad. La red se encuentra con valores de armónicos dentro de los parámetros de la norma, sin embargo en las horas de salida y puesta del sol, el sistema fotovoltaico comienza a inyectar seriamente armónicos. Se concluye que esto ocurre debido a que cuando la radiación solar es baja (al amanecer o al anochecer), la potencia de generación de los paneles fotovoltaicos es también baja. En estas condiciones, el inversor al operar en un rango de potencia muy cercano a su límite inferior, lo lleva a operar de manera más inestable y menos eficiente. Como resultado, el inversor genera formas de onda de corriente con alta distorsión armónica, especialmente armónicos de orden impar como el 3, 5, 7, etc. La presencia de armónicos es un riesgo latente en las instalaciones de la universidad ya que el nivel tan alto de distorsión que existe podrían generar daños importantes. En base a los hallazgos del estudio, se recomienda instalar filtros activos para mitigar los armónicos de corrientel, que mostraron una presencia alarmante. También se debe tomar en cuenta la presencia de armónicos de tensión en el neutro y en las líneas, y tomar medidas para reducirlos. En cuanto a la eficiencia del sistema, se evaluó durante diferentes horas de funcionamiento y se obtuvo un promedio del 94%. Esto indica que el sistema es eficiente en términos de conversión de energía, logrando convertir la mayor parte de la energía de entrada en energía de salida utilizable. Sin embargo, se destacó que, a pesar de la eficiencia, es importante abordar el problema de la distorsión armónica para asegurar una operación segura y óptima de los equipos eléctricos.  
Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN


APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN

López Solís Osvaldo Jesus, Instituto Tecnológico Superior de Uruapan. Morales de Gante Jorman Aldrich, Universidad Politécnica de Tecámac. Ponce Reyes Andrea Gpe, Instituto Tecnológico Superior de Uruapan. Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Rubio Solis Carlos Alberto, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la aplicación surgió a partir de encontrar que hoy en dia en distinguidas tiendas de aplicaciones móviles no existen tantas alternativas para la fomentación del aprendizaje por lo cual partimos de una propuesta inicial la cual fue desarrollar una aplicación de preguntas donde se haga esta fomentación del aprendizaje mediante multiples preguntas de todo tipo de áreas(Matemáticas,Filosofía,Literatura,etc.)Esto nos recordó al famoso juego preguntados, donde tomando como principal dicho juego añadimos que los usuarios tengan que registrarse para poder acceder a la aplicación.



METODOLOGÍA

Jor de Gante, [28/07/23 9:20 P.M.] Para este proyecto notamos que sería necesario la utilización de una metodología donde no se pierda tanto tiempo ya que no contamos con una gran cantidad de este para el desarrollo de nuestra aplicación  por lo cual la Metodología de prototipado resultó la más convenienteya que está se adecuada a nuestras necesidades. Comunicación: La comunicación para esta metodología es sumamente necesaria por lo cual nuestro equipo de trabajo desde el primer dia presentó este apartado por lo cual resultó sencillo poder dividirnos el trabajo además de la solidaridad y el trabajo en equipo resultaron factores beneficiosos para todos. Plan rápido: La aplicación surgió apartir de una idea del profesor donde todos los compañeros ayudamos a reforzar dicha idea y sacamos el proyecto adelante, partiendo de referencias o bases al igual que estudiar el mercado para poder hacer una aplicación que realmente atraiga a futuros usuarios. Modelado diseño rápido: Para el modelado utilizamos imagenes de referencias donde todos ibamos a desarrollar el mismo proyecto pero en cuanto a diseño era a criterio propio por lo cual nos apoyamos de igual forma del software figma para desarrollar los mockups para una vez todos estuvieramos deacuerdo comenzariamos a trabajar con el SDK de Flutter.Este paso resultó el más interesante puesto que cada uno de nosotros dejamos ir nuestra imaginación para los mockups. Construcción del prototipado: Para este paso tuvimos que aprender los fundamentos de flutter , desde su instalación,complementos,actualizaciones,etc. donde resultó un poco mayor el nivel de complejidad puesto que la mayoría no tenía un amplio conocimineto de esta tecnología sin embargo el apoyo de los compañeros fue el principal factor para que todos vallamos de la mano . Desarrollo y entrega: En este apartado el profesor nos dio a conocer distintas  herramientas que en este y en muchos más proyectos nos serán de gran utilidad para la reducción de tiempos,costos,complejidad,etc como lo son complementos de flutter,firebase,etc.Llegando a este punto resultó muy interesante el tema de una base de datos en tiempo real, además de aprender bastante de la tecnología flutter. Con forme avanzamos la aplicación iba tomando forma,estructura y resultó muy atractiva para todos.


CONCLUSIONES

Gracias al trabajo en equipo la autoretroalimentación y enseñanza de el profesor logramos obtener el exito mediante la aplicación de manera ágil y efectiva dando como resultado una aplicación multiplataforma util,atractiva y sobre todo facil de usar de igual forma conseguimos implementar la base de datos en tiempo real donde esta resultó sumamente beneficiosa para el desarrollo del proyecto.
Rodarte Lopez Miguel Angel, Universidad Autónoma de Zacatecas
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

ROBOTS VERY SMALL SIZE SOCCER


ROBOTS VERY SMALL SIZE SOCCER

Mendoza Salazar Dulce Maria, Universidad Autónoma de Zacatecas. Rodarte Lopez Miguel Angel, Universidad Autónoma de Zacatecas. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de robots autonomous para el fútbol de tamaño muy pequeño (VSSS) para la competición, centrándose en la visión artificial, la planificación de movimiento y diseño electrónico. El sistema se implementó sobre un terreno computadora usando ROS (Robot Operating System), mientras que el estado de los jugadores y el balón se obtiene mediante una cámara aérea adecuada a 2 metros de altura de nuestra cancha.  



METODOLOGÍA

Los robots son coches pequeños tipo DDR (Differential Drive Robots), y fueron diseñados para interactuar entre sí y con la pelota, utilizando un algoritmo de visión basado en el espacio de color HSL para detección de objetos Se empleó un filtro de Kalman para obtener Se propuso el seguimiento de objetos y una planificación de rutas para perseguir la pelota mientras evitas los obstáculos. El diseño modular de los robots, impulsado por Raspberry Pi Pico Microcontroladores W, facilitaron el montaje y mantenimiento. La comunicación se estableció a través de Wi-FI, y una costumbre Se creó el PCB. La estrategia propuesta permitió a los robots navegar por el campo de juego como se esperaba. Experimentos en tiempo real había demostrado el correcto funcionamiento del sistema


CONCLUSIONES

Estamos comprometidos a explorar nuevas estrategias, tecnologías, y mejoras de diseño para permanecer a la vanguardia de Very competición de Fútbol de Tallas Pequeñas y seguir consiguiendo éxito en el campo de la robótica deportiva. Actualmente, se siguen realizando validaciones y mejoras. realizado tanto en el código como en el diseño del robot. Hay un plan para mejorar la estrategia del juego o incluso reemplazar la estrategia codificada con una estrategia basada en Q-learning. Encapotando el centro de gravedad de los robots, implementando la visión detección en GPU, y considerando la frecuencia de radio en su lugar de wifi
Rodriguez Acuña Ricardo, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California

ADQUISICIóN, PROCESAMIENTO Y ANáLISIS COMPARATIVO DE LAS SEñALES ELECTROENCEFALOGRáFICAS EN PERSONAS AUTISTAS Y NEUROTíPICAS ANTE ESTíMULOS SENSORIALES AUDITIVOS.


ADQUISICIóN, PROCESAMIENTO Y ANáLISIS COMPARATIVO DE LAS SEñALES ELECTROENCEFALOGRáFICAS EN PERSONAS AUTISTAS Y NEUROTíPICAS ANTE ESTíMULOS SENSORIALES AUDITIVOS.

Cárdenas Canales René Patricio, Instituto Politécnico Nacional. Noyola Zamora Marianne Denis, Instituto Politécnico Nacional. Rodriguez Acuña Ricardo, Instituto Tecnológico Superior de Cajeme. Villafuerte Martínez Naomi Arelí, Universidad de Colima. Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El trastorno del espectro autista (TEA) es una condición del neurodesarrollo caracterizada por alteraciones en la comunicación e interacción social, así como en el procesamiento sensorial. Esto representa un desafío significativo para la sociedad debido a su alta prevalencia y las dificultades que su población puede experimentar en diversos aspectos de su vida. Dentro del autismo, se experimentan diferencias en la sensopercepción que pueden variar de un individuo a otro. Algunas personas pueden experimentar una audición típica o tener habilidades auditivas excepcionales, mientras que otras pueden enfrentar dificultades en su procesamiento. El análisis comparativo de la respuesta eléctrica cerebral mediante electroencefalografía (EEG) entre personas autistas y neurotípicas (es decir, sin trastornos neurológicos) frente a estímulos sensoriales auditivos se ha convertido en una herramienta de investigación relevante para comprender las bases neurobiológicas de las diferencias en el procesamiento sensorial entre ambos grupos. Por tanto, surge la necesidad de formular la siguiente interrogante: ¿Existe una diferencia significativa en la respuesta eléctrica cerebral en personas autistas y neurotípicas ante estímulos sensoriales auditivos? Este estudio tiene como objetivo principal comparar las respuestas cerebrales mediante EEG en individuos autistas y neurotípicos al exponerse a estímulos sensoriales auditivos.



METODOLOGÍA

El inicio del proyecto involucró una revisión de la literatura existente con el objetivo de obtener información sobre la reactividad eléctrica cerebral de personas autistas frente a potenciales evocados auditivos y sobre las áreas cerebrales implicadas en el procesamiento de la información sonora. Durante el proceso de consulta, se realizaron pruebas con dos sistemas de EEG disponibles para la investigación el Emotiv EPOC+ de 14 canales y el Open BCI de 8 canales para determinar cuál se adaptaba mejor a las necesidades del proyecto, considerando aspectos como la comodidad, la ubicación y tipo de los electrodos, el formato de la información numérica, la posibilidad de agregar marcadores y los insumos disponibles para su mantenimiento y correcta colocación.  Se tomó una clase enfocada en la sensopercepción y las crisis sensoriales en el trastorno del espectro autista se estableció un protocolo de actuación en caso de que un participante presente señales de malestar o desencadene una crisis durante la presentación de los estímulos auditivos. Para su presentación, los estímulos auditivos se dividieron en dos categorías, con una duración de dieciséis segundos cada uno, y separados con silencios de la misma magnitud. Estas consistieron en diez sonidos cotidianos y diez frecuencias dentro del umbral auditivo, las cuales se determinaron al relacionarse con la regularidad con la cual se presentan en la vida diaria. Para su estandarización, se utilizó una aplicación de celular para medir los decibelios percibidos desde la perspectiva del sujeto de estudio. Para la delimitación de la población, se utilizó el Cuestionario de cociente del espectro autista (Baron-Cohen, 2001), el cual es empleado para cuantificar los rasgos autistas. Se seleccionaron dos personas autistas, y dos personas neurotipicas ambos de la misma edad y sexo. Una mujer autista de veintidós años y un varón autista de dieciséis años, y en contraparte, una mujer neurotípica de veintidós años y un varón neurotípico de dieciséis años. Se les realizó una entrevista sobre su historial clínico y posteriormente se les aplicó el Cuestionario de sensibilidad auditiva (Khalfia y col., 2002). Para el escenario se seleccionó uno de los salones de la universidad y se tomaron las medidas necesarias para eliminar la mayor cantidad de sonidos de fondo durante las pruebas y se utilizó una bocina ubicada a un metro de distancia del sujeto. Antes de iniciar las pruebas, se realizó un ejercicio de respiración con el objetivo de que el individuo se encontrará relajado. Posteriormente, se colocó al sujeto en posición sentado con la bocina a la espalda. Frente a él, se situaron dos observadores, los cuales anotaron las reacciones conductuales que el sujeto de prueba pudiera presentar durante la reproducción de sonidos. Para el procesamiento de los datos, se diseñó un programa en Matlab que separó y filtró las respuestas para poder determinar la potencia y frecuencia de onda percibida durante la presentación de los estímulos, cuestión que ayudará a comparar las señales entre cada grupo de individuos.


CONCLUSIONES

Se espera, a través del análisis de la actividad eléctrica cerebral con la utilización de MATLAB, obtener un mayor entendimiento de los mecanismos subyacentes a las peculiaridades sensoriales observadas en personas autistas, lo que podría contribuir a mejorar la evaluación diagnóstica y el diseño de intervenciones terapéuticas para este trastorno del neurodesarrollo. Además, se espera que los resultados obtenidos puedan ayudar en las necesidades sensoriales individuales de las personas autistas. Este estudio de comparación de la respuesta eléctrica cerebral mediante EEG permitió obtener señales de biopotenciales cerebrales que brindan información sobre las bases neurobiológicas de las diferencias en el procesamiento sensorial en el trastorno del espectro autista. Este enfoque puede proporcionar una visión más profunda de cómo el cerebro de las personas con TEA responde de manera distinta a los estímulos auditivos en comparación con el cerebro de individuos neurotípicos y así crear un ambiente menos abrumador para ellas, lo que contribuiría a su bienestar y rendimiento en distintos contextos. Un mayor entendimiento de los mecanismos subyacentes a las peculiaridades sensoriales observadas en personas autistas puede llevar a una mejora en la evaluación diagnóstica y facilitar el diseño de intervenciones terapéuticas más específicas y efectivas, adaptadas a las necesidades sensoriales individuales de cada persona con TEA.
Rodríguez Alvarez Ana Karen, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Gerónimo Arámbula Villa, Instituto Politécnico Nacional

EFECTO DEL TIEMPO DE COCCIÓN DURANTE LA NIXTAMALIZACIÓN DEL GRANO DE MAÍZ EN LAS PROPIEDADES FÍSICAS, FISICOQUÍMICAS Y REOLÓGICAS DE LAS HARINAS DE MAÍZ NIXTAMALIZADO.


EFECTO DEL TIEMPO DE COCCIÓN DURANTE LA NIXTAMALIZACIÓN DEL GRANO DE MAÍZ EN LAS PROPIEDADES FÍSICAS, FISICOQUÍMICAS Y REOLÓGICAS DE LAS HARINAS DE MAÍZ NIXTAMALIZADO.

Rodríguez Alvarez Ana Karen, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Gerónimo Arámbula Villa, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En México, el maíz (Zea Mays L,) es uno de los cereales con más alto cultivo y consumo, y es base de la gastronomía mexicana. Es el único que puede ser usado como alimento en cualquier etapa de su desarrollo. Se puede nixtamalizar el grano y obtener harina que funciona como masa, la cual es la base en la preparación de los tradicionales sopes, tlacoyos, quesadillas, tamales, pan o bebidas como el atole, etc. La nixtamalización es un proceso que consiste en el cocimiento del grano de maíz con agua y cal, por cada kilo de grano se adicionan 2 litros de agua y el 2% del peso del grano, de hidróxido de calcio. Esta mezcla es sometida a temperaturas menores que las de ebullición durante 30 a 45 minutos, el tiempo depende mucho de la dureza del grano, es decir, a mayor dureza, mayor será el tiempo de cocción. Un problema durante la nixtamalización es la no existencia de una estandarización que describa el tiempo correcto que el grano de maíz debe estar en cocimiento para que desarrolle sus propiedades a su cocción. Es por ello que en este trabajo de investigación se propuso analizar las propiedades qué adquiere la harina al aplicarle diferentes tiempos de cocimiento, y determinar cómo influye en su actividad de agua, pH, índice de absorción de agua, índice de solubilidad en agua, etc.



METODOLOGÍA

Se realizaron pruebas físicas y fisicoquímicas del grano de maíz (Hibrido Sinaloa), Se determinaron: tamaño, peso de 1000 granos, dureza, peso hectolitro, color y humedad. Una vez determinadas estas características, se nixtamalizo el grano de maíz, calentando 8 litros de agua, adicionando 4 kilos de maíz junto con 2% (80 g) de cal de grado alimenticio. El procedimiento se repitió para los 5 diferentes tiempos de cocción (10, 15, 20, 25 y 30 minutos). Se determinó que, a los 20 minutos de cocimiento de los granos de maíz, el pericarpio ya se desprendía (tomando esta acción como el tiempo idea de cocimiento). Al finalizar el tiempo respectivo para cada muestra se colocaron en baldes con agua fría para detener su tiempo de cocción, se dejaron reposar por 12 horas para que el grano suavice y afloje la cáscara, y al día siguiente se lavó el nixtamal, desechando el nejayote. Posteriormente se molió y seco cada tratamiento para obtener la harina y continuar con los análisis físicos, fisicoquímicos y reológicos de los 5 tratamientos.   Se determinó el pH con un equipo, de acuerdo al método 02-52 de la AACC (1983). Se determino la actividad de agua (aW) con el equipo Aqua Lab, modelo CX-2. El índice de absorción de agua (IAA) e Índice de solubilidad en agua (ISA) se realizó utilizando el método descrito por Anderson et al (1969). Para la obtención del color se utilizó un colorímetro HunterLab. La humedad se realizó de acuerdo al método 44-19 de la AACC (1983). El tamaño medio de partícula (TMP) se determinó utilizando el equipo ROTAP durante 10 min. y una serie de tamices (No. 20, 40, 60, 80, 100, contenedor) colocando en cada uno de ellos tres tapones de hule para facilitar su cernido. El Perfil de Viscosidad Amilografico se determinó empleando el equipo Rapid Visco Analyzer (RVA) el cual consistió en colocar 4 g de harina y 24 ml de agua destilada en un crisol, para después emplear el equipo el cual está conectado a una computadora y por medio de un software monitorea el tiempo, viscosidad, y temperatura durante 23 min.  El pH de las harinas evaluadas presentó variación, siendo la harina con 10 min. de cocimiento la de menor valor (9.17) en comparación con la harina de 30 min (9.44), esto debido a fenómenos de hidrolisis que se presentan en la nixtamalización, ya que las paredes del pericarpio permiten la introducción de agua y cal al interior del grano, por lo que, a mayor concentración de cal, mayor será su pH. La aW de las harinas 10, 15, 25 y 30 fue <0.2, lo cual se traduce como buena estabilidad en la conservación del alimento. En promedio el IAA fue mayor para la harina de 25 min. teniendo relación con su TMP ya que es la harina con mayor tamaño de gránulo, esto sucede por el daño que sufre el almidón durante todo el proceso de nixtamalización. En promedio, la harina con mayor ISA fue la de 30 min. esto indicó el grado de cocimiento que presentó la harina ya que fue la que más tiempo estuvo en la estufa. Cabe mencionar que el ISA disminuyó a medida que aumentó el IAA. La harina con 30 min. De cocimiento resulto con el color menos blanco en comparación a la harina de 10 min. Esto se debió a que las paredes del pericarpio en relación con el tiempo permitieron más introducción del agua y cal. El porcentaje de humedad en las harinas varió con respecto al tiempo de cocción, mientras fue empo es menor su humedad, por consecuencia la harina de 10 min. es quien menor porcentaje contuvo, influyendo a su vez en el TMP, ya que su tamaño de granulo es el menor en comparación con las demás muestras. La harina de 20 min. Requirió mayor temperatura cuando se gelatiniza (70.7°C) en comparación con la harina de 25 min. que necesitó una temperatura de 69.8°C. Por el contrario, la harina de 15 min. muestra los valores más altos en la viscosidad máxima, holding, viscosidad final y retrogradación, esto indicó que tiene mayor capacidad para retener la estructura gelatinosa durante un tiempo más largo y enfriamiento, lo que contribuyó a una textura más suave y elástica.


CONCLUSIONES

En general se adquirió conocimiento teórico y práctico sobre la harina de maíz nixtamalizada. La harina con menor tiempo de cocimiento del grano de maíz presentó menor pH, actividad de agua, tamaño medio de partícula, índice de solubilidad en agua, color y humedad, por el contrario, la harina de 25 min. presentó mayor índice de absorción de agua y tamaño medio de partícula. Con base a lo anterior se puede concluir que el tiempo de cocción del grano de maíz durante la nixtamalización, en las harinas para elaborar tortillas influyo en sus propiedades, esto no generaliza que para todos los granos sea igual, ya que como se mencionó al inicio existen muchas variedades de maíz, y dependerá no solo del grano, sino también de la temperatura, agua y cal en el momento de su nixtamalización. 
Rodriguez Alvarez Jesus, Universidad Mexiquense del Bicentenario
Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UN ROBOT ASISTENTE PARA PACIENTES CON ALZHEIMER UTILIZANDO IA


DESARROLLO DE UN ROBOT ASISTENTE PARA PACIENTES CON ALZHEIMER UTILIZANDO IA

Rodriguez Alvarez Jesus, Universidad Mexiquense del Bicentenario. Romero Lambraño Teresa, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, un gran número de personas se ven afectadas por enfermedades mentales que pueden conducir a la demencia según la Organización Mundial de la Salud más de 55 millones de personas sufren de esta enfermedad, siendo está la séptima causa de defunción en el mundo,  esta condición está relacionada con el Alzheimer representando aproximadamente entre 60% y 70% de los casos, a su vez esta toma mayor impacto en las enfermedades mentales que se presentan en edad temprana como el estrés y la depresión, que si no son tratados a tiempo pueden finalizar en problemas mentales graves como la demencia algunos de ellos irreversibles. Hoy por hoy, la robótica ha experimentado un notable avance debido al crecimiento de la tecnología y el impacto de la inteligencia artificial. Este progreso ha tenido un impacto significativo en el campo de la asistencia, especialmente en el desarrollo de programas de apoyo para el tratamiento de enfermedades mentales, así como en la implementación de tratamientos e implantes. En respuesta a esta necesidad, surge un proyecto innovador que busca mejorar la calidad de vida de las personas que sufren de enfermedades mentales, brindando un apoyo y atención continuos. El avance tecnológico nos ofrece nuevas oportunidades para desarrollar soluciones personalizadas y constantes que puedan atender las necesidades específicas de cada individuo. En este contexto, el desarrollo de un robot asistente se presenta como una opción prometedora para proporcionar el apoyo necesario a las personas con enfermedades mentales. Este robot asistente se convierte en un compañero constante y confiable para el paciente, capaz de brindar monitoreo del paciente y de su rutina diaria. Una de las características más destacadas de este proyecto es que el robot está programado para establecer un reconociendo del lugar donde se encuentra el y el paciente. Está equipado con tecnología de vanguardia, como sensores y dispositivos integrados, que permiten el monitoreo constante del lugar donde se encuentra el paciente y un seguimiento meticuloso del horario y la administración adecuada de los medicamentos.



METODOLOGÍA

El estudio adopta un enfoque de investigación teórica y acción para promover un proyecto experimental de asistencia robótica a personas con enfermedades mentales. Se utilizan plataformas como ROS y Unity 3D para crear el entorno en el que se desarrollaría el robot de asistencia. El proyecto se basa en el robot TurtleBot3, el cual ha sido modificado tanto en su diseño como en su programación para adaptarlo a los objetivos del proyecto. Se cuenta con un tablero de control en las plataformas ROS y Unity 3D, donde se recopila información de cámaras, sensores, comunicación y actuadores. Esta información se procesa mediante la programación realizada y se presenta en una interfaz gráfica que permite el control directo e instrucciones hacia ROS para responder a la información recibida. En cuanto al desarrollo de la programación del robot, se tuvieron en cuenta las limitaciones de perímetro y velocidad de desplazamiento del paciente al que se le asignó una distancia de seguimiento segura 3 metros Esto se logra mediante el uso de cámaras ubicadas en la parte delantera del robot. Además, el sistema de programación del robot garantiza que este siempre mantenga su enfoque en el paciente, enviando una alarma al cuidador si el paciente se encuentra fuera de su casa. En ROS, utilizando el lenguaje de Python 2 se llevó a cabo la programación en las siguientes fases: Control del robot:  Programación del movimiento del robot. Control de velocidad de 4 a 6.5 kilómetros por hora utilizando ángulos.  Inclusión de las dos cámaras, procesamiento de imagen y seguimiento del paciente. Aprendizaje automático (Machine Learning):  Integración de machine learning para el procesamiento de varias imágenes y la detección del paciente. Seguimiento lineal del paciente. Seguimiento del robot al paciente mediante el reconocimiento de lugares y objetos dentro de la casa.  Establecimiento de límites: Determinación de parámetros de seguridad en la casa para proteger al paciente.            Activación de una alarma para los cuidadores del paciente. En la interfaz de la máquina virtual con ROS se implementó la programación descrita, con Python 2, 3 utilizando los sensores y cámaras que se utilizarán en el entorno virtual. Esta interfaz se integró en un entorno en Unity 3D, donde se visualiza el proyecto del robot modelado en un ambiente virtual


CONCLUSIONES

En este contexto, se utilizaron herramientas tecnológicas de vanguardia como ROS y Unity 3D para desarrollar un robot especialmente diseñado para brinda seguimiento a personas que enfrentan problemas mentales. La integración de ROS y Unity 3D en este proyecto ha sido fundamental para el funcionamiento y la interacción del robot. En los primeros avances se tiene la programación lineal del robot con las dos cámaras y la programación de seguimiento constante al paciente evitando los obstáculos y la visualización en los entornos de ROS y Unity 3D En resumen, el proyecto representa un paso importante en la aplicación de la inteligencia artificial en la robótica, específicamente en el campo de la asistencia a personas con problemas mentales, donde se tenga un aprendizaje de acuerdo al comportamiento dinámico del paciente por medio de la integración de inteligencia artificial y aprendizaje continuo hace que el robot se le apliquen diferentes actividades en un futuro que será de gran importancia para la asistencia a esta población y la medición del avance o contención del trastorno para apoyar a los especialistas en esta área. En trabajos futuros, se busca implementar en el futuro un sistema en el robot que registre los signos vitales del paciente y lleve un registro de las actividades del paciente utilizando un panel de control de Internet de las cosas (IoT). Si se detecta alguna anomalía en los parámetros registrados, se generarán alarmas para alertar sobre posibles problemas de salud
Rodriguez Andrade Mariela, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Heber Vilchis Bravo, Universidad de Ciencias y Artes de Chiapas

DESARROLLO DE UN DISPOSITIVO óPTICO INFRARROJO PARA LA DETECCIóN DE NIVEL DE HUMEDAD EN FRUTA DESHIDRATADA.


DESARROLLO DE UN DISPOSITIVO óPTICO INFRARROJO PARA LA DETECCIóN DE NIVEL DE HUMEDAD EN FRUTA DESHIDRATADA.

Rodriguez Andrade Mariela, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Heber Vilchis Bravo, Universidad de Ciencias y Artes de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El aumento de la población y los constantes cambios en los fenómenos naturales y climáticos han propiciado el aumento de la demanda de productos agrícolas a nivel mundial. Para atender esta problemática se han propuesto metodologías para la conservación los alimentos; una de ellas es la deshidratación de productos agrícolas que garantiza la calidad y las propiedades nutritivas y organolépticas, para posteriormente comercialización y el consumo. Una alternativa sustentable y ecológica es la implementación de un deshidratador solar que transforma la radiación solar en energía térmica. Un método convencional para evaluar el contenido de humedad en los alimentos es mediante la gravimetría, la cual consiste en determinar la cantidad de una sustancia midiendo el peso de esta. La implementación de este método durante el proceso de deshidratación conlleva a interrumpir las condiciones de secado y temperatura, ya que se necesita abrir el secador para retirar la muestra y posteriormente medir su peso en un laboratorio en diferentes instantes de tiempo, hasta que la muestra se encuentre totalmente deshidratada. Finalmente, el contenido de humedad se puede calcular mediante la teoría de la cinética de secado a partir de los datos experimentales de la pérdida de peso. Considerando los inconvenientes mencionados anteriormente, es importante proponer una metodología no invasiva y más rápida que sea capaz de detectar el contenido de humedad en alimentos sin necesidad de interrumpir el proceso de secado. Un dispositivo óptico infrarrojo presenta ventajas prometedoras para la medición no invasiva y en tiempo real de la humedad en diferentes materiales. La implementación de estos dispositivos en el proceso de deshidratación de frutas presenta desafíos y cuestionamientos que deben ser abordados para lograr una aplicación exitosa y confiable en la industria alimentaria.



METODOLOGÍA

Los sensores ópticos infrarrojos se basan en la detección de la radiación electromagnética en la región del infrarrojo cercano o medio comprendido desde 700 nm hasta 3000 nm. Estas longitudes de onda son sensibles a la cantidad de agua presente en la muestra, lo que permite estimar la humedad relativa de la fruta deshidratada. La relación entre la radiación infrarroja absorbida y la humedad se establece mediante calibraciones previas, que vinculan las lecturas del sensor con los valores de humedad obtenidos por métodos de referencia. La metodología para el desarrollo del dispositivo se dividió en 3 etapas: Diseño y construcción del dispositivo: El diseño del sensor óptico infrarrojo implicó la selección de los componentes ópticos adecuados, como fuentes de luz infrarroja, filtros y detectores. Además, se consideraron los aspectos técnicos de la interfaz del sensor con un sistema de adquisición de datos. El objetivo de esta etapa fue la medición no invasiva y repetible de la humedad en diferentes muestras de frutas deshidratadas. Calibración del dispositivo: La calibración del sensor fue una etapa crítica en el desarrollo de esta tecnología. Se requirió un conjunto representativo de muestras de fruta deshidratada con diferentes niveles de humedad, que, en este caso, se analizó 3 rebanadas con distintos grosores de manzana roja. En esta etapa se obtuvo la correspondencia del nivel de bits obtenido por el sistema de adquisición de datos con el valor del peso de la muestra en función del tiempo de secado (métodos gravimétricos). Evaluación del dispositivo en laboratorio: Una vez calibrado, el dispositivo fue evaluado con otras muestras de frutas deshidratadas en diferentes etapas del proceso. Los resultados de las mediciones con el dispositivo se compararon con los valores de humedad obtenidos por los métodos de referencia. Se analizó 3 distintos grupos de fruta como fue: manzana roja, jícama y manzana amarilla. Esta evaluación permitió determinar la precisión y confiabilidad del sensor, así como la necesidad de ajustes o mejoras adicionales.


CONCLUSIONES

Durante la estancia de verano delfín XXVIII se logró realizar el desarrollo de un dispositivo óptico infrarrojo para la medición de humedad en fruta deshidratada, esto representa una contribución significativa en el ámbito de la ingeniería eléctrica aplicada a la industria alimentaria. Estos dispositivos ofrecen una solución no invasiva y en tiempo real para monitorear y controlar el contenido de humedad durante el proceso de deshidratación de frutas, lo que contribuye a mejorar la calidad y vida útil de los productos. Si bien este resumen ha abordado los fundamentos, el diseño, la calibración y la evaluación del sensor, es importante destacar que esta tecnología tiene un potencial aún mayor. Futuras investigaciones podrían enfocarse en la optimización del diseño del sensor, la implementación de técnicas avanzadas de calibración y el desarrollo de sistemas de adquisición de datos más sofisticados. El trabajo conjunto entre ingenieros eléctricos y expertos en alimentos y óptica es crucial para seguir impulsando la innovación y tecnología, para así contribuir al progreso de la industria alimentaria en beneficio de la sociedad. Este proyecto de investigación atiende al segundo objetivo de desarrollo sostenible (ODS) que es el poner fin al hambre, conseguir la seguridad alimentaria y una mejor nutrición, al tratarse del desarrollo de un dispositivo para el proceso del control de calidad en alimentos deshidratados. Por último, la evaluación del dispositivo desarrollado mostró resultados interesantes ya que se pudo discernir el nivel de contenido de agua en las muestras mediante la detección de la intensidad de la luz infrarroja transmitida. Esto dio información para obtener una gráfica que relaciona la lectura del sensor con los valores de humedad.
Rodríguez Barreras César Ramón, Universidad Autónoma de Sinaloa
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

PROCESAMIENTO CON ACEITE VEGETAL Y DEGRADACIóN DE UN POLíMERO DE FUENTES RENOVABLES


PROCESAMIENTO CON ACEITE VEGETAL Y DEGRADACIóN DE UN POLíMERO DE FUENTES RENOVABLES

Pineda Feria Héctor Adán, Instituto Tecnológico Superior de Puruándiro. Rodríguez Barreras César Ramón, Universidad Autónoma de Sinaloa. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los polímeros son macromoléculas formadas por la unión de moléculas de menor tamaño denominadas monómeros, existen polímeros de orígen animal, vegetal y mineral, de los cuales los de orígen mineral son más utilizados, esto debido a sus propiedades que se han vuelto algo indispensable en el uso cotidiano del ser humano, pero, como tiene ventajas, tiene también desventajas. Los polímeros de orígen mineral son aquellos con los que se logran elaborar distintos compuestos plásticos que son utilizados a gran escala por lo que llegan a ser un problema muy grave debido a que se fabrican en cantidades industriales y su tiempo de degradación es muy largo, ya que va de 100 a 1000 años, es por esto que se considera que son materiales de descomposición muy lenta, por lo tanto la disposición de estos polímeros provoca un daño al medio ambiente que puede llegar a ser irreparable. Debido a esto se están realizando alternativas para disminuir el consumo y aumentar el reciclaje de polímeros de un solo uso, sin embargo, dentro de la vida del ser humano estos materiales son de suma importancia, por lo que se están tomando acciones para sustituirlos por otros que sean amigables con el medio ambiente utilizando polímeros que sean de orígen vegetal y que sean biodegradables, para disminuir el impacto de este tipo de materiales. Gracias a esta alternativa, en este verano de investigación científica, nos centramos en la elaboración de un proyecto que consiste en la elaboración de muestras hechas con polímeros de orígen natural, las cuales se colocaron en una composta y comprobar que su masa va disminuyendo con el tiempo y que son biodegradables. Dicho experimento se llevó a cabo siguiendo la norma IS/ISO 20200:2004.



METODOLOGÍA

Materia prima de las composiciones empleadas. Acetato butirato de celulosa (CAB): El acetato butirato de celulosa es un material plástico que se deriva de la celulosa, un polímero natural que se encuentra en las plantas. Es el resultado de la reacción química de esterificación de la celulosa con anhídrido acético y anhídrido butírico. Se utiliza en la fabricación de recubrimientos, tintas, adhesivos, lacas, películas, plásticos moldeados y otros productos. Es especialmente útil en aplicaciones donde se requiere una combinación de transparencia, resistencia y capacidad de aceptar pigmentos. Aceite vegetal: Es un aceite comestible que se extrae de las semillas de calabaza (Cucurbita pepo). Estas semillas son ricas en grasas y nutrientes, lo que permite obtener un aceite con ayuda de un extractor especial.  Parámetros de elaboración. Se realizaron diversas placas con una variación en su composición con respecto a su porcentaje de aceite vegetal incorporado, esto con la finalidad de analizar sus propiedades y compararlas entre sí. La variación de porcentajes de aceite de calabaza fue desde el 0%, 5% y 10% en masa de una mezcla neta de 40 gramos por placa de CAB. Las placas se realizaron por medio de termocompresión a distintas presiones, desde 150 psi, 200 psi y 250 psi, cada una durante 2 minutos. Para realizar el ensayo de biodegradación, primero se pesan cada una de las probetas para tener como punto de partida el peso de las mismas. Después cada cierto tiempo se sacan de la composta se enjuagan y se secan para obtener la disminución de la masa de cada una de las probetas. El experimento consiste en almacenar 10 muestras en recipientes individuales según el contenido de aceite. Se pesan con un promedio de 210 gramos cada uno. Luego, se colocan en un horno a 58°C por 24 horas. Después, se vuelven a pesar y se añade agua para compensar cualquier pérdida de peso y restaurar el peso inicial.


CONCLUSIONES

Según los resultados obtenidos, se observa que las muestras de CAB puro presentaron la mayor pérdida de peso, con un promedio de 0.00393 gramos. Las muestras que contenían CAB con un 5% de aceite de semilla de calabaza tuvieron una pérdida de peso menor, con un promedio de 0.00278 gramos, mientras que las muestras que contenían CAB con un 10% de aceite de semilla de calabaza presentaron una pérdida intermedia de peso, con un promedio de 0.0036 gramos. Por lo tanto, se puede concluir que las muestras de CAB puro fueron las que más perdieron peso durante el experimento, mientras que las muestras con CAB y un 5% de aceite de semilla de calabaza mostraron una menor pérdida de peso, y las muestras con CAB y un 10% de aceite de semilla de calabaza tuvieron una pérdida de peso intermedia. Aunque el período de análisis se limitó, estos resultados aún proporcionan una visión importante sobre las diferencias en la pérdida de peso entre las distintas muestras con diferentes porcentajes de aceite de semilla de calabaza. Si se requiere una evaluación más completa en el futuro, sería recomendable realizar un análisis más extenso para obtener resultados más sólidos y representativos.
Rodríguez Beas Lorena Giselle, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

DESARROLLO DE PROGRAMAS PYTHON PARA LA SOLUCIóN DE PROBLEMAS CLáSICOS DE LA INGENIERíA QUíMICA.


DESARROLLO DE PROGRAMAS PYTHON PARA LA SOLUCIóN DE PROBLEMAS CLáSICOS DE LA INGENIERíA QUíMICA.

Rodríguez Beas Lorena Giselle, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En las industrias modernas, el consumo innecesario de recursos naturales, las emisiones de gases de efecto invernadero y la falta de prácticas sostenibles para reducir el impacto ambiental negativo, se han convertido en problemas evidentes. Estos desafíos afectan tanto a la economía como al medio ambiente, y se requieren soluciones innovadoras para abordarlos de manera efectiva. La industria química, al ser uno de los pilares fundamentales de la economía global, juega un papel vital en la producción de bienes esenciales para la sociedad. Sin embargo, según la Agencia Internacional de Energía (AIE) en 2023, la industria química es el mayor consumidor de energía en el sector industrial, y el tercer mayor emisor directo de CO2. Esto se debe a que alrededor de la mitad de la energía utilizada en el sector químico se consume como materia prima en lugar de fuente de energía. La producción de amoníaco es responsable del 45% de las emisiones, seguida de metanol (28%) y productos químicos de alto valor (27%). En este contexto, el uso del lenguaje de programación Python y el módulo CoolProp representa una prometedora oportunidad para optimizar procesos y resolver de manera eficiente problemas termodinámicos en la industria química, contribuyendo así a la solución de estos problemas y alineándose con el Objetivo de Desarrollo Sostenible (ODS) 12 de las Naciones Unidas, que promueve pautas de consumo y producción sostenible.



METODOLOGÍA

Se comenzó seleccionando módulos en Python que proporcionaran datos termodinámicos precisos y actualizados. Inicialmente se seleccionó el módulo thermo 0.2.24" e inició la investigación de las funciones que el mismo módulo otorgaba. Para realizar esto, se realizó una adaptación del módulo a problemas termodinámicos relacionados con el cálculo de eficiencias y potencias en ciclos de Rankine. Se buscó que las propiedades termodinámicas disponibles en el módulo fueran correctas y confiables, y que las funciones se ajustaran a necesidades específicas. Sin embargo, durante el desarrollo del estudio, se identificó un inconveniente relevante relacionado con la base de datos del módulo en cuestión. Este problema se encontró al realizar un diagrama de fases del agua, donde se observó que muchas de las entropías y entalpías calculadas más allá del punto de saturación no concordaban con los datos obtenidos a través de comparaciones con referencias confiables. Dichas referencias incluyeron el libro de Cengel, Y. A., & Boles, M. A. (2019) "Termodinámica: Una aproximación de ingeniería" en su 9ª edición, publicado por McGraw-Hill, y el libro de Koretsky, M. (2018) "Engineering and Chemical Thermodynamics" en su 7ª edición, publicado por John Wiley & Sons, Inc. Una vez identificado este problema, se optó por buscar otro módulo confiable. Así fue como se encontró el módulo "CoolProp", el cual se sometió a un proceso similar para crear un nuevo diagrama de fases. Los resultados obtenidos fueron precisos, lo que llevó a tomar la decisión de trabajar con este nuevo módulo. Para facilitar su uso, se elaboró un breve manual de usuario tras una investigación más detallada del mismo. Además, el investigador proporcionó 5 programas diseñados para calcular volumen, temperatura o presión de sustancias puras mediante ecuaciones de estado como Van Der Waals, de Redlich Wong, de Peng Robinson, de Dietereci y de Lee Kesler. Sin embargo, estos programas requerían que el usuario ingresara datos de temperaturas y presiones críticas, así como un factor acéntrico, lo que resultaba ineficiente y poco práctico. Para solucionar esta limitación, se realizó no solo la adaptación del módulo a estas ecuaciones de estado, sino que también se desarrolló un programa principal más intuitivo. Al ejecutarlo, se le pregunta al usuario si desea trabajar con mezclas o sustancias puras, y luego se le ofrecen las ecuaciones de estado disponibles. Solo es necesario ingresar el nombre de la sustancia o sustancias con las que desea trabajar, y especificar la propiedad termodinámica de interés, como el volumen, la temperatura o la presión, además de solicitar las dos propiedades relevantes para resolver este problema. En caso de trabajar con mezclas, también se le pide que ingrese las fracciones de las sustancias que componen la mezcla. Este enfoque simplificado, es más amigable para el usuario y permite agilizar el proceso de cálculo y solución de problemas termodinámicos de manera más efectiva. Posteriormente, el investigador proporcionó algunos programas para obtener la fugacidad de sustancias puras, incluyendo un ejemplo de cálculo de fugacidades para mezclas utilizando la ecuación de Peng Robinson. Dichos programas sirvieron como base y para desarrollar diversos programas capaces de obtener los coeficientes de fugacidad y fugacidades tanto de sustancias puras, mezclas binarias como de mezclas multicomponentes. Posteriormente se integraron en un programa principal, lo cual resultó en una herramienta práctica para el estudio termodinámico. Finalmente se llevó a cabo una revisión de los programas, tomando como referencia diversos problemas encontrados en referencias bibliográficas, como los libros mencionados anteriormente. Se compararon los resultados para confirmar la fiabilidad de los programas, y se pudo constatar que estos eran adecuados para la resolución de diversas problemáticas.


CONCLUSIONES

En el verano de investigación se logró adquirir conocimientos sobre herramientas como Python y CoolProp, demostrando su potencial y fiabilidad para abordar problemas termodinámicos aplicables a la industria química. Así como se realizaron algunos programas que ayudan a resolver una cantidad de problemas termodinámicos, se evidenció que dichas herramientas pueden tener un amplio rango de aplicaciones y pueden escalarse para la optimización de proyectos mucho más complejos. El trabajo realizado no solo demuestra su eficacia, si no también su relevancia en el ámbito industrial. 
Rodríguez Camacho Marco Luis, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez

MONITOREO DE LA SEGURIDAD INDUSTRIAL VIRTUAL PARA EL PROCESO DE DESORCIóN ASOCIADO CON SUSTANCIAS PELIGROSAS.


MONITOREO DE LA SEGURIDAD INDUSTRIAL VIRTUAL PARA EL PROCESO DE DESORCIóN ASOCIADO CON SUSTANCIAS PELIGROSAS.

Rodríguez Camacho Marco Luis, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Carlos Alberto Ochoa Ortiz, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La seguridad industrial es un aspecto crítico en la gestión de procesos químicos asociados con sustancias peligrosas. A pesar de la importancia de la prevención de accidentes y la protección de los trabajadores y el entorno, aún existen desafíos en el monitoreo y la gestión efectiva de estos procesos. El uso de herramientas virtuales y tecnologías avanzadas, como el modelado 3D y el desarrollo de entornos virtuales, puede mejorar la seguridad y eficiencia de los sistemas industriales. El análisis de riesgos, como el método HAZOP, es determinante para conocer los puntos decisivos y detonantes involucrados en cada parte del sistema y mejorar la seguridad en el laboratorio.



METODOLOGÍA

El sistema propuesto utiliza modelos 3D para simular el comportamiento de la columna de desorción del laboratorio de operaciones unitarias, haciendo uso de valores obtenidos mediante pruebas experimentales que permiten la obtención de datos, se configura el entorno en el cual los componentes y diseños son acomodados de tal manera que se logre un sistema con los componentes totalmente visibles, se realiza la programación de los Scripts que permiten el funcionamiento de las interfaces y las acciones de los objetos con las cuales se obtiene un resultado simulado del estado del sistema con los parámetros utilizados permitiendo con esto la reducción de riesgos al realizar las pruebas en un entorno físico. Blender se utilizó para crear modelos 3D de los elementos que componen al sistema de desorción. Unity permite importar estos modelos y crear experiencias interactivas y simulaciones en 2D, 3D, realidad virtual y aumentada. Un avatar guía diseñado con VRoid Studio enriquece la visualización del sistema y mejora la experiencia del usuario haciéndola más interactiva. La interfaz principal tiene un diseño abierto que permite una amplia vista del sistema y se pueden utilizar atajos en el teclado y el mouse para visualizar los elementos desde diferentes ángulos. Se establecieron limitaciones para restringir el movimiento de la cámara a un espacio determinado. Para el desarrollo de la interfaz de manipulación de los parámetros se requirió del análisis de seguridad mediante el método HAZOP, es indispensable para este método contar con determinadas tablas que nos permiten tener una noción del nivel de consecuencia que representan determinados eventos. Para ello se hace uso de indicadores que representan la categoría de frecuencia con la que los eventos suelen y pueden suceder. El análisis utiliza palabras guía para identificar desviaciones en un proceso industrial y evaluar sus consecuencias. Se determinan los parámetros y causas, se incluyen salvaguardas y se asigna un grado de riesgo basado en la frecuencia y gravedad de la consecuencia. El análisis es determinante cuando se busca mejorar la seguridad dentro del laboratorio pues permite conocer cuáles son los puntos decisivos y los detonantes que están involucrados en cada una de las partes del sistema que será manipulado y es indispensable conocer cada uno de estos aspectos. El sistema desarrollado se caracteriza por su eficiencia en el consumo de recursos computacionales, al requerir un bajo poder de procesamiento lógico y enfocarse en el aprovechamiento del poder de gráficos. Esta estrategia se ha logrado mediante el uso de modelos 3D para simular el comportamiento de la columna de desorción, donde la carga computacional recae principalmente en la generación y visualización de elementos visuales.


CONCLUSIONES

Durante la estancia de verano, se ha llevado a cabo una investigación enfocada en el desarrollo de un sistema de simulación 3D para estudiar el comportamiento de la columna de desorción. El sistema propuesto emplea modelos 3D basados en datos obtenidos mediante pruebas experimentales, lo que permite obtener información precisa y confiable. Mediante la configuración del entorno virtual, todos los componentes y diseños se han dispuesto de manera que sean completamente visibles y accesibles para su análisis. Se ha realizado la programación de Scripts que gobiernan las interfaces y las interacciones de los objetos, lo que ha permitido obtener resultados simulados del estado del sistema bajo diversos parámetros. Esta simulación ha sido una valiosa herramienta para reducir los riesgos asociados a las pruebas en un entorno físico real. Al simular las condiciones de funcionamiento, se han podido identificar y prevenir posibles inconvenientes, garantizando así una operación más segura y eficiente. Los resultados obtenidos a partir de esta simulación 3D proporcionan una comprensión detallada del comportamiento del sistema, lo que ha sido de gran ayuda para optimizar el diseño y mejorar su rendimiento. Además, este proyecto ha permitido ahorrar tiempo y recursos, ya que se pueden realizar múltiples pruebas y ajustes en el entorno virtual antes de proceder con pruebas físicas en el sistema real. Entre los componentes del sistema, se ha utilizado el látex como material de caucho para las mangueras que conectan la torre de desorción con el resto de la unidad de proceso. El látex exhibe una resistencia a altas temperaturas y presiones de vapor en el sistema, mostrando una naturaleza elástica que le permite soportar la presión del flujo de vapor y evitar fugas. Se ha demostrado que conserva sus propiedades mecánicas e integridad estructural en condiciones altas de temperatura, dentro del rango de [21°C - 103°C]. En aplicaciones industriales, la selección y el diseño adecuados de las mangueras son fundamentales para garantizar la resistencia y durabilidad del sistema.
Rodríguez Carvajal Eva Jaqueline, Universidad de Guadalajara
Asesor: Dr. Luis Ariosto Serna Cardona, CIAF Educación Superior

SISTEMA DE PREDICCIóN ORIENTADO A LAS PRUEBAS SABER 11° MEDIANTE VARIABLES SOCIODEMOGRáFICAS Y ECONóMICAS UTILIZANDO TéCNICAS DE APRENDIZAJE AUTOMáTICO.


SISTEMA DE PREDICCIóN ORIENTADO A LAS PRUEBAS SABER 11° MEDIANTE VARIABLES SOCIODEMOGRáFICAS Y ECONóMICAS UTILIZANDO TéCNICAS DE APRENDIZAJE AUTOMáTICO.

Berecochea Estrada Linda Anaid, Instituto Tecnológico de Morelia. Moreno Gómez José Antonio, Instituto Tecnológico de Morelia. Rodríguez Carvajal Eva Jaqueline, Universidad de Guadalajara. Santacruz Espinoza Guillermo, Instituto Tecnológico de Morelia. Asesor: Dr. Luis Ariosto Serna Cardona, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

Para los colombianos, alcanzar altos niveles de educación es vital para lograr el éxito y prosperidad en diferentes aspectos, desde el aumento de ingresos y productividad hasta el compromiso político y la igualdad social. Sin embargo, las enormes brechas de inequidad que existen en el país perjudican a los estudiantes de grupos o regiones con carencias socioeconómicas, impidiendo que el estudiante desarrolle sus actividades académicas con normalidad, aumentando así la deserción. Debido a esto, el país busca evolucionar en este aspecto y lograr estar conformado por ciudadanos competentes, formados académicamente, que puedan satisfacer los requisitos impuestos por la oferta laboral. Actualmente el ingreso a la educación superior en Colombia está determinado en gran medida por el desempeño en las pruebas saber 11, prueba que evalúa las áreas fundamentales del conocimiento como matemáticas, lectura crítica, ciencias naturales, lengua inglesa y ciencias sociales y ciudadanas, además de recoger información de tipo sociodemográfico y económica de los estudiantes de educación media. Estas pruebas no solo sirven como criterio de ingreso para la educación superior, adicional a esto, también aportan al desarrollo de investigaciones de carácter cultural, social y educativo implementadas por el gobierno mediante las convocatorias del ICFES. De acuerdo a lo planteado anteriormente es evidente que existe un problema metodológico en relación a la determinación de las variables no académicas que influyen en los resultados de las pruebas saber 11, y siendo consecuente con el auge actual de las técnicas de aprendizaje automático en el campo educativo, se hace pertinente plantear la siguiente pregunta de investigación ¿Cómo desarrollar un sistema para predecir los resultados de las pruebas saber 11°, mediante los patrones de desempeño obtenidos de las variables de carácter social y económico y usando técnicas de aprendizaje de máquina?



METODOLOGÍA

Las bases de datos que se utilizaron para este proyecto fueron exclusivamente del ICFES. Se utilizaron las bases de calendario 1 y 2 de las pruebas saber 11° a partir del año 2015 hasta el 2022. Se utilizaron todas las muestras en este rango de años, esto con el fin de tener un mejor entrenamiento del modelo de predicción y poder saber cuáles son los factores de desempeño que más afectan el nivel académico de la nación y poder tener un modelo de predicción general para todo el país colombiano. Se organizaron las bases de datos a partir de las encuestas realizadas a los estudiantes colombianos sobre la prueba saber 11°. Una vez alineado, se empezó con el preprocesamiento. Primero, se analizó detenidamente cada una de las características proporcionadas por la base de datos, por consiguiente, se eliminaron las columnas que resultaban irrelevantes o de datos repetitivos a los que ya existían y se pueda tener un procesamiento realmente efectivo. El siguiente reto al que se enfrentaron fue la diversidad en la escritura de un mismo dato. Este error humano surgió debido a que diferentes personas lo redactaron de manera distinta, según su percepción, lo que ocasionó la existencia de múltiples variantes del mismo dato. Esta variabilidad en la escritura generó una mayor cantidad de datos únicos, lo que complicó la precisión del análisis. Para resolverlo, se implementó una estrategia de normalización para las palabras mal redactadas. Luego, con las características resultantes se realizó una lista con todos los valores únicos que proporcionaba cada posible respuesta en las columnas, todo eso para poder convertir los datos categóricos y pasarlos a datos numéricos, que son mucho más fáciles y eficientes de procesar. Otro de los problemas que poseían los datos era la dimensionalidad, el exceso de características, por lo que para eliminarlos, se utilizaron diferentes métodos para así debatir cuál era el más conveniente y acertado.


CONCLUSIONES

Con los avances actuales en la investigación, nos encontramos en la fase final del preprocesamiento de datos, donde el objetivo principal es abordar el desafío de la dimensionalidad mediante el empleo de tres métodos distintos: correlación, PCA y ReliefF. Con el análisis de estos enfoques, buscamos reducir la complejidad del conjunto de datos para facilitar el siguiente paso de la investigación. Al finalizar esta etapa, podremos debatir y determinar cuál de los métodos se muestra más eficiente y adecuado para el desarrollo posterior de la investigación. La selección del método óptimo será de gran importancia para obtener resultados precisos y significativos en el entrenamiento de la inteligencia. En cada uno de estos métodos, nos enfocamos en el análisis de las matrices de correlación resultantes al final de cada proceso, analizando así, la disminución, parcial o total, de los cuadrados de color rojo en dichas matrices. El objetivo es lograr que la diagonal principal sea la única zona con este tono, mientras que el resto de los cuadros muestre preferentemente colores azules o blancos. Este patrón en las gráficas nos indica que la correlación entre los datos ha sido reducida de manera significativa, lo que a su vez implica una disminución en la dimensionalidad de los datos y una mayor eficiencia en la representación de la información relevante para la investigación. Al final, se tuvo un exhaustivo análisis de los tres métodos utilizados en el preprocesamiento y el equipo llegó a la conclusión de que se van a utilizar los dos últimos procesos para el siguiente paso de la investigación, debido a que se consideró que cada uno aportaba información relevante y se quiere comprobar qué método va a ser el más eficiente al momento de pasar por el procesamiento, en este caso, el método seleccionado sería k-means, que lamentablemente es un proceso muy tardado por la cantidad de datos que se presenta, por lo que ya no se dió el tiempo de seguir con este paso. 
Rodríguez Cuevas Frida Sofía, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

IMPLEMENTACIóN DE CONFIGURACIóN Y GESTIóN DE SERVICIOS EN UNA RED LAN, PARA DISMINUIR VULNERABILIDADES Y ATAQUES CIBERNéTICOS.


IMPLEMENTACIóN DE CONFIGURACIóN Y GESTIóN DE SERVICIOS EN UNA RED LAN, PARA DISMINUIR VULNERABILIDADES Y ATAQUES CIBERNéTICOS.

Rodríguez Cuevas Frida Sofía, Instituto Tecnológico Superior de Guanajuato. Solórzano Ramos Matías Eliseo, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Internet es una red global de computadoras, ordenadores y servidores que se encuentran interconectados entre si. Esto permite a las personas acceder y compartir información, comunicarse por diversas plataformas, con el incremento de usuarios, se aumenta el número de ataques informáticos. Hoy en día la tecnología es parte esencial para las personas, es por ello que se debe evaluar las vulnerabilidades que puede presentar la infraestructura en una red, en este proyecto se enfatizo en identificar las alteraciones provocadas por un ataque cibernético en una red LAN, a través de diversas técnicas y métodos éticos, esto se realiza a través de la creación de VLAN’s generando un mayor control, gestión y configuración de servicios y dispositivos.



METODOLOGÍA

A) Identificación de vulnerabilidades Aquí se escaneo la red, para identificar protocolos, puertos y servicios con los que contaba la red e infrestructura, nos permitio analizar los sistemas accesibles dentro de la red y conocer los componentes que son vulnerables a los ataques. B) Evaluación de vulnerabilidades  Se simularon ciberataques a servicios y dispositivos de red, para el servicio de telefonía se utilizó el protocolo SIP (Protocolo de iniciación de sesión), a través de Wireshark, este nos permitio el monitoreo del tráfico y se logró capturar la conversación entre redes. Para el servicio Web, se utilizó la denegación de servicios, debido a que este esta diseñado para tirar páginas web con apoyo de DDos que es para hacer una simulación de solicitud del servicio, a través del envío de paquetes simultaneo TCP y filtrado http. La inundación de puertos es una de las técnicas más utilizadas debido a que solo se comprueba que este abierto, pero se llega a saturar la comunicación y se puede llegar a apagar el puerto. C)Tratamiento de vulnerabilidades Creamos acl's extendidas y estas se implementaron cerca de los usuarios, donde se denego el servicio ICMP, WEB y correo, permitiendo controlar el tráfico hacia las subredes y los recursos.  Para verificar la implementación de las nuevas técnicas de seguridad, se volvieron a ejecutar los ciberataques. D) Informe de vulnerabilidades. Se comenzo a identificar las vulnerabilidades y se esta haciendo una evaluación de las mismas, permitiendo determinar vulnerabilidades a lo largo del tiempo.


CONCLUSIONES

En resumen, las vulnerabilidades son un fallo informático que pone en peligro al sistema y a la infraestructura de la red, pero es bien sabido que continuarán encontrando la forma de realizar los ciberataques, solo podrás actualizarte y estar preparado para resultar lo menos afectado. Son de mucha ayuda las políticas, porque estas permiten o niegan servicios dependiendo las necesidades, también para las empresas es muy útil implementar vlan's, faciliitando un poco más la administración.
Rodriguez Faurrieta Monserrat, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín

BIOPLáSTICOS A BASE DE NOPAL EN SONSóN, ANTIOQUIA.


BIOPLáSTICOS A BASE DE NOPAL EN SONSóN, ANTIOQUIA.

Rodriguez Faurrieta Monserrat, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Mauricio Vásquez Rendón, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

El uso excesivo de plásticos es un gran inconveniente para poder llevar a cabo un desarrollo sustentable para la sociedad, puesto que se evidencia un estilo de vida consumista e insostenible que representa una amenaza para el planeta, el cual se ve incapaz de absorber los residuos generados, que de igual manera es perjudicial para la salud humana. Los empaques de productos son uno de los residuos más encontrados en las calles debido a su gran utilización y en ocasiones el tamaño con el que cuentan se puede encontrar en bosques, reservas naturales, fosas sépticas, ríos, mares, etc. Por ende, al tener una aglomeración de residuos a causa del uso excesivos de plásticos , se plantea utilizar una alternativa más viable como es la elaboración de bioplásticos para empaques de producto a base de nopal  (planta perteneciente a la familia de las Cactáceas y, más concretamente, al género Opuntia), aprovechando una de las regiones productoras de dicha planta ubicada en Sonsón, Antioquia, ya que la región es cultivadora de higo por lo cual cuenta con residuos agroindustriales que pueden ser aprovechados para la elaboración de bioplásticos debido a las grandes.



METODOLOGÍA

Para la elaboración de bioplásticos a base nopal se realizó principalmente la extracción del mucílago, el cual es el ingrediente principal en la elaboración de dichos plásticos, se extrajo por medio del método de baño maría, el cual consiste en calentar un recipiente con el material sumergiéndolo parcialmente en agua caliente. El primer paso para la extracción es pelar y picar el nopal en trozos pequeños, el segundo paso es molerlo en una licuadora durante 2 minutos, el tercer paso es colarlo por medio de una tela para colar (también conocida como estameña), posteriormente se lleva al baño maría a una temperatura de 85 °C hasta que empiece a hervir para poder separar las fibras restantes del mucilago, como paso final se deja reposar durante 24 horas para poderse utilizar. Se realizaron tres tipos de bioplásticos con la extracción de mucílago cada uno de los procesos se experimentaron por medio del método de baño maría y fuego directo optando por el método de baño maría para tener un mejor control de la temperatura; El primero fue a base de mucílago y almidón se emplearon 212 g de mucílago,20 g de almidón,10 g de glicerina y 12 g de vinagre, siguiendo el siguiente proceso, calentar el mucilago por 5 minutos por medio del método de baño maría a una temperatura de 85 a 92 °C > integrar el almidón, glicerina y vinagre al mucilago mezclar hasta que todo quede bien integrado y se obtenga una mezcla sin grumos >llevar la mezcla nuevamente a baño maría sin dejar de batir por 45 min a 85 a 92 °C > verter la mezcla en una superficie plana y dejar secar. El segundo fue a base de mucílago y gelatina se utilizaron 212 g de mucilago,20 g de gelatina,10 g de glicerina y 12 g de vinagre, siguiendo el siguiente proceso, calentar el mucilago por 5 minutos por medio del método de baño maría a una temperatura de 85 a 92 °C > integrar la gelatina, glicerina y vinagre al mucilago mezclar hasta que todo quede bien integrado y se obtenga una mezcla sin grumos > llevar la mezcla nuevamente a baño maría sin dejar de batir por 45 min a 85 a 92 °C > verter la mezcla en una superficie plana y dejar secar. Ya se está proponiendo una tercera ruta a base de mucilago de nopal sin plastificante, en la cual se está, estableciendo el proceso más viable, tal como se muestra a continuación. Se mezclaron 80 g de mucilago,15 g de glicerina y 10 g de vinagre, siguiendo el siguiente proceso; calentar el mucilago por 5 minutos por medio del método de baño maría a una temperatura de 85 a 92 °C > integrar glicerina y vinagre al mucilago mezclar hasta que todo quede bien integrado y se obtenga una mezcla sin grumos > llevar la mezcla nuevamente a baño maría sin dejar de batir por 45 min a 85 a 92 °C > verter la mezcla en una superficie plana y dejar secar.


CONCLUSIONES

En conclusión, se determinó que el método de baño maría es él óptimo, ya que permite evitar que el mucílago se queme o se calienten demasiado rápido permitiendo que el agua actúa como un regulador de temperatura suave y uniforme. El primer procedimiento para la obtención de bioplásticos dio como resultado una película plástica de color café traslúcido y maleable durante el proceso de secado. En el segundo proceso dio como resultado una película plástica color verde oscuro, maleable pero flexible. Se llevaron a cabo dichos procesos con la finalidad de obtener cuál ruta es viable para la obtención de bioplásticos para conseguir un bioplástico que solo contenga mucilago sin la necesidad de un ingrediente extra que funcione como plastificante, obteniendo hasta el momento la tercera ruta que está en fase de experimentación. .
Rodriguez Figueroa Ana Margarita, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

AUTOMATIZACION DE LOS SGC DE LA CASA CERTIFICADORA NORMIA MEDIANTE GOOGLE Y POWER APPS


AUTOMATIZACION DE LOS SGC DE LA CASA CERTIFICADORA NORMIA MEDIANTE GOOGLE Y POWER APPS

Ochoa Vazquez Sabas, Instituto Tecnológico de Ciudad Juárez. Rodriguez Figueroa Ana Margarita, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema La calidad dentro de una empresa es importante porque permite diferenciarse de la competencia, ofrecer un producto o servicio de mayor valor y mejorar la satisfacción y lealtad de los clientes. Todo esto se traduce en un mayor beneficio para la empresa. La empresa debe contar con los siguientes controles de Calidad: Sistema de Control de Calibración de los diferentes equipos dentro de la empresa, ya que cuentan con fechas vencidas de calibración por no llevar un control de tiempos. Sistema de Control de Documentos esto para tener información actualizada, formatos que cambian de revisión, cambios de procesos, hojas de inspección, la creación de nuevos formatos etc. Sistema de Control de quejas de Clientes, esto para tener un orden y dar prioridad y agilidad a cada una de ellas. Un Sistema para documentar los hallazgos en las Auditorias Internas dentro de la empresa.



METODOLOGÍA

Metodología Después de realizar un estudio se definió el proyecto elaborando una breve introducción sobre la empresa, y las soluciones para cada uno de los problemas. Con las herramientas de las Google y Power Apps, se puede controlar cada uno de los problemas ya mencionados. Sistema de Control de Calibración de los diferentes equipos dentro de la empresa, con la herramienta de Calendario se puede programar fechas de calibración para cada uno de los equipos registrándolos en un Excel para llevar un control de Calibración.   Sistema de Control de Documentos esto para tener información actualizada, formatos que cambian de revisión, cambios de procesos, hojas de inspección, la creación de nuevos formatos etc. Se agrega información a Drive con la ayuda de Sistemas de la Información para poner un candado, esto para que solo puedan ver la información y no puedan modificarla. Toda persona tendrá acceso a los diferentes formatos, tablas de revisión, Diagramas, dibujos etc. Sistema de Control de quejas de Clientes, esto para tener un orden y dar prioridad y agilidad a cada una de ellas. Implementar el uso de correo y programar juntas por medio de Meet o Teams y dar seguimiento a las diferentes quejas, esto es muy importante ya que si una queja viene de otro estado o país se pueda tomar esa video llamada y ver el problema y la solución sin necesidad de salir del centro de trabajo ahorrando costos. Un Sistema para documentar los hallazgos en las Auditorías Internas dentro de la empresa. Aquí se implementa el uso de Drive y Calendario, para esto se subirá toda evidencia en la nube y el calendario lo usaremos para programas juntas ya sea en una sala de la empresa o por medio de Teams, Meet o Zoom.  


CONCLUSIONES

Conclusiones Durante la estancia de verano se logró adquirir conocimientos para solución de los diferentes que atacan a la empresa por medio de las herramientas que nos ofrece las Google y Power Apps, implementando estas aplicaciones se da la mejora continúa dando solución a cada uno de los problemas.
Rodríguez Galaviz Brian Axel, Universidad Tecnologica de León
Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León

FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.


FEDE: DESARROLLAR UN MóDULO DE COMUNICACIóN SERIE RS232 PARA LA COMUNICACIóN DE DATOS ALFANUMéRICOS ENTRE UNA PLACA DE EVALUACIóN DEL ATMEGA328P Y UNA PC CON SISTEMA OPERATIVO WINDOWS. OSCAR: DESARROLLAR UN MóDULO DE COMUNICACIóN RS232 ORIENTADO A EVENTOS PARA EL MICROCONTROLADOR ATMEGA328P QUE MONITORIZA VARIABLES, DE UNA PLANTA DE UN SISTEMA DE CONTROL, DESDE UNA PC. DANI: MODIFICAR UN PATíN DE EQUILIBRIO PARA QUE USE UN CONTROL DIFERENCIAL, DE DOS CONTROLES DE PUñO, DE VELOCIDAD PARA EL CONTROL DE LA DIRECCIóN. OSVI: IMPLEMENTAR UNA HMI WEB PARA MONITOREO DE EVENTOS EN LA NUBE DE UNA PLANTA DE UN SISTEMA DE CONTROL, EXCITANDO EL INTERCAMBIO EN DEMANDA DE DATOS ENTRE UN SERVIDOR SCADA QUE USA LA MENSAJERíA BROKER DE MSSQL Y LA PLANTA DE QUE USA UN PROTOCOLO DE DEMANDA DE DATOS ORIENTADO A EVENTOS. ARATH: DEFINIR UN MODELO DE PROTOCOLO DE DEMANDA DE DATOS PARA UN MóDULO DE ADQUISICIóN DE DATOS QUE TRABAJA EN DEMANDA Y ES ORIENTADO A EVENTOS. SOTO: PROGRAMAR MóDULO DE SERVIDOR SCADA PARA LECTURA Y ESCRITURA DE BASE DE DATOS ORIENTADA A EVENTOS GALAVIZ: IMPLEMENTAR SENSORES DE BIOMETRíA DE HUELLA DIGITAL, POSICIONAMIENTO GLOBAL GPS Y ESTADO DE CARGA DE BATERíA EN UN VEHíCULO ELéCTRICO USANDO EL MICROCONTROLADOR ATMEGA328P.

Aguirre Mena Federico de Jesus, Universidad Tecnologica de León. Castellanos Luevano Oswaldo, Universidad Tecnologica de León. Cruz Ramirez Oscar Mauricio, Universidad Tecnologica de León. Duarte Hernández Daniel, Universidad Tecnologica de León. Palacios Saldaña Brian Arath, Universidad Tecnologica de León. Perez Soto Jose Saul, Universidad Tecnologica de León. Rodríguez Galaviz Brian Axel, Universidad Tecnologica de León. Asesor: Mtro. Gilberto López Padilla, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proyecto reforzará la interacción con diferentes periféricos y dispositivos, como el módulo de biometría de huella digital, el módulo GPS y el sensor de carga de la batería. También se reforzará el diseño y montaje de un circuito adecuado para conectar y gestionar estos componentes.  



METODOLOGÍA

El objetivo de este proyecto es integrar una serie de sensores en un vehículo eléctrico para mejorar la seguridad y funcionalidad del mismo. Los sensores que se utilizarán son: Sensor de biometría de huella digital: Este sensor se aseguró para autenticar al conductor y permitir el acceso al vehículo. La huella digital del conductor se almacenará en una base de datos y se comparará con la huella digital escaneada para conceder o denegar el acceso. Posicionamiento global GPS: Se implementará un módulo GPS para obtener la ubicación precisa del vehículo. Esto permitirá realizar funciones como seguimiento en tiempo real, registro de trayectos y localización en caso de robo o emergencia. Sensor de estado de carga de batería: Para garantizar la eficiencia y seguridad del vehículo eléctrico, se obtendrá un sensor para medir el nivel de carga de la batería. Esto permitirá al conductor tener una estimación precisa del alcance del vehículo antes de necesitar una recarga. El microcontrolador ATMega328P será el cerebro del sistema, encargado de procesar los datos de los sensores y controlar las diferentes funciones del vehículo. Para lograrlo, se programará el microcontrolador en lenguaje C o algún lenguaje de programación compatible.


CONCLUSIONES

Al finalizar el proyecto, se tendrá un vehículo eléctrico más seguro y funcional, con capacidades avanzadas de autenticación, localización y supervisión del estado de la batería. Esto contribuirá a mejorar la experiencia del usuario y fomentará el uso de vehículos eléctricos como una opción de movilidad más sostenible.
Rodríguez Gámez Brianda Lizbeth, Universidad Autónoma de Sinaloa
Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa

ESTUDIO DE NANOMATERIALES CON POTENCIAL USO EN LA ELIMINACIÓN DE COLORANTES CONTAMINANTES CON ZEOLITAS


ESTUDIO DE NANOMATERIALES CON POTENCIAL USO EN LA ELIMINACIÓN DE COLORANTES CONTAMINANTES CON ZEOLITAS

Rodríguez Gámez Brianda Lizbeth, Universidad Autónoma de Sinaloa. Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Debido a los altos colorantes contaminantes del medio ambiente es posible utilizar alternativas para su eliminación por medio de la fotocatalisis



METODOLOGÍA

En la primera semana de mi verano científico el profesor se presentó, y nos dio un recorrido por las instalaciones, posteriormente nos dio la tarea de hacer una presentación con los materiales y reactivos (zeolitas, arcillas, zinc, sulfuro de zinc) donde especificamos: Que es, tipos, sus aplicaciones, usos. El profesor nos dio una presentación sobre los materiales y reactivos a utilizar complementado nuestra información, también nos dio una demostración de lo que se observaría en el experimento y que reacción tendría los materiales. El profesor nos explicó el plan de trabajo que se llevaría semana a semana, como también los pasos a seguir en la metodología del experimento; luego nos revisó y corrigió la presentación que había pedido con anterioridad, posteriormente nos asignó el material que trabajaría cada participante, en mi caso fue la Zeolita. Al iniciar el experimento el profesor nos mostró como se debe de registrar adecuadamente las muestras en la libreta (como se debe de marcar para identificarlas) y nos proporcionó el material y el equipo que se tendría que utilizar, se empezó por lavar todo el equipo: utensilios, los filtros, y la maquinaria. Luego de terminar con la limpieza se procedió a calcular las cantidades que se necesitarían tanto de zinc como del sulfuro para cada muestra. Se realizó el pesado de 5 grs por muestra de zeolita y arcilla que se necesitaría en cada muestra son 5 muestras de zeolita y 5 muestras de arcillas (en total se trabajara con 10 muestras) y luego se les hidrato con 50 ml de agua des-ionizada, para después pesar la cantidad de zinc que se necesitara para cada muestra y se procedió a hidratarla de la misma manera como se explicó anteriormente. Se dejará hidratando mínimamente 24 horas las muestras, posteriormente se movieron las muestras al equipo termo baño (baño térmico) donde regularizara la temperatura a 50°C que es la que se necesita en la muestra, cuando las muestras alcanzan la temperatura adecuada se coloca un agitador magnético a la muestra y se procede a añadirle el zinc con la ayuda de un gotero (ya que se debe añadir gota a gota), ya que se vertió todo el zinc se deja la muestra mezclando por 25 minutos. Después se pasa la muestra a un filtro, terminado el primer filtrado se deberá de dar dos lavados con agua des-ionizada para luego pasar la muestra en un tubo de ensayo y colocarle 75 ml de agua des-ionizada para posteriormente dejar hidratar la muestra por mínimamente 24 horas, con ello se logrará provocar un cambio iónico. Se prepara el sulfato, para esto con la ayuda del profesor se realizaron los cálculos para lograr determinar la cantidad que se necesitara en cada muestra, luego se pasa a pesar el sulfuro para cada muestra y posteriormente se agrega en un tubo de ensayo y se le añade 75 ml de agua des-ionizada para hidratarla por 24 horas. Después de pasar el tiempo adecuado se vierte la zeolita con el zinc y el sulfato como también la arcilla con el zinc y el sulfato esta metodología se seguirá para lograr realizar el intercambio iónico con el sulfuro de zinc. Al realizar el experimento para el intercambio iónico la muestra que se ha recolectado con anterioridad se tiene que dejar secando un tiempo prolongado por ello se colocara la muestra en un vaso precipitado cubriéndola con parafina de forma adecuada


CONCLUSIONES

Se obtienen nanoparticulas de Zn y ZnS en la matriz de la zeolita para su aplicación Para finalizar se llevó acabo la caracterización de las muestras que se han recolectado anteriormente, además de un análisis de los resultados obtenidos de las muestras de zeolita  para lograr ver sus diferencias y los cambios que se lograron en las 5 diferentes muestras.
Rodríguez Gloria Francisco Javier, Instituto Tecnológico Superior de Irapuato
Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre

ANALíTICA DE DATOS EN VOLUMEN DIARIO DE VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.


ANALíTICA DE DATOS EN VOLUMEN DIARIO DE VEHíCULOS DE CARGA DE ALIMENTOS EN EL CORREDOR VIAL DE LA CALLE 13.

Esquivel Rangel Jared Alejandro, Instituto Tecnológico Superior de Irapuato. Rodríguez Gloria Francisco Javier, Instituto Tecnológico Superior de Irapuato. Asesor: Mg. Leila Nayibe Ramírez Castañeda, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

Medir el impacto de volumen diario en el transporte de carga en mercancía del sector alimenticio dentro del corredor logístico de la calle 13 con esto se pretende establecer un indicador con más eficiencia en el estudio para la toma de decisiones.



METODOLOGÍA

• Revisión de la literatura de alrededor de 10 a 15 artículos en idiomas como en inglés y español para la elaboración de la ficha metodológica. • Estructuración de base de datos obtenidos de fuentes secundarias de las páginas oficiales de movilidad y transporte de la ciudad de Bogotá, con alrededor de 55,520 datos obtenidos. • Analítica e interpretación de los datos recopilados (Power BI).


CONCLUSIONES

Dados los resultados de la investigación se puede concluir que el nivel de tráfico de vehículos de carga tiene exceso durante todas horas del día, conforme a la revisión de literatura se pueden implementar mejores prácticas logísticas, como el establecer un horario fijo para que los vehículos de carga puedan circular, así como cargar y descargar las mercancías pertinentes que se distribuyen a lo largo de este importante corredor vial de la ciudad de Bogotá.  
Rodriguez Gomez Diego Alejandro, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Mg. Roberto Stevens Porto Solano, Corporación Universitaria Americana

USO DEL MACHINE LEARNING PARA LA DETECCIÓN DE DIABETES


USO DEL MACHINE LEARNING PARA LA DETECCIÓN DE DIABETES

Rodriguez Gomez Diego Alejandro, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Mg. Roberto Stevens Porto Solano, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad global que afecta a aproximadamente 382 millones de personas en todo el mundo, mayoritariamente con diabetes tipo 2. Aunque es una afección mundial, el 80% de los casos ocurren en países en desarrollo y subdesarrollados. En México y Colombia, la diabetes causa un alto número de muertes, con 151,019 fallecimientos en México en 2020 y un estimado de 3-10% de la población colombiana afectada. Ambos países destinan una parte significativa de su presupuesto de salud para combatir la diabetes, con México invirtiendo alrededor del 34% y Colombia cerca del 47% de sus presupuestos anuales. A pesar de esto, la diabetes no ha recibido la misma atención y recursos que enfermedades como el Covid-19, a pesar de causar el doble de muertes. El texto también destaca el potencial del aprendizaje automático (machine learning) en la detección y predicción de la diabetes. Varias empresas en México y Colombia ya utilizan el machine learning para diversos propósitos, como detectar réplicas de sismos y desarrollar inteligencias artificiales para empresas. Varios estudios están trabajando en la aplicación del machine learning para la detección temprana de la diabetes, obteniendo resultados prometedores con niveles de precisión superiores al 98%. Estos avances podrían mejorar la detección de la enfermedad y su gestión en el futuro.



METODOLOGÍA

Para este articulo utilizaremos la Pima Indian Diabetes Dataset la cual contiene 20 atributos de los cuales se destacan los siguientes 9: #Atributo Nombre del atributo 1 Number of times pregnant 2 Plasma glucose concentration a 2 hours in an oral glucose tolerance test 3 Diastolic blood pressure (mm Hg) 4 Triceps skin fold thickness (mm) 5 2-Hour serum insulin (mu U/ml) 6 Body mass index (weight in kg/(height in m)^2 7 Diabetes pedigree function 8 Age (years) 9 Class variable (0 or 1) Tabla 1 Atributos más utilizados Estos 9 datos los podemos encontrar como un subconjunto dentro de la interfaz del WEKA llamado Diabetes en los cuales ya se descartaron 14 atributos de baja o nula relevancia. En este conjunto llamado Diabetes podemos obtener de los atributos numéricos los siguientes datos no balanceados: Nombre del atributo Mínimo Máximo DesvEst Number of times pregnant 0 17 3.37 Plasma G glucosa concentration a 2 hours in an oral glucosa tolerance test 0 199 31.973 Diastolic blood pressure (mm Hg) 0 122 19.356 Triceps skin fold thickness (mm) 0 99 15.952 2-Hour serum insulin (mu U/ml) 0 846 115.244 Body mass index (weight in kg/(height in m)^2 0 67.1 7.884 Diabetes pedigree function 0.078 2.42 0.331 Age (years) 21 81 11.76 Tabla 2 Valores de datos no balanceados Los datos anteriormente mostrados no se encuentran balanceados por lo que al realizar el ajuste de balanceo sus valores son los siguientes: Nombre del atributo Mínimo Máximo DesvEst Number of times pregnant 0 17 3.845 Plasma glucosa concentration a 2 hours in an oral glucosa tolerance test 0 199 33.093 Diastolic blood pressure (mm Hg) 0 122 19.879 Triceps skin fold thickness (mm) 0 99 16.378 2-Hour serum insulin (mu U/ml) 0 846 121.354 Body mass index (weight in kg/(height in m)^2 0 67.1 7.856 Diabetes pedigree function 0.078 2.42 0.343 Age (years) 21 81 11.691   Se revisará el conjunto de datos llamado diabetes con los atributos ya seleccionados, a partir de ese momento se tomarán los atributos que menos aportan al aprendizaje automático o que fueron descartados por los autores citados en el texto anterior, con estos atributos descartados se buscará obtener el mejor índice de precisión, posteriormente se irán reduciendo los atributos restantes sin perder el indicie de precisión, para esta investigación se tomo en 30% de los atributos como entrenamiento y con 10 validaciones cruzadas para no sesgar los resultados.


CONCLUSIONES

Es posible reducir los atributos en 2/3 partes sin afectar su índice de precisión, por el contrario, algunos algoritmos como AdaBoostM1 y NaiveBayes mostraron un aumento en su porcentaje de precisión al descartarse atributos no necesarios para su funcionamiento. La mayoría de los algoritmos solamente requieren 3 atributos para tener índices de precisión cercanos al porcentaje de precisión inicial, mientras que el resto requirieron un mínimo de 4 atributos para no disminuir de forma significativa su porcentaje de precisión. Se analizaron un total de 8 algoritmos con 9 atributos, los cuales tienen un porcentaje de precisión inicial promedio de 72.9187%, al eliminar los atributos no esenciales el porcentaje promedio es de 72.8858%, sin embargo, todos los algoritmos mostraron que el atributo Plasma glucosa concentration a 2 hours in an oral glucosa tolerance test es esencial en cualquier método seleccionado, ya que sin este atributo el porcentaje de precisión disminuye drásticamente. NaiveBayes obtuvo el mejor porcentaje de precisión inicial del 72.6687%, con los atributos mínimos alcanzo un porcentaje de precisión de 74.1284%. El fin de esta investigación no es encontrar el mejor algoritmo que pueda predecir de manera correcta la diabetes, si no encontrar un algoritmo que con un mínimo de datos arroje predicciones confiables.
Rodriguez Herazo Jhohan Alexis, Universidad Simón Bolivar
Asesor: Dra. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

MODELO DE SIMULACIóN EN SIMIO SOBRE LA LOGíSTICA DE MOVIMIENTO DETRáS DE UN LABORATORIO DE SOLDADURA.


MODELO DE SIMULACIóN EN SIMIO SOBRE LA LOGíSTICA DE MOVIMIENTO DETRáS DE UN LABORATORIO DE SOLDADURA.

Rodriguez Herazo Jhohan Alexis, Universidad Simón Bolivar. Asesor: Dra. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

Uno de los factores detrás de la logística es la movilidad, aprovechando esto y la herramienta de simulación SIMIO se llegó a apuntar a la posible solución de una pregunta de investigación ¿Cómo mejorar la movilidad de los estudiantes y el docente en un laboratorio de soldadura con espacio limitado? por qué el uso de la técnica de simulación para dar soluciones y la clave es no malgastar recursos, acceder al laboratorio y repetir el proceso una y otra vez podría presentar mucha desventaja y tener en el peor de los caso un incidente dentro del laboratorio esto debido a que no estamos a climatizados o relacionados con el ambiente y por ende hacer muchas modificaciones de este sería una perdida en recursos sustanciales para la facultad.  



METODOLOGÍA

Usando la metodología de los 10 pasos de law y kelton en simulación, el grupo realizo un check-list con el fin de cumplir todos y cada uno de los ítems, sin embargo, por motivos de tiempo en la pasantía no se llevó completamente todos y cada uno de los pasos llegando solo al número 4to de la lista: Primero: se realizó la pregunta problema y las diferentes variables de estudio, una descripción general del propósito de la investigación y anexos sobre la descripción del sitio Segundo: se tomaron datos para las variables de estudio, tiempo entre soldaduras, duración de la clase etc. Con el objetivo de hacer una prueba de bondad y ajuste mediante el sofware stafit muchas de ellas se estimaron con la prueba de kolmogorov Tercero: se acotaron y pusieron límites a la simulación con el objetivo de no ser tan pesada en estudio y dar solo con lo objetivo, es decir: la posibilidad de movimiento dentro del laboratorio Cuarto: se desplego el modelo en el software de simulación, colocando solo objetos virtuales y dejando el dibujo en obra negra es decir sin ningún aparato visual externo a los predeterminados por el sistema Como se mencionó anteriormente solo solo pudimos llegar a este paso por motivos de tiempo en la pasantía, pero al final pudimos lograr cierto avance y una que otra reconstrucción real de proyecto.


CONCLUSIONES

En resumidas cuentas y pese a que no se llegó a una realización propiamente dicha del trabajo debido al tiempo de la pasantía lo cual fue muy corto para ejecutar los 10 pasos de law y kelton, la metodología aprendida y el software de simulación versátil entre sus funciones, ofrecieron un buen punto de partida con el cual extender este proyecto y manejar muy bien sus variables y acotamientos con el fin de ofrecer una mejor movilidad a ser usada en el laboratorio de soldadura y ser un poco amena la carga a la hora de enseñar los diferentes usos de soldadura en dicho sitio, la variabilidad de SIMIO en ofrecer soluciones y la metodología de los 10 pasos hicieron claro el estudio y los objetivos a apuntar al fin de encontrar una solución a la problemática.
Rodriguez Hernandez Claudia Paola, Instituto Tecnológico Superior de Irapuato
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

MINERíA DE DATOS PARA LPI


MINERíA DE DATOS PARA LPI

López González Javier Paulino, Instituto Tecnológico Superior de Irapuato. Quintana Frías Alina Rocío, Instituto Tecnológico Superior de Irapuato. Rodriguez Hernandez Claudia Paola, Instituto Tecnológico Superior de Irapuato. Venegas Cruz Isabel Concepción, Universidad Autónoma de Sinaloa. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El índice de desempeño logístico (LPI) es una evaluación realizada por el Banco Mundial donde evalúa a más de 150 países. En el LPI se tiene información de categorías como aduanas, infraestructura, trazabilidad, calidad y tiempo de entrega. Sin embargo, para comprender mejor el índice hace falta información sobre indicadores económicos, sociales y de consumo de energía, por lo cual es necesario crear una base de datos.



METODOLOGÍA

Se realizó un código en la plataforma de Google Colab para hacer web scraping de páginas como calificadoras crediticias, la ONU y el World Factbook de la CIA. Se desarrolló el código con la librearía Pandas y BeautifulSoup para leer en un ciclo diversas url’s y acomodar la información en columnas en un archivo CSV según los selectores deseados.


CONCLUSIONES

El trabajo realizado permitió ahorrar tiempo, en un lapso de 703 segundos se obtuvo un archivo CSV con la información solicitada. Fue necesario hacer ajustes a los datos del archivo obtenido, pero fueron mínimos. El código realizado es útil para realizar otro tipo de trabajos similares, solo es cuestión de indicar las url’s y los selectores. El código fue probado con otras instancias como la página del Guanajuato International Film Festival y el Festival Internacional Cervantino; obteniendo resultados satisfactorios.
Rodríguez Huerta José Luis, Universidad de Guadalajara
Asesor: Dr. José Eduardo Casillas García, Universidad de Guadalajara

FOTODEGRADACIÓN CATALÍTICA DE NAPROXENO EN DISOLUCIÓN ACUOSA EN PRESENCIA DE HIDRÓXIDOS DOBLES LAMINARES DE ZNBISR Y ZNBIW


FOTODEGRADACIÓN CATALÍTICA DE NAPROXENO EN DISOLUCIÓN ACUOSA EN PRESENCIA DE HIDRÓXIDOS DOBLES LAMINARES DE ZNBISR Y ZNBIW

Rodríguez Huerta José Luis, Universidad de Guadalajara. Asesor: Dr. José Eduardo Casillas García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Cuando hablamos de efluentes, el más importante que se nos viene a la mente es el mar, o los ríos, por ejemplo y, aunque el 70 % de la tierra es agua solo 2.5 % es agua dulce, pero aún así, de esa cantidad, solo el 0.007 % del total está disponible para consumo humano. Ahora, conociendo este dato se han hecho una gran variedad de análisis en dichos efluentes, y se ha encontrado un gran número de compuestos tóxicos en ríos y lagos entre ellos el fármaco que nos interesa en esta investigación; el naproxeno, el cual puede acarrear una serie de graves problemas para los ecosistemas y la salud humana; ya que este ingresa al medio ambiente mediante los desechos humanos y por descargas industriales, también es importante recalcar que este fármaco es un compuesto difícil de degradar de forma natural, requiriendo un método más eficaz para su eliminación.



METODOLOGÍA

Para la medición de actividad fotocatalítica se utilizó una solución de naproxeno a una concentración de 40 ppm. Se pesaron 40.0 mg del fármaco y se preparó la solución acuosa para la degradación del contaminante con agua bidestilada, esto para evitar la contaminación de la muestra, haciendo una solución pura en naproxeno en un matraz aforado de 1 L. Los experimentos de actividad fotocatalítica en la degradación de compuestos recalcitrantes se llevaron a cabo en un fotoreactor de vidrio tipo batch de forma cilíndrico de 300 mL con enchaquetado de doble pared para circular agua y mantener una temperatura constante, acoplado al sistema de reacción fotocatalítico. La actividad fotocatalítica de los HDL´s de ZnBi, ZnBiSr-x y ZnBiW-x se evaluó siguiendo la fotodegradación de naproxeno sódico (Sigma 98%). Para ello, se preparó una solución conteniendo 40 ppm del compuesto a degradar en agua destilada y se sometió a una aireación continua durante 12 h, previo a la medición de la actividad fotocatalítica. Antes de realizar los experimentos de actividad fotocatalítica, se realizaron experimentos de fotólisis para investigar el grado de descomposición molecular del naproxeno sin catalizador, la solución se irradió con una lámpara UV Pen-Ray = 254 nm protegida por un tubo de cuarzo. Posteriormente, se añadieron 200 mg de fotocatalizador. Enseguida, la disolución del suelo y el catalizador se mantuvieron en contacto sin irradiación (prueba de adsorción o prueba de oscuridad), y se tomaron muestras de la solución cada 30 minutos durante 240 min para comprobar el grado de adsorción de la molécula contaminante hasta que se alcance el equilibrio. Para ello se dejó reaccionar el catalizador con la solución durante 30 minutos a temperatura constante y aireación continua sin irradiación (ensayo de adsorción o ensayo oscuro). Transcurrido este tiempo, el sistema se irradió con una lámpara UV (Pen-ray) con una longitud de onda de 254 nm durante 240 minutos con agitación vigorosa. Durante este período, se extrajeron alícuotas de aproximadamente 7 ml cada 30 minutos con una jeringa y se pasaron por un filtro Whatman de 0,2 μm para su posterior medición. Para poder hacer la estimación de la fotoconversión de naproxeno después de los 240 minutos de irradiación se usó un espectrofotómetro UV-Vis modelo Cary-300 en donde la banda de absorción del naproxeno se encuentra a una longitud de onda de 271 nm. Para el cálculo de la concentración de naproxeno que fue fotodegradado se utilizó la Ley de Lambert y Beer a partir de los datos de absorbancia de los espectros de UV-Vis de las soluciones acuosas de naproxeno irradiadas durante un período de 240 minutos. También se realizaron pruebas de caracterización de cada uno de los fotocatalizadores, las cuales son: Difracción de rayos X: Los experimentos de difracción de rayos X se realizaron en un difractómetro de rayos X modelo STOE, con ánodo de Cu e irradiancia = 1.5406 Å. Fisisorción de Nitrógeno: Esta técnica nos permitió obtener el área superficial específica, el volumen de poro específico y la distribución del tamaño de poro mediante la adsorción física de nitrógeno. Espectroscopía UV-VIS: Esta técnica permitio obtener los espectros de absorción del material determinando el rango de absorción del material y conocer el rango de longitudes de onda que produce la excitación electrónica del material semiconductor.


CONCLUSIONES

Los resultados en el proceso de fotocatalítico en la degradación indican que los HDL´s de ZnBiSr-x y ZnBiW-x, son eficientes en la fotodegradación de naproxeno sódico en medio acuoso. De acuerdo con el análisis de difracción de rayos-X, los sólidos sintetizados presentaron picos de difracción que son asignados a los planos cristalinos basales, los cuales son característicos de hidróxidos dobles laminares. Todos los materiales sintetizados presentaron características estructurales mesoporosas y una distribución de tamaño de poro unimodal y ancha. Se observó un aumento del área superficial específica, al aumentar la razón molar del Estroncio y del Tungsteno. Aunque la variación de la banda de energía prohibida en función de la razón molar fue pequeña, se observó el valor más bajo el material ZnBiSr 3% (seco a 80 ºC) y ZnBiSr 5% (calcinado a 450 ºC), ZnBiW 2% (seco a 80 ºC) y ZnBiW 2% (calcinado a 450 ºC). Este comportamiento influyó de manera directa en la actividad fotocatalítica de los materiales. Podemos observar que los valores obtenidos para la Eg, mostraron que los sólidos sintetizados tienen carácter semiconductor. También es importante resaltar que, durante la estancia de investigación en el verano, adquirí muchos conocimientos teóricos como prácticos, de la rama de la catálisis y de el uso de equipos de laboratorio para análisis, así mismo, ya que este trabajo es extenso, se interpretó toda la información obtenida de gráficas y se plasmo a manera de texto de cada una de las pruebas anteriormente mencionadas para una mejor asimilación de la información obtenida.
Rodriguez Hurtado Diego Andres, Universidad de Pamplona
Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington

PROPUESTA DE UN PROTOTIPO FUNCIONAL QUE POR MEDIO DE UNA APLICACIóN MóVIL PERMITA EL APROVECHAMIENTO DE AGUAS PLUVIALES MEDIANTE UN ECOMURO, PARA HABITANTES VULNERABLES DE LA ZONA ANDINA DE COLOMBIA.


PROPUESTA DE UN PROTOTIPO FUNCIONAL QUE POR MEDIO DE UNA APLICACIóN MóVIL PERMITA EL APROVECHAMIENTO DE AGUAS PLUVIALES MEDIANTE UN ECOMURO, PARA HABITANTES VULNERABLES DE LA ZONA ANDINA DE COLOMBIA.

Dominguez Mondragon Maria Belen, Tecnológico de Estudios Superiores de Jocotitlán. Ortega Ramírez Eduardo Daniel, Instituto Tecnológico Superior de Irapuato. Rodriguez Hurtado Diego Andres, Universidad de Pamplona. Asesor: Mg. Gloria Amparo Lora Patiño, Corporación Universitaria Remington



PLANTEAMIENTO DEL PROBLEMA

La pluviosidad encontrada en Colombia es alta comparada con otros países esto dado por la gran cantidad de vegetación que se encuentra en el lugar además de estar rodeado por dos océanos, la cantidad de lluvia va desde los 1000 mm de lluvia en los lugares más áridos, hasta llegar a los 12,700 mm en las locaciones con más lluvia (Jaramillo Robledo & Chaves Córdoba, 2000), Este líquido es útil para satisfacer la demanda dada la gran cantidad de precipitación que se da en el país, cómo lo es también el uso de aguas pluviales la cual es una buena alternativa, según los datos dados según el Ministerio de Ambiente y Desarrollo sostenible la precipitación en la zona Andina va en descenso, pero se mantiene dentro del promedio (MinAmbiente, 2020) y la cual no es aprovechada por gran parte de  la población Colombiana, ya que el país cuenta con abundantes recursos, lo que lleva a las personas a mantenerse en un estado de confort, por lo que no se preocupan y no ponen en uso estos sistemas de almacenamiento de aguas pluviales (BAUTISTA ARÉVALO & SÁNCHEZ SÁNCHEZ, 2018). La zona Andina por su impacto poblacional, político, administrativo y económico y por contar con ejes de circulación y transporte; se constituye en el territorio que más población migrante atrae por motivos relacionados con desplazamiento forzado, motivos laborales, entre otros; esta  población llega especialmente a las capitales departamentales y en particular a las grandes ciudades como Bogotá, Distrito capital de Medellín, Cali y Bucaramanga. Muchas de las personas que son desplazadas por algunos de los motivos mencionados anteriormente  no cuentan con recursos económicos que les permitan llegar a las ciudades y pagar un arriendo, se ven forzados a ubicarse en las zonas más extramurales de estas ciudades,  construyen sus casas de forma empírica, con madera y zinc.  Al estar ubicadas en estas zonas que son consideradas zonas de alto riesgo, no cuentan en su gran mayoría con servicios públicos mínimos vitales que le permitan tener una mejor calidad de vida. El almacenamiento de aguas pluviales para esta zona se puede realizar por medio de un contenedor hecho a base de botellas plásticas tipo PET (lo cual permitiría extender la vida de este producto y desacelerar su transición a basura) lo que dará segundo uso a estas y así ayudar a reducir el impacto ambiental de estas, en la zona andina ha ido aumentando por el rápido crecimiento en la producción y uso del plástico, combinado con los modelos económicos lineales que no tienen en cuenta las externalidades como lo son los residuos; esta agua recolectada ayudará a la población de la región andina ubicada en las zonas más deprimidas por medio de la aplicación móvil poder saber cuántos litros de agua tiene y cómo la podría usar mejor de acuerdo con sus necesidades más apremiantes.



METODOLOGÍA

Se inicio haciendo la búsqueda en la base de datos académicas para buscar trabajos académicos relevantes relacionados a la problemática, se dio lectura de artículos académicos y manuales especializados. Esto para tener los fundamentos necesarios para diseñar el prototipo funcional del ecomuro, sabiendo que este ya existía y lo que se hizo fue hacer una mejora implementando los sensores con IOT, es decir con una aplicación móvil, siendo un gran reto debido que se tenia que innovar considerando que esta no existía.


CONCLUSIONES

Luego de una extensa investigación, nos encontramos varios referentes con respecto al funcionamiento de ecomuros, cualidades, mejoras inclusive aditamentos, pero no fue posible rastrear o encontrar un referente que estuviera interesado en unir el internet de las cosas con un ecomuro, dándonos una línea completamente nueva para nuestra investigación y siendo un gran reto. No bastaba con solo darle inteligencia o conectar el internet al ecomuro, debíamos conseguir una mejora que, de valor, una que ayude a que más personas se quieran unir a nuestra apuesta y que una vez decidan probarlo puedan cambiar sus hábitos arraigados por años. La aplicación que puede ser utilizada en Cualquier tipo de teléfono, de cualquier tipo de gama (desde la gama baja, hasta gama alta), permite al usuario conocer el estado actual del llenado del muro, conocer este porcentaje de agua y para que pudiese utilizarlo, y sobre todo cuanto le habría costado adquirir esta agua del servicio público o adquirirla de alguna manera dándonos su respectivo ahorro representado. Por ende la implementación del proyecto del ecomuro aporta una gestión a la economía del hogar de las familias más vulnerables de la Zona Andina, este proyecto se llevó a cabo con el intercambio culturas entre los estudiantes colombianos y los mexicanos, dándonos una perspectiva diferente funcionando ambas culturas para dar un resultado fructífero para beneficio de la población con el uso apropiado de los ODS, estos nos permitieron tener un conocimiento más amplio y apropiado para el uso de estos, mencionando que se presentaron diferentes retos, sin embargo, se cumplieron obteniendo el resultado esperado a lo largo del desarrollo de este.  
Rodríguez Jiménez Yadira Citlali, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Edgar Fernando Peña Torres, Consejo Quintanarroense de Ciencia y Tecnología

USO DE B-AGONISTAS EN CONDICIONES DE ESTRéS POR CALOR EN RUMIANTES Y SU IMPACTO EN PARáMETRO PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIóN


USO DE B-AGONISTAS EN CONDICIONES DE ESTRéS POR CALOR EN RUMIANTES Y SU IMPACTO EN PARáMETRO PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIóN

Méndez Zamudio María Isabel, Instituto Tecnológico de Estudios Superiores de Zamora. Rodríguez Jiménez Yadira Citlali, Instituto Tecnológico de Estudios Superiores de Zamora. Salazar Peralta Ana Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Torres González Karen Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Edgar Fernando Peña Torres, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

USO DE B-AGONISTAS EN CONDICIONES DE ESTRES POR CALOR EN RUMIANTES Y PARAMETROS EN PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIÓN



METODOLOGÍA

Durante nuestro verano de investigación hemos estado realizando un proyecto con el fin de publicar un artículo que trate sobre el efecto de agonistas β-adrenérgicos en animales de engorda (bovinos y ovinos) bajo condiciones de estrés por calor, durante este proyecto tomamos en cuenta múltiples investigaciones sobre proyectos enfocados al tema los cuales nos ayudaran a cubrir diferentes puntos importantes; desde que son estos tipos de suplementos, su mecanismo de acción, el efecto que tiene durante su etapa de implementación y las características tanto físicas y químicas que tiene la carne una vez llegada la etapa del sacrificio. Los B- antagonistas son moléculas sintéticas análogas a las catecolaminas (epinefrina y norepinefrina). La finalidad de estas es incrementar el anabolismo hacia la síntesis de masa muscular mediante el aprovechamiento de nutrientes y energía obtenido del tejido adiposo. Estos compuestos provocan mayor rendimiento en corral para la carne, favoreciendo el nivel económico y productivo. Su modo de acción se lleva a cabo a nivel celular, la molécula pasa intacta las paredes del rumen y es absorbida por el sistema portal llegando a las células blanco, logrando así unirse a los receptores que están en la membrana celular; lo que genera una activación y fosforilación de los distintos mecanismos incrementando la perfusión sanguínea hacia el músculo y una mejor disponibilidad de energía y aminoácidos, por lo tanto, aumenta la síntesis y retención de proteína que favorecen la hipertrofia muscular y a su vez a la degradación de grasa del animal. Dentro de este tipo de suplementos se encuentran el clorhidrato de clembuterol, cimaterol, clorhidrato de zilpaterol y clorhidrato de ractopamina con un mecanismo de tipo hormonal y solo estos dos últimos se permite su uso en etapas de finalización en animales de engorda. Se ha demostrado tener resultados favorables para la implementación de Zilpaterol en ovinos y bovinos en condiciones de estrés por calor, pero a su vez el rendimiento del mismo bajo temperaturas elevadas disminuye, dando un resultado variable al caso de estudio. La calidad de la carne está relacionada con sus características organolépticas, es decir, suavidad, jugosidad, color, olor y sabor. Algunos factores que influyen en que dicha calidad sea aceptable son la genética, la raza del animal, los días de engorda, el sexo y la edad. Mediante evaluación el Clorhidrato de Zilpaterol como suplemento alimenticio de ovinos y bovinos influyó sobre las características de la calidad de la carne, se reporta que realizaron varios tratamientos y evaluaciones las cuales arrojaron diversos resultados, entre ellos se veía comprometida la calidad de la carne, mientras las características físico- químicas de algunas cabezas aumentaban en peso y musculo incluyendo el descenso de la cantidad de grasa en el animal, también se detectó que era por el aumento en la síntesis de proteínas, otros puntos comprometidos durante el estudio fueron la terneza y el color de la carne, en comparación con otros “aditivos o suplementos” en carne cruda y cocida. Se sabe que la teoría del color en la carne por el CZ no ha sido específicamente reportada, al igual que el mal uso del CZ causa intoxicación dependiendo la sobreexposición y dosis usadas en animales, sin embargo, esto podría generar pérdidas económicas para la industria.


CONCLUSIONES

Las b-agonistas son moléculas que ayudan a incrementar la masa muscular mediante síntesis, en tal caso las condiciones de estrés por calor en animales generar malas características en el animal y la carne, las b- Agonistas nos ayuda a tener mejores características físicas, químicas y sensoriales, sin embargo,en un mal uso de las b-agonistas o mala sobre exposición del animal pueden generar daños al consumidor.
Rodriguez Linares Maria Lizbeydi, Universidad Autónoma de Guerrero
Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.


RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.

Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan. López Hernández Erick Paul, Universidad Vizcaya de las Américas. Rodriguez Linares Maria Lizbeydi, Universidad Autónoma de Guerrero. Torres Arano Aileen Alitzel, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Según el COSPES 3874 la disponibilidad de suelos para efectuar la disposición final no está acorde con la creciente generación de residuos. El 83% de los residuos sólidos domiciliarios que se generan van a los rellenos sanitarios y solo el 17% es recuperado por recicladores para su reincorporación al ciclo productivo (DNP y BM, 2015, como se citó en (Manuel Santos Calderón et al., 2016) ). Si se continúa con la misma dinámica de generación de residuos, sin adecuadas medidas para mejorar su aprovechamiento o tratamiento, y con patrones de producción y consumo insostenibles, en el año 2030 tendremos emergencias sanitarias en la mayoría de las ciudades del país y una alta generación de emisiones de GEI.  Dada la escasez de información Nacional del aprovechamiento de materias primas a partir de residuos de construcción y demolición. Esta investigación pretende abordar los objetivos específicos del Plan Integral de gestión de Residuos Sólidos PGIRS 2015-2027 Manizales, en su apartado de la gestión de Residuos de Construcción y Demolición , en lo que refiere a  realizar la caracterización de los RCD, a fin de conocer sus cualidades químicas y físicas que permitan adoptar estrategias para disminuir la disposición final en escombreras, al igual que  el objetivo de maximizar y  fomentar el procesos de recuperación y reutilización  de los RCD fortaleciendo aspectos de orden técnico, administrativo, ambiental, económico, cultural y social. Principalmente, el enfoque se da en la ciudad de Manizales por las metas establecidas en su plan de desarrollo de 2020-2023 como una ciudad sostenible y resiliente, que actualmente lleva un 70,9 % de cumplimiento en avances, según datos del mes de julio. Para ello la investigación plantea ¿Es viable la recuperación de residuos de construcción y demolición para la fabricación de productos arquitectónicos?  con la cual se busca contribuir a los siguientes objetivos de desarrollo sostenible y a las metas del plan de desarrollo sostenible Manizales 2020-2023:



METODOLOGÍA

1.- CARACTERIZACIÓN 1.1 Prueba geométrica  ASTM C136: Método de prueba estándar para análisis granulométrico de agregados finos y gruesos.(ASTM, 2019a) Pruebas físicas  ASTM C127:  Método de prueba estándar para la densidad relativa y la absorción del agregado grueso.(ASTM, 2015) ASTM C131:  Método de prueba estándar para determinar la resistencia a la degradación de agregados gruesos de tamaño pequeño por abrasión e impacto en la Máquina de los Ángeles. (ASTM, 2020a) ASTM D4791: Método de prueba estándar para partículas planas, partículas alargadas o partículas planas y alargadas en agregados gruesos.(ASTM, 2019c) Microscopía Electrónica de barrido y Fluorescencia de rayos X por energía dispersiva: Método para determinar la composición química superficial del RCD y su apariencia superficial a nivel microscópico para comprender las anteriores pruebas físicas como densidad especifica y absorción de agua. ASTM C39/C39M-20: Método de prueba estándar para determinar la resistencia a la comprensión de cilindros de concreto. (ASTM, 2020b). 2.- FABRICACIÓN 2.1 Diseño de producto Para el diseño de estos productos se parte de un estudio de la normatividad técnica colombiana, dadas por el Instituto Colombiana de Normas Técnicas y Certificación (ICONTEC) esto con el fin de que el diseño cumpla con los lineamientos geométricos y de resistencia establecidos para lograr su comercialización.   . Adoquin Fachaleta 2.2 Prototipado 3D de los moldes de Adoquín y fachaleta El prototipado es una técnica utilizada en la fabricación de productos o moldes, debido a las prestaciones económicas y de modelo real o a escala que se obtiene, permitiendo una acercamiento visual y comercial del producto. 2.3 Diseño de mezcla de concreto con RCD El diseño de mezcla de concreto para los productos de adoquín, fachaleta y los cilindros de testeo para el ensayo de compresión, los Ingenieros Civiles trabajaron bajo el Método ACI 211.1. 2.4 Desencofrado El desencofrado es una etapa que se realiza con el concreto húmedo con el objetivo de empezar el proceso de curado, dado que en el proceso de curado se garantiza que el concreto conserve la humedad y se eviten fisuraciones en el producto. 2.5 Ensayo de resistencia a la compresión El ensayo de resistencia a la comprensión permite evaluar la resistencia mecánica de un material cuando es sometido a una carga axial de aplastamiento, para este caso permite evaluar como se comportará el concreto y específicamente los adoquines en sus aplicaciones de pavimentación, bancas, etc.


CONCLUSIONES

Los resultados obtenidos en esta investigación, de acuerdo a las pruebas realizadas al material proveído arrojaron que el tamaño de partícula a incorporar a la mezcla es de 3/8, debido a que en la prueba de análisis granulométrico se encontró que es una de las partículas con mayor cantidad. Diseñando una mezcla considerado para elementos de una resistencia de 40 MPa se realizaron productos de ensayo para la evaluación, los resultados obtenidos de las pruebas de compresión describen una capacidad de 25 MPa, siendo un 62.5% de lo considerado en el diseño. Esto se debe a las cualidades de desgaste, absorción y humedad de los materiales. El RCD cumple como agregado para la elaboración de elementos de construcción no estructurales como lo son los adoquines y fachaletas, siempre y cuando se evalúe la calidad química y mecánica, además de realizar un diseño factible de mezcla de concreto para la optimización del desempeño, considerando los factores de absorción, desgaste y por ende relación agua y cemento como los principales puntos críticos del material. El aprovechamiento de los residuos de demolición y construcción se han vuelto un factor importante para el crecimiento de las ciudades sostenibles, en éste caso para la ciudad de Manizales, es una respuesta ante el programa de desarrollo en beneficio del medio ambiente y hacia la convergencia de una ciudad inteligente.
Rodríguez López Martín Alejandro, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla

RELACIóN ENTRE EL DISEñO DE ZONAS, OPTIMIZACIóN E INVESTIGACIóN DE OPERACIONES


RELACIóN ENTRE EL DISEñO DE ZONAS, OPTIMIZACIóN E INVESTIGACIóN DE OPERACIONES

Rodríguez López Martín Alejandro, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Maria Beatriz Bernábe Loranca, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se aborda una propuesta de investigación basada en una metodología del estado del arte, revisión de literatura y búsqueda de información en diferentes sitios web académicos para poder establecer la relación que existe entre la investigación de operaciones, optimización y diseño de zonas.



METODOLOGÍA

El trabajo tiene como propósito que se establezca le dependencia entre estos 3 tópicos, así como la relación, similitudes o diferencias. Se realizan las búsquedas de información correspondientes para darle unas cuantas definiciones de estos temas, estas búsquedas se realizan en diferentes sitios web diferentes, en libros, revistas o sitios académicos.


CONCLUSIONES

Otro de los alcances que se definen en el desarrollo de este trabajo es que otros estudiantes académicos o investigadores tengan una mejor percepción de estos tópicos y dar lugar a investigaciones en extenso o futuros no solo desde el punto de vista de definiciones y dependencias sino para el desarrollo de trabajos y aplicaciones utilizando los softwares que sean necesarios para estas plataformas.
Rodríguez Lujan Yamileth Guadalupe, Instituto Tecnológico de Ciudad Juárez
Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro

LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO


LA CADENA DE SUMINISTRO EN PRODUCTOS PERECEDEROS DE LA INDUSTRIA ALIMENTARIA EN MéXICO

Corte Maldonado Andrea, Instituto Tecnológico de Puebla. Cortés López Mariana Estefanía, Instituto Tecnológico de Tuxtla Gutiérrez. de la Cruz Rodriguez Paloma Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Hernández Hernández Verónica Vanessa, Universidad Autónoma de Occidente. Perez Mendoza Paloma Yunuhen, Instituto Tecnológico Superior de Uruapan. Pulido Diaz Maritza, Instituto Tecnológico Superior de Uruapan. Rodríguez Lujan Yamileth Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Ana María Meneses López, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En México existen más de 5 millones de personas que se dedican al trabajo agrícola, según el censo de INEGI 2020, sin embargo, según el Gobierno de México, somos el séptimo país exportador de productos agrícolas al resto del mundo lo que nos genera la siguiente pregunta ¿Qué alimentos quedan para nuestras comunidades? Como lo sabemos cada estado de la republica cuenta con sus terrenos en donde cultivan algunos frutos que son originarios de las regiones y que con ayuda de la experiencia y los cuidados es bien sabido que se han podido generar productos de excelente calidad pero realmente el futuro de esos productos en su mayoría es terminar en manos y mesas de familias extranjeras y aquí en México la calidad siempre es colocada en tiendas o supermercados con un costo elevado y que no siempre está al alcance de todas las familias. Es por esta razón que se encuentra con el problema de que las comunidades productoras terminan consumiendo el producto que sobra o el producto que posee algún defecto lo cual no siempre garantiza una alimentación sana y de calidad por esta razón se debe encontrar una manera de garantizar un producto de calidad a las primeras comunidades de atención prioritaria, para que así todos consumamos un producto de excelente calidad, mismo como el que se exporta o el que se distribuye en los supermercados más reconocidos del país y por ello hacemos de referencia el primer momento de la cadena de suministros en la industria alimentaria.



METODOLOGÍA

Considerando que ésta es una investigación en su mayoría documental está centrada en la cadena de suministro de productos perecederos en la industria alimentaria mexicana, con un enfoque en la inocuidad y seguridad alimentaria. Se analizan y proponen mejoras a las normativas generales y específicas, particularmente la Norma Oficial Mexicana NOM-251-SSA1-2009 e ISO 22000, que aborda la higiene y calidad de los alimentos, bebidas y suplementos alimenticios. Dada la creciente población y la evolución global, es fundamental garantizar la seguridad y salud de los alimentos para el consumo humano. En México, la Secretaría de Salud a través de la Comisión Federal para la Protección contra Riesgos Sanitarios (COFEPRIS) y la Dirección General de Epidemiología (DGE) son las instituciones encargadas de monitorear y reportar la incidencia de enfermedades transmitidas por alimentos por lo que se pide la intervención puntual de los diferentes órdenes de gobierno en el ámbito de su incumbencia para generar la normativa necesaria que garantice alimentos de calidad.  El mercado agrícola en México es amplio y tiene un gran potencial para competir a nivel nacional e internacional, sin embargo, se detectan limitaciones en la propia industria local en todos sus ámbitos ya que no existe garantía para un consumo local inmediato y el mejor producto se considera calidad de exportación, se cuenta con poca información sobre empresas con certificaciones de normas y sistemas de gestión de calidad y de manera general quienes se dedican a este ramo ya que no es suficiente la información que proporciona el INEGI. La propuesta se orienta a incentivar y apoyar a las empresas que aún no cuentan con regulaciones, animándolas a acercarse a las autoridades correspondientes para mejorar la calidad de sus productos y garantizar su inocuidad. La prevalencia de enfermedades transmitidas por alimentos, como la salmonela y la E. coli, representa un desafío para la salud pública, y se necesita un seguimiento continuo a través de sistemas de vigilancia sanitaria. Se enfatiza la importancia de evaluar las de higiene en todas las etapas del proceso de producción, desde la selección de materias primas, almacenamiento, hasta la distribución, considerando la reciente pandemia vivida por COVID SARS-CoV 19. Una de las pretensiones es hacer evidente que el uso de la cadena en frio está alejado de una realidad económica para la mayoría de los productores y se debe tomar estrategia para la adecuación de transporte de menor tamaño en zonas serranas como la planta procesadora de alimentos de San Joaquín, así como la consideración de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje.


CONCLUSIONES

La cadena de suministro de productos perecederos en la industria alimentaria mexicana es fundamental para asegurar la inocuidad de los alimentos garantizando productos de calidad, la investigación ofrece una visión integral de la situación actual y propone acciones para mejorar la calidad y seguridad alimentaria, garantizando un consumo de calidad en México. Se propone una lista de verificación general para evaluar el cumplimiento de los estándares de calidad en la industria alimentaria. Establecer programas de capacitación certificada para garantizar el cumplimiento de estándares de calidad y normativo de manera local con la intervención de las instituciones como Universidades Públicas y privadas, así como del TecNM. Se plantea el uso de los diferentes recubrimientos de almidón como los propuestos en esta investigación siendo los más accesibles el de maíz y papa que permite proteger al producto previo al envase y embalaje donde dejamos propuestas amigables al medio ambiente en base a la NOM-002-SSA1-1993. Se realizó un ejemplo de análisis de ruta con plataformas de la CST del INEGI y software libre para facilitar el análisis de costos y planteamiento de rutas para productores de menos poder económico. Esta investigación multidisciplinaria permite tener nuevos enfoques sobre la problemática de atención prioritaria atendiendo los objetivos de la agenda 2030 hambre cero, fin de la pobreza, salud y bienestar desde la perspectiva de la cadena de suministro de la industria alimentaría de los productos perecederos que lo limitamos a frutas y verduras en general en nuestro país. Refrendamos el compromiso con las causas sociales por lo que esta investigación hace una invitación a continuar con la participación activa de las diferentes instituciones públicas y privadas de Educación Superior para propuesta de las normativas necesarias que permitan garantizar “La soberanía alimentaria participando activamente en los temas legislativos en esta área".
Rodriguez Martinez Denis Alejandra, Instituto Tecnológico Superior de Irapuato
Asesor: Dra. Jazmín Cortez González, Instituto Tecnológico Superior de Irapuato

DISEñO Y SIMULACION DE UNA PLANTA DE PRODUCCION DE ALGINATOS A PARTIR DE PSEUDOMONA AERUGINOSA EN SUPERPRO DESIGNER


DISEñO Y SIMULACION DE UNA PLANTA DE PRODUCCION DE ALGINATOS A PARTIR DE PSEUDOMONA AERUGINOSA EN SUPERPRO DESIGNER

Rodriguez Martinez Denis Alejandra, Instituto Tecnológico Superior de Irapuato. Asesor: Dra. Jazmín Cortez González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el uso de alginatos es muy demandante en diferentes tipos de industrias como lo son la textil, alimenticia, cosmética y farmacéutica, esto se debe a sus propiedades gelificantes, espesadoras y estabilizadoras. La producción para el uso comercial de este polisacárido se realiza a partir de algas pardas, lo cual, ha traído como consecuencia un impacto ambiental demasiado notorio en las regiones costeras del mar debido a que durante la recolección de este tipo de algas se genera un alto grado de contaminación. Sin embargo, existen otros métodos para producir alginatos a través de microorganismos mediante un proceso de biosíntesis, entre estos microorganismos se encuentra las Pseudomonas aeruginosa. Las Pseudomonas aeruginosa son bacterias que comúnmente se encuentran en el ambiente debido a que son patógenos oportunistas que tienen la factibilidad de adaptarse a cualquier tipo de ambiente, es por ello que su uso en la producción de alginatos a nivel industrial es una gran alternativa para sustituir al sistema de producción actual de estas sustancias.  La simulación de este proceso de producción se utilizará la herramienta de software SuperPro Designer debido accesibilidad que este nos brinda para reproducir procesos industriales.



METODOLOGÍA

El proceso de producción de alginatos a partir de Pseudomona aeruginosa se dividió en dos partes: la fermentación y la purificación del producto. La fermentación se lleva a cabo para desarrollar el producto, es decir el alginato por medio del microorganismo, una fuente de carbono y una de nitrógeno. En este caso, la fuente de carbono más conveniente es glicerol y la fuente de nitrógeno es la peptona.  La operación se llevará a cabo en Superpro Designer por medio de un fermentador estequiometrico a partir de la siguiente reacción: 4.065C3H8O3 + O2 + NaNO3 ----> 5CH1.66O0.27N0.2 + CO2 + 8H2O + C6H7O6Na Donde: C3H8O3: glicerol (fuente de carbono) O2: oxigeno NaNO3: peptona (fuente de nitrógeno) CH1.66O0.27N0.2: Pseudomona aeruginosa (biomasa)  CO2: dióxido de carbono H2O: agua C6H7O6Na: alginato de sodio Las condiciones de operación del fermentador fueron: presión: 1.013 bar temperatura: 37°C tiempo de operación: 24 horas Las dimensiones del fermentador son: volumen: 59.67 litros altura: 0.881 metros diámetro: 0.294 metros Después de llevar a cabo este proceso, se obtuvo como resultado 21. 275 kilogramos de alginato de sodio, 11.114 kilogramos de biomasa, 15.398 litros de agua y 4.7 kilogramos de dióxido de carbono. La segunda etapa es la purificación, esta etapa consta de una serie de operaciones en serie que cumplirán la función de eliminar todas aquellas impurezas o componentes no deseados del producto de interés, además de acondicionarlo para su uso final. Esta etapa inicia con la transportación de los productos resultantes de la fermentación por medio de una bomba peristáltica hacia un centrifugador de discos, el cual cumplirá la función de separar el caldo (agua y dióxido de carbón) del sobrenadante (alginato de sodio y biomasa). La razón por la que se utilizara una centrifugadora de discos es debido a que su función consta de separar líquidos de sólidos y además utiliza una alta velocidad considerando que enfoca en un nivel industrial. Los resultados obtenidos de esta operación fueron 32.389 kilogramos de sobrenadante y 20.098 kilogramos de caldo. Según la literatura, el alginato obtenido de microorganismos debe ser combinado con grupos acetilo para fortalecer sus propiedades debido a la ausencia de ácido manuronico, en este caso se utilizará etanol para eliminar la biomasa del sobrenadante. Esta extracción se realizó por medio de una extracción liquido-liquido, donde se añadieron 2 volúmenes de etanol por un volumen de sobrenadante, es decir, se añadieron 64.778 litros de etanol al 95%. Posteriormente, se comenzó un proceso de secado en dos equipos, primeramente, se introdujo el producto, es decir, una mezcla de alginato de sodio con etanol al 95%, a un evaporador de película, con la finalidad de eliminar el etanol por medio de evaporación. Después, se utilizó un secador de tambor a una temperatura de 65°C para eliminar la humedad del alginato de sodio, de lo contrario, esto podría afectar a las propiedades del producto. Previamente a finalizar el proceso con una molienda, se llevó el alginato a un enfriador a 23°C para evitar alterar las propiedades de este al permanecer a una temperatura considerablemente alta durante un tiempo largo. Finalmente, se obtuvieron 21.275 kilogramos de alginato de sodio.


CONCLUSIONES

Durante la estancia de este verano se logro adquirir conocimientos teoricos sobre la biosintesis de alginato a partir de Pseudomona aeruginosa, ademas se complementaron los conocimientos sobre las operaciones unitarias necesarias para realizar este proceso de produccion. Tambien se amplificaron los conocimientos practicos en cuanto al uso del software Superpro Designer para la simulacion de diferentes equipos para producir alginato de sodio.
Rodriguez Martinez Ivette Jocelyn, Instituto Tecnológico de La Piedad
Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN


DISEÑO Y DESARROLLO DE UN SISTEMA DE PERSONALIZACIÓN DE HELADOS CON REGISTRO Y FACTURACIÓN

García Espinoza Cecilia Janeth, Instituto Tecnológico de La Piedad. Hernández Pérez Jorge Daniel, Instituto Tecnológico de La Piedad. Martínez Zárate Andres, Instituto Tecnológico de La Piedad. Ortiz Leon Jorge, Instituto Tecnológico de La Piedad. Rodriguez Martinez Ivette Jocelyn, Instituto Tecnológico de La Piedad. Asesor: Prfnal. Carlos Alberto Riveros Marino, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las heladerías ofrecen a sus clientes la opción de personalizar sus helados con diversas combinaciones de ingredientes, lo que resulta en una experiencia gastronómica más satisfactoria. Sin embargo, la gestión manual de las opciones disponibles puede llevar a errores en la facturación, tiempos de espera prolongados y una experiencia del cliente poco organizada. El desafío radica en la implementación de un sistema en la Heladeria WOW que permita a los clientes seleccionar y combinar de manera intuitiva los elementos que desean agregar a sus helados, incluyendo frutas, salsas y toppings, garantizando que el proceso sea rápido, preciso y eficiente



METODOLOGÍA

La metodología empleada para este tipo de proyecto fue necesaria una combinacion de cuantitativa para el desarrollo del sistema, como el análisis de los datos relacionados con la facturación y los pedidos y junto con cualitativa para el diseño de la interfaz de usuario y en la obtención de la retroalimentación de los usuarios, realizando entrevistas o encuestas a los clientes para comprender su experiencia y opinión sobre la usabilidad del sistema, la facilidad de personalización, y su satisfacción general con la opción de seleccionar diferentes ingredientes para sus helados.


CONCLUSIONES

De la presente investigación y el desarrollo del sistema de personalización de helados con registro y facturación ha sido un proceso enriquecedor y exitoso que ha permitido satisfacer las necesidades y preferencias de nuestros clientes de manera eficiente y personalizada. A través de la combinación de una metodología ágil que nos brindó flexibilidad y adaptabilidad, así como la utilización de enfoques cuantitativos y cualitativos en la investigación, logramos alcanzar los objetivos establecidos y brindar una experiencia única a nuestros usuarios.La implementación de una interfaz de usuario amigable y accesible ha permitido que nuestros clientes puedan seleccionar con facilidad los componentes de sus helados
Rodriguez Mendoza Danna Paola, Universidad Autónoma de Sinaloa
Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo

COMPARATIVA DE LAS PROPIEDADES MECáNICAS DEL CONCRETO MEDIANTE DISEñO POR EL MéTODO DE ACI CON AGREGADO DE REGIóN SINALOA, Y REGIóN MICHOACáN.


COMPARATIVA DE LAS PROPIEDADES MECáNICAS DEL CONCRETO MEDIANTE DISEñO POR EL MéTODO DE ACI CON AGREGADO DE REGIóN SINALOA, Y REGIóN MICHOACáN.

Rodriguez Mendoza Danna Paola, Universidad Autónoma de Sinaloa. Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Como marca la norma NMX-C-414-ONNCCE-2014, el concreto se compone de cemento, agua, arena y grava para lograr las características deseadas de acuerdo con su diseño. Los agregados por utilizar deben cumplir con ciertas características, ya sean naturales, procesados o mixtos. Se ha observado que el concreto hidráulico presenta distintas características dependiendo del agregado con el que fue realizado. Los agregados cuentan con un efecto importante en las propiedades del concreto hidráulico, por lo que es necesario que cumplan con ciertas características, tales como su forma o textura, su porcentaje de absorción, mineralogía, resistencia, módulo de elasticidad, densidad, entre otros. La investigación por realizarse compara las propiedades mecánicas a compresión, y peso volumétrico de dos concretos realizados con distintos tipos de agregados, cada uno con agregados propios de cada región, ya sea obtenido a través de ríos, triturados, o volcánicos. Esto con el fin de conocer las ventajas o desventajas que pueden afectar en el concreto con distintos tipos de agregado, dependiente de cada región. Un dato importante es que se busca trabajar con los objetivos de desarrollo sostenible, para contribuir a la sostenibilidad en los procesos de construcción, esto con el objetivo de conocer los comportamientos de los materiales, y a futuro poder encontrar un agregado que pueda suplir el agregado convencional, sin la necesidad de la explotación de bancos de materiales. Ya que los agregados son los encargados de darle trabajabilidad y estructura a la mezcla de concreto, puesto que estos conforman entre el 60% y 70% de la masa total de la mezcla.



METODOLOGÍA

En la presente investigación se elaboraron dos mezclas testigo de concreto hidráulico, con características similares. Para el diseño de la mezcla se siguieron las especificaciones de la norma NMX-C-155-ONNCCE-2015. Se elaboró con el método del ACI, utilizando mismo cemento (CEMEX CPC 30R) con una fc= 250 kg/cm2 (Para Michoacán) y fc= 200 kg/cm2 (Para Sinaloa). El agregado a utilizar en la mezcla de la región Sinaloa, fue obtenido a través de rio, en un banco de materiales que se encuentra en el Municipio de Navolato, Sinaloa. Se pueden observar las siguientes características: En la grava se observan orillas redondeadas, con un tamaño máximo de 1’’, en su mayoría con dimensiones de 3/4. La arena es color café obscuro, con ligera presencia de arcilla. El agregado a utilizar en la mezcla de la región Michoacán, fue obtenido a través de cantera, y posteriormente triturado, la arena a utilizar es volcánica, y fueron obtenidos del banco de materiales Joyitas que se encuentra en el municipio de Morelia, Michoacán. Se pueden observar las siguientes características: En la grava se observa piedra laja, con un tamaño máximo de 2, al ser triturado, se le da el tamaño especificado, por lo que se obtuvo ¾, la arena en su mayoría es de color café obscuro y con un peso volumétrico bastante bajo. Realizando las pruebas a los agregados, como establece la norma NMX-C-111-ONNCCE-2014. Se obtuvo para los agregados de Sinaloa: En gravas, con un peso volumétrico de 1620 kg/m, un peso específico: 2.59 g/cm3, y una absorción del 2%, en Arenas, se obtuvo un peso específico de 2.58 g/cm3, un módulo de finura del 2.7, y una Absorción de 2.56% Se obtuvo para los agregados de Michoacán: En gravas, con un peso volumétrico de 1649 kg/m, un peso específico: 2.62 g/cm3, y una absorción del 1.31%, en Arenas, se obtuvo un peso específico de 2.03 g/cm3, un módulo de finura del 3.1, y una Absorción de 16.33% De acuerdo con la caracterización de los agregados se diseña para 18 cilindros de por el método del ACI, obteniendo las siguientes cantidades: Para Sinaloa, se utilizó una relación agua cemento de 0.70, mientras que para Michoacán una de 0.62 En ambas mezclas se hicieron las pruebas al concreto en estado fresco, se elaboraron 18 especímenes de cada una, y se llevaron a curado durante 28 días. Posteriormente se realizaron ensayes a 7, 14, y 21 días.  


CONCLUSIONES

Se puede concluir en que ambos agregados cumplen con las características especificadas en las normas establecidas en el reglamento de construcción. Se observo una ligera mejoría en la resistencia a compresión del concreto con agregado región Michoacán, debido a su forma, ya que el agregado triturado cuenta con caras angulares, lo que le permite una mejor adhesión con los demás componentes de la mezcla. Otro detalle importante, es que el agregado de región Michoacán, cuenta con una absorción de aproximadamente el 16%, generando que el contenido de agua de la mezcla sea muy alto. En comparación con la mezcla de agregado de región Sinaloa, que cuentan con una absorción de aproximadamente 2.5%, generando una diferencia de 5L entre cada diseño.
Rodriguez Moran Daniel Alejandro, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato

ELABORACIóN DEL ESTUDIO DE RIESGO POTENCIAL PARA LA ESTIMACIóN DEL DAñO POR LA MAQUINARIA Y EQUIPO BASADO EN NOM-004-STPS.


ELABORACIóN DEL ESTUDIO DE RIESGO POTENCIAL PARA LA ESTIMACIóN DEL DAñO POR LA MAQUINARIA Y EQUIPO BASADO EN NOM-004-STPS.

Rodriguez Moran Daniel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una Universidad cuenta con instalaciones de manufactura en las cuales se encuentran máquinas para que se realicen trabajos asociadas a los planes de estudio de la institución. Durante dichos trabajos se presenta interacción con el uso las máquinas y equipos, es así como se descubrió que los estudiantes, docentes y representante de laboratorio están expuestos a peligros proveniente del uso y mantenimiento de la maquinaria y equipo durante las prácticas y actividades de mantenimiento. El presente trabajo tiene como objetivo hacer un estudio de análisis de riesgo potencial para la estimación del daño por la maquinaria y equipo basado en la NOM-004-STPS en las instalaciones de manufactura de una Universidad. 



METODOLOGÍA

La investigación es aplicada y cuenta con un enfoque cuantitativo, un alcance descriptivo y un diseño trasversal. La metodología a seguir está asociada a las obligaciones del patrón dados por la NOM-004-STPS para la estimación de riesgos en las instalaciones de  manufactura; es así que, se comenzó a realizar dos instrumentos de recogida de datos, el primero se utilizó para el hacer un listado de maquinaria y equipo, el otro para el estudio del análisis de riesgos tomando en cuenta el área, nombre de la maquinaria y equipo, identificación de peligros, estimación y evaluación de riesgos y medidas de mitigación además del tipo y grado de riesgo.


CONCLUSIONES

Los resultados que se lograron con base al análisis de riesgos potenciales usando las tablas de magnitud del riesgo (MR) fueron notables ya que se conocieron los peligros, tipo de daño, la probabilidad de ocurrencia de los riesgos,  la exposición de los trabajadores al riesgo, la severidad del daño y la magnitud del riesgo; esto tuvo alta relevancia ya que se puede saber qué medidas de seguridad se pueden usar debido al contenido de la información de las normas NOM-023-STPS y NOM-004-STPS-1999 ya que el análisis de riesgos potenciales y tablas de magnitud del riesgo ayudaron a la propuesta de medidas de control de los peligros identificados. Una vez hecho el listado de la maquinaria y equipo que opera en el centro de trabajo y la estimación del riesgo potencial  se propone como línea de investigación a futuro  la documentación de las obligaciones del patrón  faltantes de la NOM-004-STPS-1999 que son los siguientes: elaborar el Programa Específico de Seguridad e Higiene para la Operación y Mantenimiento de la Maquinaria y Equipo, darlo a conocer a los trabajadores y asegurarse de su cumplimiento; contar con personal capacitado y un manual de primeros auxilios en el que se definan los procedimientos para la atención de emergencias;  señalar las áreas de tránsito y de operación de acuerdo a lo establecido en las NOM-001-STPS y NOM-026-STPS; dotar a los trabajadores del equipo de protección personal de acuerdo a lo establecido en la NOM-017-STPS.
Rodriguez Muñoz Josue Daniel, Instituto Tecnológico de Nuevo Laredo
Asesor: Dr. Jesús Darío Mina Antonio, Centro Nacional de Investigación y Desarrollo Tecnológico

ANáLISIS DEL EFECTO DE LA POTENCIA REACTIVA EN UN INVERSOR INTERCONECTADO A RED PARA APLICACIONES FOTOVOLTAICAS


ANáLISIS DEL EFECTO DE LA POTENCIA REACTIVA EN UN INVERSOR INTERCONECTADO A RED PARA APLICACIONES FOTOVOLTAICAS

Rodriguez Muñoz Josue Daniel, Instituto Tecnológico de Nuevo Laredo. Asesor: Dr. Jesús Darío Mina Antonio, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

El rápido crecimiento que están teniendo los sistemas fotovoltaicos como parte de los planes por reducir la dependencia de fuentes de energía no renovables hace necesario mejorar su calidad y confiabilidad. De este modo los inversores inteligentes deben incluir varias prestaciones, entre ellas la posibilidad de suministrar potencia reactiva y no solamente potencia activa. Sin embargo, es necesario ver qué esfuerzos eléctricos adicionales deben soportar los componentes del inversor al suministrar potencia reactiva y de este modo tener datos que puedan mejorar la confiabilidad o el rendimiento de los inversores.



METODOLOGÍA

Se puede resumir el procedimiento para obtener los datos gráficos y numéricos en cada parte del inversor de la siguiente manera: Medir en Simulink voltajes y corrientes en los puntos de interés y mandarlos al workspace de Matlab. En un script de Matlab usar los datos obtenidos y calcular potencias, valores máximos, mínimos, rms, promedios, ángulos, etc. Ejecutar la simulación para valores distintos de P y Q en simulink. Organizar los datos y analizar.


CONCLUSIONES

Los resultados encontrados en las simulaciones para distintas combinaciones de potencia activa y potencia reactiva permiten ver los esfuerzos a los que están sometidos los componentes del inversor. Se observa que la Q no afecta tanto la potencia que debe entregar la fuente de DC. También que las potencias que deberán disipar los IGBTs, los diodos y el filtro están relacionadas a la potencia aparente, de modo que un inversor bien podría aportar Q reduciendo P. Sin embargo, hay otras variables que sí se afectan solo por Q o solo por P, como la corriente en el inversor, que aumenta más debido a Q que a P. Otras variables por ejemplo el THD de corriente se reduce conforme aumenta la potencia aparente, mientras que el THD para el voltaje parece no afectarse significativamente, de modo que siempre se mantiene en valores entre 4% y 7%.
Rodríguez Murrieta Luis Ubaldo, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato

PROTOTIPO DE GARAPIñERA SEMIAUTOMáTICA


PROTOTIPO DE GARAPIñERA SEMIAUTOMáTICA

Ochoa Pérez Alan Enrique, Instituto Tecnológico Superior de Guanajuato. Rodríguez Murrieta Luis Ubaldo, Instituto Tecnológico Superior de Guanajuato. Sandoval Rodríguez Edgar Felipe, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El proceso de elaboración del garapiñado se realiza de manera artesanal, lo cual presenta dos problemas principales. Por una parte, no existe un control exacto de la cantidad de ingredientes a utilizar dependiendo del conocimiento de una sola persona, además, que no se esta midiendo la cantidad de calor durante el proceso por lo que todo el proceso no es homogéneo. Por otro lado, al ser una actividad manual requiere de un esfuerzo importante para obtención del alimento pudiendo facilitarse el proceso por medio automatización en el sistema de calentamiento y de mezclado. 



METODOLOGÍA

Hoy en día el proceso de elaboración de garapiñados se realiza comúnmente de manera manual por parte de los artesanos que se dedican a la producción y venta de dicho producto, debido a esto se necesita cierta cantidad de personal involucrado esto dependiendo si es solo un artesano todo el trabajo cae sobre él y en cambio sí es un pequeño negocio que se dedique a la venta y distribución se ocupan más trabajadores, es necesario que dicho personal participe activamente en el tiempo que lleva el proceso en realizarse el cual consta más o menos de 30 minutos teniendo un rendimiento de 290 gramos y pudiendo conservarlos hasta por 6 meses en una bolsa bien sellada según la Profeco. Esto ha venido sucediendo a lo largo de los años en el municipio de Guanajuato y localidades adyacentes donde un gran número de comerciantes se dedican a su venta en el Mercado hidalgo como punto principal, puestos ambulantes e incluso en el transporte público y según la entrevista realizada a Cristian Eduardo Aguilar Murrieta el lleva 13 años en este oficio. Basándonos en los objetivos del proyecto, obtenemos lo siguiente: Recursos:     Equipo de ingeniería mecatrónica 6°A y B (tres personas): 6 horas de trabajo a la semana durante 6 semanas.     Asesor del proyecto (una persona): 6 horas de trabajo a la semana durante 6 semanas.     Revisión de diseño, cálculos y fabricación (tres personas): 7 horas de trabajo a la semana durante 6 semanas.     $2000 de materiales, componentes y herramientas. Entregables:     Formato de protocolo a mediados de noviembre.     Maquina semiautomática, fabricadora de garapiñados. Hoja de ruta del proyecto y cronograma (Sexto semestre):     19 de junio: Reorganización del equipo, por cambios en la cantidad de integrantes.     21 de junio: Retomar el formato del semestre anterior para realizar correcciones.     24 de junio: Definir justificación, Objetivos específicos y generales, y portada.     segunda semana de Junio: Entregar avance de formato protocolo de proyecto.     27 de junio: Revisar correcciones propuestas por docentes.     27 de junio: Realizar las correcciones indicadas.     29 de junio: Entrega de formatos para participar en verano Delfín.     5 de julio: Implementación de circuito para regularización de velocidades.     13 de julio: Corregir el balanceo dinámico del prototipo.     19 de julio: Corrección y actualización de los documentos del prototipo.      24 de julio: Corregir el balanceo dinámico del prototipo y agregar un sistema de elevación al motor.     27 de julio Acoplar una resistencia para calentar los ingredientes.     30 de julio: Probar la maquina ya en forma con los detalles agregados.     30 de julio: Registrar los datos de la prueba de acuerdo con la curva de caramelización.     1 de agosto: Corregir los inconvenientes que surjan con el prototipo.     Realizar la exposición y documentos para presentar el proyecto.     Presentar el proyecto con los resultados y conclusiones.   Fuera de alcance:     Máquina multiusos fabricadora de garapiñados y otros elementos.     Elaborar una máquina a gran escala


CONCLUSIONES

Se hizo uso de la curva de caramelización para encontrar la temperatura en la que el caramelo llega a su punto ideal. Se realizo el diseño de la estructura en un software CAD y posteriormente implementarlo en físico El motor que se usó solo realiza el proceso de mezclado el cual ayuda a que todo el cacahuate reciba el recubrimiento del azúcar y que este no se pegue, este tiene adjunto una varilla de acero inoxidable, así como las aspas del mismo material. Se elaboraron garapiñados de forma manual para poder medir tiempos, temperatura y cantidad y así poderlas compararlas con las pruebas realizadas en el prototipo.  Hasta el semestre anterior se habían cumplido los puntos anteriores. Se realizaron pruebas con el prototipo, se tomaron muestras de los cacahuates en cada parte del proceso de caramelización, se empezó a elaborar nuevamente la estructura en perfil-t 225 calibre 18, se empezó a corregir el balanceo dinámico y se empezaron a rediseñar los agitadores dado que los anteriores presentaron problemas al momento del mezclado.   La curva de caramelización se ajusta a una curva lineal de manera inicial buscando un tendencia del comportamiento, pero debido a la naturaleza del caramelo, la temperatura varía. Ese comportamiento debe tomarse en cuenta.  Este es un proyecto multidisciplinario que por la innovación en el proceso de la elaboración de garapiñados y de otros dulces que tengan el mismo proceso. Es bastante versátil debido a que cualquier persona siguiendo una hoja de instrucciones puede elaborar dicho dulce. Aún se seguirá trabajando y mejorando en los siguientes semestres y que el proceso a realizar sea lo más optimo posible, está dirigido a pequeños negocios e incluso a nosotros mismos para comenzar a emprender. Se deben corregir errores de diseño para que el prototipo pueda realizar nuevamente las pruebas de elaboración de garapiñados. Es un proyecto joven, sin embargo, para el período tan corto que fue el verano y con la inversión monetaria de los integrantes se consiguió tener un buen avance.   
Rodríguez Navarro Diego Homobono, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA DISRUPTIVA EN LA CADENA DE SUMINISTRO


LOGíSTICA DISRUPTIVA EN LA CADENA DE SUMINISTRO

García Reyes José Miguel, Universidad Politécnica de Sinaloa. Joya Becerra Cristo Omar, Universidad Politécnica de Sinaloa. Rodríguez Navarro Diego Homobono, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el sector empresarial se encuentra en constante adaptación en el contexto tecnológico, social y económico, con lo anterior los flujos estratégicos de la cadena de suministro dependen de su conectividad para su eficaz desempeño, los cuales son el capital, información y material, un evento no esperado que impacte negativamente a uno, dos o tres flujos se considera como una ruptura en la cadena, aun cuando su frecuencia no se encuentra identificada por su complejidad, esto comúnmente puede ocurrir cuando se presentan un cambio en lo tecnológico, organización, biológico, climático o político, lo anterior se conoce en base a los documentos históricos que informan sus diferentes causas presentadas en los tiempos actuales, el impacto principal es social y económico. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la capacidad de las actividades del sector logístico y transporte, pues si bien las necesidades de conectividad son esenciales a la vez  se necesita ser adaptable, con una atención principal en las empresas del sector industrial, logístico y transporte, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio de campo que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento industrial y su conciencia en la sustentabilidad y resiliencia del sector logístico y transporte. El alcance de la investigación cualitativa de tipo campo es identificar las acciones logísticas y de transporte que la industria logística realiza con el propósito de mantener la conectividad de los flujos estratégicos en la cadena de suministro; conocido como, logística disruptiva en la cadena de suministro



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cualitativa, de tipo documental la cual consiste en la recolección de información directamente de los profesionales del sector logístico y transporte que muestran la realidad de los hechos, sin manipular o controlar variable alguna, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos.  Se inicia con la búsqueda digital de documentos auditados y confiables sobre el tema de cadena de suministro disruptivo, para posteriormente realizar una agenda de entrevistas con empresas del giro industrial en ámbitos logístico y transporte, se registran cuatro entrevistas, a continuación con la información seleccionada se realiza un ensayo descriptivo de los escenarios que presentan causas de la ruptura de la cadena y su estrategia de solución (disrupción), así también indicando el factor con base a una categorización (tecnológico, organización, biológico, climático o político), relacionado con los resultados de las entrevistas que se analizó, esta estrategia recabó información sobre el tema para generar un nuevo conocimiento mediante argumentos propios sobre las causas documentadas de los distintos casos de ruptura de la cadena de suministro y cómo las organizaciones abordan para encontrar soluciones de diseño asertivas ante problemas complejos de ingeniería para su disrupción.


CONCLUSIONES

Sinaloa, en específico Mazatlán, ha mostrado un crecimiento exponencial en la oferta y demanda en cuanto a productos y servicios se refiere, esto debido a la urbanización que se presenta en el puerto, sumándole la cualidad de ser un punto estratégico para un amplio catálogo de empresas, lo que lleva a aumentar el riesgo de fallos en los procesos logísticos, las empresas entrevistadas muestran una buena capacidad de resolución de rupturas en la cadena de suministro ocasionadas por temas biológicos, tecnológicos, climáticos y/o políticos. Los resultados de esta investigación mostraron que gran parte de las empresas no cuentan con capacidad tecnológica para realizar o mejorar su sistema logístico, por lo que se espera que en un futuro se plantee la posibilidad de mejorar de manera significativa los procesos logísticos bajo la implementación de dichas herramientas tecnológicas, además, las empresas de hoy en día mantienen la mentalidad de la gran importancia del recurso humano para realizar sus procesos y, sobre todo, para resolver las rupturas que se presentan dentro de la cadena de suministro. Con objetividad se percibe que la logística disruptiva es un sinónimo de la teoría de restricciones (TOC), donde es esencial identificar el limitante más importante que no permite alcanzar un logro determinado en la planeación estratégica de la cadena de suministro; es decir, los procesos logísticos deben analizarse de forma lógica y sistemática, se puede mencionar que una limitante importante es la incertidumbre del costo de la materia prima, capital humano, combustible y transporte (embalaje) presentadas en la cadena de suministro.
Rodriguez Noguez Leslim Noemi, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SITIO WEB COMO HERRAMIENTA DE CONCIENTIZACIóN INFANTIL ENTRE LOS 6 A 12 AñOS SOBRE LA DISCAPACIDAD EN MéXICO EN 2023


DISEñO E IMPLEMENTACIóN DE UN SITIO WEB COMO HERRAMIENTA DE CONCIENTIZACIóN INFANTIL ENTRE LOS 6 A 12 AñOS SOBRE LA DISCAPACIDAD EN MéXICO EN 2023

de la Cruz Arzate Haleb, Instituto Tecnológico de Ciudad Altamirano. Rios Sanchez Francisco Obed, Instituto Tecnológico de Ciudad Altamirano. Rodriguez Noguez Leslim Noemi, Instituto Tecnológico de Ciudad Altamirano. Villanueva Ortega Manuel, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la discapacidad forma parte de nuestras sociedades porque en ellas encontramos personas con una variedad de condiciones físicas, intelectuales, mentales, psicosociales, sensoriales, auditiva y visuales que obstaculizan su participación de forma plena y efectiva en las sociedades. Estas discapacidades pueden ser desde el nacimiento o desarrollarse a lo largo de la vida, además de manifestarse en diferentes maneras y niveles de gravedad. Conocer acerca de las discapacidades es de gran importancia para las sociedades, ya que esto permite el desarrollo, comunicación y satisfacción de las personas que cuentan con estas condiciones, por lo tanto se han hecho grandes progresos para que el mundo sea más accesible para las personas que viven con discapacidad; sin embargo, se requiere mucho más trabajo para satisfacer sus necesidades (Organización Panamerica de la Salud, s/f). De acuerdo con la Organización Mundial de la Salud (Organización Mundial de la Salud, 2023) señalo que, a nivel mundial, se calcula que 1300 millones de personas, es decir, el 16 % de la población mundial, sufren actualmente una discapacidad importante. Sin embargo, las personas con discapacidad son objeto de discriminación y exclusión, fomentando así, las desigualdades sociales en el mundo.  Entre las causas de esta situación se debe por la falta de conocimiento que hay en la sociedad sobre esta condición dando como resultado que las personas con discapacidad no puedan gozar de sus derechos plenamente.   En América Latina y el Caribe, según el Banco Mundial (Banco Mundial, s.f.) señala que, en 2020, vivieron 85 millones de personas con discapacidad, es decir, uno de cada tres hogares vive con una persona con algún tipo de discapacidad, sin embargo, los hogares con personas con discapacidad son más vulnerables pues se estima que uno de cada cinco hogares en situación de pobreza extrema vive una persona con discapacidad. En el ámbito de educación, el analfabetismo es cinco veces mayor en las personas con discapacidad y el 15 % de niños con discapacidad no van a la escuela. En el ámbito laboral, una de cada dos personas con discapacidad no trabaja en el mercado laboral y los que trabajan, ganan entre el 6 y 11 % menos por el mismo empleo que otros trabajadores. Como resultado, la discriminación produce países que no se desarrollan por el límite de oportunidades que ofrece.   A nivel nacional, de acuerdo con cifras en el Censo de Población y Vivienda 2020 del INEGI (INEGI, s/f) en México hay aproximadamente 6 millones de personas con algún tipo de discapacidad, posteriormente, de acuerdo con ENADIS 2022 (INEGI, 2023), 33.8 % de las personas con discapacidad de doce años y más manifestó haber sido discriminado durante los últimos doce meses. En México, según el Banco Mundial (Banco Mundial, 2021) las personas con discapacidad tienen una media del 24 % de no completar su educación primaria y el 30 % si pertenecen a una minoría etnoracial y, además, un trabajador con discapacidad gana en promedio $ 0.8 de cada dólar que recibe un trabajador sin discapacidad. En términos generales, México es un país en donde las personas con discapacidad encuentran dificultades en su vida cotidiana generando falta de oportunidades, pobreza, falta de reconocimiento en las leyes, falta de acceso a la educación y claramente, la discriminación.  



METODOLOGÍA

Para la metodología se realizó por la metodología cascada que consta de los sguientes pasos: 1.- Especificación de requisitos: Para obtener los requisitos era necesario obtenerlos de primera mano por parte de la población de estudio, es decir, los niños de 6 a 12 años, La encuesta se realizo en Google Forms, este cuestionanrio consto de 14 preguntas. 2.- Analisis: Con la información obtenida se crearon tablas de información en donde se proporcionaba los porcentajes de las respuesta. 3.- Diseño: Para el diseño se realizo bajo la experiencia UI/UX 4.- Implementación: Se implemento con las tecnologías HTML, CSS y Javascript. Se realizo la pagina index (página principal) en donde se encuentran las diferentes discapacidades que existen: fisicas, mentales e intelectuales, viscerales, sensoriales y  multiples. 5.- Evaluación y pruebas: Se revisó a que no hubiera fallas de lógica y de sintaxis. 6.- Documentación de proyecto: Se desarrollaron informes cada viernes de las diferentes actividades que se realizaron en la semana. 7.- Entrega del informe final: Se entrego el resumen de lo desarrollado en la instancia.  


CONCLUSIONES

En conclusión, el lograr concientizar a una población es un reto ya que esta tiene diferentes estigmas y perspectivas acerca de las discapacidades, una de las formas que más alcance se tiene es a través de la internet y se logra la importancia de sensibilizar a través de la información a los niños, debido a que el programa es corto se tuvo que realizar una encuesta a los niños de 6 a 12 años, sin embargo, como nos encontramos en periodo de vacaciones no se logró aplicar las encuestas de manera correcta. Sin embargo, el contenido del sitio web se extrajo de diferentes fuentes de información como organizaciones internacionales y nacionales. Con esta información se realizo el sitio web mostrando contenido informativo que servirá para que los niños conozcan acerca de las diferentes discapacidades que existen en el país.
Rodríguez Nuñez Catherine Astrid, Instituto Politécnico Nacional
Asesor: M.C. Johann Mejías Brito, Instituto Tecnológico de Colima

PROPUESTA DE DISEÑO CONCEPTUAL DE UN HUERTO HIDROPÓNICO URBANO


PROPUESTA DE DISEÑO CONCEPTUAL DE UN HUERTO HIDROPÓNICO URBANO

Garcia Espejo Ramon, Universidad de Guadalajara. Rodríguez Nuñez Catherine Astrid, Instituto Politécnico Nacional. Asesor: M.C. Johann Mejías Brito, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el interés por la hidroponía para la producción de cultivos se ha incrementado en gran medida, lo que ha provocado que se requiera de una mayor difusión y capacitación del usuario. Esta técnica se ha implementado con mucho éxito en países desarrollados en forma de huertos familiares implementada con tecnologías sencillas en zonas urbanas y suburbanas, mejorando así las condiciones de vida, el nivel de ingresos y la alimentación de los pobladores, sin que el espacio requerido sea una limitante para producir sus propios alimentos con reducido uso de agroquímicos y por lo tanto obtener productos de mejor calidad, constituyendo una alternativa viable en comunidades de bajos recursos. Por este motivo los involucrados en la agricultura han estado impulsando la hidroponía como técnica de producción de alimentos. En México se ha detectado la problemática de que no se cuenta con una metodología que agrupe los parámetros para desarrollar el diseño de un prototipo de huerto hidropónico urbano modular automatizado que permita controlar el crecimiento y cultivo de las plantas.



METODOLOGÍA

Para desarrollar esta propuesta de diseño, se emplea un método cualitativo, no experimental y descriptivo, que consta las siguientes fases:  Vigilancia tecnológica, apegado a lo que se establece en por la norma UNE 166006 de 2006, del prototipo de huerto hidropónico urbano modular con control de variables para determinar las características básicas y controlar la funcionalidad de la misma a través de la identificación de necesidades, fuentes y medios de acceso de información; búsqueda, tratamiento y validación; valoración de la información, resultados, medición y mejora. La etapa corresponde a una revisión bibliográfica sobre los cultivos, sistemas y dispositivos para su automatización, todo ello a través de fuentes formales, tales como tesis, artículos y patentes con el fin de actualizar conocimiento obtenido sobre los sistemas mecánico, eléctrico, electrónico y control inteligente, para así poder definir las características y posibles especificaciones técnicas del prototipo en conjunto. En la segunda fase correspondiente a la conceptualización del prototipo de huerto hidropónico urbano modular con control de variables para determinar las características básicas y controlar la funcionalidad de la misma automatizando el proceso. En esta fase se evaluaron las condiciones de los sistemas hidropónicos, así como las necesidades de información identificadas en la fase de Identificación de requerimientos de diseño de la propuesta. Posteriormente se procedió a definir la arquitectura del sistema La tercera fase comprende lo referente a la propuesta de diseño del prototipo, seleccionando los materiales y la tecnología necesaria para el desarrollo del diseño en correspondencia con las características y especificaciones definidas en las etapas anteriores.  


CONCLUSIONES

Durante el período del verano se favoreció la adquisición de conocimientos teóricos de agricultura a pequeña escala y las técnicas de hidroponía para el cultivo. Se realizó la vigilancia tecnológica que constituye una herramienta indispensable para la competitividad en las organizaciones, obteniéndose como resultado las características de los diferentes huertos urbanos que existen en la actualidad. La hidroponía se presenta como una alternativa para la producción de alimentos, pudiéndose implementar en el sector rural como el urbano, de acuerdo a los requerimientos de la comunidad impactada.  Se realiza la propuesta de diseño de un prototipo de huerto hidropónico con control de variables para determinar las características básicas y controlar los niveles de temperatura, iluminación y nutrientes disueltos en el agua de irrigación, para mejorar la calidad del cultivo.
Rodriguez Patiño Leticia Alexandra, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Javier Suárez León, Universidad de Investigación y Desarrollo

DISEñO Y DESARROLLO DE UNA INTERFAZ GRáFICA PARA EL ENTRENAMIENTO DEL CONTROL DE MOVIMIENTOS DE UNA SILLA DE RUEDAS BASADO EN LOS MOVIMIENTOS DE UNA EXTREMIDAD DEL CUERPO


DISEñO Y DESARROLLO DE UNA INTERFAZ GRáFICA PARA EL ENTRENAMIENTO DEL CONTROL DE MOVIMIENTOS DE UNA SILLA DE RUEDAS BASADO EN LOS MOVIMIENTOS DE UNA EXTREMIDAD DEL CUERPO

Rodriguez Patiño Leticia Alexandra, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Javier Suárez León, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

El respeto a la autonomía de las personas con discapacidad en silla de ruedas implica también escuchar sus necesidades y preferencias, considerar sus opiniones en la toma de decisiones y eliminar barreras que limiten su independencia. Las sillas de ruedas, al proporcionar a muchas personas la movilidad necesaria para desenvolverse en su entorno, se convierten en un recurso vital. Sin embargo, la verdadera libertad se alcanza cuando estas personas pueden ejercer un control pleno sobre su silla y desplazarse sin depender constantemente de la ayuda de terceros. La posibilidad de moverse a voluntad, acceder a diferentes espacios y participar activamente en la sociedad les brinda una sensación de dignidad y autoestima. El uso de sillas de ruedas implica riesgos potenciales para la seguridad del usuario, especialmente durante la etapa de aprendizaje. La falta de práctica previa conlleva la posibilidad de accidentes y lesiones, así como la aparición de temores y ansiedades asociados con el uso de la silla en situaciones reales. Por lo tanto, es necesario abordar la siguiente pregunta: ¿Cómo podemos mejorar la seguridad y adaptación emocional de los usuarios de sillas de ruedas durante el proceso de aprendizaje?   En este sentido, el uso de un software de simulación se presenta como una herramienta valiosa para mejorar la seguridad del usuario y facilitar su adaptación emocional a la nueva experiencia.



METODOLOGÍA

Se empleó el modelo de cascada (Waterfall) ya que es compatible con proyectos ordenados y predecibles en los cuales todos los requerimientos están claramente definidos y puede ser estimados a la precisión. Las fases involucradas son las siguientes: Requisitos: Se llevó a cabo una exhaustiva recopilación de requisitos, identificando las necesidades y expectativas de los usuarios tanto para la interfaz gráfica como para los movimientos de la extremidad que controla la silla de ruedas. Diseño: Se desarrolló una solución visual y funcional, para ello primero se creó un prototipo de la interfaz gráfica, teniendo en cuenta principios de usabilidad y accesibilidad para garantizar que resulte intuitiva y fácil de usar para usuarios con diversas habilidades motoras y visuales. Asimismo, se diseñó la lógica de control necesaria para interpretar los movimientos de la extremidad y traducirlos adecuadamente para el funcionamiento de la silla de ruedas. Implementación: Se desarrollo la interfaz grafica en el lenguaje de programación java, utilizando el software NetBeans, mientras que para el microcontrolador ESP32 se desarrolló un código que permitía traducir los datos capturados por el sensor MPU6050, primero se optó por utilizar inicialmente el simulador en línea Wokwi, y posteriormente se utilizó el software Arduino IDE para cargar el código en el microcontrolador ESP32. Una vez completada la programación, se llevó a cabo una interconexión precisa y adecuada entre todas las partes electrónicas del sistema. Verificación: Para garantizar el correcto funcionamiento del sistema, se realizaron pruebas exhaustivas, estas pruebas verificaron que tanto la interfaz gráfica como el control de movimientos operaran sin problemas de tal modo que la silla de ruedas se mueve de manera correcta de acuerdo con la extremidad. Validación: Finalmente se validó la conexión vía Bluetooth para asegurar una comunicación exitosa entre los dispositivos y también se validó que la silla de ruedas no saliera del área designada.


CONCLUSIONES

En el proyecto se logró desarrollar una interfaz gráfica interactiva y accesible en java utilizando el software NetBeans, el cual permite el entrenamiento y mejora del control de movimientos de una silla de ruedas a través de objetos virtuales de animación. La combinación de una interfaz intuitiva con el sistema embebido basado en un microcontrolador ESP32 que traduce los movimientos captados por un sensor inercial MPU6050 y una integración exitosa de etapas electrónicas interconectadas por Bluetooth ha demostrado su funcionalidad. Esta solución tiene el potencial de entrenar previamente en la autonomía de las personas usuarias de sillas de ruedas eléctricas personalizadas. A continuación se detallan los resultados del proyecto: Diseño de una interfaz gráfica intuitiva y amigable en Netbeans para interactuar con la animación de una silla de ruedas mediante los movimientos de una extremidad del cuerpo. Desarrollo de un código para un sistema embebido basado en un microcontrolador ESP32 que traduce los movimientos captados por un sensor inercial MPU6050 ubicado en la extremidad del cuerpo. Integración exitosa de las etapas electrónicas necesarias para el control del movimiento de los objetos virtuales con la interfaz gráfica, logrando una sincronización adecuada en la comunicación del dispositivo con la interfaz gráfica. Se realizaron pruebas y validaciones vía Bluetooth de la interfaz gráfica y el sistema de control, demostrando su correcto funcionamiento.
Rodríguez Perales Carlos, Universidad Autónoma de Zacatecas
Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO


GESTIóN DEL MANTENIMIENTO INTEGRADO AL MODELO CIM CON INTELIGENCIA ARTIFICIAL PARA LA OPTIMIZACIóN DEL EQUIPAMIENTO POSTCOSECHA EN EL ATLáNTICO

Rodríguez Perales Carlos, Universidad Autónoma de Zacatecas. Asesor: Mg. Carolina Garzón Rodríguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

Si hablamos de herramientas fundamentales para el desarrollo del sector industrial podemos hablar de los motores eléctricos, los cuales tienen un rol muy importante para el proceso de manufactura (alimentos, tabaco, textiles, madera, papel, plástico, vidrio etc.). Con el pasar del tiempo, los motores eléctricos sufren desgastes o daños ocasionando que estos no cumplan con un buen desempeño y que en consecuencia su eficiencia sea menor a la establecida por el fabricante.  Por lo general, la vida útil de los motores eléctricos en condiciones normales, se estima entre unos 15 a 20 años aproximadamente. Es por ello que las industrias diseñan planes de mantenimiento que cumplan con estándares establecidos, pero estos suelen ser costosos ya que una sola empresa puede contar con decenas de motores. En vista de lo anterior, el presente documento tiene como finalidad analizar un dispositivo que contribuya al mantenimiento predictivo de motores eléctricos. El dispositivo cuenta con un sensor de vibración (acelerómetro) y uno de temperatura, esto para recabar datos de un motor trifásico, posterior a ello utilizar un conversor de corriente 4 a 20 ADC en donde se hace la conversión de señales analógicas a digitales. Los datos se analizan utilizando la Transformada Rápida de Fourier la cual es muy útil para lograr detectar fallas en los motores y de esta manera, contribuir a evitar pérdidas económicas en el sector industrial.



METODOLOGÍA

Un motor eléctrico es una máquina que convierte la energía eléctrica en energía mecánica de rotación por medio de la acción de los campos magnéticos generados en sus bobinas. A grandes rasgos, está compuesto por un estator y un rotor. Los motores eléctricos son parte importante del sector industrial, donde cerca del 60% de la demanda de energía eléctrica de una industria es por causa de los motores eléctricos. Los motores eléctricos tienen las siguientes aplicaciones en la industria. Bombas: para circulación de agua u otros fluidos de proceso. Compresores: para calefacción, ventilación y aire acondicionado (HVAC) y para herramientas eléctricas neumáticas. Ventiladores: para sistemas de ventilación y escape. Sistemas de refrigeración: principalmente para alimentos, también para procesos de papel y metales. Etc. Al estar en constante uso, se genera un desgaste en algunos componentes, provocando que estos puedan sufrir daños importantes, y, en consecuencia, que el motor no funcione correctamente. Es por ello que existen diferentes métodos para el mantenimiento de los motores eléctricos: Detección de vibraciones Funcionamiento de rodamientos Limpieza y lubricación Con el análisis de vibraciones, se usa la Transformada Rápida de Fourier, lo que se nos muestra en el dominio de la frecuencia varios espectros correspondientes a las vibraciones producidas por el motor eléctrico. Con ayuda de diferente herramienta computacionales, analizamos los datos obtenidos para luego ser procesados y que el usuario sea capaz de diagnosticar fallas. Al contar un dispositivo que mediante vibraciones de motores contribuya al mantenimiento predictivo de los motores, se puede tener una buena planificación de manteamiento más certero y disminuir los costos económicos, esto debido a que las empresas suelen gastar grandes cantidades de dinero en reparaciones o mantenimiento.  MATERIALES Los materiales para la creación de dicho dispositivo son los siguientes Raspberry Pi 4 Modelo B Pantalla Táctil de 5 Pulgadas 800x480 HD TFT LCD Mini Teclado Inalámbrico con PadMouse Conversor de Corriente 4 a 20 ADC: Sensor es1c a40 omron (Sensor de temperatura) Sensor PCE-PVS 10 (Sensor de vibración) Como se tiene planeado que el dispositivo cuente mayormente con usuarios que pertenezcan a empresas, se decidió crear una página web usando HTML, en donde cada organización puede registrarse y puede ir monitoreando las mediciones que haga el dispositivo, los datos se guardaran en una base de datos por si estas mediciones se llegaran a ocupar en un futuro. Cabe mencionar que previamente se realizó una investigación de fichas técnicas de diferentes motores eléctricos de las marcas ABB, Hyundai, Siemens y WEG, estas fichas están en otro apartado, para que estos técnicos puedan tener un punto de comparación de los datos mesurados con los que dicen las marcas de los motores que deben ser correctos. Se plantea la idea de que cada técnico pueda ir subiendo fichas técnicas de motores para que la base de datos sea más amplia y enriquecer la información. Una vez realizado el manejo de los datos de manera adecuada, es cuando el encargado analiza los resultados finales y este de señal a la empresa si es que el motor está fallando, va a fallar y como es que se puede trabajar con ese problema (si es que existe).


CONCLUSIONES

Se puede decir que el análisis de vibraciones para motores eléctricos, empleando FFT[1] tiene un papel decisivo a la hora de verificar el comportamiento de maquinarias y equipos, que es primordial su mantenimiento para un buen funcionamiento, pues estas herramientas son indispensables para todas las industrias.  En el mercado existen diferentes dispositivos que intervienen en el mantenimiento de los motores, pero cuentan con precios algo elevados, es por ello que se planteó la idea de diseñar un dispositivo más accesible, pero por problemas externos, los materiales solicitados no pudieron llegar a tiempo, es por ello que esta investigación seguirá en curso, esperando terminar el dispositivo lo antes posible. [1] Transformada rápida de Fourier por sus siglas en inglés
Rodriguez Puga Naomy, Universidad Veracruzana
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

EMPLEO DE LA FIBRA NATURAL DE COCO MEZCLADA AL CONCRETO HIDRAULICO, UN NUEVO CAMBIO A LA CONSTRUCCION.


EMPLEO DE LA FIBRA NATURAL DE COCO MEZCLADA AL CONCRETO HIDRAULICO, UN NUEVO CAMBIO A LA CONSTRUCCION.

Rodriguez Puga Naomy, Universidad Veracruzana. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las construcciones durante muchos años atrás y en la actualidad se han hecho con los mismos materiales, así con el paso del tiempo gastando elementos como agua, grava y arena, siendo utilizados principalmente para que tenga una adherencia al cemento y el concreto tenga una mayor resistencia; pero el problema es que no se cuente a futuro con estos recursos y se gaste su capacidad máxima, en base a esto es necesario tomar una medida de sustentabilidad para no acabar con los componentes antes mencionados, y que se pueda aprovechar un recurso natural que sea renovable para las industrias constructoras, además que no afecte a los problemas como el calentamiento global y la contaminación.En distintas regiones siempre predominan más un recurso natural que otro, en Veracruz el coco es tan abundante que lo puedes encontrar en cualquier parte del Puerto de Veracruz, ya sea calles, playas, palmeras, avenidas, dejando sus desperdicios a la intemperie, pocos tiran su cascara a la basura y otros solo contaminan las playas, pero lo que no muchos saben es que la fibra de coco puede servir a la mezcla de concreto siendo este un recurso sostenible utilizándolo para este método de construcción, Por eso la presente investigación se hace una revisión de los efectos que ha presentado la fibra de coco adicional al concreto hidráulico.



METODOLOGÍA

La información que se menciona a continuación es obtenida de artículos fiables que están apoyando la investigación de la fibra de coco empleada la mezcla de concreto hidráulico, ya que no se realizaron pruebas anteriores que se pudieran obtener resultados de ellas, y en base a eso poder hacer gráficas, pero se pudo contar con una extensa.Las características principales que presenta el artículo de la página sostenibilidad+vida son que se usa fundamentalmente como aislamiento térmico y acústico, pero también como material de construcción en sustitución de los ladrillos o bloques, también se realizan rollos de fibra de coco para colocar debajo de los suelos como aislamiento y que se mezcla la fibra de coco con cemento, para utilizarlos como muros, revestimientos de techos o incluso encofrados de suelo pues mejoran las propiedades del propio cemento, en cuanto a aislamiento,térmico y acústico, flexibilidad e incluso resistencia, además, permite un ahorro detiempo en la construcción. En la universidad piloto de Colombia, se realizó una investigación tomándose como factor de medición la resistencia a compresión y flexión del concreto, que consiste en la realización de la evaluación del comportamiento mecánico de un concreto hidráulico modificado por la adición de la fibra de coco, se hicieron pruebas donde los resultados fueron que a la resistencia de compresión durante la realización de pruebas, muestreos, fallas los volúmenes de cilíndricos obtenidos. En la Universidad César Vallejo, Perú se determinó que el empleo de la fibra de coco mejora las propiedades mecánicas del diseño de concreto. Al hacer todas estas pruebas se analizó que a los 28 días de curado, a mayor proporción de fibra de coco, hasta un 2% aumentaba la resistencia y adicionalmente manteniendo uniformidad en el concreto y mayor cohesión. Lo más difícil fue el proceso de recolección y tratamiento de la fibra del coco, se determina que en la dosificación en función a la fibra de coco con el empleo de un 2% en el diseño de concreto mejoró la resistencia a la compresión a los 28 días, de las propiedades del concreto, se demostró la efectividad de la fibra natural de coco en mejora del concreto.En base a las pruebas de flexión se puede ver que en la dosificación en función a la fibra de coco con el empleo de un 1.5% en el diseño de concreto mejoró la resistencia a la flexión a los 28 días, de las propiedades del concreto. Lo más importante fue que se demostró la efectividad de la fibra natural de coco en mejora del concreto la fibra de coco no influye directamente en las propiedades de los agregados del diseño de concreto para mejorar la resistencia a la flexión de las propiedades del concreto.


CONCLUSIONES

En el programa Delfín 2023, se llevó a cabo una gran cantidad de investigación fibras sintéticas con pruebas de laboratorios, donde se pudo obtener un superior conocimiento,lo que se puede hacer para tener una medida sustentable en cada uno de los contenidos, cada ingeniero o arquitecto tenga una mejor preparación para poder resolver los problemas ambientales existentes que al ejercer su profesión haya oportunidades de cambiar al planeta con los nuevos cambios sustentables que pueden llegar a hacer en la construcción, ya que los humanos tienen que adaptarse a las necesidades del ambiente. La fibra de coco es una opción renovable y aplicable en el estado de Veracruz ya que es abundante el fruto y su cascará es desechada, pero a pesar de que no se haya obtenido pruebas durante el programa con la comparación de dos universidades podemos ver que es una opción que mejora la resistencia del concreto y que es posible que sea una buena medida para iniciar un nuevo cambio en las edificaciones.
Rodríguez Rodríguez Ángel Gabriel, Instituto Politécnico Nacional
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

CATáLOGO DE OBJETOS 3D PARA PUBLICIDAD CON REALIDAD AUMENTADA


CATáLOGO DE OBJETOS 3D PARA PUBLICIDAD CON REALIDAD AUMENTADA

Munguia Poblano Erwin, Instituto Politécnico Nacional. Olarte Astudillo Rodrigo, Instituto Politécnico Nacional. Rodríguez Rodríguez Ángel Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La publicidad siempre ha sido un recurso importante que utilizan las empresas para acercar sus productos a los consumidores. Su finalidad es lograr que los consumidores se sientan más familiarizados con los productos de un fabricante. La industria publicitaria ha estado en constante evolución aprovechando los avances tecnológicos para poder adaptarse a las necesidades actuales de los consumidores. Sin embargo, cuando existen muchas empresas que desean acercar sus productos a los consumidores, estas deben buscar nuevas medidas que logren que sus productos sobresalgan por encima de los competidores. La problemática que se aborda en este proyecto es encontrar una medida para llevar una aproximación realista del producto a los consumidores mediante modelos 3D de los productos y realidad aumentada.



METODOLOGÍA

Para digitalizar un objeto se utilizó el método de proyección estructurada de franjas que requiere un proyector y una cámara. El objetivo del proyector es iluminar el objeto con un patrón de franjas mientras que la cámara captura las fotos. Para realizar la reconstrucción 3D, es necesario calibrar el sistema, donde se obtienen los siguientes parámetros. Matriz Kc y Kp, que representa la configuración de la lente y píxeles del sensor de la cámara y proyector, respectivamente. Matriz Rc y Rp, que representa la rotación que tiene la cámara y el proyector en el espacio, respectivamente. Vector tc y tp, que representa la posición de la cámara y el proyector. La calibración se debe hacer utilizando un patrón de referencia, y tomar varias fotos con diferentes rotaciones del mismo, este esta constituido de cuadros tipo ajedrez con un tamaño de cuadro conocido.   Una vez calibrado el sistema ya estamos listos para digitalizar el objeto. Para ello debemos tomar fotos en el mismo espacio donde calibramos. La función del proyector es emitir el patrón de franjas sobre el objeto mientras que la cámara toma las fotos. El patrón es generado mediante una onda cosenoidal donde vamos variando su frecuencia lo que nos da una apariencia de que las rayas verticales se desplazan, mientras más corrimientos tenga la rejilla obtendremos una mejor construcción del objeto, sin embargo se requerirá mayor tiempo de cómputo.  Una vez capturados los patrones de franjas, se extrae la fase envuelta y al resultado se aplica el proceso de desenvolvimiento de fase. La fase final obtenida es usada para obtener una nube de puntos en 3D del objeto a través de la técnica de triangulación lineal. Posteriormente, la nube de puntos obtenida es exportada en un archivo .ply (Polygon File Format), el cual es un formato de archivo 3D en el cual se almacena objetos gráficos descritos como una colección de polígonos. Cabe señalar que hasta esta etapa solo se tienen nubes de puntos mas no la superficie del objeto. Debido a ello es que se debe realizar un postprocesamiento donde primeramente en una aplicación llamada CloudCompare, se limpia el ruido generado por puntos que son colocados en lugares donde el objeto no debería estar presente de modo que la nube de puntos únicamente sea el objeto digitalizado. Posteriormente se realiza un mallado de modo que el objeto ahora es una superficie la cual es exportada en un archivo .obj para así realizar el modelo 3D uniendo múltiples superficies. La superficie resultante del objeto es procesada en el software MeshLab en el cual es exportada la textura del objeto que tenga la malla para que sean aplicadas a la superficie. Finalmente para realizar el objeto 3D, todas las superficies y texturas que fueron obtenidas con los procedimientos anteriores son importadas en la aplicación Blender, donde estas son unidas para finalizar y exportar el modelo 3D en un archivo .fbx (FilmBox).


CONCLUSIONES

En este proyecto se realizó con éxito la digitalización 3D de objetos mediante la proyección de franjas y posteriormente adaptar a un enfoque de aplicación orientado a la publicidad con realidad aumentada. Los resultados se integraron en una aplicación para celular con android 8.0 o superior. En esta aplicación se visualiza el modelo 3D de los productos digitalizados, esto se hace apuntando a los modelos cargados en la aplicación. Las ventajas de usar esta técnica es que reduce enormemente el tiempo de creación de un modelo 3D. Además, el sistema es sencillo de armar y económico. Cabe mencionar que mientras mejor calidad tengan los dispositivos empleados, mejor será la digitalización. Las complicaciones de emplear está técnica son que no existe un procedimiento eficiente para generar los modelos 3D ya que estos requieren de mucho trabajo de postprocesamiento y perjudican la calidad de los mismos. Además debido al gran número de características que se obtienen del objeto, los modelos 3D requieren mucho espacio de almacenamiento. Como mejoras en trabajo a futuro se propone la creación de un método que genere los modelos 3D de forma automática, así como una optimización en los mismos para reducir el espacio en memoria y generar formas de interacción en la aplicación de realidad aumentada.
Rodríguez Ruiz Daniel de Jesús, Universidad Tecnologica de León
Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León

SISTEMA OPTÓ MECATRÓNICO DE DETECCIÓN DE FALLAS EN PIEZAS MECÁNICAS PARA EQUIPO DE CARGA IMPLEMENTANDO ALGORITMO DE INTELIGENCIA ARTIFICIAL


SISTEMA OPTÓ MECATRÓNICO DE DETECCIÓN DE FALLAS EN PIEZAS MECÁNICAS PARA EQUIPO DE CARGA IMPLEMENTANDO ALGORITMO DE INTELIGENCIA ARTIFICIAL

Rodríguez Ruiz Daniel de Jesús, Universidad Tecnologica de León. Torres Gonsalez Acela Guadalupe, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proceso de corte de aluminio de la empresa, se producen piezas circulares. Estas pasan por una inspección de calidad para verificar que no tengan rebabas y que su redondez sea precisa. Actualmente, la inspección se hace visualmente, lo que es ineficiente y propenso a errores. Se ha propuesto medir el diámetro de las piezas en diferentes puntos de su circunferencia, pero se descartó debido a su lentitud y posibles cuellos de botella. La solución ideal es crear un sistema optomecatrónico de inspección por visión artificial que permita revisar la producción rápidamente y detectar piezas no conformes. Se plantea inicialmente que este sistema se limite a inspeccionar piezas circulares, pero su desarrollo flexible permitirá añadir funciones para controlar la calidad de nuevos productos. Mejorar la calidad de producción puede aumentar el prestigio de la empresa y abrir la posibilidad de cumplir con estándares más exigentes, como la norma automotriz IATF16949:2016.



METODOLOGÍA

La programación de un sistema que realiza el procesamiento de imágenes en tiempo real para inspeccionar la redondez de piezas circulares. Se utilizan varios módulos, incluyendo uno para el procesamiento de imágenes, otro para la interfaz gráfica y uno más para el control del sistema de movimiento. Se emplean librerías como cv2 (OpenCv), PyQt5, json y RPi. La interfaz gráfica se crea con QtDesigner y muestra imágenes en vivo con opciones para filtrar y procesar la captura, lo que permite detectar los contornos y obtener un índice de redondez. Los filtros incluyen eliminar ruido, ajustar el color y aplicar desenfoque Gaussiano y binarización. La precisión del procesamiento depende de la iluminación, la posición de la cámara y la correcta aplicación de los filtros.


CONCLUSIONES

En este proyecto de innovación de visión artificial, se utilizó la librería OpenCV para desarrollar un programa que inspecciona figuras geométricas en tiempo real. Se implementaron algoritmos de comparación de forma, como los momentos de Hu. Durante la prueba, diferentes figuras fueron colocadas en una banda transportadora y el programa clasificó correctamente cuadrados como "NO OK" y círculos como "OK". Aunque los resultados fueron satisfactorios, existen oportunidades de mejora, como añadir mejores técnicas de filtrado y procesamiento de imágenes, implementar un sistema de movimiento de cámara y crear una base de datos para el control de calidad.
Rodríguez Santos Zayra Guadalupe, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte

EMPLEO DE APLICACIóN DE GOOGLE Y MICROSOFT EN CERTIFICACIóN ISO 9001 EN PROCESO DE TERMOFORMADOS.


EMPLEO DE APLICACIóN DE GOOGLE Y MICROSOFT EN CERTIFICACIóN ISO 9001 EN PROCESO DE TERMOFORMADOS.

Rodríguez Santos Zayra Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Iván Martinez Mendoza, Universidad Tecnológica Paso del Norte



PLANTEAMIENTO DEL PROBLEMA

En muchas empresas contar con un sistema de gestión de la calidad garantiza que un producto o servicio cuenta con las especificaciones y requerimientos del cliente. Para esto se deben de ir adaptando a las nuevas tecnologías que van a ayudar a mejorar e innovar los procesos. En la empresa Termoformados se requieren implementar tecnologías para la comunicación lo que va a mejorar la colaboración en equipo, simplificar el trabajo y aumentar su productividad.



METODOLOGÍA

Este proyecto se delimitó únicamente a lo tecnológico en distintos departamentos de la empresa en los cuales es indispensable el uso de herramientas computacionales. Mediante una matriz de riesgo se pudieron identificar las áreas de oportunidad para mejorar y con la ayuda de esta matriz se identificaron nuestros objetivos, los cuales se basan en la optimización y automatización de herramientas de la información. Para poder conocer mejor el nivel de competencia que tiene cada empleado de Termoformados se realizó una encuesta mediante la aplicación de Google Forms la cual nos ayudó a identificar qué tanto conocimiento tienen los trabajadores de la empresa en cuanto a herramientas y paquetes computacionales. A su vez se evaluó el desempeño de la organización mediante entrenamientos y encuestas lo cual ayudó a percibir las condiciones de trabajo y la colaboración en equipo. Después se estableció un sistema de comunicación en base a Google y Power Apps para mejorar la colaboración de equipo, simplificar el trabajo y aumentar su productividad. Por último, se estudiaron los procesos para crear estrategias a las diversas problemáticas que se presentaban en cada departamento.


CONCLUSIONES

Con la ayuda de este proyecto logré conocer mejor acerca del proceso de certificación de las empresas, así como el manejo de las herramientas de Google y Power Apps, las cuales son de gran ayuda en muchas empresas ya que permiten el resguardo de información y la integridad de datos.
Rojas Birruete Manuel Angel, Instituto Tecnológico de Morelia
Asesor: Dr. Dixon Salcedo Morillo, Universidad de la Costa

INTRODUCCIóN A LA INTELIGENCIA ARTIFICIAL Y SUS APLICACIONES: REVISIóN SISTEMáTICA SEGúN LAS DIRECTRICES PRISMA Y SUS FUTURAS DIRECCIONES


INTRODUCCIóN A LA INTELIGENCIA ARTIFICIAL Y SUS APLICACIONES: REVISIóN SISTEMáTICA SEGúN LAS DIRECTRICES PRISMA Y SUS FUTURAS DIRECCIONES

Rojas Birruete Manuel Angel, Instituto Tecnológico de Morelia. Asesor: Dr. Dixon Salcedo Morillo, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La Inteligencia Artificial (IA) se ha convertido en un tema de gran relevancia en la actualidad, esta área de la informática moderna tiene impacto en diversos campos y sectores.  En el ámbito de la robótica y la automatización, la IA está revolucionando áreas como los son la manufactura aditiva y los procesos de sistemas autónomos, mejorando la productividad y la calidad.  Uno de los campos de aplicación del Machine Learning es el área de las energías renovables, utilizando técnicas de predicción, de clustering y optimización.  En el campo de la medicina y la salud, la IA ha demostrado su capacidad para diagnosticar enfermedades de manera más precisa y temprana.  En la educación, la IA está desempeñando un papel clave en la personalización del aprendizaje. Los sistemas de IA pueden analizar el rendimiento y las preferencias de los estudiantes para proporcionar contenido educativo adaptado a sus necesidades individuales. La relevancia de la Inteligencia Artificial en la actualidad está alcanzando escalas impensables que en años anteriores no podíamos imaginar, es por eso que las implicaciones y el alcance de las herramientas es un tema que se debe analizar, con esto, concluir cuales son las aplicaciones que serán tendencia en los años posteriores, así como las áreas en las que se desarrollara y a su vez, las herramientas que tendrán mayor impacto en el futuro.



METODOLOGÍA

El presente proyecto en la metodología PRISMA , es una metodología para informar sobre revisiones sistemáticas y metaanálisis, tiene la intención de ayudar en la presentación ordenada de documentos de investigación; PRISMA puede utilizarse como base para informar sobre revisiones sistemáticas.  Por lo tanto, siguiendo los principios del enfoque PRISMA, este estudio llevó a cabo la revisión de la literatura científica en materia de Machine Learning en relación a los métodos de Inteligencia Artificial y sus aplicaciones.   2.1. Estrategia de búsqueda La primera búsqueda se realizó en el mes de julio del 2023, en la base de datos de SCOPUS. Se combinaron los términos "artificial intelligence", applications, features, tools, trends. Posteriormente se utilizaron los operadores booleanos AND y OR según los criterios de la investigación y según conviniera en los resultados de la búsqueda.  Con el siguiente orden "artificial intelligence" applications OR features AND tools AND trends. El único criterio que se realizó en la búsqueda fue el del rango de fechas, esta búsqueda arrojó un total de 640 documentos, una cantidad considerable de resultados, un tanto útiles para la revisión ya que analizando los temas mas relevantes como se observa en el siguiente esquema: El 22.9 % de los documentos se refieren al área de Ciencias de la Computación, el 17% son relacionados al área de la ingeniería, el 9.1% resalta en la medicina y el restante 51% esta repartido entre Matemáticas, Energía, Ciencias Sociales, entre otros. 2.2. Búsqueda Sistemática Se realizo nuevamente la búsqueda en Scopus, continuamos con la combinación de los términos anterior ya que esta comprende exactamente las palabras clave que discretizan correctamente los artículos que nos interesan. "artificial intelligence", applications, features, tools, trends.    2.2.1 Criterios de exclusión Limitado solo para artículos de investigación.   Limitado para artículos que ya hayan sido finalizados.     Limitado solo a artículos que sean tendencia o que sean más recientes. Publicados de 2023 en adelante.  Concretamente se obtuvieron 43 resultados, de los cuales se realizo otro criterio de exclusión, este con el fin de encontrar los artículos que   fueran de acceso abierto.      Limitado a solo artículos all open Access. Obteniendo finalmente 33 artículos seleccionados con los cuales realizar el análisis posterior.


CONCLUSIONES

  Podemos observar que el país con mas documentos por territorio es Estados Unidos con 6 documentos, seguido por el Reino Unido con 5, después, se encuentra China con 3 documentos, al igual que Alemania, Grecia, Polonia, Arabia Saudí y España. Hungría e India tienen 2 De igual manera analizando el área implicada en los documentos, se arroja el siguiente gráfico correspondiente: Donde se concluye que área de mayor implicación es la Ingeniería con un 15.9%, seguida por el área de Ciencias de la Computación con un total de 14.3%, posteriormente se encuentran las ciencias sociales. Por último, áreas como la medicina, el área de energía, agricultura y matemáticas con un porcentaje alrededor del 5% al 7%. Se puede observar que el área de ingeniería tiene un futuro muy prospero en aplicaciones de inteligencia Artificial. En las herramientas más utilizadas se puede observar que el lenguaje de Python y R son los más utilizados con un rango aproximado del 20%, (Falta observar algunos artículos). Obsérvese la tabla adjunta: Como conclusión podemos afirmar que las áreas de la ciencia de la Computación e Ingeniería son en las que se encuentra el uso de herramientas de Inteligencia Artificial en tendencia. Esto claro, nos dice que se seguirá expandiendo el uso de las distintas herramientas en los años posteriores, a su vez, observamos como puede ser el crecimiento del uso de herramientas de Machine Learning en un área relativamente nueva de la ciencia, que lleva por nombre Decisión Science que debe su nacimiento a todas estas nuevas formas de predicción de sucesos para la toma efectiva de decisiones. Además, se puede concluir que estas herramientas de predicción son muy eficaces llevando a cabo un buen proceso, en la presente pasantía e investigación se llevaron a cabo distintos modelos predictivos utilizando el Software de libre acceso Orange que utiliza el lenguaje de Python, se hizo la recolección de datos por medio de páginas como Kaggle Scopus y PubMed.  
Rojas Galindo Isela Candelaria, Instituto Tecnológico Superior de Tierra Blanca
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

ROLL TO ROLL 3D PRINTING TECNOLOGY


ROLL TO ROLL 3D PRINTING TECNOLOGY

Rojas Galindo Isela Candelaria, Instituto Tecnológico Superior de Tierra Blanca. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El proceso de fabricación de circuitos electrónicos con PCB (Placa de Circuito Impreso) puede tener varios impactos ambientales negativos. Algunos aspectos que contribuyen a la contaminación son: Uso de materiales tóxicos: Se utiliza materiales con sustancias peligrosas, como soldadura con plomo, que contamina suelos y aguas, representando riesgos para la salud humana y la fauna. Liberación de metales tóxicos: Durante la producción y soldadura de PCB, metales pesados ​​como plomo, mercurio y cadmio se liberan al aire y agua, dañando la salud humana y los ecosistemas acuáticos. Generación de residuos peligrosos: La fabricación de PCB produce residuos químicos que, si no se manejan correctamente, pueden contaminar el agua subterránea y los ecosistemas cercanos. Consumo de energía y emisiones de gases de efecto invernadero: La producción de circuitos electrónicos con PCB requiere mucha energía, generalmente procedente de fuentes no renovables, contribuyendo a las emisiones de gases de efecto invernadero. Uso de recursos naturales: La fabricación de PCB implica la extracción y uso de recursos naturales, como el cobre, que puede causar deforestación y contaminación del agua. Problemas de dispositivos electrónicos: El diseño inadecuado de dispositivos electrónicos con PCB en vertederos puede filtrar componentes tóxicos al medio ambiente. Es esencial trabajar hacia prácticas más sostenibles en la fabricación, uso y disposición de circuitos electrónicos y PCB. Esto incluye medidas de manejo adecuado de residuos, el uso de materiales más seguros y fomentar el reciclaje y reutilización de componentes electrónicos. Con estas acciones, podemos minimizar el daño al medio ambiente.  



METODOLOGÍA

La propuesta es diseñar un sistema de "Roll to Roll" para fabricar PCBs (Placas de Circuito Impreso) de manera sencilla y rápida. Se enrolló un rollo continuo de papel o plástico como sustrato para la impresión del PCB. El proceso consiste en colocar una plantilla 3D del circuito en un dispositivo tipo "cabezal", que actúa como una máscara para aplicar tinta conductora sobre áreas específicas del sustrato. El sustrato se alimenta continuamente a través del sistema de "Roll to Roll", y mientras se desplaza, la plantilla en el cabezal aplica la tinta conductora en los lugares que representan las pistas y componentes del circuito. Este proceso es similar a la serigrafía. El sistema de "Roll to Roll" asegura una alimentación constante del sustrato durante la impresión del PCB. Ventajas de esta técnica: Permite imprimir circuitos eléctricos sobre diferentes sustratos de manera rápida y continua. Puede ser utilizado para fabricar PCB en masa de forma más eficiente.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos sobre la electrónica flexible y surgió la idea de imprimir PCBs utilizando una técnica similar a la serigrafía con tinta de plata. Esta propuesta promete revolucionar la fabricación de circuitos electrónicos al combinar la simplicidad y economía de la serigrafía con nuevos materiales conductores. Aunque la idea es interesante y prometedora, también enfrenta desafíos en precisión, conductividad y escalabilidad. Se requiere una investigación más profunda para cumplir con los estándares necesarios para circuitos complejos y de alta calidad. La optimización de procesos, materiales y tecnología será clave para el éxito de esta técnica. Es esencial abordar de manera efectiva y cuidadosa los desafíos que surjan con esta innovación para que beneficie verdaderamente a la industria electrónica.
Rojas Galván Rafael, Universidad Veracruzana
Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

IMPLEMENTACIóN DIGITAL E INYECCIóN DE FALLAS DE UN MODELO DE MáQUINA DE INDUCCIóN


IMPLEMENTACIóN DIGITAL E INYECCIóN DE FALLAS DE UN MODELO DE MáQUINA DE INDUCCIóN

Rojas Galván Rafael, Universidad Veracruzana. Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La integración de máquinas eléctricas de inducción en plataformas digitales ha cobrado una gran relevancia en los últimos años. Los arreglos de puertas programables en campo (FPGA) proporcionan una plataforma de hardware flexible y reconfigurable para implementar sistemas de control digital y emuladores de sistemas digitales. Este trabajo presenta una implementación de una máquina de inducción eléctrica en una descripción digital e investiga los efectos de inyectar fallas en el sistema. El estudio tiene como objetivo demostrar la importancia de las implementaciones digitales y las técnicas de inyección de fallas para mejorar el rendimiento, la confiabilidad y la tolerancia a fallas de las máquinas eléctricas de inducción.



METODOLOGÍA

A. Implementación del modelo de Simulink: El modelo de la máquina de inducción eléctrica se desarrolla utilizando el software Simulink. Se tomaron en consideración los parámetros relevantes, como las características de la máquina, las conexiones y los controladores requeridos para una operación adecuada. Se realiza una validación sistemática para garantizar que el modelo de Simulink refleje con precisión el comportamiento esperado de la máquina. B. Implementación del modelo Verilog-HDL: Utilizando el lenguaje de descripción de hardware (HDL) de Verilog, se lleva a cabo la implementación del modelo de máquina de inducción eléctrica. Los bloques lógicos están diseñados y programados para emular el comportamiento del sistema físico en la plataforma digital. C. Validación cruzada: Los resultados de Simulink y Verilog-HDL se comparan para determinar la precisión del modelo digital generado. Se establece una conexión entre las dos plataformas, lo que permite la transferencia de datos entre ellas. D. Inyección de fallos: Una vez que se valida el modelo implementado en Verilog-HDL, se inyecta una condición de falla en el sistema simulado en Simulink. Se monitoreó el comportamiento del sistema en presencia de la falla, y se registraron los resultados para su posterior análisis.


CONCLUSIONES

Este trabajo presenta una solución de emulador digital para un modelo de máquina de inducción. Los resultados observados muestran la efectividad de la implementación. El sistema se describe en Verilog HDL utilizando un formato Q21. Los resultados se comparan con una simulación de Simulink. Se observan algunas diferencias atribuidas a la acumulación de errores, provocada por los formatos de punto fijo, en determinados tramos de las simulaciones. Sin embargo, las salidas del sistema presentan un comportamiento dinámico significativo al igual que el sistema físico, teniendo la oportunidad de implementar el modelo diseñado en una plataforma digital como una FPGA. Además, este trabajo presenta una inyección de fallas en el modelo de máquina de inducción. Esta es una inyección de falla de rodamiento catalogada como la falla de la pista exterior. La implementación del proceso de inyección de fallas en un FPGA permite la evaluación y prueba en tiempo real con una representación precisa del comportamiento de la máquina de inducción en condiciones de falla. En futuros trabajos se podrá desarrollar la evaluación en tiempo real del modelo diseñado sobre plataformas basadas en FPGA.
Rojas García Alejandra, Universidad Veracruzana
Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes

SíNTESIS DE ADSORBENTES SóLIDOS PARA LA REMOCIóN DE CONTAMINANTES EN EL AGUA


SíNTESIS DE ADSORBENTES SóLIDOS PARA LA REMOCIóN DE CONTAMINANTES EN EL AGUA

Rojas García Alejandra, Universidad Veracruzana. Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la contaminación del agua es una problemática ambiental grave que afecta diversos países del mundo. La falta de gestión y tratamiento adecuados de los residuos humanos, industriales y agrícolas constituye la causa más importante de este tipo de contaminación. Los principales contaminantes del agua incluyen bacterias, virus, parásitos, fertilizantes, pesticidas, fármacos, nitratos, fosfatos, plásticos, desechos fecales, metales pesados y elementos radiactivos. La presencia en el agua puede alterar sus propiedades, por lo que no permite su purificación a través del ciclo natural hidrológico y la hace tóxica para su consumo tanto para el ser humano, como para la agricultura, pesca, flora y fauna, provocando problemas de salud humana, pérdida de fauna, daños en el ecosistema y escasez de agua potable. Por lo anterior, se han buscado métodos que remuevan dichos contaminantes del agua, entre los que destaca la adsorción. Los adsorbentes retienen en su superficie a las moléculas del contaminante, a través de fuerzas de atracción intermoleculares, como fuerzas de van der Waals, enlaces de hidrógeno o interacciones electrostáticas y es necesario preparar nuevos adsorbentes con capacidades competitivas. Por tanto, en este proyecto se planteó la preparación de dos tipos de adsorbentes: a) compuestos organometálicos derivados de botellas de PET y b) óxidos de grafeno.



METODOLOGÍA

Estructuras organometálicas para remover fármacos Los compuestos metal-orgánicos (MOFs por sus siglas en inglés) son sólidos porosos formados por iones metálicos que se coordinan con ligandos orgánicos para formar redes cristalinas. Los MOFs cuentan con ciertas ventajas frente a otros materiales porosos ya que poseen una mayor flexibilidad en cuanto al diseño de su estructura mediante el control del tamaño y funcionalidad de sus poros y presentando alta área superficial. Estas estructuras son capaces de adsorber ciertos fármacos y fluoruros en el agua. Por ello, se realizó la síntesis de 5 MOFs para evaluar la remoción de naproxeno, acetaminofén, diclofenaco y fluoruros. La síntesis se realizó por un método hidrotermal que consistió en disolver el ligando orgánico junto con la sal metálica en agua y en un solvente orgánico, sometiéndolos a un tratamiento térmico en un recipiente cerrado como una autoclave. Cabe mencionar que se utilizó PET para recuperar el ligando orgánico que contiene en su estructura y además se utilizaron 5 diferentes sales metálicas: sulfato ferroso, nitrato férrico, nitrato de cromo y dos lodos realizados en el laboratorio. Se realizaron pruebas preliminares para definir el adsorbente con la mayor capacidad de adsorción para cada uno de los adsorbatos mencionados.   Adsorbente sólido para remover metales pesados Por otra parte, debido a la problemática que constituyen los metales pesados en efluentes se han desarrollado materiales con diferentes características fisicoquímicas que pueden retener a los iones metálicos. El proceso de adsorción de estos iones está determinado por la afinidad del metal a las biomoléculas, que contienen grupos funcionales específicos comportándose como ligantes y asociándose a los metales por interacciones físicas o químicas. Por ello se ha trabajado en la búsqueda de materiales capaces de adsorber estos contaminantes. Se realizó la síntesis de un material adsorbente por medio de exfoliación mecánica, este proceso consistió en licuar el reactivo con agua destilada y un surfactante industrial. Después se procedió a filtrar y centrifugar para recuperar el adsorbente, para después secarlo en un horno. Se destaca que se obtuvieron dos tipos de adsorbente usando diferente surfactante industrial, esto para obtener distintas propiedades y comparar las capacidades de adsorción. Los adsorbatos analizados fueron plomo, cadmio y cobre. Además, se participó en la molienda de lodos de una planta de tratamiento de aguas residuales proveniente de niquelado y galvanoplastia, con contenido de zinc, cobre y níquel. Estos lodos se secaron en un horno a 76 °C durante 24 horas, para posteriormente ser molidos en un mortero. Se obtuvieron 4 kg del lodo seco para un análisis posterior.


CONCLUSIONES

Con la realización de esta estancia se aprendió acerca de diversos tipos de adsorbentes y sus propiedades, así como la interacción con los diversos adsorbatos analizados. Se logró llevar a cabo la síntesis de los adsorbentes y aprender del proceso para llevarlas a cabo. Se observó que estos adsorbentes tienen afinidad por los contaminantes del agua estudiados. 
Rojas Plazas Jeison Andres, Universidad Antonio Nariño
Asesor: Dr. Carlos Alberto Chavez Guzman, Universidad Autónoma de Baja California

SISTEMAS DE CONTROL LINEAL Y NO LINEAL APLICADOS A SISTEMAS MECATRóNICOS


SISTEMAS DE CONTROL LINEAL Y NO LINEAL APLICADOS A SISTEMAS MECATRóNICOS

Lopez Soto Jesus Alberto, Universidad Autónoma de Sinaloa. Rojas Plazas Jeison Andres, Universidad Antonio Nariño. Asesor: Dr. Carlos Alberto Chavez Guzman, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Los sistemas mecánicos subactuados son aquellos que poseen en su estructura más grados de libertad que actuadores. Muchos sistemas de este tipo se estudian con el fin de ejecutar leyes de control que mantengan el seguimiento de una trayectoria o mantenerlo en un punto específico de equilibrio. El péndulo de Furuta es un sistema mecánico subactuado no lineal, que consta de un brazo impulsado que gira en un plano horizontal, este modelo representa muchos sistemas complejos como cohetes, misiles y satélites en órbita. El uso de las redes neuronales se basa en datos que pueden brindar algún tipo de información, que al ser procesada aporta resultados que se traducen en leyes de control que logran resultados satisfactorios. En el ámbito académico, es una herramienta bastante importante que ayuda a los estudiantes a comprender mejor el modelo y control de sistemas no lineales. Las redes neuronales forman un control que aprende de la dinámica de la planta, de este modo es posible reducir el costo de aplicación en muchos fenómenos físicos.



METODOLOGÍA

Modelado de la planta: Para la representación de la planta este proyecto se basa en el modelo propuesto según el artículo Desarrollo de un péndulo de Furuta de (Medina Cervantes, Gallardo Sánchez, Villafuerte Díaz, & Mejía Sánchez, 2017). A partir del análisis dinámico del sistema se obtienen ecuaciones. En este proyecto se incluye una ecuación más, la cual alude al par efectuado por el motor en función al voltaje aplicado. Sustituyendo las ecuaciones anteriores a excepción de la ecuación del par, en la formulación de Euler- Lagrange se obtienen las ecuaciones anteriores para el modelado en Matlab Simulink donde se despejan las segundas derivadas temporales de tetha y alfa. Las dos ecuaciones resultantes anteriores definen el comportamiento de la planta en el siguiente esquema de Matlab Simulink.  Linealización de la planta: El controlador LQR es un controlador para sistemas lineales representados en espacio de estados, para obtener la representación en espacio de estados de este sistema no lineal, primero se debe linealizar, para este proyecto la linealización de la planta se basó en el trabajo Control Híbrido del Péndulo de Furuta de (Escobar Dávila & Montoya Giraldo, 2012). Se plantean las variables de estado y se definen las ecuaciones de estado. Tras la linealización considerando puntos de equilibrio y aplicando series de Taylor, los autores del trabajo Control Híbrido del Péndulo de Furuta concluyen en la representación en espacio de estados del sistema linealizado de la planta. Diseño del Controlador LQR: Utilizando el comando de Matlab lqr() obtenemos la matriz de retroalimentación de estados K_lqr. Observando los polos del sistema almacenados en E sabemos que el sistema es estable. Ejecutando la simulación, obtenemos la  respuesta para con condiciones iniciales de alfa=pi/10 con los demás valores iniciales iguales a cero. Diseño de la Red Neuronal Artificial: Los patrones de entrenamiento se obtienen a partir de la simulación del controlador LQR con los bloques To Workspace en Simulink mostrados con el nombre de out.X1 hasta out.V. Obtenemos los datos para entrenar a la red neuronal  Se obtienen vectores columnas Para obtener vectores filas, obtenemos la traspuesta de cada vector columna Agrupamos las entradas en una matriz Una vez obtenidos los datos para el entrenamiento, la matriz X se ingresa como entrada y el vector V como objetivo, quedando de la forma los comandos para entrenar la RNA Simulamos el controlador neuronal con el comando net(X) el cual calcula la respuesta de la red neuronal artificial (RNA) en base a las entradas contenidas en la matriz X, además comparamos el comportamiento con la salida del controlador LQR y una segunda forma de implementación de la RNA haciendo las operaciones matemáticas con los pesos y bias obtenidos.  Simulación en lazo cerrado empleando la red neuronal: En el esquema de simulación se sustituye el controlador LQR por un bloque que implementa los valores de los pesos y bias de la red neuronal. El bloque myNeuralNetworkFunction.


CONCLUSIONES

Resultados: Se modelo de manera exitosa el péndulo de Furuta. Se linealizo el modelo para poder obtener un controlador optimo cuadrático LQR. Se obtuvo un controlador LQR capaz de estabilizar el péndulo de Furuta en su estado de equilibrio inestable. Se diseño y entreno una red neuronal artificial que cuenta con una neurona para la sustitución del controlador LQR. Al implementar la simulación sustituyendo el controlador LQR por el controlador neuronal se obtuvieron resultados distintos a los esperados ya que tanto las posiciones como el voltaje aplicado al motor deben converger en cero, el porque no pasa esto es aún desconocido, sin embargo, se plantean las siguientes hipótesis:     La implementación dentro del bloque para el control con la RNA de la planta presenta algún error en las operaciones matemáticas, sin embargo, esta posibilidad fue analizada y aún no se encuentran errores. El diseño de la red neuronal a pesar de haber obtenido valores que indican un nivel de error minúsculo no es el óptimo. Pudiese existir la posibilidad que dentro del comando net(X) se ejecute algún procedimiento que difiere en el aplicado con las operaciones matemáticas. Posiblemente se necesitan más datos de entrenamiento para que la red neuronal pueda ejercer la acción de control ante diferentes valores de entrada. Conclusiones: Se diseño un controlador neuronal para un sistema mecatrónico no lineal denominado Péndulo de Furuta que en base a los datos de entrenamiento sigue con gran exactitud al controlador LQR, en su implementación los resultados difieren, se continúa analizando la causa de tal efecto por lo que se han planteado en la parte de resultados algunas hipótesis. 
Rojas Reyna Elisa María, Universidad de Guadalajara
Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara

EVIDENCIA DE TRANSFERENCIA DE MASA EN EL PROCESO LAVADO DE HUEVO, EN OCOTLÁN JALISCO


EVIDENCIA DE TRANSFERENCIA DE MASA EN EL PROCESO LAVADO DE HUEVO, EN OCOTLÁN JALISCO

Alvarez Rodríguez Esmeralda, Universidad de Guadalajara. Palomino Venegas Paola Estefania, Universidad de Guadalajara. Palomino Venegas Yolanda Zarahi, Universidad de Guadalajara. Rojas Reyna Elisa María, Universidad de Guadalajara. Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El huevo es un alimento frecuente en la dieta mexicana, con múltiples formas de preparación y gran aceptación. Sin embargo, pueden ser causantes de enfermedades trasmitidas por alimentos (ETA), el huevo se ha asociado a salmonelosis, pese a ser un producto compuesto en mas del 90% por carbonato de calcio, una mínima cantidad de carbonato de magnesio y otros compuestos de baja proporción entre ellos sustancias orgánicas, es susceptible de transportar bacterias como Salmonella spp., motivo por el cual representa un riesgo sanitario. La fuente de estas bacterias proviene comúnmente del excremento de la gallina, el cual puede adherirse a la superficie del cascaron al momento de la salida del huevo o cuando el huevo queda expuesto en el nido. La cascara cuenta con una película que cumple una función de protección para el huevo de microorganismos del exterior por lo que la mayoría de los huevos no está contaminado por dentro. En algunos casos durante los procesos de recolección o transporte se le llegan a generar fisuras en la cascara no visibles a simple vista. Para poder llevar este producto al mercado es sometido a un proceso de lavado en el cual se siguen unas serie de pasos con el fin de evitar una contaminación del huevo, sin embargo, en algunas ocasiones no se realiza la limpieza de manera adecuada lo que puede provocar una contaminación interna del huevo, principalmente enterobacterias, siendo la salmonelosis la principal.



METODOLOGÍA

La siguiente metodología es experimental-descriptiva 1. Selección de los huevos sucios. 2. Sumergir los huevos en agua potable, 3 durante 15 minutos, 3 durante 30 minutos y otros 3 durante 1 hora para simular el lavado que se le da al huevo para la venta en tiendas. 3. Secar los huevos con un trapo seco. 4. Rotular los huevos para identificar cada muestra, marcando con LA1, LB1 y LC1 los de 15 minutos, con LA2, LB2 y LC2 los de 30 minutos y por último con LA3, LB3 y LC3 los huevos sumergidos durante 1 hora. 5. Pesar los huevos y registrarlo. 6. Preparar la solución de azul de metileno agregando el 95% en volumen de agua destilada y el 5% en volumen de azul de metileno al 1%, tomar una muestra y hacer prueba de colorimetría con GLX. 7. Rotular 3 vasos de precipitado con LA, LB y LC respectivamente y agregar la misma cantidad de la solución de azul a cada uno. 8. Sumergir los huevos al mismo tiempo y dejar reposar durante 15 minutos, 30 minutos y 1 hora respectivamente y dejarlos secar durante aproximadamente 24 horas. 9.  Al pasar cada uno de los 3 tiempos tomar una muestra de cada solución para hacer pruebas de colorimetría en la GLX y registrar los resultados. 10. Ya una vez secos los huevos anotar las observaciones de tinción en la bitácora para proceder a pesarlos y registrarlo. 11. Quebrar cada huevo por la sección transversal vertical con la ayuda de un objeto metálico, cada uno en una caja petri de vidrio. 12. Anotar las observaciones de cada uno de los huevos, así como las dimensiones de cada manchita de azul de metileno presentes en el contenido y en el interior de la cáscara. 13. Observar en el estereoscopio las manchas de azul de los huevos y las cáscaras para observar a más detalle.  


CONCLUSIONES

La cáscara de huevo permite la transferencia de masa a través de ella, este intercambio puede estar constituido por partículas o microorganismos, lo cual nos lleva a inferir el riesgo de contaminación química y por microorganismos patógenos. Al observar los cascarones bajo un estereoscopio se puede notar que los huevos sometidos al proceso de lavado mostraron una porosidad más notoria que en el cascaron sin lavar. En varias ocasiones las manchas resaltaban bastante, dejando ver una cantidad considerable de azul de metileno. Se concluye que es imprescindible tomar medidas sanitarias correctas, tanto para empresas grandes como pequeños comerciantes. Mediante las experimentaciones realizadas, el conocimiento aumentó, se logró fomentar el trabajo en equipo, siempre con respeto, tomando en cuenta cada opinión, así como de parte de la investigadora que nos llevó de la mano en este proyecto.
Rojas Torres Tania, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

CáLCULO DE íNDICES DE SEQUíA PARA EL áREA QUE COMPRENDE EL ACUíFERO MORELIA-QUERéNDARO.


CáLCULO DE íNDICES DE SEQUíA PARA EL áREA QUE COMPRENDE EL ACUíFERO MORELIA-QUERéNDARO.

Rojas Torres Tania, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Desde el pasado junio de 2020, en nuestro país se ha presentado la segunda sequía más critica a nivel nacional, afectando la zona centro, norte y sur del país (CONAGUA). y según los datos obtenidos del monitor de sequías mexicano, de los estados en donde se ha visto un cambio drástico en la severidad de la sequía, haciendo un análisis del 30 de junio del 2014 a junio del 2023, se logra observar que las principales zonas en donde hay variaciones con respecto a la severidad de la sequía son principalmente la zona noreste del estado. El estado de Michoacán es uno de las 10 entidades del país con mayor territorio afectado por la escasez de agua en los últimos años, así como también se ha notado que se vive una sequía de largo plazo, afectando directamente a la hidrología, ecología y a las presas del estado, ya que estas últimas han presentado un decrecimiento del recuso hídrico en un 25% de su capacidad (CONAGUA).  Ahora bien, en la presente investigación se pretende describir de una forma detallada el análisis de una sequía meteorológica en los municipios que comprenden el área del Acuífero Morelia- Queréndaro, esto con ayuda de dos distintos índices de sequía (el SPI y el SPEI), para poder definir si el caso de desabastecimiento de agua que esta sufriendo esta zona en estos últimos años se debe a una mala gestión de recursos o se debe a el golpe de sequía extrema que está afectando a nuestro país.



METODOLOGÍA

La presente investigación inició realizando una caracterización de la zona de estudio, en donde se elaboraron mapas, con ayuda del programa de Arcgis, para describir a grandes rasgos la zona superficial que comprende el acuífero Morelia Queréndaro, en donde se realizaron mapas de macro localización, micro localización, topografía, red hídrica (en donde se destacaron dos cuerpos de agua importantes, el Lago de Cuitzeo y el río grande.), tipo de suelo (en donde destaca el tipo de suelo vertisol pelico), y uso de suelo (destacando la agricultura como principal actividad.). Una vez obtenido un estudio general de la zona, se procedió a recompilar los datos necesarios para poder aplicar la metodología de los índices de sequía SPI y SPEI. El Índice estandarizado de precipitación (SPI) es uno de los índices más utilizados a nivel mundial, destacando por su sencilles al momento de aplicar, ya que solo necesita datos de precipitación para su estudio. Por tal motivo el siguiente paso que se siguió en la investigación fue el seleccionar las mejores estaciones climatológicas que abarcaran la zona de estudio, y de ahí analizar los datos de precipitación de cada una de las 72 estaciones seleccionadas, y sometiendo cada una a diversas pruebas de homogeneidad e independencia, se seleccionaron solo los datos de 10 estaciones climatológicas, sin embargo debido a que dichas estaciones poseen datos faltantes en sus series de precipitación , se tuvo que utilizar el método de IDW para el llenado de datos faltantes, abarcando desde 1986 a 2015, de las respectivas estaciones. Posteriormente, dichas series mensuales de precipitación fueron ingresadas a un código en el lenguaje de programación de Rstudio, en donde se generaron los SPI y los mapas de calor con respecto a cada una de las 10 estaciones seleccionadas.   Por otro lado, para realizar el estudio con ayuda del índice estandarizado de precipitación y evapotranspiración (SPEI), se necesitó realizar un llenado de datos de temperaturas máximas y mínimas de cada estación seleccionada con anterioridad, llenando los años de 1986 a 2015, esto con el método de media aritmética. Una vez obtenidas las series completas de temperatura se procedió a ingresar a un código en Rstudio los datos tanto de temperatura como de precipitación, generándose así los datos de SPEI y los mapas de calor calculado con dicho índice.


CONCLUSIONES

Realizando la comparativa entre los datos de SPI y SPEI, obtenidos en la estación 11010, se logró observar que el SPI arrojó datos más pequeños respecto a los obtenidos con el índice del SPEI, lo que arroja en los mapas de calor del SPI que existan mayor cantidad de años con varios meses que poseen una severidad de sequía extremadamente seco, esto se debe a que el SPI solo realiza un análisis de cuanto llueve anualmente y si las lluvias de dichos años son mayores o menores a la media, y en el caso del índice del SPEI el calculo es más refinado, ya que utiliza datos de precipitación y temperatura, y con base a esos datos se obtienen los valores de evapotranspiración potencial para realizar el análisis. Por tal motivo es lógico obtener valores mayores de SPEI, logrando así disminuir la severidad de la sequía en cada año. Ahora bien, tomando en consideración la estación más cercana al centro de gravedad de la cuenca, la estación 16081, se observa que en el mes de Agosto del 2014 y 2015 se muestra una aumento en la severidad de la sequía con respecto a los otros años, ya que según el SPI se muestra una severidad Extremadamente seco en ambos años del mismo mes, y según el SPEI se muestra una severidad Moderadamente seco en ambos años, lo que aquí es interesante resaltar es que en dicha zona los meses característicos con mayor precipitación son lo que comprenden el periodo de Junio a Septiembre, lo que nos lleva a concluir que el echo que se presenten estos resultados en esos años y de forma consecutiva es debido a un crecimiento en la severidad de sequía en dichos años lo que no es un comportamiento normal, sin embargo, es necesario el realizar este mismo estudio con años más actualizados, así como también no limitarse solo con la aplicación de estos dos índices, y continuar con la aplicación de diversos índices de sequía en esta zona, para lograr llegar a la conclusión de si el hecho del desabastecimiento de agua en la población se debe a una anomalía climatológica, o si se relaciona con la mala gestión del recurso hídrico en la zona de estudio.
Roldan Cabrera Joctan Abimael, Universidad Tecnológica Paso del Norte
Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez

EVALUACIóN Y ENSAMBLE DE EXOESQUELETO PARA MIEMBROS SUPERIORES.


EVALUACIóN Y ENSAMBLE DE EXOESQUELETO PARA MIEMBROS SUPERIORES.

Roldan Cabrera Joctan Abimael, Universidad Tecnológica Paso del Norte. Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La habilidad motriz es un aspecto esencial para llevar a cabo la vida diaria del ser humano, estas habilidades incluyen el equilibrio, la coordinación, el uso de fuerza, la destreza, agilidad de movimiento y la precisión, estas cualidades ocupan un papel importante e indispensable para participar en las actividades tanto cotidianas, recreativas y de trabajo. En la actualidad existen diversos factores por las cuales las personas sufren lesiones en distintas partes del cuerpo, algunas de ellas suelen ser por accidentes a la hora de realizar actividades físicas, mantener inadecuadamente una postura durante un tiempo prolongado puede ocasionar que se ejerza tensión en partes del cuerpo que no deberían y por consecuencia desarrollar daños al cuerpo, la debilidad muscular o falta de flexibilidad pueden aumentar el riesgo de lesionarse, la edad y la condición física tienen un papel importante en el desarrollo y de daños a la habilidad motriz. Es recomendable evitar cualquier actividad o postura que pueda afectar la función motora. En este sentido, los investigadores ya contaban con varios exoesqueletos que requerían ser ensamblados para verificar las condiciones de operación y saber si ya estaban listos para ser utilizados en pruebas de laboratorio.



METODOLOGÍA

  Existen equipos innovadores conocidos como exoesqueletos, estos son diseñados con el fin de complementar, asistir, mejorar o restaurar la función motora de las extremidades de los individuos, existen dos ramas principales en la creación de exoesqueletos, el primero se enfoca en la rehabilitación de lesiones o discapacidades en las personas, y la segunda rama principal es para la mejora de habilidades del ser humano con el fin de aumentar las eficiencia de las  actividades realizar en algún área específica. En la actualidad se busca mejorar su funcionamiento o innovar un nuevo sistema que brinde mejores resultados a la hora de desarrollar sus objetivos principales debido a su potencial para mejorar la movilidad de las personas que sufren alguna discapacidad o lesión que les impida realizar las actividades físicas diarias de manera efectiva, así como para aumentar la fuerza y resistencia en diversas aplicaciones industriales y médicas. A pesar dl gran avance en el campo de los exoesqueletos aún existen muchos desafíos que deben tomarse en cuenta al momento de su realización, uno de estos desafíos es el costo y su dificultad de adquisición para muchas de las personas, la ergonomía y comodidad puede no resultar satisfactorio para los usuarios, como consecuencia afecta en la aceptación de su uso continuo.   Durante la estancia presencial del proyecto de investigación se realizó el ensamble de un exoesqueleto para miembros superiores, en esta ocasión se ensambló un prototipo funcional del exoesqueleto en cuestión, se registraron algunas medidas de los soportes de las piezas del proyecto, se tomaron en consideración algunos de los aspectos importantes como lo son el costo, comodidad, y se procuró que sus materiales no sean de altos costos, también se hicieron algunas pruebas de la aplicación de fuerza de tracción para mover el exoesqueleto en diferentes posiciones y ángulos de inclinación. Durante el proceso de ensamble también se tomaron algunos datos como el tiempo transcurrido durante el ensamble de las piezas por separado, también se hicieron cambios de piezas modificadas para aumentar la calidad y funcionabilidad del proyecto, se probó el exoesqueleto para verificar la comodidad y versatilidad al momento de que el usuario realice tareas o movimientos, el enfoque del exoesqueleto en cuestión es la mejora y resistencia de habilidades motoras del miembro superior del ser humano.


CONCLUSIONES

Durante la estancia presencial del verano de investigación no solo se adquirieron conocimientos sobre el ensamble y análisis de fuerzas para mover el exoesqueleto, sino que también van de la mano con el análisis del proyecto y que se pueden aplicar a una gran gama de proyectos. Se aprendió sobre los tipos de impresión en 3D, se aprendió cuáles son los parámetros que se debe de tener dependiendo de las circunstancias, requerimientos y usos que se le dará a la pieza, también se pudo analizar cuál tipo de material es adecuado para cada tarea que cumplirá. También pude apreciar algunas de las tantas formas de realizar análisis. Fue una experiencia grata participar con personas capacitadas y competentes de las cuales pude mejorar y aprender nuevas cosas.
Roldán Leyva Juan Jesús, Instituto Tecnológico de Hermosillo
Asesor: Dr. Arturo Abúndez Abúndez, Centro Nacional de Investigación y Desarrollo Tecnológico

DISEñO Y CARACTERIZACIóN MECáNICA DE MATERIALES COMPUESTOS


DISEñO Y CARACTERIZACIóN MECáNICA DE MATERIALES COMPUESTOS

Bojorquez Romero Alehisa Poleb, Universidad Autónoma de Baja California. Cruz Cervantes Cid Manuel, Instituto Politécnico Nacional. Roldán Leyva Juan Jesús, Instituto Tecnológico de Hermosillo. Rubio Vazquez Aletza, Universidad Autónoma de Baja California. Asesor: Dr. Arturo Abúndez Abúndez, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la alta demanda de materiales ligeros y de calidad, así como la creciente crisis ambiental ha traído consigo la búsqueda de nuevos materiales, siendo los materiales compuestos híbridos una alternativa viable para dar solución a esta necesidad, estos juegan un papel muy importante debido a que poseen alta resistencia y rigidez, además, de baja densidad. En relación con los compuestos híbridos, se encuentran los reforzados con fibra de carbono (CFRP) y de vidrio (PRF), estos ampliamente utilizados en aviones, palas de aerogeneradores, construcción y autopartes. Debido a sus propiedades individuales que ambas fibras se complementan, en primera instancia la fibra de vidrio ofrece elasticidad y solidez, en contraparte la fibra de carbono es flexible, ligera y además ofrece alta resistencia. Ahora bien, el presente trabajo tiene como objetivos evaluar el efecto de la orientación de las fibras en las propiedades mecánicas a tensión de materiales compuestos híbridos CFRP y PRF, a través del análisis teórico- experimental.



METODOLOGÍA

Fabricación de laminados (2,4,6 capas de carbono). A continuación se describe el procedimiento seguido para la fabricación de los laminados, los cuales corresponden a la siguiente configuración: [±45/02]s [±45/04]s [±45/06]s El método de fabricación de los laminados por hand lay-up consiste en lo siguiente: Preparación del molde: Limpieza y eliminación de residuos en el molde de vidrio. Preparación de fibras: Corte y organización de fibras para el laminado. Mezcla de resina: Proporción 100/30 de resina-catalizador, considerando tiempo de trabajo. Aplicación capas: Resina, Peel ply, fibras en secuencia [±45, 0n]S, impregnación y alisado. Embolsado y compactación: Bolsa de vacío, caul plate, mangueras y sellado. Curado: Tres días a temperatura ambiente para endurecer la resina. Desmoldeo y acabado: Retiro, eliminación de Peel ply y excesos de resina. Fabricación de las probetas. Siguiendo la norma ASTM D3039, se fabricaron probetas de laminados con dimensiones 130x13x0.13 mm, cortadas en una fresadora G0704. Ajustes se realizaron con movimientos longitudinales y transversales. Tras elaborar los moldes, se lijaron las probetas con papel abrasivo y limas planas, usando un vernier digital para controlar medidas y evitar daños. Este proceso garantizó precisiones y evitó deformaciones. Caracterización de probetas. Una vez elaboradas y rectificadas las probetas según la norma ASTM D3039M, se procedió a su caracterización, mediante una máquina de ensayos marca Shimadzu modelo AG-X plus con una capacidad máxima de carga de 100kN. A continuación, se describe el procedimiento de ensayo de una probeta con el fin de ejemplificar el procedimiento llevado a cabo con el resto de estas. Primero, se identificó y etiqueto la probeta, ingresando esta información al software. Luego, se ajustó la máquina y se introdujo la probeta, asegurando el empalme con las líneas centrales. Se monta el extensómetro y se configura el software. Tras la inicialización del ensayo, la máquina tensionaba la probeta mientras el software registraba datos y generaba un diagrama esfuerzo-deformación. Se detenía manualmente cuando se alcanzaba el esfuerzo máximo. Luego se desmontaba el extensómetro y la probeta con precaución. Los datos se guardaban y se repitieron los pasos para cada probeta. Resultados. Se reportaron resultados de tres laminados con diferentes configuraciones de capas de fibra de carbono y vidrio. Para el laminado de 4 capas, se ensayaron 9 probetas, 7 mostraron ruptura dentro de la sección establecida. Similarmente, para el laminado de 6 y 10 capas, se ensayaron 7 y 8 probetas, respectivamente, con 5 de cada uno mostrando ruptura dentro del área designada. Se obtuvo un gráfico de esfuerzo contra deformación promediando el comportamiento de cada lote de probetas ensayadas de los tres laminados, el cual evidencia la influencia del número de capas de carbono en el comportamiento del material. Se obtuvieron datos suficientes para evaluar y se les atribuyeron a las probetas ensayadas que no cumplieron el requisito de norma, problemas en el agarre y/o problemas de funcionamiento de la máquina o montaje del extensómetro, reafirmando la validez de los datos obtenidos en la preparación de placas y ensayos de probetas.  


CONCLUSIONES

  Los resultados obtenidos de las pruebas de tracción demostraron la adecuada cantidad del peel ply y su orientación utilizada, ya que las pruebas fueron válidas y se mantuvieron dentro de los límites establecidos. El diagrama esfuerzo-deformación revelo un comportamiento pseudo dúctil en los laminados con 6 y 4 capas de carbono al centro, donde se observó una meseta de esfuerzos y una falla gradual en cada probeta, siendo las capas de carbono las primeras en dañarse. El objetivo de evaluar el efecto de la orientación de las fibras en las propiedades mecánicas del material compuesto híbrido se cumplió exitosamente mediante un análisis teórico-experimental. Estos materiales compuestos encuentran aplicaciones amplias y diversas en diversas industrias gracias a sus propiedades únicas, como alta resistencia y bajo peso, junto con su durabilidad. La investigación de alternativas sostenibles para producir estos compuestos conlleva un ahorro significativo de energía y recursos. La implementación de compuestos híbridos es relevante debido a su versatilidad, destacado desempeño mecánico, durabilidad y favorable relación resistencia-peso. Esta línea de investigación muestra un potencial significativo para el avance tecnológico en diversas industrias, desde la aeroespacial y automotriz, hasta la energética e infraestructuras. En conclusión, el estudio de materiales compuestos juega un papel esencial en el progreso industrial y tecnológico, abriendo un mundo de posibilidades para aplicaciones innovadoras y sostenibles.  
Romano Cano Dulce María, Benemérita Universidad Autónoma de Puebla
Asesor: Ing. Servando Baltazar López, Tecnológico de Estudios Superiores de Valle de Bravo

DISEñO EXPERIMENTAL DEL EFECTO DE LAS VARIABLES DE TEMPLE EN EL ENDURECIMIENTO SUPERFICIAL DE PIEZAS DE ACERO


DISEñO EXPERIMENTAL DEL EFECTO DE LAS VARIABLES DE TEMPLE EN EL ENDURECIMIENTO SUPERFICIAL DE PIEZAS DE ACERO

Isidro Barragan Luis Angel, Instituto Tecnológico de Iguala. Romano Cano Dulce María, Benemérita Universidad Autónoma de Puebla. Asesor: Ing. Servando Baltazar López, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Entre las propiedades que se buscan para la elaboración de productos de acero se encuentra la dureza y por ende una alta resistencia al desgaste, esto debido a las especificaciones requeridas con base en la función destinada de dichos productos. La dureza es la oposición que ofrecen los materiales a alteraciones como la penetración, la abrasión, el rayado, la cortadura, las deformaciones permanentes; entre otras. También puede definirse como la cantidad de energía que absorbe un material ante un esfuerzo antes de romperse o deformarse. (Barker, 2013). Por esta razón el presente estudio busca determinar las variables o variable que generen mayor impacto en el aumento de la dureza de la pieza de acero durante el proceso de templado. A+=(ABC+AbC+ABc+Abc+aBc+abC+abc+aBc)/8 A-=(ABC+AbC+ABc+Abc+aBc+abC+abc+aBc)/8 Efecto de A=A+-A- De manera análoga se realizan los cálculos para los factores A, B y C, así: Efecto de A= A+-A- Efecto de B=B+-B- Efecto de C=C+-C- Ho: Efecto de A=Efecto de B=Efecto de C



METODOLOGÍA

Determinación de variables de entrada y salida y conocimiento de equipo Inicialmente se determinaron las variables de entrada (INPUT) y salida (OUTPUT) del proceso de templado del acero puesto que son de toral importancia para estructurar el Diseño Experimental de dicho proceso, dado que se busca obtener un mejor control de este y por ende asegurar una ejecución de manera eficiente del proceso. Debido a la manipulación del tipo de equipo y maquinaria utilizada en este proyecto es importante el buen uso de estas herramientas para evitar lesiones que puedan dañar la integridad del operador, así como la reducción del desgaste del equipo. Por ende, se recibió atención y asesoramiento antes y durante el uso del mismo. Una vez se establecieron las variables de entrada y de salida del proceso a investigar se determinan los valores de ajuste para el diseño experimental utilizando un diseño factorial seleccionado es el 2k. Los factores a evaluar fueron los siguientes:  la temperatura con un nivel alto y bajo de 1000°C y 800 °C respectivamente, el tiempo de calentado con un nivel alto de 4 h y un nivel bajo de 2 h y finalmente el medio de temple utilizando como nivel alto una solución de agua con Cloruro de Sodio (NaCl) al 10 % y como nivel bajo el aceite. Como resultado del diseño experimental se estableció un numero de corridas igual a 8 con un numero de replicas igual a 3. Preparación de piezas para diseño experimental. Una vez establecido el diseño experimental del proceso de templado se prepararon las piezas ocupadas para cada corrida teniendo como materia prima una barra de acero de 97 cm de largo, 8 cm de ancho y 1.5 cm de grosor, en donde el proceso de obtención de dichas piezas fue el siguiente: Lijado de la barra para remover su acabado de pintura con un esmeril de disco abrasivo para corte fino y acabado. Corte de la barra en 24 piezas de 3 x 4 cm con una dispersión de 3 mm, destinadas para cada corrida. Pulido con un mini taladro de cada una de las piezas con la finalidad de reducir riesgos de roturas y grietas y/o lesiones. Etiquetado de piezas con la siguiente información: peso de la pieza y numero de pieza.   Medición de la dureza inicial de las piezas con un durómetro utilizando la escala de Rocwell B y Rockwell C. Desarrollo de corridas de acuerdo con el diseño experimental por lote Utilizando el equipo de protección necesario se dejó calentar la Mufla eléctrica aproximadamente una hora alcanzando la temperatura establecida para el primer lote de piezas, después se introducen las piezas dentro de la Mufla, se preparó el medio de temple:  agua con cloruro de sodio al 10 % y aceite, después de 2 horas se saca las primeras 2 piezas de la  Mufla y se introduce en el recipiente con aceite o salmera durante aproximadamente 10 segundos, se colocan en una caja con arena para su enfriamiento. Después se dejan pasar otras 2 horas, se sacan las piezas restantes y se templan. Una vez que se enfría la pieza se colocó una etiqueta con los siguientes datos: Día en que se realizó el templado de la pieza, el número de pieza, el tiempo y la temperatura de calentado y el medio de temple. Medición y análisis estadístico Posterior al proceso de templado utilizando una fresadora se desbastó una de las caras de cada pieza para eliminar residuos de carbono que dificulten la medición de la dureza de la pieza. Y finalmente, con ayuda de un durómetro se mide y registra la dureza de cada pieza para el posterior análisis del diseño experimental. Para determinar cuáles o cual factor afecta en mayor medida el aumento de la dureza en las piezas durante su proceso de templado se realizó un análisis estadístico de acuerdo a la hipótesis abordada en el apartado del planteamiento del problema.


CONCLUSIONES

Los resultados de esta investigación muestran que la hipótesis no se cumplió ya que una de las variables muestra un mayor impacto en la dureza de las piezas sometidas en el proceso de templado. Dicho factor da como resultado que la solución de agua con cloruro de sodio (NaCl) al 10 % es mejor que el aceite como medio de temple y que además el templado de la pieza usando este medio de temple con una temperatura a 1000 °C durante 2 horas muestra una mejora en la obtención de dureza. Se recomienda hacer un análisis más profundo para evaluar el efecto de la temperatura y el tiempo en este proceso a fin de conocer si estos son significativos para endurecer la pieza, de igual forma en estudios posteriores se puede agregar como variable la profundidad de dureza superficial SHD. Finalmente, de acuerdo con este estudio se concluye que el procedimiento más optimo para el proceso de templado de acero bajo estas condiciones es calentando el metal a una temperatura de 1000 °C durante dos horas y enfriándolo en un medio de temple de salmuera (agua con sal).
Romano Perez Itzel Arely, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

MOVIMIENTO DEL ROBOT DIFERENCIAL EIN A TRAVéS DE ROBOT OPERATING SYSTEM (ROS)


MOVIMIENTO DEL ROBOT DIFERENCIAL EIN A TRAVéS DE ROBOT OPERATING SYSTEM (ROS)

Romano Perez Itzel Arely, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA La presencia de la robótica en la sociedad es cada vez más presente en todos los sectores profesionales. Los robots permiten aumentar la productividad, eficiencia y rentabilidad de las empresas, lo que lleva cada vez a más compañías a incorporar estas tecnologías en sus procesos productivos.  Los robots están siendo cada vez más utilizados para tareas peligrosas o repetitivas, lo que permite a los trabajadores humanos concentrarse en otras tareas más creativas; en la medicina se utilizan en cirugía, especialmente aquellas intervenciones que requieren precisión y delicadeza, cada vez hay más áreas en las que se están utilizando robots para hacer el trabajo de forma más eficiente. ROS proporciona funcionalidades de comunicación entre procesos en máquinas múltiples, herramientas para pruebas, visualización, entre otras acciones, por lo que ROS proporciona una manera de conectar una red de procesos (nodos) con eje central, nos permite controlar remotamente y monitorear un robot, usando un gamepad en nuestra computadora y una transmisión desde la cámara montada en el robot. Debido a la amplia capacidad y funcionalidad de ROS a lo largo de esta investigación se llevó algunas funcionalidades del programa para conocer e implementar su funcionamiento.



METODOLOGÍA

METODOLOGÍA Se utilizó el programa ROS para comprender la comunicación y conexión entre nodos a través del lenguaje de programación Python. Para utilizar el software es necesario configurar el entorno de la PC mediante una máquina virtual, así como el entorno de trabajo a través de Ubuntu; para ejecutar cualquier cosa en ROS, se necesita lanzar un proceso principal mediante la terminal, en el proceso nos encontraos con rqt, que es la herramienta perfecta para visualizar datos, publisher and subscriber. Un Nodo ROS puede ser un publicador o un suscriptor. Un Publisher es el que pone los mensajes de algún tipo de Mensaje estándar a un tema en particular. El Suscriptor por su parte se suscribe al Topic para que reciba los mensajes cada vez que se publique algún mensaje en el Topic. Se hicieron varias pruebas entorno a la variación de velocidad y dirección en el comando Turtlesim, con la finalidad de comprender y relacionar los nodos así como el movimiento del mismo. A través de estos nodos es posible controlar un proceso como una cámara, sensores e incluso el movimiento de un robot ya que cada proceso está relacionado a un nodo, pero es posible mover el robot dependiendo el estado de un sensor o la cámara, lo cual permite trabajar de un modo remoto. Finalmente, a través de la cinemática del robot EIN fue posible implementar un algoritmo para realizar el movimiento.


CONCLUSIONES

CONCLUSIONES Durante la estancia del verano delfín se logró adquirir conocimientos en robótica, así como en la programación a través de Python lo cual me permito aplicar mis conocimientos enfocándolos al entorno de ROS con el objetivo de realizar movimientos del robot EIN a través de nodos.
Romero Flores Diego Armando, Instituto Tecnológico de Morelia
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

ANÁLISIS MULTIVARIADO DE LAS COMPETENCIAS ACADÉMICAS DEL PROGRAMA DE INGENIERÍA CIVIL EN COLOMBIA.


ANÁLISIS MULTIVARIADO DE LAS COMPETENCIAS ACADÉMICAS DEL PROGRAMA DE INGENIERÍA CIVIL EN COLOMBIA.

Romero Flores Diego Armando, Instituto Tecnológico de Morelia. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

El problema que se plantea en este contexto es la falta de una evaluación integral y eficiente de los programas de ingeniería civil en Colombia, lo que dificulta garantizar la calidad educativa en la formación de profesionales competentes en este campo. A pesar de la importancia de la ingeniería civil en el desarrollo urbano y económico del país, no se cuenta con herramientas adecuadas para medir y mejorar la calidad de la educación en esta disciplina. La evaluación de la eficiencia académica en los programas de ingeniería civil es esencial para asegurar que los estudiantes adquieran las habilidades y conocimientos necesarios para enfrentar los desafíos en el ámbito de la construcción y desarrollo de infraestructuras. La falta de una evaluación integral dificulta el seguimiento adecuado del progreso de los estudiantes a lo largo de su trayectoria universitaria y la identificación temprana de áreas de mejora en la formación. Además, la escasez de ingenieros civiles capacitados en países con bajo desarrollo urbano y la notable cantidad de ingenieros civiles en países con un desarrollo urbano destacado, como Singapur, resaltan la importancia de contar con una formación de calidad en ingeniería civil para impulsar el progreso y bienestar de la sociedad. En este contexto, es crucial desarrollar herramientas y métodos de evaluación efectivos que permitan medir la calidad y eficiencia académica de los programas de ingeniería civil en Colombia. Estas herramientas deben ser capaces de identificar áreas de mejora, fomentar la formación continua de los profesionales y garantizar que los estudiantes estén bien preparados para afrontar los retos del desarrollo urbano y la construcción de infraestructuras. Con una evaluación integral y efectiva, se podrá asegurar la formación de ingenieros civiles competentes y comprometidos con el progreso del país.



METODOLOGÍA

la investigación plantea una metodología fundamentada en tres etapas: Análisis experimental de datos, análisis de eficiencia y (análisis predictivo de datos). En esta primera etapa, se implementa un modelo de análisis de conglomerados utilizando el algoritmo K-means, que ayudara a la facilitar el agrupamiento de datos. A su vez, en la segunda etapa se pretende realizar un análisis exploratorio de datos por medio del análisis de componentes principales (PCA) que permita reducir la dimensionalidad de los datos y, por último, se pretende diagnosticar los resultados entregados por la metodología empírica de la investigación.


CONCLUSIONES

Se realizó un análisis de clúster en RStudio para un conjunto de datos de universidades en Colombia. Se obtuvieron 4 clústeres, de los cuales se destacan el clúster 3 y el clúster 1. El clúster 3 está integrado por 7 universidades que se distinguen por tener los mejores promedios en todas las competencias evaluadas, tanto SABER 11 como SABER PRO. Por otro lado, el clúster 1 está conformado por 20 universidades que tienen los promedios más bajos en cada una de las competencias evaluadas. Este análisis de clústeres permite identificar las universidades que se destacan por su desempeño en las competencias evaluadas y aquellas que necesitan mejorar en estos aspectos. Los resultados pueden ser utilizados por las universidades para identificar áreas de mejora y diseñar estrategias para mejorar su desempeño en las competencias evaluadas. Además, los resultados pueden ser utilizados por los organismos encargados de la evaluación de la calidad de la educación para identificar las universidades que se destacan por su desempeño y aquellas que necesitan mejorar en estos aspectos. Es importante tener en cuenta que el análisis de clústeres es una técnica estadística que permite agrupar observaciones similares en clústeres. Los resultados del análisis dependen de la calidad de los datos y de la elección del número de clústeres. Por lo tanto, es importante realizar un análisis cuidadoso de los datos y elegir el número de clústeres adecuado para obtener resultados confiables.
Romero Garcia Kevin Imanol, Instituto Tecnológico de Morelia
Asesor: Dr. José Fernando Covián Nares, Instituto Tecnológico de Morelia

BIOPELíCULA A BASE DE QUITOSANO Y MANZANILLA (CHAMAEMELUM NOBILE) CON ACTIVIDAD MICROBICIDA Y BIOSENSORIAL PARA LA DETECCIóN DE INFECCIONES


BIOPELíCULA A BASE DE QUITOSANO Y MANZANILLA (CHAMAEMELUM NOBILE) CON ACTIVIDAD MICROBICIDA Y BIOSENSORIAL PARA LA DETECCIóN DE INFECCIONES

Romero Garcia Kevin Imanol, Instituto Tecnológico de Morelia. Ziranda González Anahi Monserrat, Instituto Tecnológico de Morelia. Asesor: Dr. José Fernando Covián Nares, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad que provoca consecuencias en el portador, siendo uno de los más comunes la falta de cicatrización en la piel, lo cual puede derivar en infecciones. El quitosano y la manzanilla han demostrado tener propiedades cicatrizantes, y microbicidas por lo que se propone una biopelícula donde se conjunten ambos, además de agregar un biosensor de origen vegetal que detecte un cambio de pH en la herida, indicativo del desarrollo de infecciones, por medio de un cambio colorimétrico.



METODOLOGÍA

Se obtuvo la manzanilla mediante la compra de materia prima en el mercado local, una vez que se contó con la manzanilla se procedió a secar la flor y tallo por separado, ya secas se realizó una maceración de las flores de la manzanilla, y se molieron los tallos de la misma planta después se agregó a unos tubos falcón la cantidad de 1 g de las flores por cada 10 ml de disolvente y 1g de tallo molido por cada 10 ml de disolvente. Por último, se filtró y después de dejarse concentrar por 48 horas estaba listo el extracto para ser usado y llevado a las pruebas de actividad antioxidante (DPPH) y polifenoles totales. Para la prueba DPPH se pesó 0.0019g de reactivo DPPH para prepararse en 50mL de metanol al 80% con ayuda de un matraz aforado una vez preparada la disolución se dejó reposar por 20 min en completa oscuridad es ese periodo de tiempo se extrajo 50 microlitros de los extractos de la flor de manzanilla y tallo para depositarse en un tubo de ensaye y realizar la prueba por duplicado. Se les adiciono 50 microlitros de metanol al 80% a cada tubo de ensaye y una vez terminados los 20 min de espera 2.9 mL del reactivo DPPH. Se agito y se dejó reposar los tubos de ensaye por otros 20 min en total oscuridad. Se prepararon 2 blancos uno directo del matraz y otro con 80% de metanol. Una vez que se terminaron los 20 min de espera se llevó al espectrofotómetro a medir y poder sacar los cálculos pertinentes. Para la prueba de polifenoles totales se realizó una disolución de 1mlL de muestra del extracto de manzanilla diluido en 9mL de agua destilada. Se hizo la prueba por duplicado en un total de 4 tubos de ensaye. Se añadió 50 microlitros de los extractos de manzanilla y tallo de manzanilla a cada tubo de ensaye y se completó con 450 microlitros de agua destilada, añadiéndose el reactivo de Folin ciocalteu en un total de 250 microlitros y se envolvió toda la gradilla con aluminio para evitar el contacto con la luz. Cuando se termine un periodo de 8 minutos en oscuridad se les añadió 250 microlitros de NaCO₃ al 20% y una vez que se presentó una coloración blanca (transparente), se dejó por 30 minutos en oscuridad nuevamente. Terminado el periodo de tiempo se llevó al espectrofotómetro a medir absorbancia. Para la obtención de la biopelicula se preparó una solución de CaCl2 al y una solución de ácido acético en proporción 3:1, de las soluciones anteriormente preparadas, agregando 0.72 g de quitosano. Posteriormente se adicionó el extracto de manzanilla y glicerina a fin de obtener una mejor consistencia. La mezcla se colocó en un molde y se dejó secar por 48 horas. En el caso del biosensor, se obtuvo un extracto acuoso de Jamaica, el cual se obtuvo dejando reposar durante 48 horas la Jamaica en agua. Transcurrido ese lapso de tiempo se le realizo pruebas de pH, con el objetivo de observar si existía un cambio colorimétrico en el extracto dependiendo de la variación del mismo. Posterior se impregno con el colorante un pedazo de cinta microporo dejándolo secar durante 24 horas, para añadirlo así a la biopelicula.


CONCLUSIONES

Durante la estancia en el verano se logró adquirir el conocimiento de como realizar pruebas de cuantificación polifenólica y DPPH, así como también la obtención de extractos. Con esto se determinó con mayor cantidad de polifenoles totales y actividad antioxidante únicamente la flor de la manzanilla, ya que el tallo y la mezcla de ambos resultaron con menor actividad antioxidante y cantidad de polifenoles totales. Así como también se obtuvo una biopelicula con propiedades de porosidad, flexibilidad y consistencia adecuada para el uso de la piel, con un biosensor de origen vegetal que cambia de color ante un pH alcalino similar al que pH de una infección en la piel.
Romero Jimenez Maria Fernanda, Universidad Simón Bolivar
Asesor: Dr. Santiago Moises Benites Castillo, Universidad Autónoma del Perú

ENFERMEDADES INFECCIOSAS Y NO INFECCIOSAS: UN ENFOQUE INTEGRAL PARA EL DESARROLLO SOSTENIBLE.


ENFERMEDADES INFECCIOSAS Y NO INFECCIOSAS: UN ENFOQUE INTEGRAL PARA EL DESARROLLO SOSTENIBLE.

Romero Jimenez Maria Fernanda, Universidad Simón Bolivar. Asesor: Dr. Santiago Moises Benites Castillo, Universidad Autónoma del Perú



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades infecciosas y no infecciosas son dos de los principales problemas de salud pública en el mundo. Las enfermedades infecciosas pueden ser causadas por bacterias, virus, hongos o parásitos. Las enfermedades no infecciosas pueden ser causadas por factores genéticos, ambientales o conductuales. Tanto las enfermedades infecciosas como las no infecciosas tienen un impacto significativo en la salud y el bienestar de las personas y los países. Las enfermedades infecciosas pueden causar discapacidad y muerte, y pueden tener un impacto negativo en el desarrollo económico y social. Las enfermedades no infecciosas, como las enfermedades cardiovasculares, el cáncer y la diabetes, son las principales causas de muerte en todo el mundo.  En este contexto, es necesario desarrollar un enfoque integral para abordar las enfermedades infecciosas y no infecciosas que tenga en cuenta no solo los aspectos médicos y epidemiológicos, sino también los factores sociales, económicos y ambientales que influyen en su prevención y control. Este enfoque debe basarse en la investigación interdisciplinaria y en la colaboración entre diferentes sectores para lograr un desarrollo sostenible que mejore la salud de las poblaciones.



METODOLOGÍA

Se llevará a cabo una revisión sistemática de la literatura sobre las enfermedades infecciosas y no infecciosas y su relación con el desarrollo sostenible. Esta revisión incluirá estudios publicados en revistas científicas, informes técnicos y otros documentos relevantes. Se utilizarán bases de datos bibliográficas y motores de búsqueda especializados para identificar los estudios relevantes. Los criterios de inclusión y exclusión serán definidos previamente y se aplicarán de manera rigurosa para seleccionar los estudios que se incluirán en la revisión. Estudios de campo: Se realizarán estudios de campo para evaluar la efectividad de intervenciones integrales para prevenir y controlar las enfermedades infecciosas y no infecciosas en diferentes contextos. Estos estudios podrían incluir ensayos controlados aleatorizados, estudios observacionales y estudios cualitativos. Se seleccionarán los contextos y las poblaciones de estudio en función de criterios como la prevalencia de enfermedades infecciosas y no infecciosas, el nivel de desarrollo socioeconómico y la disponibilidad de recursos para llevar a cabo las intervenciones. Análisis de datos: Los datos recopilados en la revisión sistemática y los estudios de campo serán analizados utilizando técnicas estadísticas y cualitativas apropiadas. Se llevarán a cabo análisis descriptivos e inferenciales para identificar patrones y relaciones entre las variables de interés. También se realizarán análisis de subgrupos para evaluar la efectividad de las intervenciones en diferentes contextos y poblaciones. Diseminación de resultados: Los resultados de la investigación serán diseminados a través de publicaciones científicas, presentaciones en conferencias y otros medios apropiados. También se llevarán a cabo actividades de divulgación para informar a los tomadores de decisiones, profesionales de la salud y al público en general sobre los hallazgos de la investigación.


CONCLUSIONES

Se espera que los resultados contribuyan a mejorar la comprensión de las enfermedades infecciosas y no infecciosas y su relación con el desarrollo sostenible, así como a identificar estrategias efectivas para prevenir y controlar estas enfermedades mediante un enfoque integral. Los resultados podrían tener implicaciones importantes para la formulación de políticas y programas de salud pública y para promover un desarrollo sostenible que beneficie a las poblaciones. Además, se espera que los resultados de la investigación proporcionen información valiosa para la formulación de políticas y programas de salud pública que promuevan un desarrollo sostenible que beneficie a las poblaciones. Los hallazgos podrían tener implicaciones importantes para la prevención y el control de enfermedades infecciosas y no infecciosas a nivel local, nacional e internacional, y podrían contribuir a mejorar la salud y el bienestar de las poblaciones.
Romero Lambraño Teresa, Servicio Nacional de Aprendizaje SENA - Regional Atlántico
Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla

DESARROLLO DE UN ROBOT ASISTENTE PARA PACIENTES CON ALZHEIMER UTILIZANDO IA


DESARROLLO DE UN ROBOT ASISTENTE PARA PACIENTES CON ALZHEIMER UTILIZANDO IA

Rodriguez Alvarez Jesus, Universidad Mexiquense del Bicentenario. Romero Lambraño Teresa, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, un gran número de personas se ven afectadas por enfermedades mentales que pueden conducir a la demencia según la Organización Mundial de la Salud más de 55 millones de personas sufren de esta enfermedad, siendo está la séptima causa de defunción en el mundo,  esta condición está relacionada con el Alzheimer representando aproximadamente entre 60% y 70% de los casos, a su vez esta toma mayor impacto en las enfermedades mentales que se presentan en edad temprana como el estrés y la depresión, que si no son tratados a tiempo pueden finalizar en problemas mentales graves como la demencia algunos de ellos irreversibles. Hoy por hoy, la robótica ha experimentado un notable avance debido al crecimiento de la tecnología y el impacto de la inteligencia artificial. Este progreso ha tenido un impacto significativo en el campo de la asistencia, especialmente en el desarrollo de programas de apoyo para el tratamiento de enfermedades mentales, así como en la implementación de tratamientos e implantes. En respuesta a esta necesidad, surge un proyecto innovador que busca mejorar la calidad de vida de las personas que sufren de enfermedades mentales, brindando un apoyo y atención continuos. El avance tecnológico nos ofrece nuevas oportunidades para desarrollar soluciones personalizadas y constantes que puedan atender las necesidades específicas de cada individuo. En este contexto, el desarrollo de un robot asistente se presenta como una opción prometedora para proporcionar el apoyo necesario a las personas con enfermedades mentales. Este robot asistente se convierte en un compañero constante y confiable para el paciente, capaz de brindar monitoreo del paciente y de su rutina diaria. Una de las características más destacadas de este proyecto es que el robot está programado para establecer un reconociendo del lugar donde se encuentra el y el paciente. Está equipado con tecnología de vanguardia, como sensores y dispositivos integrados, que permiten el monitoreo constante del lugar donde se encuentra el paciente y un seguimiento meticuloso del horario y la administración adecuada de los medicamentos.



METODOLOGÍA

El estudio adopta un enfoque de investigación teórica y acción para promover un proyecto experimental de asistencia robótica a personas con enfermedades mentales. Se utilizan plataformas como ROS y Unity 3D para crear el entorno en el que se desarrollaría el robot de asistencia. El proyecto se basa en el robot TurtleBot3, el cual ha sido modificado tanto en su diseño como en su programación para adaptarlo a los objetivos del proyecto. Se cuenta con un tablero de control en las plataformas ROS y Unity 3D, donde se recopila información de cámaras, sensores, comunicación y actuadores. Esta información se procesa mediante la programación realizada y se presenta en una interfaz gráfica que permite el control directo e instrucciones hacia ROS para responder a la información recibida. En cuanto al desarrollo de la programación del robot, se tuvieron en cuenta las limitaciones de perímetro y velocidad de desplazamiento del paciente al que se le asignó una distancia de seguimiento segura 3 metros Esto se logra mediante el uso de cámaras ubicadas en la parte delantera del robot. Además, el sistema de programación del robot garantiza que este siempre mantenga su enfoque en el paciente, enviando una alarma al cuidador si el paciente se encuentra fuera de su casa. En ROS, utilizando el lenguaje de Python 2 se llevó a cabo la programación en las siguientes fases: Control del robot:  Programación del movimiento del robot. Control de velocidad de 4 a 6.5 kilómetros por hora utilizando ángulos.  Inclusión de las dos cámaras, procesamiento de imagen y seguimiento del paciente. Aprendizaje automático (Machine Learning):  Integración de machine learning para el procesamiento de varias imágenes y la detección del paciente. Seguimiento lineal del paciente. Seguimiento del robot al paciente mediante el reconocimiento de lugares y objetos dentro de la casa.  Establecimiento de límites: Determinación de parámetros de seguridad en la casa para proteger al paciente.            Activación de una alarma para los cuidadores del paciente. En la interfaz de la máquina virtual con ROS se implementó la programación descrita, con Python 2, 3 utilizando los sensores y cámaras que se utilizarán en el entorno virtual. Esta interfaz se integró en un entorno en Unity 3D, donde se visualiza el proyecto del robot modelado en un ambiente virtual


CONCLUSIONES

En este contexto, se utilizaron herramientas tecnológicas de vanguardia como ROS y Unity 3D para desarrollar un robot especialmente diseñado para brinda seguimiento a personas que enfrentan problemas mentales. La integración de ROS y Unity 3D en este proyecto ha sido fundamental para el funcionamiento y la interacción del robot. En los primeros avances se tiene la programación lineal del robot con las dos cámaras y la programación de seguimiento constante al paciente evitando los obstáculos y la visualización en los entornos de ROS y Unity 3D En resumen, el proyecto representa un paso importante en la aplicación de la inteligencia artificial en la robótica, específicamente en el campo de la asistencia a personas con problemas mentales, donde se tenga un aprendizaje de acuerdo al comportamiento dinámico del paciente por medio de la integración de inteligencia artificial y aprendizaje continuo hace que el robot se le apliquen diferentes actividades en un futuro que será de gran importancia para la asistencia a esta población y la medición del avance o contención del trastorno para apoyar a los especialistas en esta área. En trabajos futuros, se busca implementar en el futuro un sistema en el robot que registre los signos vitales del paciente y lleve un registro de las actividades del paciente utilizando un panel de control de Internet de las cosas (IoT). Si se detecta alguna anomalía en los parámetros registrados, se generarán alarmas para alertar sobre posibles problemas de salud
Romero Luna Blas, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia

PLANIFICACIÓN DE LA EXPANSIÓN DE LÍNEAS DE TRANSMISIÓN EN SISTEMAS ROBUSTOS APLICADOS CON RESTRICCIONES DE DESPACHO ECONÓMICO.


PLANIFICACIÓN DE LA EXPANSIÓN DE LÍNEAS DE TRANSMISIÓN EN SISTEMAS ROBUSTOS APLICADOS CON RESTRICCIONES DE DESPACHO ECONÓMICO.

Romero Luna Blas, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La planificación de la expansión de líneas de transmisión en sistemas eléctricos es una tarea crucial para garantizar un suministro confiable y eficiente de energía eléctrica a los usuarios finales. Con el continuo crecimiento de la demanda de energía y la creciente integración de fuentes de energía renovable, los sistemas de transmisión enfrentan desafíos cada vez más complejos en términos de seguridad operativa, estabilidad y costos económicos.   El aumento en la adopción de fuentes de energía renovable, como la solar y la eólica, ha planteado nuevos retos para la operación y planificación de los sistemas de transmisión. Estas fuentes de energía son intermitentes y dependen de las condiciones climáticas, lo que introduce incertidumbre en la generación y requiere una mayor flexibilidad en la operación de la red de transmisión para equilibrar la oferta y la demanda. Además, las fuentes renovables suelen ubicarse en áreas remotas con abundantes recursos naturales, lo que implica la necesidad de expandir la red de transmisión para conectar estas áreas con los centros de consumo.   Además, la robustez del sistema es un aspecto crítico en la planificación de la expansión de líneas de transmisión. Los sistemas eléctricos deben ser capaces de soportar contingencias como fallas en líneas, transformadores o generadores, eventos climáticos extremos o ataques cibernéticos. Una red robusta es aquella que, ante la ocurrencia de fallas, puede mantener el suministro eléctrico a pesar de la pérdida de algunos componentes.    



METODOLOGÍA

ACTIVIDAD 2.   EJECUTAR EL CÓDIGO PARA EL PRIMER CASO MOSTRADO EN EL PAPER Y COMPARAR AMBOS RESULTADOS.    CONDICIONAMIENTO DE CASO 1.     Figura 7. Condiciones iniciales para las tasas de variación anual en estado estático. Fuente. Planificación de la red de transporte de energía eléctrica mediante programación robusta considerando un modelo dinámico. C. Cristina Roldan González.   RESULTADOS DEL CASO 1.   Figura 8. Resultados del primer caso de estudio en estado estático. Fuente. Planificación de la red de transporte de energía eléctrica mediante programación robusta considerando un modelo dinámico. C. Cristina Roldan González. Los resultados arrojados por el código son los siguientes:   La línea 42 se omite,  (Revisar el error de la condición =1 si la línea se ha construido). Línea Del nodo Al nodo Periodo de construcción 25 2 6 1 26 2 6 1 27 2 6 1 32 3 5 1 41 4 6 1 Tabla 1. Datos arrojados de las líneas construidas primer caso. Fuente. Planificación de la red de transporte de energía eléctrica mediante programación robusta considerando un modelo dinámico. C. Cristina Roldan González.   Como se puede observar las líneas correspondientes a construirse en un futuro concuerdan en su totalidad a las líneas referenciadas en la tesis. Finalizando lo que se pretendía dentro de la línea de trabajo. Tomando en cuenta que el principal error que se corrigió fue el periodo en el que se trabaja.  


CONCLUSIONES

Conclusiones. La conclusión general sobre despacho económico y la planificación de las líneas de transmisión es que ambos son aspectos esenciales para garantizar un sistema eléctrico eficiente, confiable y económico. Despacho económico: El despacho económico en el ámbito eléctrico se refiere a la optimización de la generación y el uso de recursos para suministrar energía eléctrica a la demanda de manera más eficiente y al menor costo posible. Para lograr esto, se deben considerar diversos factores, como los costos de generación de cada fuente de energía (carbón, gas natural, hidroeléctrica, eólica, solar, etc.), la demanda de energía en diferentes momentos del día y las restricciones de las redes de transmisión. En el despacho económico, se busca equilibrar la generación y la demanda en tiempo real y a futuro, minimizando los costos operativos y maximizando la eficiencia del sistema. Esto puede lograrse mediante algoritmos de optimización y técnicas avanzadas de análisis de datos que toman en cuenta factores variables como el clima, la disponibilidad de recursos, las restricciones de red y las fluctuaciones en la demanda eléctrica. Planificación de líneas de transmisión: La planificación de líneas de transmisión es un proceso que busca diseñar, construir y mejorar la infraestructura de transmisión eléctrica para facilitar el transporte eficiente y confiable de energía desde las plantas generadoras hasta los centros de consumo. Una red de transmisión bien planificada y gestionada es esencial para evitar congestiones, minimizar pérdidas de energía y asegurar un suministro eléctrico estable y seguro. La planificación de líneas de transmisión implica evaluar la capacidad de la red actual y proyectar las necesidades futuras de transmisión en función del crecimiento de la demanda y la incorporación de nuevas fuentes de generación, como energías renovables. También se deben considerar aspectos geográficos, ambientales, sociales y económicos para tomar decisiones informadas sobre la ubicación y el diseño de las nuevas líneas de transmisión.   Como estudiante puedo asegurar que trabajar con el investigador fue una experiencia que me ha dejado muchos conocimiento dentro de mi línea de estudios económicos, y fue una persona que en el momento me motivo y animo a poder seguir trabajando con temas relacionados para poder ingresar a una maestría y que eso de verdad se agradece demasiado.                                                                                                                
Romero Maciel Luis Hector, Universidad de Guadalajara
Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca

LOCOMOCIóN DE UN ROBOT HEXáPODO A TRAVéS DE REDES NEURONALES PULSANTES CONTROLADAS POR BIOSEñALES EMG.


LOCOMOCIóN DE UN ROBOT HEXáPODO A TRAVéS DE REDES NEURONALES PULSANTES CONTROLADAS POR BIOSEñALES EMG.

Romero Maciel Luis Hector, Universidad de Guadalajara. Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Desde la creación de los sistemas robóticos, su control ha ido evolucionando con el fin de poder hacerlo más sencillo y adaptarse a las distintas tareas que se requieran. Sin embargo, en los últimos años el uso de señales eléctricas provenientes del cuerpo (bioseñales) han sido el foco para el control de estos sistemas, especialmente las provenientes de los músculos (electromiográficas) y del cerebro (electroencefalográficas), cada una con sus ventajas y complejidades. Las señales de electromiografía (EMG) resultan ser más apropiadas para ser utilizadas en el control de la locomoción de un robot zoomórfico (en este caso hexápodo) debido a que su procesamiento es más sencillo en comparación con las señales de electroencefalografía (EEG), además de que la variabilidad entre sujetos es menor. El uso y control de robots zoomórficos a través de bioseñales puede resultar beneficioso en diversas situaciones. Estas situaciones van desde la realización de tareas peligrosas en las que se evita exponer vidas humanas, hasta la rehabilitación de personas que han experimentado problemas de movilidad en sus extremidades y requieren rehabilitación. Además, también se pueden utilizar en actividades lúdicas.



METODOLOGÍA

El primer paso consistió en la implementación de la red neuronal pulsante en Arduino. Las redes neuronales pulsantes describen el potencial de membrana de una neurona en términos de las entradas sinápticas y la corriente inyectada que recibe. Un potencial de acción (pulso) se genera cuando el potencial de membrana alcanza un umbral, pero los cambios reales asociados con el voltaje de la membrana y las conductancias que impulsan el potencial de acción no forman parte del modelo. Las entradas sinápticas a la neurona se consideran estocásticas y se describen como un proceso de Poisson temporalmente homogéneo. Los métodos y resultados tanto para las sinapsis actuales como para las sinapsis de conductancia se examinan en la aproximación de difusión, donde las contribuciones individuales al potencial postsináptico son pequeñas. El modelo de red neuronal pulsante utilizado fue el BMS, el cual es un modelo discretizado del Leaky Integrate and Fire, uno de los modelos de redes neuronales pulsantes más utilizados.   Una parte significativa del modelo es la matriz de pesos sinápticos, la cual define la arquitectura de la red neuronal. Para iniciar el movimiento del robot, es necesario aplicar un valor inicial al voltaje de membrana, de acuerdo con el patrón que se desea que el robot ejecute. Las salidas de la red neuronal pulsante se guardaron en una matriz binaria, la cual indica si una neurona se dispara (1) o se mantiene en reposo (0). Con la matriz generada, el siguiente paso consiste en traducir las salidas de las neuronas al movimiento de las articulaciones del robot hexápodo. Para las dos primeras articulaciones, coxa y fémur, se le asignó una neurona a cada una, mientras que la tercera articulación, tibia, se dejó fija. El patrón utilizado para la locomoción del robot es el tripod en el cual robot tiene tres patas apoyadas en todo momento. Cabe mencionar que, en las primeras pruebas realizadas en Arduino, la memoria de programa se estaba saturando, por lo que fue necesario optimizar el programa hasta lograr reducir el porcentaje de uso de la memoria al 81%. El dispositivo utilizado para capturar las señales ECG fue el Myo, el cual es un brazalete que se lleva en el antebrazo y utiliza sensores para detectar la actividad muscular. Los sensores pueden detectar los movimientos de los músculos de la muñeca, el antebrazo y el brazo, y estos movimientos se utilizaron para controlar el robot. Para la conexión de la red neuronal pulsante con Myo se utilizó un segundo Arduino, el cual se encargaba de mantener la comunicación con la computadora que detectaba los movimientos del Myo, mediante señales digitales. Los movimientos utilizados para el control del robot hexápodo fueron los siguientes: puño cerrado, mano abierta, movimiento de la palma hacia la derecha y movimiento de la palma hacia la izquierda, que corresponden a los movimientos del robot avanzar, detenerse, girar a la derecha y girar a la izquierda, respectivamente.


CONCLUSIONES

El control del robot hexápodo a partir de señales de EMG resultó ser exitoso. Fue posible controlar los movimientos del robot hexápodo mediante movimientos de la mano, lo cual puede ser muy útil para manipular robots en entornos peligrosos, realizar rehabilitación en miembros superiores o con fines lúdicos. Como trabajo futuro, se puede implementar la comunicación inalámbrica. Incluso se podría utilizar un Arduino más grande, como un MEGA, para realizar todo el proceso en un solo dispositivo. De la misma forma, se pueden implementar en el robot hexápodo sensores que permitan obtener información de su entorno y hacer más eficiente su locomoción.
Romero Nava Jeanine Doreida, Instituto Tecnológico de Chilpancingo
Asesor: Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala

INTELIGENCIA ARTIFICIAL CHATGPT


INTELIGENCIA ARTIFICIAL CHATGPT

Romero Nava Jeanine Doreida, Instituto Tecnológico de Chilpancingo. Sandoval Reyes Jenifer, Instituto Tecnológico de Chilpancingo. Asesor: Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial (IA) ha experimentado un crecimiento exponencial en los últimos años y ha dejado una marca significativa en nuestra vida diaria, transformando la forma en que interactuamos con la tecnología. La IA es una herramienta poderosa que ha mejorado numerosos campos, incluidos la salud, la educación y la industria. Su capacidad para analizar grandes volúmenes de datos y extraer patrones ha llevado a avances significativos en el diagnóstico médico, la toma de decisiones empresariales y la personalización de experiencias.   Sin embargo, el crecimiento y la adopción masiva de la IA también han planteado desafíos éticos y sociales que requieren una atención cuidadosa. La privacidad y la seguridad de los datos se convierten en preocupaciones importantes, ya que la recopilación y el análisis masivo de información pueden exponer a las personas a riesgos de violaciones de privacidad y uso indebido de información personal. Además, la IA está impactando el mercado laboral, generando inquietudes sobre la automatización y la pérdida de empleos en ciertos sectores.   Por otro lado, la comprensión pública sobre cómo funciona la IA y sus aplicaciones sigue siendo limitada, lo que puede dar lugar a malentendidos y miedos infundados. Es fundamental aumentar la conciencia y el conocimiento sobre la IA para fomentar una adopción responsable y beneficiosa para la sociedad en su conjunto.



METODOLOGÍA

Para abordar estos desafíos y cuestionamientos, este proyecto de investigación se basará en un enfoque multidisciplinario y exhaustivo. Se utilizará una combinación de métodos cualitativos y cuantitativos para obtener una visión completa de la IA y su impacto en diferentes ámbitos. Se recopilarán y analizarán estudios de casos relevantes para comprender cómo la IA ha beneficiado o transformado sectores específicos.   Además, se llevará a cabo una revisión sistemática de la literatura para explorar los fundamentos teóricos de la IA, incluidos los conceptos clave de aprendizaje automático, procesamiento del lenguaje natural y la arquitectura Transformer. Esto permitirá comprender las bases técnicas que hacen posible el desarrollo de modelos de lenguaje como Chat GPT.   Para investigar las implicaciones éticas y sociales de la IA, se realizarán encuestas y entrevistas a expertos en el campo de la ética de la inteligencia artificial y la regulación de tecnologías emergentes. Estas entrevistas proporcionarán información valiosa sobre cómo abordar temas éticos como la privacidad, la equidad y la transparencia en el desarrollo y despliegue de sistemas basados en IA.   El análisis de grandes cantidades de datos de texto recopilados de diversas fuentes, como artículos académicos, publicaciones de blogs y redes sociales, ayudará a comprender las percepciones y opiniones del público sobre la IA. Esto permitirá identificar preocupaciones y prejuicios comunes, así como oportunidades para mejorar la comunicación y la educación pública sobre la IA.   El objetivo final de este proyecto de investigación es contribuir al conocimiento existente sobre la IA, sus posibilidades futuras y cómo asegurar su desarrollo responsable para el bienestar de la sociedad. Se espera que los resultados de este estudio proporcionen información valiosa para la toma de decisiones informadas y políticas que promuevan un uso ético y beneficioso de la IA en todos los ámbitos. Al profundizar en los fundamentos teóricos y metodológicos de la inteligencia artificial, este proyecto sentará las bases para futuras investigaciones y desarrollos en el campo de la IA y la interacción humano-computadora.  


CONCLUSIONES

En el marco de esta investigación, hemos explorado a fondo el concepto de Chat GPT y su utilidad en diversas aplicaciones. Hemos observado que Chat GPT ofrece diversos beneficios, ya que puede ser integrado fácilmente en diferentes plataformas y tecnologías, lo que lo convierte en una herramienta versátil para múltiples usos. Su capacidad para comprender y responder preguntas de manera eficiente ha demostrado ser invaluable para mejorar la experiencia del usuario en aplicaciones de atención al cliente y asistencia virtual. Sin embargo, también hemos identificado algunas limitaciones en su desempeño. En cuanto a la creación de un modelo de Chat GPT, hemos analizado el proceso de preparación de datos y entrenamiento del modelo. La utilización de prompts generales y específicos para acelerar el aprendizaje ha demostrado ser una estrategia efectiva.
Romero Pineda Jazmín Marisol, Universidad Autónoma del Estado de México
Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE POLI(DAL-C-NIPAM-B-AM)


SíNTESIS DE POLI(DAL-C-NIPAM-B-AM)

Romero Pineda Jazmín Marisol, Universidad Autónoma del Estado de México. Asesor: Dr. Jesus Guillermo Soriano Moro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Objetivo; Sintetizar copolímero tribloque mediante polimerización RAFT.  La polimerización radicálica convencional ha sido un pilar fundamental para la síntesis de polímeros a nivel mundial. Sin embargo, una de las principales desventajas que presenta este método es que se tiene un bajo control sobre ciertos parámetros estructurales , esta problemática inhabilita la polimerización como ruta de síntesis para la obtención de polímeros con estructura específica. En consecuencia, en las últimas décadas se han desarrollado técnicas de polimerización radicálica viviente/controlada (PCV/R). Existen tres técnicas de PCV/R, sin embargo las mas reciente es la ténica RAFT. La polimerización radicálica controlada por una reacción reversible de adición-fragmentación con transferencia de cadena (RAFT), tiene como ventaja de que es aplicable a una amplia variedad de tipos de monómeros y puede relizarse a diversas condiciones de reacción así como a un amplio intervalo de temperaturas. Su principal característica es que cuenta con un doble enlace C=S. El éxito de esta técnica arribó con el uso de compuestos tiocarboniltio.



METODOLOGÍA

Se hizo un estudio previo en artículos y tesis para conocer más a detalle el proyecto a desarrollar. Para el primer bloque, los reactivos que se utilizaron fueron; acrilato de laurilo, ácido 4,4’-azobis(4-cianovalérico)ACVA, ditiobenzoato de benzoato, 1,4-dioxano  Mediante un proceso de filtración se purificó el acrilato de laurilo para que posteriormente fuese pesado. Se colocaron en un matraz de bola de dos bocas el iniciador, el disolvente, el agente de transferencia y el monómero, se colocó en agitación hasta homogeneizar. Una vez homogéneo se continuó con el proceso de desgasificación, el cual consiste en colocarlo en un sistema cerrado administrando nitrogeno por una boca y eliminando oxígeno por la otra boca del matraz durante 10 minutos, posteriormente se coloca en el congelador por 15 minutos y este proceso se repite tres veces. Es importante retirar el oxígeno pues de lo contrario la cadena en crecimiento reacciona con el oxígeno produciendo un radical de oxígeno el cual es menos reactivo, lo que reduce de forma considerable la velocidad de propagación. Una vez terminado el proceso de desgasificación, se coloca el matraz en un baño de aceite con agitación a una temperatura de 60°C durante un tiempor de 22 horas. Pasadas las 22 horas, se retira del baño de aceite y se lleva a un baño de hielos para detener la polimerización. Para el segundo bloque, los reactivos a utilizar, son los mismos, solo se cambia el monómero por N-isopropilacrilamida  Una vez pesados, se colocan en el matraz que contiene al primer bloque y se lleva a agitación hasta homogeneizear para continuar con el proceso de desgasificación antes mencionado. Teniendo esto, se coloca el matraz en un baño de aceite y se comienza con la reacción a 70°C en un sistema cerrado, durante 22 hrs. Pasado el tiempo, se coloca en un baño de hielos hasta llegar a temperatuara ambiente. Una vez que el matraz que contiene al polimero bibloque haya enfriado, se inició con un proceso de decantación usando como disolvente hexano, retiramos el soluto y posteriormente se llevo a la estufa de vacío para retirar el disolvente que pudiese tener. Para el tercer bloque, el monómero a utilizar es acrilamida  Se colocó el bibloque en el matraz de bola junto con los reactivos para necesarios para el tercer bloque, se llevo a agitación hasta homogeneizar y se llevó a cabo el proceso de desgasificación. Posteriormente, en un baño de aceite se coloca el matraz e inicia la reacción a 70°C por 18 hrs. Una vez concluido el tiempo, se llevó a un baño de hielos hasta llegar a temperatura ambiente. Se precipitó con agua destilada a 60°C para obtener el copolímero tribloque. Posteriormente se lleva a la estufa de vacío para eliminar el disolvente. De esta manera se sintetizó el copolímero tribloque de Poli(DAL-c-NIPAM-b-AM) usando ditiobenzoato de bencilo como agente de transferencia RAFT.      


CONCLUSIONES

Resultados. Se obtuvieron los IR’s tanto del bibloque como del tribloque. Asímismo, se midió la turbidimetría para obtener la LCST tanto para el copolímero dibloque como para el tribloque por lo que se hicieron pruebas de solubilidad con diferentes disolventes. Se eligió el 1,4-dioxano como disolvente por su elevado punto de ebullición, 101°C, ya que se puede medir la turbidimetría a un amplio rango de temperaturas. Turbidimetría dibloque. Se pesaron 0.608g del copolímero dibloque, y se llevo a disolución en un sistema 70/30 1,4-dioxano y agua destilada. Se midió la turbidimetría a diferentes temperaturas. LCST: 65 °C Turbidimetría tribloque. Se pesó 0.622g del copolímero tribloque y se le agregaron 21 ml de 1,4-dioxano y 9 ml de agua destilada (sistema 70/30) y se midió la turbidimetría a diferentes temperaturas. Conclusiones. Hoy en día los polímeros son moléculas que representan un factor importante en el avance científico y tecnológico. Existe un gran interés en la síntesis de estos materiales por su potencial biocompatibilidad en aplicaciones espcíficas como son geles teroestables aplicables en el campo biomédico.  Mediante Los IR’s se pudo observar la presencia de los monómeros para el dibloque como en el tribloque. Asímismo, se realizó la medición del punto de nube con la finalidad de determinar la temperatura a la cual se desarrolla el cambio de fase sólido líquido donde la funcionalidad principal se basa en determinar la calidad y la estabilidad del producto.
Romero Romero Monserrath, Universidad Veracruzana
Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán

ESTANDARIZACIóN DEL PROCESO DE OBTENCIóN DE BEBIDAS


ESTANDARIZACIóN DEL PROCESO DE OBTENCIóN DE BEBIDAS

Romero Romero Monserrath, Universidad Veracruzana. Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

Actualmente el pulque y el agua miel, obtenidos del agave pulquero, ha despertado el interés para la obtención de bebidas alcohólicas destiladas. Sin embargo, la destilación del pulque y agua miel presenta desafíos técnicos y de calidad dadas las características atmosféricas de cada zona en donde se realizan los procesos de destilado. Estas características influyen en la temperatura de ebullición de los componentes del mosto fermentado que influyen en las propiedades organolépticas finales del destilado de aguamiel y pulque. En las comunidades de Cuacnopalan y Palmar de Bravo en el edo. de Puebla; existen cerca de 80,000 magueyes pulqueros distribuidos en 80 productores, los cuales tienen una producción de 3 lt. de aguamiel por cada maguey pulquero aproximadamente y de esta producción se destina el 60% para la elaboración de pulque y el 40% para la obtención de un edulcorante natural de manera artesanal. El proyecto tiene como objetivo estandarizar el proceso de destilación de acuerdo a las condiciones atmosféricas que prevalecen en la zona con el fin de obtener las temperaturas de corte de las partes que conforman un destilado (cabeza, cuerpo y colas) tanto en la primera y segunda destilación que permitan la obtención de un destilado libre de productos nocivos para la salud como es el caso del metanol que puede causar daños severos e incluso la muerte cuando está presente en las bebidas alcohólicas destiladas.



METODOLOGÍA

Se utilizó como materia prima el pulque, el proyecto se llevó a cabo, en el Laboratorio de Usos Múltiples del Instituto Tecnológico Superior de Ciudad Serdán (ITSCS). Constó de dos etapas, la primera obtención de un proceso estandarizado de destilación del pulque a nivel laboratorio y la segunda etapa llevar acabo la destilación del pulque en un prototipo experimental a mayor volumen. En la primera etapa se llevaron a cabo los procesos de fermentación y destilación del pulque a nivel laboratorio. Para llevar a cabo el proceso de fermentación, se dividió el líquido en tres muestras, cada muestra recibió un tratamiento específico para observar sus efectos durante el proceso. En la primera muestra, se dejó fermentar durante un periodo de seis días sin añadir ningún aditivo adicional. A la segunda muestra, se le añadió azúcar y levadura al líquido original previo a la fermentación. La cantidad de azúcar añadida equivale al 20% del volumen total del líquido en la muestra, mientras que la cantidad de levadura añadida fue de 0.5 gr por litro del líquido hidratada con agua a 30°C. Luego, se dejó fermentar durante seis días. A la tercera muestra, también se le adicionó azúcar y levadura en las mismas proporciones que la muestra anterior, pero en esta, la fermentación fue de 15 días. El siguiente paso del proceso fue la destilación de las muestras obtenidas a partir de la fermentación. Previo a la destilación, se llevó a cabo el cálculo de los puntos de ebullición del agua, etanol y metanol, tomando en cuenta las condiciones de nivel del mar en Ciudad Serdán, lugar donde se está llevando a cabo la investigación, el cual nos indicará el corte de las cabezas, cuerpos y colas. Posteriormente, se realizaron dos destilaciones para cada una de las muestras. La primera destilación tuvo como objetivo eliminar cualquier residuo o impureza que pudiera estar presente en las muestras. Luego, se realizó la segunda destilación en la que se recolectaron las fracciones de interés, es decir, las cabezas, cuerpos y colas. En el proceso de destilación, las cabezas corresponden al metanol, los cuerpos al etanol y las colas al agua. El objetivo principal fue recolectar el etanol, que es el compuesto de interés en la investigación. Para verificar la presencia del etanol en la muestra recolectada, se colocó una pequeña cantidad del destilado obtenido a fuego para observar si prendía o no. Si el líquido prendía, confirmaría que efectivamente se trataba de etanol, ya que este compuesto es inflamable. Después de ello, se realizó una metodología a prueba piloto, llevado a cabo en el Laboratorio de Usos Múltiples del Instituto Tecnológico Superior de Ciudad Serdán. El proceso consistió en dos etapas: fermentación anaerobia y destilación. Previo a la etapa de fermentación, se aplicó un tratamiento térmico de 30 min al líquido, teniendo como objetivo eliminar posibles compuestos que pudieran afectar al proceso de fermentación. Además, se agregó azúcar hasta alcanzar una concentración de 24 °Brix y se incorporó levadura en una cantidad de 0.5 gr por litro hidratada a una temperatura de 30 °C. Se llevaron a cabo mediciones de variables termodinámicas y posterior a ello se inició la fermentación. La fermentación se llevó a cabo durante un periodo de 4 días. El segundo paso del proceso es la destilación. Previamente, se midieron variables termodinámicas, se trabajó con un prototipo experimental de un sistema de destilación con una capacidad de 5 litros. El sistema de destilación incluyó un intercambiador de calor de doble tubo, así como un matraz Erlenmeyer de 1lt para recolectar el producto deseado. De igual forma se recolectaron cabezas, cuerpos y colas.


CONCLUSIONES

Durante la estancia de verano, se logró adquirir los conocimientos necesarios sobre los temas de pulque, desde su recolección hasta su proceso para la obtención de alcohol a partir de este. La investigación se desarrolló bajo la guía y asesoría de un investigador experimentado en el campo. El proceso de estandarización para la producción de alcohol a partir de pulque fue un trabajo complejo, dado que involucra diversas variables termodinámicas que afectan directa e indirectamente al proceso. Al ser un trabajo extenso aún se encuentra en la fase de fermentación y no se pueden mostrar los datos y el producto obtenido. Se espera la obtención del cuerpo con el proceso que se estandarizó para la producción del destilado de pulque a escala piloto, de igual manera se espera continuar con la escala a nivel semi industrial estableciendo los parámetros finales del proceso.
Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN


APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN

López Solís Osvaldo Jesus, Instituto Tecnológico Superior de Uruapan. Morales de Gante Jorman Aldrich, Universidad Politécnica de Tecámac. Ponce Reyes Andrea Gpe, Instituto Tecnológico Superior de Uruapan. Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Rubio Solis Carlos Alberto, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la aplicación surgió a partir de encontrar que hoy en dia en distinguidas tiendas de aplicaciones móviles no existen tantas alternativas para la fomentación del aprendizaje por lo cual partimos de una propuesta inicial la cual fue desarrollar una aplicación de preguntas donde se haga esta fomentación del aprendizaje mediante multiples preguntas de todo tipo de áreas(Matemáticas,Filosofía,Literatura,etc.)Esto nos recordó al famoso juego preguntados, donde tomando como principal dicho juego añadimos que los usuarios tengan que registrarse para poder acceder a la aplicación.



METODOLOGÍA

Jor de Gante, [28/07/23 9:20 P.M.] Para este proyecto notamos que sería necesario la utilización de una metodología donde no se pierda tanto tiempo ya que no contamos con una gran cantidad de este para el desarrollo de nuestra aplicación  por lo cual la Metodología de prototipado resultó la más convenienteya que está se adecuada a nuestras necesidades. Comunicación: La comunicación para esta metodología es sumamente necesaria por lo cual nuestro equipo de trabajo desde el primer dia presentó este apartado por lo cual resultó sencillo poder dividirnos el trabajo además de la solidaridad y el trabajo en equipo resultaron factores beneficiosos para todos. Plan rápido: La aplicación surgió apartir de una idea del profesor donde todos los compañeros ayudamos a reforzar dicha idea y sacamos el proyecto adelante, partiendo de referencias o bases al igual que estudiar el mercado para poder hacer una aplicación que realmente atraiga a futuros usuarios. Modelado diseño rápido: Para el modelado utilizamos imagenes de referencias donde todos ibamos a desarrollar el mismo proyecto pero en cuanto a diseño era a criterio propio por lo cual nos apoyamos de igual forma del software figma para desarrollar los mockups para una vez todos estuvieramos deacuerdo comenzariamos a trabajar con el SDK de Flutter.Este paso resultó el más interesante puesto que cada uno de nosotros dejamos ir nuestra imaginación para los mockups. Construcción del prototipado: Para este paso tuvimos que aprender los fundamentos de flutter , desde su instalación,complementos,actualizaciones,etc. donde resultó un poco mayor el nivel de complejidad puesto que la mayoría no tenía un amplio conocimineto de esta tecnología sin embargo el apoyo de los compañeros fue el principal factor para que todos vallamos de la mano . Desarrollo y entrega: En este apartado el profesor nos dio a conocer distintas  herramientas que en este y en muchos más proyectos nos serán de gran utilidad para la reducción de tiempos,costos,complejidad,etc como lo son complementos de flutter,firebase,etc.Llegando a este punto resultó muy interesante el tema de una base de datos en tiempo real, además de aprender bastante de la tecnología flutter. Con forme avanzamos la aplicación iba tomando forma,estructura y resultó muy atractiva para todos.


CONCLUSIONES

Gracias al trabajo en equipo la autoretroalimentación y enseñanza de el profesor logramos obtener el exito mediante la aplicación de manera ágil y efectiva dando como resultado una aplicación multiplataforma util,atractiva y sobre todo facil de usar de igual forma conseguimos implementar la base de datos en tiempo real donde esta resultó sumamente beneficiosa para el desarrollo del proyecto.
Romero Zavala Marco Antonio, Universidad Autónoma de Occidente
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Romo Aldana Oswaldo Guadalupe, Universidad de Guadalajara
Asesor: Mtro. Marco Antonio Marcos Rodríguez, Universidad César Vallejo

LIDERAZGO Y CULTURA AMBIENTAL EN COLABORADORES DE LA EMPRESA XIN POINT, MÉXICO 2023


LIDERAZGO Y CULTURA AMBIENTAL EN COLABORADORES DE LA EMPRESA XIN POINT, MÉXICO 2023

Romo Aldana Oswaldo Guadalupe, Universidad de Guadalajara. Asesor: Mtro. Marco Antonio Marcos Rodríguez, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

La participación de los colaboradores de Xin Point es escasa en base a una buena cultura ambiental que permita a esta tenerla. No se tiene una buena reputación como organización y a lo largo del tiempo por el la escasa información e importancia que se les da a estos temas la cultura ambiental se ha visto afectada. El problema surge desde un inicio de la apertura de esta organización por que no se pusieron limites, planes y objetivos para tener una buena gestión y llevar a cabo estos temas, afectando a la organización a no poder progresar y mejorar en un largo periodo de tiempo, quedándose estancada con la misma mentalidad de hace 5 años. Actualmente se ha tomado en cuenta este tema pudiendo empezar a tomar cartas en el asunto, iniciando a hablar estos temas la alta gerencia ya que el las recientes auditorias se han visto afectados por temas como estos, diciendo que es algo que deben de manejarse con responsabilidad organización donde todos juntos participen. En el ultimo semestre la organización se ha enfrentado a varias trabas por no tener un control y liderazgo adecuado que pueda manejar y llevar a cabo todas estas situaciones. Los colaboradores no participan para fortalecer estos puntos porque no se les exige y no hay llamadas de atención cuando se realizan actividades dañinas para el medio ambiente o el entorno de personas que se encuentran ahí.    No se tiene una cultura ambiental sustentable, refiriéndose a los comportamientos individuales y colectivos como organización que promueven el cuidado y aprovechamiento del medio ambiente, a travez de acciones efectivas, cuyo fin es asegurar los recursos naturales que garantizan el bienestar. Destacando que el un buen comportamiento de los colaboradores en la organización hace que se conviertan en patrones que eventualmente se hagan un estilo de vida, incorporando el grado de sensibilidad hacia la protección del medio ambiente. Con el conocimiento del problema, la cultura ambiental paso a ser parte integral en el manejo de dicho problema, para que las organización cuenten con procedimientos y técnicas necesarias para identificar y registrar el impacto que causa al medio ambiente, fijando los procedimientos que permitan mejorar las medidas de protección, es indispensable que la cultura ambiental transmita resultados obtenidos a través de indicadores, con el propósito de captar la atención de nuevos colaboradores hacia la organización, siendo la educación la herramienta mas importante para el cambio del comportamientos.Educando a los colaboradores uno por uno es el fin de estos problemas, corriendo la información boca a boca y teniendo un mayor alcance ya que este  planeta  es el hogar de la humanidad.  La organización, Xin Point, por ejemplo, actualmente no realiza actividades invitando a las personas a ser partícipes de campañas que buscan crear ese sentido de responsabilidad hacia el planeta siendo que es una organización grande y con una antigüedad de 5 años siendo esto una manera de aportar hacia eso cambió que queremos.



METODOLOGÍA

La cultura y educación ambiental no debe limitarse a difundir conocimientos, sino que debe ayudar a las personas  a cuestionar sus falsas ideas sobre los diversos problemas ambientales y los sistemas de valores que sustentan esas ideas. Conosiendo el estado en el que se encuentra la organización Xin Pont en cuanto a su cultura y pensamiento tenidos en base al cuidado del medio ambiente con la debería de contar la organización. Creando conciencia y buenas conductas en todos los colaboradores a través de un buen liderazgo.  La valoración que hacen los colaboradores se hara a travez de una investigacion cualitativa para tener relación directa con los espacios de educación formal y no formal que se generan en esta organización. En el primer caso la educación no formal se da a través de mecanismos informales como el diálogo entre colaboradores, a partir de la experiencia que ellos poseen, en tanto que la educación formal se genera a través de los programas que la institución promueve, siendo que este responde a los planes de la organización, constituye uno de los aspectos más importantes.


CONCLUSIONES

No cabe duda de que existe informacion deficiente dentro de la organizacion, sin una estructura organizada para poder lograr una cultura ambiental firme en base a los reglamentos habidos, al igual que el cambio de pensamiento e ideologia es clave dentro de los colaboradores. La Organizacion Xin Piont. En relacion con lo antes expuesto, se puede decir que la falta de liderazgo es la variable independiente y de esta depende la cultura ambiental dentro de la organizacion, ya que debido a la falta de liderazgo por parte de la alta gerencia, no se les da el conocimiento a los colaboradores para que asi puedan generear esta mentalidad de la importancia que tienen en relacion con el medio ambiente a travez de las actividades hechas. En los años pasados y actualmente no se habia generado un plan para el buen manejo de esta situcion, viendo que la mayor parte de los colaboradores no les importa la situacion de impacto que esta teniendo el medio ambiente y los problemas que nos estan afectando hoy como saciedad. Se puede afirmar que todavia no se a podido generar un plan para poder capacitar a todos los colaboradores, asi que se habria que modificarse ese sistema de capacitaciones que se tienen e incluir este tema es las inducciones. De esta manera es evidente, que la dificultad de estudiar estos temas en meramente   por que son temas que nos faciles de tratar y de llevar a cabo, aunque la mayorparte del tiempo nos centramos en problemas que pensamos que afectar en ontros anbitos, dejando por ultimo a entorno que nos redea, por creer que no pasara nada en un futuro cercano. Respecto al tema de cultura ambiental, es algo que a travez de los años ha ido en accenso la importancia de estos temas, por lo que en Mexico se han tomado medidadas y creado leyes para que todas las organizacones cumplan con estos reglamentos, asi pudiendo tener un mejor control ambiental y mantenerse al tanto del impacto ambiental generado. 
Rosado Campechano Bryan, Universidad Autónoma de Ciudad Juárez
Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

DESARROLLO DE SOFTWARE PARA GESTIóN Y ANáLISIS DE SEñALES FISIOLóGICAS EN CONDUCCIóN VEHICULAR VIRTUAL UTILIZANDO LA PULSERA EMBRACEPLUS


DESARROLLO DE SOFTWARE PARA GESTIóN Y ANáLISIS DE SEñALES FISIOLóGICAS EN CONDUCCIóN VEHICULAR VIRTUAL UTILIZANDO LA PULSERA EMBRACEPLUS

Rosado Campechano Bryan, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el Laboratorio de Instrumentación y Procesamiento de Señales (LIPS) de la UPIITA-IPN, se participó en la realización del "Protocolo de Estrés en Conducción Vehicular Virtual (versión 2)" con 17 participantes, que tuvo como objetivo inducir y detectar el estrés en los participantes a través de 4 tareas específicas (etapas) con un simulador de conducción. Para monitorear su respuesta fisiológica se usaron múltiples sensores, incluida la pulsera Embrace Plus® (Empatica, Italy) que tiene autorización de la FDA para ser utilizada en investigación. Esta pulsera tiene la capacidad de recopilar, procesar, almacenar y transmitir de manera inalámbrica varias señales, como la actividad electrodérmica de la piel (EDA), el pulso del volumen sanguíneo (BVP), la temperatura, los picos sistólicos, entre otros. Con el fin de gestionar y estructurar eficientemente los datos recolectados de cada participante en el estudio, se identificó la necesidad de desarrollar un software que facilite la creación de una base de datos que contenga la información correspondiente de cada uno de los participantes de manera anonimizada y con un etiquetado adecuado para integrarlo en la base de datos general. Así mismo, se requiere un software que permita la identificación de información viable, segmentación y estandarización de las señales en bruto para su análisis posterior.



METODOLOGÍA

En primer lugar, se descargaron los datos en crudo desde la plataforma en la nube del fabricante. Luego, se identificó la estructura de los datos y se diseñaron e implementaron algoritmos para extraer y organizar los datos de cada participante en la nueva base de datos. Inicialmente, se consideró integrar todo el sistema en Matlab; sin embargo, debido a los diferentes formatos de los archivos generados en la base de datos original (xls, avro, txt) y la información disponible de Empatica, se optó por utilizar un entorno de Python encapsulado en el software creado en Matlab, para aprovechar las facilidades que dan las librerías de Python que facilitan la lectura de archivos tipo avro. También se realizó un proceso de anonimización y homogeneización de etiquetas de la base datos para salvaguardar la privacidad y confidencialidad de la información personal recolectada y permitir un futuro manejo automático de la información. Mediante este procedimiento, se eliminan los datos personales que podrían identificar a los individuos, y codifica la información requerida, asegurando que la información recopilada sea completamente anónima. Además de la preparación de la base de datos, se diseñó e implementó una interfaz de usuario en Matlab que permite la estandarización y segmentación de las señales a partir de la información viable de los datos en bruto de cada participante. Esta interfaz facilitará el análisis posterior de las etapas del protocolo.


CONCLUSIONES

Como resultado de mi participación en este proyecto, se desarrolló un algoritmo para la preparación de la base de datos que contiene múltiples señales proporcionadas por la pulsera Embrace Plus. Dicho algoritmo y la interfaz generada es versátil y puede ser utilizado en futuros protocolos que empleen esta pulsera, ya que se generó su reporte técnico y su manual de usuario. Además, se obtuvo una base de datos anonimizada e identificada del protocolo. Durante este periodo, adquirí habilidades técnicas avanzadas en el manejo de datos, la programación de algoritmos y el desarrollo de interfaces de usuario. Además, obtuve una valiosa experiencia en el uso de dispositivos médicos de última generación en un contexto de investigación. Estas habilidades y conocimientos me preparan para enfrentar futuros desafíos en el campo de la ingeniería, la ciencia de datos y la investigación en salud y fisiología. Además de las habilidades técnicas, esta experiencia me enseñó a trabajar en equipo de manera efectiva. Colaborar con otros investigadores y miembros del laboratorio fue enriquecedor y me permitió entender cómo la comunicación clara y la cooperación son fundamentales en proyectos de investigación.
Rosas Flores Cesar Elias, Instituto Tecnológico de Tepic
Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

SISTEMAS DE DETECCIóN DE INTRUSOS EN AMBIENTES IOMT


SISTEMAS DE DETECCIóN DE INTRUSOS EN AMBIENTES IOMT

Rosas Flores Cesar Elias, Instituto Tecnológico de Tepic. Asesor: Dr. Alfonso Martínez Cruz, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La incorporación de sistemas de IoT en aplicaciones de atención médica ha posibilitado el monitoreo remoto de la información de los pacientes y el suministro de diagnósticos adecuados cuando sea necesario. No obstante, garantizar la seguridad de los datos de los pacientes, asegurando su corrección y confidencialidad, representa un desafío considerable. Cualquier modificación en los datos podría afectar el tratamiento de los pacientes, con consecuencias humanas graves en situaciones de emergencia. Dado que los datos en estos sistemas son altamente complejos y cambiantes, el aprendizaje automático se vislumbra como una solución efectiva para la detección de intrusiones.



METODOLOGÍA

Utilizando el conjunto de datos generado por el WUSTL-EHMS de la Washington University in St. Louis junto a algoritmos de aprendizaje por computadora (Machine Learning), se es posible entrenar modelos de Machine Learning para detectar anomalías de trafico de red dentro de un sistema IoMT (Internet of Medical Things), para lograrlo es necesario preparar a nuestra información antes de ser alimentada al algoritmo.   En cualquier aplicación de aprendizaje automático, el preprocesamiento de los datos es un paso esencial, ya que los resultados del método de aprendizaje automático son tan buenos como los datos utilizados. Por lo tanto, los datos de métricas de flujo de tráfico y biométricos se preprocesan utilizando los siguientes pasos:   División de datos en conjuntos de entrenamiento y prueba: Para medir correctamente el rendimiento de los modelos de aprendizaje automático, es necesario dividir el conjunto de datos en conjuntos de entrenamiento y prueba con una distribución del 80% y el 20%, respectivamente. K-Fold: El método K-Fold con diez divisiones será necesario aplicarlo solo en el conjunto de datos de entrenamiento para mostrar la variabilidad del rendimiento entre las divisiones. Escalado: Las características de los datos se escalan para asegurar que todas tengan la misma importancia y no se vean afectadas por diferentes escalas. Para esto, es necesario utilizar el escalado Min-Max para llevar todas las características a un rango de valores entre 0 y 1.   Una vez que se completaron estos pasos de preprocesamiento, los datos estaban listos para ser utilizados para el entrenamiento y prueba de los modelos de aprendizaje automático. Estos pasos son cruciales para obtener resultados precisos y confiables de los modelos de Machine Learning en sistemas de detección de ataques de atención médica.   Para entrenar y probar el sistema frente a ataques, se planeó utilizar tres métodos de Machine Learning: Random Forest, K-Nearest Neighbors y Support Vector Machine, para construir los modelos de detección de ataques.   Una vez seleccionados los algoritmos de Machine Learning a implementar utilizando el entorno de Jupyter Labs, se hará: La importación de librerías de Scikit-Learn, Pandas, numpy (encargadas del entrenamiento de los modelos), y matplotlib (para ver de manera gráfica los resultados de entrenamiento). Lectura y asignación de información de nuestro archivo .csv a un objeto procesable de Pandas. Preprocesamiento de la información (preparación) con los pasos previamente mencionados, así como una normalización Z-Score, y Min-Max. Separación de los datos: Datos de entrenamiento y datos de prueba Entrenamiento del modelo Evaluación del modelo   Los pasos de preprocesamiento y separación de datos, así como el entrenamiento y evaluación de modelos de machine Learning se hace a través de métodos ya agregados en las librerías de Scikit-Learn y Pandas. En conclusión, mi investigación sobre el Sistemas de Detección de Intrusos en Ambientes IoMT y su implementación de técnicas de aprendizaje automático para la detección de ataques en el entorno de atención médica ha arrojado resultados alentadores. A través del uso de tres modelos de ML: Random Forest, KNN y SVM, se ha explorado el potencial de estos métodos para detectar intrusiones en la red y datos biométricos con el objetivo de garantizar la seguridad y confidencialidad de la información del paciente. Durante mi investigación, pude comprender la importancia del preprocesamiento de los datos, incluida la división en conjuntos de entrenamiento y prueba, el uso del método K-Fold para evaluar la variabilidad del rendimiento, y la aplicación de técnicas de resampling, como SMOTE, para abordar el desequilibrio en el conjunto de datos. Además, comprendí cómo el escalado y la selección de características pueden mejorar la eficiencia y el rendimiento de los modelos de ML. Es importante destacar que el campo de la atención médica y la seguridad cibernética es altamente complejo y sigue siendo objeto de investigación y desarrollo continuo. Este tipo de investigaciones propone un enfoque novedoso para combinar métricas de flujo de red y datos biométricos para mejorar el rendimiento del sistema de detección de intrusos.


CONCLUSIONES

Este verano de investigación resultó sumamente beneficioso para mi desarrollo tanto como estudiante como individuo. Los conocimientos adquiridos no se limitaron únicamente al ámbito teórico, sino que también influyeron en el desarrollo de mis habilidades interpersonales y en un mayor entendimiento de mi propia persona. Estos aprendizajes no solo serán de gran valor para futuros proyectos de investigación, sino que también servirán como una una guía en dirección a mis intereses y a mi constante evolución personal. Este período me proporcionó una nueva perspectiva sobre mi crecimiento personal y me dio enfoques diversos para abordar problemas y llevar a cabo investigaciones de manera adecuada y profesional.
Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN


APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN

López Solís Osvaldo Jesus, Instituto Tecnológico Superior de Uruapan. Morales de Gante Jorman Aldrich, Universidad Politécnica de Tecámac. Ponce Reyes Andrea Gpe, Instituto Tecnológico Superior de Uruapan. Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Rubio Solis Carlos Alberto, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la aplicación surgió a partir de encontrar que hoy en dia en distinguidas tiendas de aplicaciones móviles no existen tantas alternativas para la fomentación del aprendizaje por lo cual partimos de una propuesta inicial la cual fue desarrollar una aplicación de preguntas donde se haga esta fomentación del aprendizaje mediante multiples preguntas de todo tipo de áreas(Matemáticas,Filosofía,Literatura,etc.)Esto nos recordó al famoso juego preguntados, donde tomando como principal dicho juego añadimos que los usuarios tengan que registrarse para poder acceder a la aplicación.



METODOLOGÍA

Jor de Gante, [28/07/23 9:20 P.M.] Para este proyecto notamos que sería necesario la utilización de una metodología donde no se pierda tanto tiempo ya que no contamos con una gran cantidad de este para el desarrollo de nuestra aplicación  por lo cual la Metodología de prototipado resultó la más convenienteya que está se adecuada a nuestras necesidades. Comunicación: La comunicación para esta metodología es sumamente necesaria por lo cual nuestro equipo de trabajo desde el primer dia presentó este apartado por lo cual resultó sencillo poder dividirnos el trabajo además de la solidaridad y el trabajo en equipo resultaron factores beneficiosos para todos. Plan rápido: La aplicación surgió apartir de una idea del profesor donde todos los compañeros ayudamos a reforzar dicha idea y sacamos el proyecto adelante, partiendo de referencias o bases al igual que estudiar el mercado para poder hacer una aplicación que realmente atraiga a futuros usuarios. Modelado diseño rápido: Para el modelado utilizamos imagenes de referencias donde todos ibamos a desarrollar el mismo proyecto pero en cuanto a diseño era a criterio propio por lo cual nos apoyamos de igual forma del software figma para desarrollar los mockups para una vez todos estuvieramos deacuerdo comenzariamos a trabajar con el SDK de Flutter.Este paso resultó el más interesante puesto que cada uno de nosotros dejamos ir nuestra imaginación para los mockups. Construcción del prototipado: Para este paso tuvimos que aprender los fundamentos de flutter , desde su instalación,complementos,actualizaciones,etc. donde resultó un poco mayor el nivel de complejidad puesto que la mayoría no tenía un amplio conocimineto de esta tecnología sin embargo el apoyo de los compañeros fue el principal factor para que todos vallamos de la mano . Desarrollo y entrega: En este apartado el profesor nos dio a conocer distintas  herramientas que en este y en muchos más proyectos nos serán de gran utilidad para la reducción de tiempos,costos,complejidad,etc como lo son complementos de flutter,firebase,etc.Llegando a este punto resultó muy interesante el tema de una base de datos en tiempo real, además de aprender bastante de la tecnología flutter. Con forme avanzamos la aplicación iba tomando forma,estructura y resultó muy atractiva para todos.


CONCLUSIONES

Gracias al trabajo en equipo la autoretroalimentación y enseñanza de el profesor logramos obtener el exito mediante la aplicación de manera ágil y efectiva dando como resultado una aplicación multiplataforma util,atractiva y sobre todo facil de usar de igual forma conseguimos implementar la base de datos en tiempo real donde esta resultó sumamente beneficiosa para el desarrollo del proyecto.
Rosas Padilla Carolina, Universidad Politécnica de Atlautla
Asesor: Dr. Pablo Velarde Alvarado, Universidad Autónoma de Nayarit

DETECCIóN DE BOTNETS MEDIANTE TéCNICAS DE APRENDIZAJE AUTOMáTICO


DETECCIóN DE BOTNETS MEDIANTE TéCNICAS DE APRENDIZAJE AUTOMáTICO

Estrada Zavala Ruth, Universidad Politécnica de Atlautla. Rosas Padilla Carolina, Universidad Politécnica de Atlautla. Asesor: Dr. Pablo Velarde Alvarado, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Las Botnets son redes de computadoras comprometidas y controladas por ciberdelincuentes para llevar a cabo actividades maliciosas, como ataques DDoS, robo de información o distribución de malware. Estas redes generalmente consisten en dispositivos infectados, conocidos como "bots" o "zombies", que operan de manera coordinada bajo el control del operador de la Botnet sin el conocimiento de los usuarios afectados. La detección de Botnets implica el monitoreo y análisis de patrones de tráfico de red, comportamientos anómalos de dispositivos y actividades sospechosas en sistemas. Se utilizan técnicas como análisis de firmas, aprendizaje automático y detección de anomalías para identificar y mitigar la presencia de estas redes de computadoras comprometidas y controladas por ciberdelincuentes. El análisis de firmas se basa en identificar patrones específicos y características únicas asociadas con Botnets conocidas. Estas firmas son comparadas con el tráfico de red en busca de coincidencias, lo que permite detectar la presencia de una Botnet conocida. El aprendizaje automático se emplea para entrenar modelos con datos de tráfico de red histórico etiquetado como Botnet o no Botnet. El modelo aprende a reconocer patrones y características asociadas a Botnets. Luego, se utiliza para clasificar nuevos datos y detectar posibles Botnets desconocidas basadas en similitudes con el comportamiento aprendido. La detección de anomalías busca comportamientos inusuales y desviaciones de patrones normales en el tráfico de red. Las Botnets a menudo generan patrones de tráfico diferentes a los usuarios legítimos, lo que permite detectar actividades sospechosas y posibles Botnets.



METODOLOGÍA

La detección de botnets con técnicas de aprendizaje automático es una de las estrategias más efectivas y utilizadas en la actualidad debido a su capacidad para analizar grandes volúmenes de datos y aprender patrones complejos. Algunos métodos comunes son clasificación con regresión logística, SVM, Random Forest o Redes Neuronales. Para el caso se utilizo el método de clasificación con regresión logística que consiste en modelar la relación entre una variable dependiente categórica binaria como "sí" o "no", "verdadero" o "falso", etc. Y una o más variables independientes (características). Utiliza la función logística (también conocida como función sigmoide) para estimar la probabilidad de que una observación pertenezca a una de las dos clases. El proceso de regresión logística implica los siguientes pasos: Asignación de valores: Se asignan valores numéricos a las variables categóricas (por ejemplo, 0 y 1) para que puedan ser utilizadas en el algoritmo. Construcción del modelo: Se ajusta una función logística a los datos de entrenamiento para encontrar los coeficientes que mejor se ajusten al modelo. Cálculo de la probabilidad: Se utiliza la función logística para calcular la probabilidad de que una observación pertenezca a una clase particular. Umbral de decisión: Se define un umbral (generalmente 0.5) para clasificar las probabilidades calculadas en una de las dos clases. Predicción: Se realiza la predicción, asignando a cada observación la clase correspondiente según el umbral de decisión. La regresión logística, como algoritmo de aprendizaje supervisado, no tiene métodos específicos incorporados para la selección de características. Sin embargo, se pueden aplicar técnicas de selección de características independientes a los datos antes de utilizar la regresión logística. Algunos de los métodos comunes de selección de características que se pueden utilizar junto con la regresión logística son: Métodos basados en filtros: Estos métodos, como la prueba F o la correlación, evalúan la relevancia de cada característica individualmente y clasifican las características según su capacidad para discriminar entre las clases. Métodos de envoltura: Se pueden utilizar técnicas de envoltura, como la selección hacia adelante o la selección hacia atrás, para evaluar diferentes subconjuntos de características y seleccionar el mejor conjunto en función del rendimiento del modelo de regresión logística. Regularización L1 (Lasso): La regresión logística con regularización L1 puede ayudar a seleccionar automáticamente características importantes, ya que la regularización penaliza los coeficientes menos relevantes, reduciendo su impacto en el modelo. Selección de características basada en importancia: Después de ajustar la regresión logística al conjunto de datos, se pueden evaluar los coeficientes de las características para identificar aquellas con mayor importancia en el modelo.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos sobre las técnicas de aprendizaje automático para la detección de botnets, en especifico el método con regresión logística, centrando en la selección de características en la cual se aplico el método basado en filtros, método de envoltura y los métodos embebidos, para hacer una comparativa del comportamiento del modelo. Se logró la obtención correcta de los resultados de cada modelo en una forma austera.
Rosas Reyes Sergio Alan, Instituto Tecnológico de Morelia
Asesor: Mg. Jorge Mario Garzón González, Universidad Católica de Oriente

SISTEMA DE MONITOREO DE VARIABLES AMBIENTALES PARA UN CULTIVO AEROPÓNICO HACIENDO USO DE TECNOLOGÍAS WSN


SISTEMA DE MONITOREO DE VARIABLES AMBIENTALES PARA UN CULTIVO AEROPÓNICO HACIENDO USO DE TECNOLOGÍAS WSN

Rosas Reyes Sergio Alan, Instituto Tecnológico de Morelia. Asesor: Mg. Jorge Mario Garzón González, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

En Colombia se tienen 40 millones de hectáreas cultivables y solo 6 millones se encuentran en uso. Actualmente, solo el 31% del sector agro usa tecnología para actividades de asistencia técnica o producción, por ende, las nuevas tecnologías que existen no se están aprovechando como deberían para mejorar la calidad y producción de los cultivos. Estudios internacionales han mostrado que el uso de tecnología en producciones agrícolas puede generar entre 30% y 45% de rentabilidad respecto a las cosechas más tradicionales. Por ello, es fundamental que el sector agrícola aproveche cada vez más las nuevas herramientas tecnológicas, como la inteligencia artificial, la robótica y el internet de las cosas, entre otras, para asegurar una gestión integrada y altamente eficiente de sus modelos productivos.



METODOLOGÍA

Para realizar los prototipos de los dispositivos se utilizó el microcontrolador NODEMCU ESP32, este microcontrolador se puede programar en 3 entornos de programación diferentes como lo son en Arduino, MicroPython y en C, en este caso se eligió mediante el lenguaje C, también se utilizó un sensor de temperatura y humedad ambiental AM2315C y un sensor de luminosidad ambiental BH1750FVI, los cuales se comunicaron de forma alámbrica mediante el protocolo de comunicación I2C. El protocolo de comunicación I2C es un protocolo Maestro/Esclavo que nos permite mantener comunicación serial mediante 2 hilos, SDA (Serial Data) es la línea por la que se transmite la señal de datos y SCL (Serial Clock) es la línea por donde se transmite la señal de reloj del sistema y se utiliza para sincronizar la transferencia de datos a través del bus. Con esta comunicación podemos mantener comunicación entre uno o más periféricos, ya que cada periférico que se comunica por I2C tiene su propia dirección de esclavo y con esto podemos acceder a cada uno de ellos en cualquier momento que lo necesitemos. Una vez que se pudieron obtener las mediciones de dichas variables, se utilizó el protocolo de comunicación inalámbrica MQTT para enviar datos y poderlos visualizar mediante una plataforma web, este tipo de protocolo es muy utilizado en Internet de las cosas (IoT) para enviar paquete de datos de reducido tamaño mediante Internet. Para enviar los datos fue necesario instalar un bróker llamado Mosquitto el cual nos permite suscribirnos a uno o varios tópicos, que son los que reciben los datos enviados desde el ESP32 y mediante programación en Python se mandaron a la plataforma en UBIDOTS para visualizarlas gráficamente.


CONCLUSIONES

Al realizar estos dispositivos, se han adquirido y fortalecido los conocimientos con respecto a las tecnologías IoT y a los cultivos aeropónicos, se logró obtener las mediciones de las variables correctamente, y se espera que futuramente con los datos obtenidos sean utilizados para tener un control de las mismas en el cultivo aeropónico de arándanos, ya que estas juegan un papel importante para su correcto crecimiento aprovechando al máximo las tecnologías que existen en la actualidad.
Rubio Solis Carlos Alberto, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN


APLICACIóN MóVIL MULTIPLATAFORMA: PREGUNTóN

López Solís Osvaldo Jesus, Instituto Tecnológico Superior de Uruapan. Morales de Gante Jorman Aldrich, Universidad Politécnica de Tecámac. Ponce Reyes Andrea Gpe, Instituto Tecnológico Superior de Uruapan. Rocha Salgado Fernando Ivan, Instituto Tecnológico Superior de Uruapan. Romero Sánchez José Francisco, Instituto Tecnológico Superior de Uruapan. Rosas Ibarra Ricardo, Instituto Tecnológico Superior de Uruapan. Rubio Solis Carlos Alberto, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de la aplicación surgió a partir de encontrar que hoy en dia en distinguidas tiendas de aplicaciones móviles no existen tantas alternativas para la fomentación del aprendizaje por lo cual partimos de una propuesta inicial la cual fue desarrollar una aplicación de preguntas donde se haga esta fomentación del aprendizaje mediante multiples preguntas de todo tipo de áreas(Matemáticas,Filosofía,Literatura,etc.)Esto nos recordó al famoso juego preguntados, donde tomando como principal dicho juego añadimos que los usuarios tengan que registrarse para poder acceder a la aplicación.



METODOLOGÍA

Jor de Gante, [28/07/23 9:20 P.M.] Para este proyecto notamos que sería necesario la utilización de una metodología donde no se pierda tanto tiempo ya que no contamos con una gran cantidad de este para el desarrollo de nuestra aplicación  por lo cual la Metodología de prototipado resultó la más convenienteya que está se adecuada a nuestras necesidades. Comunicación: La comunicación para esta metodología es sumamente necesaria por lo cual nuestro equipo de trabajo desde el primer dia presentó este apartado por lo cual resultó sencillo poder dividirnos el trabajo además de la solidaridad y el trabajo en equipo resultaron factores beneficiosos para todos. Plan rápido: La aplicación surgió apartir de una idea del profesor donde todos los compañeros ayudamos a reforzar dicha idea y sacamos el proyecto adelante, partiendo de referencias o bases al igual que estudiar el mercado para poder hacer una aplicación que realmente atraiga a futuros usuarios. Modelado diseño rápido: Para el modelado utilizamos imagenes de referencias donde todos ibamos a desarrollar el mismo proyecto pero en cuanto a diseño era a criterio propio por lo cual nos apoyamos de igual forma del software figma para desarrollar los mockups para una vez todos estuvieramos deacuerdo comenzariamos a trabajar con el SDK de Flutter.Este paso resultó el más interesante puesto que cada uno de nosotros dejamos ir nuestra imaginación para los mockups. Construcción del prototipado: Para este paso tuvimos que aprender los fundamentos de flutter , desde su instalación,complementos,actualizaciones,etc. donde resultó un poco mayor el nivel de complejidad puesto que la mayoría no tenía un amplio conocimineto de esta tecnología sin embargo el apoyo de los compañeros fue el principal factor para que todos vallamos de la mano . Desarrollo y entrega: En este apartado el profesor nos dio a conocer distintas  herramientas que en este y en muchos más proyectos nos serán de gran utilidad para la reducción de tiempos,costos,complejidad,etc como lo son complementos de flutter,firebase,etc.Llegando a este punto resultó muy interesante el tema de una base de datos en tiempo real, además de aprender bastante de la tecnología flutter. Con forme avanzamos la aplicación iba tomando forma,estructura y resultó muy atractiva para todos.


CONCLUSIONES

Gracias al trabajo en equipo la autoretroalimentación y enseñanza de el profesor logramos obtener el exito mediante la aplicación de manera ágil y efectiva dando como resultado una aplicación multiplataforma util,atractiva y sobre todo facil de usar de igual forma conseguimos implementar la base de datos en tiempo real donde esta resultó sumamente beneficiosa para el desarrollo del proyecto.
Rubio Vazquez Aletza, Universidad Autónoma de Baja California
Asesor: Dr. Arturo Abúndez Abúndez, Centro Nacional de Investigación y Desarrollo Tecnológico

DISEñO Y CARACTERIZACIóN MECáNICA DE MATERIALES COMPUESTOS


DISEñO Y CARACTERIZACIóN MECáNICA DE MATERIALES COMPUESTOS

Bojorquez Romero Alehisa Poleb, Universidad Autónoma de Baja California. Cruz Cervantes Cid Manuel, Instituto Politécnico Nacional. Roldán Leyva Juan Jesús, Instituto Tecnológico de Hermosillo. Rubio Vazquez Aletza, Universidad Autónoma de Baja California. Asesor: Dr. Arturo Abúndez Abúndez, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la alta demanda de materiales ligeros y de calidad, así como la creciente crisis ambiental ha traído consigo la búsqueda de nuevos materiales, siendo los materiales compuestos híbridos una alternativa viable para dar solución a esta necesidad, estos juegan un papel muy importante debido a que poseen alta resistencia y rigidez, además, de baja densidad. En relación con los compuestos híbridos, se encuentran los reforzados con fibra de carbono (CFRP) y de vidrio (PRF), estos ampliamente utilizados en aviones, palas de aerogeneradores, construcción y autopartes. Debido a sus propiedades individuales que ambas fibras se complementan, en primera instancia la fibra de vidrio ofrece elasticidad y solidez, en contraparte la fibra de carbono es flexible, ligera y además ofrece alta resistencia. Ahora bien, el presente trabajo tiene como objetivos evaluar el efecto de la orientación de las fibras en las propiedades mecánicas a tensión de materiales compuestos híbridos CFRP y PRF, a través del análisis teórico- experimental.



METODOLOGÍA

Fabricación de laminados (2,4,6 capas de carbono). A continuación se describe el procedimiento seguido para la fabricación de los laminados, los cuales corresponden a la siguiente configuración: [±45/02]s [±45/04]s [±45/06]s El método de fabricación de los laminados por hand lay-up consiste en lo siguiente: Preparación del molde: Limpieza y eliminación de residuos en el molde de vidrio. Preparación de fibras: Corte y organización de fibras para el laminado. Mezcla de resina: Proporción 100/30 de resina-catalizador, considerando tiempo de trabajo. Aplicación capas: Resina, Peel ply, fibras en secuencia [±45, 0n]S, impregnación y alisado. Embolsado y compactación: Bolsa de vacío, caul plate, mangueras y sellado. Curado: Tres días a temperatura ambiente para endurecer la resina. Desmoldeo y acabado: Retiro, eliminación de Peel ply y excesos de resina. Fabricación de las probetas. Siguiendo la norma ASTM D3039, se fabricaron probetas de laminados con dimensiones 130x13x0.13 mm, cortadas en una fresadora G0704. Ajustes se realizaron con movimientos longitudinales y transversales. Tras elaborar los moldes, se lijaron las probetas con papel abrasivo y limas planas, usando un vernier digital para controlar medidas y evitar daños. Este proceso garantizó precisiones y evitó deformaciones. Caracterización de probetas. Una vez elaboradas y rectificadas las probetas según la norma ASTM D3039M, se procedió a su caracterización, mediante una máquina de ensayos marca Shimadzu modelo AG-X plus con una capacidad máxima de carga de 100kN. A continuación, se describe el procedimiento de ensayo de una probeta con el fin de ejemplificar el procedimiento llevado a cabo con el resto de estas. Primero, se identificó y etiqueto la probeta, ingresando esta información al software. Luego, se ajustó la máquina y se introdujo la probeta, asegurando el empalme con las líneas centrales. Se monta el extensómetro y se configura el software. Tras la inicialización del ensayo, la máquina tensionaba la probeta mientras el software registraba datos y generaba un diagrama esfuerzo-deformación. Se detenía manualmente cuando se alcanzaba el esfuerzo máximo. Luego se desmontaba el extensómetro y la probeta con precaución. Los datos se guardaban y se repitieron los pasos para cada probeta. Resultados. Se reportaron resultados de tres laminados con diferentes configuraciones de capas de fibra de carbono y vidrio. Para el laminado de 4 capas, se ensayaron 9 probetas, 7 mostraron ruptura dentro de la sección establecida. Similarmente, para el laminado de 6 y 10 capas, se ensayaron 7 y 8 probetas, respectivamente, con 5 de cada uno mostrando ruptura dentro del área designada. Se obtuvo un gráfico de esfuerzo contra deformación promediando el comportamiento de cada lote de probetas ensayadas de los tres laminados, el cual evidencia la influencia del número de capas de carbono en el comportamiento del material. Se obtuvieron datos suficientes para evaluar y se les atribuyeron a las probetas ensayadas que no cumplieron el requisito de norma, problemas en el agarre y/o problemas de funcionamiento de la máquina o montaje del extensómetro, reafirmando la validez de los datos obtenidos en la preparación de placas y ensayos de probetas.  


CONCLUSIONES

  Los resultados obtenidos de las pruebas de tracción demostraron la adecuada cantidad del peel ply y su orientación utilizada, ya que las pruebas fueron válidas y se mantuvieron dentro de los límites establecidos. El diagrama esfuerzo-deformación revelo un comportamiento pseudo dúctil en los laminados con 6 y 4 capas de carbono al centro, donde se observó una meseta de esfuerzos y una falla gradual en cada probeta, siendo las capas de carbono las primeras en dañarse. El objetivo de evaluar el efecto de la orientación de las fibras en las propiedades mecánicas del material compuesto híbrido se cumplió exitosamente mediante un análisis teórico-experimental. Estos materiales compuestos encuentran aplicaciones amplias y diversas en diversas industrias gracias a sus propiedades únicas, como alta resistencia y bajo peso, junto con su durabilidad. La investigación de alternativas sostenibles para producir estos compuestos conlleva un ahorro significativo de energía y recursos. La implementación de compuestos híbridos es relevante debido a su versatilidad, destacado desempeño mecánico, durabilidad y favorable relación resistencia-peso. Esta línea de investigación muestra un potencial significativo para el avance tecnológico en diversas industrias, desde la aeroespacial y automotriz, hasta la energética e infraestructuras. En conclusión, el estudio de materiales compuestos juega un papel esencial en el progreso industrial y tecnológico, abriendo un mundo de posibilidades para aplicaciones innovadoras y sostenibles.  
Rugerio Sánchez Alejandra Abigail, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Florentina Zurita Martínez, Universidad de Guadalajara

TRATAMIENTO DE VINAZAS TEQUILERAS MEDIANTE HUMEDALES CONSTRUIDOS


TRATAMIENTO DE VINAZAS TEQUILERAS MEDIANTE HUMEDALES CONSTRUIDOS

Arriaga Bueno María Guadalupe, Tecnológico de Estudios Superiores de Jocotitlán. Clemente Jimenez Fernanda, Tecnológico de Estudios Superiores de Jocotitlán. Rugerio Sánchez Alejandra Abigail, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Florentina Zurita Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA Jalisco es el principal productor de Tequila en México, sin embargo, cada día que se produce Tequila al mismo tiempo se genera Vinaza. ¿Cuál es el problema con la vinaza? La vinaza es un residuo generado en la destilación del Tequila añadiendo que por cada litro de tequila se generan de 12 a 15 litros de Vinaza a una temperatura de 90 ⁰C, un pH de 4, se caracteriza por ser de un color cafe oscuro, tener mucha materia órganica, es decir que su DQO y la DBO son demasiado altas y que lamentablemente  es vertida en ríos o cerros ocasionando un impacto negativo en el ambiente contaminando el suelo y cuerpos de agua.  Por lo tanto esta investigación se dedica a hallaer una manera de reducir este impacto implementando una técnologia de control de la contaminación de la vinazas tequileras y con el objetivo de reutilizar el agua ya tratada.



METODOLOGÍA

HUMEDALES CARGA DE VINAZA A TANQUES DE ALMACENAMIENTO La vinaza es transportada desde una tequilera hasta los humedales, en donde se tiene preparado un tanque de almacenamiento para pasar la vinaza que llega a un tanque de almacenamiento más grande que corresponde a 5000 L. La vinaza antes de llegar al CVS que corresponde a un tanque de almacenamiento pasa por otros dos los cuales ayudan a que los sólidos se sedimenten correspondiendo a una etapa se pretratamiento antes del ingreso a los humedales. NEUTRALIZACIÓN DE VINAZA Cuando el CVS se llena de vinaza, debido a sus propiedades es neutralizada por medio de hidróxido de calcio en la cual se deberá diluir primero en agua y posteriormente vaciar en el CVS monitoreando el pH por medio de un sensor. RELLENO DEL CI De manera para mantener el almacenamiento de vinaza apropiado este proceso se hace cada 9 días, por lo que asegura que la alimentación a los humedales no se agote. CALIBRACIÓN DE BOMBAS PERISTÁLTICAS Para tener un buen funcionamiento en los humedales y tener controlado las entradas y salidas del flujo es de gran importancia que las bombas trabajen bien. La calibración de las bombas es fundamental ya que nos permiten garantizar la precisión de los caudales. MEDICIÓN DE CLOROFILA Para evaluar el estado de la planta que están en los humedales se mide la clorofila mediante un equipo que arroja directamente su valor, cuando se mide se deberá tomar la clorofila aproximadamente 10 veces en hojas de las plantas y presionamos el botón average y procedemos a leer el dato. El cual nos permite evaluar la sobrevivencia de la planta. PARAMETROS AMBIENTALES Se cuenta con un monitoreo ambiental que corresponde a la medición de luz, humedad Relativa y la temperatura ambiental. La cual sirve para saber las condiciones en las que trabajan los humedales. MEDICIÓN DE CAUDALES Se realiza una medición de caudales en los humedales para balances de materia en el H1, H2 con un caudal aproximadamente de 10 litros de cada uno por cubeta en un día y su respectivo caudal se regresa a una deposito que alimenta los humedales V1, V2 teniendo un caudal de 5 litros de cada uno para el regado de plantas en análisis, esto se realiza todos los días en un horario de 10:00 am. PARAMETROS IN SITU De manera en la que se puedan monitorear los humedales, se mide semanalmente el pH, conductividad, Oxígeno Disuelto (OD) y Potencial de óxido reducción (ORP). ORP Los sensores de potencial de reducción de la oxidación (ORP/Redox) o redox mide la capacidad de una solución de mezclas de vinaza para actuar como agente oxidante o reductor. OD El oxígeno disuelto (OD) es necesario para la respiración de los microorganismos aerobios y anaerobios, así como para otras formas de vida aerobia. pH Se monitorea el pH para tener un mejor control con el influente debido a que los humedales y en especial los microorganismos. Conductividad Nos permite conocer la dureza del agua, el total de iones lo cual nos da una idea de la purificación del agua. ANÁLISIS Para evaluar el funcionamiento y comprobar su efectividad es necesario realizar ciertos analisis que nos apoyaran a saber la diferencia y comprobar si se lleva acabo exitosamente el tratamiento de la vinaza. DETERMINACIÓN DEL COLOR APARENTE DETERMINACIÓN DE NITRATOS DETERMINACIÓN DE NITRITOS DQO DBO5 COLOR VERDADERO SOLIDOS SUSPENDIDOS TOTALES Y SOLIDOS DISUELTOS TOTALES FOSFORO TOTAL NITRÓGENO KJELDAHL FENOLES  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos prácticos del tratamiento de vinazas tequileras mediante humedales construidos, así mismo se aprendió de técnicas para caracterizar la vinaza y los efluentes obtenidos de los humedales. Sin embargo, al ser un proyecto de investigación y que busca recolectar datos para asemejarse a la realidad aún se está evaluando y se espera que este proyecto sirva de apoyo para el Consejo Regulador de Tequila (CRT). Aunque, de acuerdo con los resultados obtenidos en los análisis ya antes mencionados, podemos concluir que el humedal cumple con la función de tratar la vinaza cruda, puesto que da resultados demasiado exitosos comparando la DQO y DBO del influente y efluente obteniendo una remoción mayor del 95%. Así mismo, con ayuda de la experimentación de las plantas nos da una alternativa de uso de esta agua tratada.
Ruiz Avila Mary Carmen, Instituto Tecnológico de Toluca
Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana

MODELO DINáMICO DE AGRICULTURA DE PRECISIóN PARA VEGETALES CULTIVADOS BAJO TECHO


MODELO DINáMICO DE AGRICULTURA DE PRECISIóN PARA VEGETALES CULTIVADOS BAJO TECHO

Ruiz Avila Mary Carmen, Instituto Tecnológico de Toluca. Solórzano Magallanes Adriana, Instituto Tecnológico de Tepic. Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

El modelo dinámico de agricultura de precisión para vegetales cultivados bajo techo es un sistema de control que funciona mediante un modelo matemático. El modelo se aplica en este caso, en un invernadero geodésico, con estructura de cúpula ubicua, diseñado con el objetivo de supervisar y gestionar la temperatura la iluminación, el riego, la humedad relativa, el control del agua y otras variables de importancia para el cultivo, utilizando tecnologías de monitoreo y control avanzadas. El invernadero emplea sensores y dispositivos especializados para recolectar información acerca de las variables dentro del ambiente, estos datos son transmitidos posteriormente a un sistema de adquisición de datos, donde son analizados y empleados para tomar decisiones relacionadas con las condiciones ambientales del entorno. Asimismo, este sistema permite predecir y comprender el comportamiento de los cultivos en diversos escenarios ambientales y condiciones de manejo, a través del estudio de las interacciones entre las variables identificadas. 



METODOLOGÍA

Se elaboró un resumen ejecutivo donde se hizo una introducción sobre el proyecto, determinó la TRL de la creación, se identificaron las actividades a realizar y se hicieron las conclusiones sobre cómo escalar el proyecto para que sea viable para la institución; después se hizo el informe de evaluación del entorno, donde se hizo una investigación sobre la situación actual de la agricultura urbana inteligente en colombia, se identificaron los competidores, posibles clientes y la normatividad de los invernaderos en el país, y por último se realizó un informe de vigilancia tecnológica, donde se elaboraron palabras claves, ecuaciones de búsqueda y la identifición y valoración de patentes relacionadas con la creación.


CONCLUSIONES

1. La zanahoria es uno de los vegetales más vendidos en Colombia; resulta un cultivo útil en invernadero porque extiende su temporada de crecimiento y disminuye significativamente las pérdidas. 2. La zanahoria Royal Chantenay, al ser un vegetal ampliamente producido en Colombia, podría beneficiar significativamente a los agricultores locales al implementar soluciones de agricultura urbana inteligente. La tecnología de creación podría mejorar la eficiencia de cultivo, optimizar el uso de recursos y aumentar la productividad, lo que contribuiría a fortalecer la seguridad alimentaria en el país y reducir la dependencia de importaciones. 3. La agricultura urbana inteligente es un área poco explorada, en la actualidad Colombia no cuenta con un registro de cuántas personas la llevan a cabo por ser una práctica relativamente nueva además de ser una actividad realizada a pequeña escala, esto supone un reto pero a la vez una oportunidad de negocio por ser una propuesta innovadora. 4. La creación de soluciones tecnológicas para agricultura urbana también podría generar impactos positivos en la sostenibilidad ambiental. Al promover métodos de cultivo más eficientes y reducir el uso de productos químicos, se podría reducir el impacto ambiental negativo asociado con la agricultura convencional. Además, al fomentar la producción local de alimentos, se podría disminuir la huella de carbono asociada al transporte de alimentos desde regiones distantes, contribuyendo así a la lucha contra el cambio climático. 5. La creación impulsa la innovación y el desarrollo de capacidades en el sector agrícola de Colombia. La adopción de tecnologías inteligentes y el enfoque en la agricultura urbana pueden fomentar la formación de talento local en áreas relacionadas con la agricultura de precisión, la robótica agrícola y la gestión de datos, lo que a su vez podría generar oportunidades de empleo y contribuir al crecimiento económico del país. 6. La creación podría promover la inclusión social al facilitar el acceso a la producción de alimentos frescos y saludables en áreas urbanas desfavorecidas o con acceso limitado a productos agrícolas de calidad. La tecnología podría ser adaptada para su uso en espacios reducidos, como jardines verticales o huertos urbanos comunitarios, lograr que comunidades locales participen activamente en la producción de alimentos y mejoren su calidad de vida a través de una mayor autonomía alimentaria. 
Ruiz Martinez Osmar Yael, Instituto Tecnológico Superior de Huauchinango
Asesor: Dra. Valentina Hernandez Piedrahita, Servicio Nacional de Aprendizaje SENA - Regional Caldas

BOQUILLA DE MáQUINA EXTRUSORA DE PLáSTICO


BOQUILLA DE MáQUINA EXTRUSORA DE PLáSTICO

Ruiz Martinez Osmar Yael, Instituto Tecnológico Superior de Huauchinango. Asesor: Dra. Valentina Hernandez Piedrahita, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

La extrusión de plástico es un proceso ampliamente utilizado en la industria para fabricar una gran variedad de productos, desde envases hasta componentes industriales. La boquilla de la máquina extrusora es un componente crítico en este proceso, ya que determina la forma y tamaño del producto final. Sin embargo, debido a la complejidad del flujo del material y a las altas temperaturas involucradas en el proceso, la boquilla puede enfrentar varios desafíos que afectan la calidad del producto y la eficiencia de producción. Algunos de los problemas comunes que se pueden presentar en la boquilla de la máquina extrusora de plástico son los siguientes: Desgaste y obstrucciones: La boquilla está sometida a altas presiones y temperaturas durante la extrusión, lo que puede provocar desgaste y la formación de obstrucciones, afectando la uniformidad del flujo del plástico y generando productos con defectos o de calidad inferior. Variabilidad dimensional: La boquilla puede experimentar cambios dimensionales debido a las fluctuaciones de temperatura y presión, lo que puede llevar a producir productos con tamaños no deseados o fuera de especificación. Pérdida de material: Fugas o salidas no deseadas de material de la boquilla pueden resultar en desperdicio de plástico, lo que aumenta los costos de producción y afecta la sostenibilidad del proceso. Eficiencia térmica: La transferencia de calor dentro de la boquilla puede no ser óptima, lo que afecta la homogeneidad del material extruido y puede requerir un mayor consumo de energía para alcanzar la temperatura adecuada.



METODOLOGÍA

Una extrusora de plastico funciona mediante la alimentación de un material plastico en un extremo de la máquina a través de una tolva. El material se mueve a lo largo de un tornillo sin fin que está dentro del cilindro de la extrusora, y se somete a temperaturas y presiones controladas. El tornillo sin fin se mueve hacia adelante y hacia atrás dentro del cilindro para fundir el material y forzarlo a través de una boquilla que define la forma final del producto. A medida que el material se enfría, se solidifica y adquiere su forma final. Es importante que el material plástico utilizado sea compatible con el diseño y la capacidad de la extrusora para asegurar un proceso de producción exitoso. El objetivo principal es optimizar el diseño y funcionamiento de la boquilla de la máquina extrusora de plástico para superar los problemas mencionados y lograr los siguientes resultados: Mejorar la calidad del producto final: Reducir defectos y asegurar que el plástico extruido cumpla con las especificaciones requeridas. Incrementar la eficiencia del proceso: Minimizar el desperdicio de material y reducir los costos de producción asociados. Establecer condiciones de operación más estables: Reducir la variabilidad dimensional de la boquilla y mantener un flujo de material uniforme. Aumentar la eficiencia térmica: Mejorar la transferencia de calor dentro de la boquilla para reducir el consumo energético y lograr una extrusión más homogénea.


CONCLUSIONES

Una boquilla para una maquina extrusora de plástico es un componente esencial que determina la forma y el tamaño del producto extruido. Después de analizar sus características y funciones, se llega a la siguiente conclusión: La elección y diseño adecuado de la boquilla son críticos para garantizar la eficiencia y calidad del proceso de extrusión de plástico. Una boquilla bien diseñada debe tener una geometría precisa y estar fabricada con materiales de alta resistencia al desgaste y a la temperatura, para asegurar una operación duradera u sin interrupciones. Algunos de los factores importantes a tener en cuenta al seleccionar una boquilla incluyen el tipo de plástico que se va a extruir el caudal requerido, el diámetro y la forma del producto final deseado. Además, las propiedades del plástico, como su viscosidad y temperatura de fusión, también afectara el rendimiento de la boquilla. Una boquilla bien diseñada debe proporcionar una distribución uniforme del material fundido, minimizando si la aparición de defectos en el producto final. También debe ser fácil de limpiar y mantener, lo que facilitara la operación y reducirá los tiempos de inactividad.
Ruiz Moreno Diego Iván, Instituto Tecnológico de Morelia
Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara

CREACIóN DE UN DASHBOARD PARA CONTROL DE SENSORES A TRAVéS DE LA NUBE UTILIZANDO RASPBERRYPI Y ESP32


CREACIóN DE UN DASHBOARD PARA CONTROL DE SENSORES A TRAVéS DE LA NUBE UTILIZANDO RASPBERRYPI Y ESP32

Ruiz Moreno Diego Iván, Instituto Tecnológico de Morelia. Yañez Rodriguez Santiago, Instituto Tecnológico de Morelia. Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el mundo de la tecnología, la conectividad y el acceso remoto son esenciales para controlar dispositivos de manera eficiente. Una solución innovadora y versátil para esto es crear un dashboard en la nube para el control de sensores. Para este proyecto, se utilizan herramientas de conexión como MQTT, especialmente adecuado para dispositivos con pocos recursos y ubicaciones remotas. Se emplean una Raspberry Pi y un ESP32 como núcleos centrales. La Raspberry Pi, una computadora de placa única, es asequible y altamente versátil, mientras que el ESP32 es un potente microcontrolador IoT con conectividad Wi-Fi y Bluetooth. Node-RED es la plataforma de programación visual elegida para integrar y visualizar los resultados. Su interfaz amigable facilita la creación de flujos de datos entre dispositivos y servicios conectados, ideal para proyectos de IoT.



METODOLOGÍA

Configuración de la Raspberry Pi En el marco de nuestro proyecto, utilizaremos la Raspberry Pi como el núcleo central de nuestro sistema. La Raspberry Pi será responsable de adquirir datos de sensores, procesar la información y comunicarse con la nube para permitir el acceso remoto y el control de los dispositivos conectados. Para comenzar a utilizarla se necesita la app Raspberry Pi Imager donde se usa una memoria SD como el boot del sistema operativo, ahí se selecciona el sistema a instalar, en este caso es Raspberry Pi OS Bullseye, una versión de Debian 11 optimizada para este tipo de dispositivos.   Configuración del ESP32 La tarjeta ESP32 entre muchas de sus ventajas se encuentra la posibilidad de ser programada a través del software Arduino IDE, solo fue necesario hacer algunas configuraciones de conectividad, en cuanto a la programacion se utilizan las librerías WiFi, PubSubClient y DHT. Se definen constantes para el pin del sensor y el tipo de sensor. Se inicializan objetos WiFiClient y PubSubClient, así como una variable para almacenar los datos. La función setup() configura la comunicación, la conexión WiFi y el cliente MQTT. La función loop() verifica y mantiene la conexión MQTT, lee la temperatura y humedad, publica los datos en el servidor y espera un segundo. La función reconnect() intenta conectar el cliente MQTT al servidor. La función setup_wifi() configura la conexión WiFi. La función callback() convierte el mensaje recibido en una cadena de caracteres. Se asume que hay un servidor MQTT en la dirección IP especificada y un tópico "canal". Si se usa un sensor diferente, ajustar la configuración del tipo de sensor y reemplazar la librería DHT.   Instalación de Node-RED Su instalación es sencilla ya que muchos de sus paquetes ya se encuentran instalados dentro de la configuración inicial como parte del software recomendado, solo se necesita ejecutar los comandos: sudo apt install build-essential git curl apt-get install nodered node-red-pi --max-old-space-size=256 Para correrlo localmente solo es necesario ejecutar en la consola el comando node-red donde se observa cómo se comienza a desplegar información acerca de la conectividad y servicios de los que se dispone dentro de la app y es detenido con las teclas Ctrl -C Una vez que Node-RED esté en funcionamiento, se puede acceder al editor de Node-RED abriendo un navegador web y navegando a http://localhost:1880. (localhost refiere a la dirección ip de la raspberry)   Flujo en Node-RED Una vez abierto Node-RED desde el Raspberry Pi solo queda la configuración que hará la recepción y visualización de los datos leídos por el sensor Nodos utilizados: MQTT IN El nodo MQTT In (entrada MQTT) en Node-RED se utiliza para recibir mensajes desde un broker MQTT y utilizar esos mensajes en el flujo de Node-RED Se debe agregar el broker del cual se recibirá la información, en este caso fue un broker genérico gratuito del cual su dirección es emqx.broker.io, conectado a través del puerto 1883. Además, el nodo debe estar suscrito a un tópico antes especificado en el código de ESP32, ya que deben ser iguales para establecer el intercambio de datos Function El nodo "Function" en Node-RED se utiliza para agregar código personalizado en JavaScript al flujo. Este nodo es extremadamente versátil y te permite realizar diversas operaciones y transformaciones de datos dentro de tu flujo. En este caso fue utilizado para crear una función que separe los valores de temperatura y humedad detectados por el sensor para ser analizados por separado gracias al siguiente código: msg.payload=msg.payload.split(,) msg.payload=msg.payload [0] return msg; Gracias a esta función, los valores serán separados donde se encuentre una coma y así podrán ser mostrados por separados en el panel de control final Gauge El nodo "gauge" en Node-RED Dashboard es un nodo incorporado proporcionado por el módulo Node-RED Dashboard. Permite crear y mostrar visualizaciones de medidores dentro de su panel de control de Node-RED. Node-RED Dashboard es un módulo opcional que proporciona un conjunto de nodos y una interfaz de usuario basada en web para crear paneles de control en tiempo real para visualizar y controlar datos Solo fue necesario editar el nombre y la escala de visualización de los datos, ya está optimizado para su visualización en tiempo real Despliegue del dashboard Para acceder al Node-RED Dashboard, abre el navegador web e ingresa a http://localhost:1880/ui. 


CONCLUSIONES

El proyecto de manejo a distancia de sensores con ESP32 y Node-RED ofrece una solución poderosa y versátil para monitorear y controlar dispositivos y datos en tiempo real. La combinación de ESP32 y Node-RED crea un sistema eficiente y flexible para la gestión de datos y la automatización. Aprovechamos las ventajas del ESP32, como su conectividad Wi-Fi y Bluetooth, para comunicarnos con diversos sensores y dispositivos, monitoreando parámetros ambientales como temperatura, humedad y movimiento. Node-RED se ha destacado como una valiosa herramienta para diseñar flujos de trabajo e interactuar con los datos de los sensores. Su interfaz visual intuitiva facilita la creación y modificación de flujos de manera rápida y sencilla, haciéndola accesible a usuarios de diferentes niveles de habilidad técnica.
Ruiz Ortiz Jose Angel, Universidad de Guadalajara
Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán

IMPLEMENTACIóN DEL SISTEMA DE GESTIóN DE LA CALIDAD BAJO LA NORMA ISO 9001:2018 EN LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN


IMPLEMENTACIóN DEL SISTEMA DE GESTIóN DE LA CALIDAD BAJO LA NORMA ISO 9001:2018 EN LA UNIVERSIDAD TECNOLóGICA DE TEHUACáN

Hernández Ramirez Daniela Yuvin, Instituto Politécnico Nacional. Ruiz Ortiz Jose Angel, Universidad de Guadalajara. Asesor: Mtro. Javier Hilario Reyes Cordova, Universidad Tecnológica de Tehuacán



PLANTEAMIENTO DEL PROBLEMA

La presente investigación, busca evidencia la importancia de los sistemas de gestión de la calidad de las instituciones educativas de nivel superior y su relevancia para la mejora de los procesos que se llevan a cabo dentro de la institución para mejorar las condiciones de los clientes internos y externos como una organización que busca la calidad educativa y formar profesionistas altamente competitivos.



METODOLOGÍA

La implementación de un sistema de gestión de la calidad permite mejorar los procesos que se llevan a cabo dentro de la institución y para poder medir la mejora de la misma se emplea la metodología de análisis de casos en lo buscamos demostrar las mejoras en la atención de los clientes tanto internos como externos y el impacto en las partes interesadas y el establecimiento de los indicadores que ayuden a llevar a cabo la mejora continua de los procesos a través de indicadores y seguimiento por parte de la dirección para la asignación y correcta aplicación de los recursos con los que cuenta la institución y analizar el impacto de la institución hacia el contexto en el que se desenvuelve.


CONCLUSIONES

La institución se encuentra en proceso de evaluación para poder lograr la certificación bajo la norma ISO 9011:2015 y así demostrar que se encuentra aplicando el proceso de mejora continua. La implementación de un sistema de gestión de calidad garantiza la mejora continua de los procesos llevados a cabo en las instituciones educativas de nivel superior, proporcionando una mejor estructura y control, enfocada en la satisfacción de las partes interesadas y a su vez la participación de estas.
Ruiz Vellamin Luis Gustavo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Mg. Cristhian Camilo Amariles López, Universidad Libre

CARACTERIZACIóN FíSICO-MECáNICAS DE CONCRETO DE EPS DILUIDO COMO MATERIAL AGLOMERANTE


CARACTERIZACIóN FíSICO-MECáNICAS DE CONCRETO DE EPS DILUIDO COMO MATERIAL AGLOMERANTE

Bernabe Hernández Anahi, Benemérita Universidad Autónoma de Puebla. Ruiz Vellamin Luis Gustavo, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Cristhian Camilo Amariles López, Universidad Libre



PLANTEAMIENTO DEL PROBLEMA

El cemento hidráulico es sin duda el material mas empleado en la industria de la construcción, debido a las propiedades y facilidades que presenta al momento de realizar una obra. Sin embargo, produce una contaminación importante al medio ambiente, es por ello que se piensa en alternativas para materiales de construcción. Reemplazar el cemento hidráulico reduce el alto nivel de la huella de carbono, así como gases de efecto invernadero generados por alto consumo de energía en el proceso de fabricación. Desde hace algunos años, el poliestireno expandido ha estado involucrado en las edificaciones, ya que este muestra ahorros de tiempo por su fácil instalación, así como ahorros económicos. La finalidad del proyecto, es crear un nuevo material de construcción que sea amigable con el medio ambiente, es por ello que se reutilizará EPS que haya cumplido con su función principal, el material constará de arena y EPS diluido como material aglomerante. El material creado será sometido a una serie de pruebas, en donde se determinarán sus parámetros físico-mecánicas, de modo que se puedan generar diferentes alternativas de uso para un material de desecho altamente contaminante.



METODOLOGÍA

La investigación consta de 5 fases: Fase 1: Control de calidad de la arena En esta fase se determinó la granulometría, el contenido de materia orgánica, la gravedad especifica y equivalente de arena. Fase 2: Fabricación de muestras Se fabricaron muestras cilíndricas con dimensiones de 5 cm de diámetro y 10 cm de altura, compactándolos a fuerzas que van desde los 15 kN hasta los 50 kN con intervalos de 5 kN de diferencia entre una y otra. Fase 3: Ensayos no destructivos Se determinaron las densidades de las muestras, las masas evaporadas del solvente, absorción de agua y velocidad del pulso ultrasónico. Fase 4: Ensayos destructivos Se realizaron ensayos de resistencia a compresión, en donde a partir de ella se determinará el límite elástico y el módulo de elasticidad. Fase 5: Análisis de resultados Se recopilan los datos obtenidos de las muestras y se determina los resultados de resistencias  de las muestras con relación a las fuerzas de compactación.


CONCLUSIONES

De la presente investigación  se determina que las fuerzas idóneas de compactación en las muestras son mas acertadas entre 25KN a 35KN es por ello que se  recomienda para las investigaciones futuras que se trabaje bajo estos parámetros de fuerza de compactación  para la elaboración de muestra, debido a que si es excedente la fuerza, las muestras al entrar a mayor presión  tienden a generarse daño en las partículas del agregado fino, cambiando su granulometría y afectando la acomodación de partículas. Cabe mencionar que con esta nueva idea de bioconstrucción tratamos de fomentar y concientizar  a las futuras generaciones a innovar sobre nuevas alternativas para ser amigables con el planeta en el ámbito de la construcción haciendo de esta investigación una herramienta de estudio. Los  invitamos a adentrarse a estas nuevas ideas  para revolucionar y no solo limitarse a los sistemas tradicionales para la construcción.
Sabogal Correa Mariana, Universidad La Gran Colombia
Asesor: Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo

ENERGíA GEOTéRMICA EN EL VOLCáN NEVADO DEL RUIZ


ENERGíA GEOTéRMICA EN EL VOLCáN NEVADO DEL RUIZ

Sabogal Correa Mariana, Universidad La Gran Colombia. Asesor: Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo



PLANTEAMIENTO DEL PROBLEMA

El departamento de Caldas se encuentra ubicado sobre la Cordillera Central de Colombia y se caracteriza por poseer en su territorio el complejo volcánico Nevado del Ruiz, En esta zona se presentan manifestaciones superficiales como los son fumarolas e hidrotermales, así como manifestaciones internas como anomalías térmicas, sismicidad y movimiento de magma.Con relación a esto, la energía geotérmica se define como agua convectiva que transfiere calor desde el interior hacia la superficie de la tierra; por lo tanto, la actividad volcánica y las manifestaciones presentes, dan cuenta del potencial que tiene este departamento para la producción de energía geotérmica.  No obstante, en Colombia no se ha llevado a cabo la implementación de una planta de energía geotérmica, solamente se han desarrollado estudios de exploración, esto como consecuencia de los costos iniciales o inversión que se realiza en la instalación de una planta geotérmica, la capacidad técnica e investigativa y la falta de desarrollo de tecnologías de extracción. En contraste, en estas zonas se pueden aplicar estudios de prefactibilidad, factibilidad y extracción, esta última por medio de las diferentes plantas existentes para la producción de energía eléctrica. En Caldas se ha encontrado que el desarrollo de estas áreas geotérmicas se encuentran en etapas de reconocimiento y prefactibilidad, por lo que no se ha llegado a generar pozos de prueba para su investigación. Al respecto, como parte de los estudios necesarios para el desarrollo de la fase de exploración, se encuentran los estudios geológicos, geofísicos y geoquímicos, cada uno con el propósito de  generar una conceptualización lo más completa posible de las zonas potenciales para la producción de energía eléctrica a partir de una fuente geotérmica.



METODOLOGÍA

Como parte de las metodologías de exploración geofísica para la determinación de características físicas de los yacimientos de energía geotérmica se encuentran: métodos sísmicos, geoeléctricos, gravimétricos, magnetométricos y termométricos. La geoquímica pretende el estudio de la composición química de los minerales y fluidos presentes en las rocas al interior de la tierra, esto permite determinación de factores como el equilibrio químico, la madurez de las aguas y el origen de estas, arrojan datos acerca del yacimiento, los fluidos que lo componen y el potencial que tiene para la producción de energía.


CONCLUSIONES

Marco conceptual del sistema geotérmico Volcán Nevado del Ruiz: Nereidas - Botero Londoño Empleando la estructura utilizada en el Servicio Geológico Colombiano, este modelo conceptual se divide en los siguientes componentes: una zona de recarga, que permite la acumulación de agua por lo general proveniente de la lluvia; una fuente de calor, desde donde se lleva a cabo la transferencia de calor; un reservorio, en el que se almacena y desde donde circula el fluido; una capa sello, la cual es impermeable y cumple su función de aislar el reservorio y, por último, la zona de descarga. Para empezar, en lo que respecta a la geofísica, se determina para la zona Nereidas -  Botero Londoño un basamento de origen metamórfico, constituyen gran parte de la Cordillera Central.  Su origen proviene del proceso de subducción de la placa Nazca bajo la placa Sudamericana, como fue mencionado anteriormente. En cuanto a la geoquímica, esta zona del volcán cuenta con manifestaciones superficiales como lo son los termales de San Vicente y Botero Londoño, considerados por Alfaro, Rueda, Casallas, Rodríguez y Malo (2020) en su investigación como una de las de mayor importancia geotérmica debido a la presencia de fluidos de composición clorurada sódica, de origen volcánico y una temperatura geoquímica de 230 a 240°C. Así mismo, se encontró en este estudio la existencia de un denominado sistema volcánico-magmático-hidrotermal en el cráter del volcán en donde se hallaron fluidos geotérmicos como la ya mencionada composición clorurada sódica, altamente inmaduros, formados por absorción de gases magmáticos en agua subterránea superficial (Alfaro,et. al, 2020). En cuanto a la fumarola Nereidas y manantiales termales cercanos a esta, se presenta una alta concentración de H2/CH4, indicador de altas temperaturas; los autores mencionados resaltan que estos manantiales son del tipo bicarbonatado-sulfatado (Nereidas, Chorro Negro) y clorurado neutro (Botero Londoño), composiciones de origen volcánico. Respecto a la zona de recarga, Alfaro, et. al (2020) también plantean que puede existir un problema de permeabilidad dado el escaso fracturamiento y diaclasamiento de vulcanitas terciarias y cuaternarias y a la plasticidad del basamento metamórfico.Por ende, se ve afectado el paso de fluidos que componen el sistema geotérmico y su almacenamiento en el reservorio. Estos fluidos mencionados, contenían como capa sello una cubierta hidrotermal somera, que conserva la presión presente en el reservorio y que arrojó como resultado en su investigación que contenía un gradiente geotérmico elevado.  Pasando a la fuente de calor, se estableció según este estudio, que proviene de la cámara magmática del volcán, conteniendo rocas fundidas, en proceso de solidificación y cristalizadas. Finalmente, Alfaro, et. al (2020) hacen referencia a que la zona del Volcán Nevado del Ruiz Nereidas - Botero Londoño tiene su zona de descarga principalmente en la parte alta del edificio volcánico y en dirección a la zona de manantiales Botero Londoño, con temperaturas mayores a los 90°C.  Por lo tanto, retomando el marco conceptual mencionado, se confirma la posibilidad de generar energía geotérmica en la zona de estudio, proyecto que ha llegado a instancias de excavación de los pozos de exploración, pero que no ha sido establecido un proyecto en funcionamiento.  Alfaro, C. M., Rueda Gutiérrez, J. B., Casallas Y. P., Rodríguez G. Z., y Malo J. E. (2020). Estimación Preliminar del Potencial Geotérmico de Colombia. Bogotá: Servicio Geológico Colombiano.
Sala Aguilar Tania Michelle, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dra. Florentina Zurita Martínez, Universidad de Guadalajara

TRATAMIENTO DE VINAZA TEQUILERA POR MEDIO DE HUMEDALES CONSTRUIDOS.


TRATAMIENTO DE VINAZA TEQUILERA POR MEDIO DE HUMEDALES CONSTRUIDOS.

Sala Aguilar Tania Michelle, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Florentina Zurita Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La industria tequilera es una de las principales actividades económicas en Jalisco, y la producción de tequila genera un subproducto conocido como "vinaza tequilera". La vinaza es un líquido residual altamente contaminante, que contiene altas concentraciones de materia orgánica, sólidos suspendidos y compuestos tóxicos, lo que representa un desafío ambiental significativo. Para mitigar el impacto negativo de la vinaza en el entorno y cumplir con las regulaciones ambientales, se han adoptado diferentes tecnologías de tratamiento, entre las cuales los humedales construidos han surgido como una opción prometedora. Sin embargo, aún existen interrogantes sobre la eficacia, factibilidad y ventajas de esta tecnología en comparación con otros métodos tradicionales de tratamiento. Por lo tanto, es necesario plantear el siguiente problema de investigación: Planteamiento del problema: ¿Cuáles son los factores que influyen en la elección del tratamiento de vinaza tequilera mediante humedales construidos y cuál es su eficacia?.



METODOLOGÍA

Esta metodología tiene como objetivo evaluar la eficacia y viabilidad del tratamiento de la vinaza tequilera utilizando humedales construidos en comparación con otras tecnologías convencionales. Se llevo a cabo una investigación detallada para comprender las características de la vinaza, analizar las tecnologías de tratamiento existentes y diseñar y operar humedales construidos de manera óptima para el tratamiento de la vinaza tequilera. La metodología se dividio en diferentes etapas para lograr los objetivos propuestos. 1.Caracterización de la vinaza tequilera: Recopilación de muestras de vinaza tequilera de diferentes destilerías y puntos de generación. Análisis de laboratorio para determinar las características físicas, químicas y biológicas de la vinaza, incluyendo concentración de materia orgánica, sólidos suspendidos, compuestos tóxicos y otros parámetros relevantes. 2.Revisión bibliográfica: Investigación y análisis de la literatura científica y técnica relacionada con el tratamiento de la vinaza tequilera y el uso de humedales construidos para este propósito. Estudio de casos de aplicación exitosa de humedales construidos en otras industrias similares y para tratamiento de aguas residuales con características similares a la vinaza tequilera. 3.Monitoreo y análisis: Monitoreo continuo del funcionamiento del humedal construido para evaluar la remoción de contaminantes, especialmente DBO, sólidos suspendidos y compuestos tóxicos. En esta etapa se realizaron las tecnicas siguientes: Determinación del color aparente. Determinación de Nitratos. Determinación de nitritos. DQO DBO5   Color verdadero. Solidos suspendidos totales y solidos disueltos totales. Fósforo total. Nitrógeno kjendhal. Fenoles.


CONCLUSIONES

En conclusión, la utilización de humedales construidos para el tratamiento de la vinaza tequilera representa una opción sostenible y efectiva para mitigar el impacto ambiental de esta industria. Los resultados obtenidos respaldan la implementación de esta tecnología como una alternativa viable y ecológicamente responsable para el manejo adecuado de los efluentes generados en la producción de tequila.  La implementación adecuada de humedales construidos en la industria tequilera contribuirá al cuidado del medio ambiente y al cumplimiento de los objetivos de sostenibilidad y responsabilidad social empresarial.  
Salas Aragon Benjamin, Universidad de Guadalajara
Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara

MODELADO MATEMáTICO EN VARIABLES DE ESPACIO DE ESTADO Y SIMULACIóN DE UN CONVERTIDOR REDUCTOR (BUCK)


MODELADO MATEMáTICO EN VARIABLES DE ESPACIO DE ESTADO Y SIMULACIóN DE UN CONVERTIDOR REDUCTOR (BUCK)

Alduenda Guiza Deborah, Universidad Michoacana de San Nicolás de Hidalgo. Salas Aragon Benjamin, Universidad de Guadalajara. Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El convertidor reductor (Buck), es un convertidor de potencia, que funciona con corriente directa (CD). A la salida de éste obtenemos una tensión menor a la que se aplicó a la entrada. Para obtener una tensión de salida deseada, se realizan cálculos de los elementos que lo conforman: inductores y capacitores. Sin embargo, cuando ya se tiene un convertidor buck con elementos que no podemos cambiar, ni volver a calcular para obtener una tensión de salida diferente, se recurre a obtener la ecuación matemática del convertidor ya fabricado, y a la simulación del sistema a través de algún programa como Matlab Simulink. En esta investigación nos enfocamos en obtención de la ecuación matemática en variables de estado de un convertidor buck ya fabricado, y también en su simulación a través de Matlab Simulink.



METODOLOGÍA

Primero se observó la placa de un circuito ya realizado en una PCB, para realizar el esquema del circuito. En ésta determinamos cuáles componentes lo conformaban y cómo iban interconectados entre ellos, así como, determinamos el valor del capacitor, inductor y resistencia de carga. El siguiente paso a realizar fue con el esquema construído su ecuación matemática a través de ecuaciones de variables de estado. Para esto se realizó un análisis en los dos estados del convertidor buck: estado prendido (on state) y estado apagado (off state). Una vez obtenida la ecuación de cada uno de sus estados, se promedian ambas ecuaciones para encontrar la ecuación que representa al convertidor reductor en variables de espacio de estado.  Se construye el circuito en el simulador de Matlab Simulink, con los mismos valores del circuito de la PCB. Para la frecuencia de conmutación que requiere el MOSFET del circuito se realizó una señal PWM a través de una señal dientes de sierra y una referencia, con la finalidad de poder controlar este PWM tanto en su ciclo de trabajo, como para agregarle una señal sinusoidal que perturbará nuestro PWM. Se simuló la ecuación matemática obtenida en Matlab Simulink, y se comparó con la simulación del circuito hecho anteriomente, para observar su comportamiento ante el mismo ciclo de trabajo. Una vez comprobado este comportamiento equivalente se procedió a realizar una respuesta a la frecuencia del sistema. En el que se variaba la frecuencia de la señal sinusoidal que perturba el PWM para la conmutación del MOSFET. A través de un bloque que realiza el análisis de Fourier pudimos obtener la información de magnitud y fase de la tensión de salida de la simulación del circuito y de la ecuación matemática del convertidor buck. Con la ayuda de un script realizado se reunió está información para poder realizar la gráfica del Diagrama de Bode de ambas simulaciones, para comprobar que ambos sistemas simulados se obtenían la misma respuesta a la frecuencia.


CONCLUSIONES

Durante la investigación se comprobó que la ecuación matemática obtenida de un sistema ya armado real y la simulación realizada de este circuito se obtuvieron resultados equivalentes ante un mismo ciclo de trabajo, teniendo una diferencia mínima, debido a que la ecuación matemática simulada actuaba idealmente, es decir, sin pérdidas en los componentes electrónicos.  Así mismo, al obtener el Diagrama de Bode de ambas simulaciones obtuvimos una respuesta a la frecuencia equivalente, las cuales nos confirmaban que la simulación del circuito y de su ecuación matemática se trataba de un sistema de segundo orden analizando su diagrama de bode de magnitud y de fase.
Salas Avila Jared, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. José Roberto Razo Hernández, Instituto Tecnológico Superior de Irapuato

ANáLISIS DE LOS PARáMETROS DE CABLES DE POTENCIA CON FALLAS PARA POSIBLES DESCARGAS PARCIALES


ANáLISIS DE LOS PARáMETROS DE CABLES DE POTENCIA CON FALLAS PARA POSIBLES DESCARGAS PARCIALES

Salas Avila Jared, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. José Roberto Razo Hernández, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En este artículo se estudiará el comportamiento de un cable de potencia subterráneo XLPE, bajo diferentes condiciones de operación y poder entender como este comportamiento puede generar una descarga parcial en el cable. Aplicando una simulación en el software COMSOL Multiphysics 5.4, en el que se ocupara la herramienta de elemento finito para poder analizar cómo es que varía el comportamiento del cable como lo es el voltaje, frecuencia, humedad y temperatura. Así como también realizar los gráficos de los datos obtenidos en el software MATLAB, para poder realizar una comparativa más eficiente. Esperando poder comprender mejor el comportamiento tan importante que genera una condición distinta en el cable y como consecuencia generen descargas parciales en condiciones específicas.



METODOLOGÍA

A.Caso de estudio condiciones normales Con la ayuda del software COMSOL Multiphysics 5.4, se realizará un modelado del cable de potencia en 2D,  en donde se trabajarán los campos magnéticos y eléctricos (mef), estudiando el dominio de la frecuencia. Con esos datos ya cargados en el software, se modela el cable de potencia subterráneo XLPE bajo condiciones normales de uso en donde se le dan dimensiones para dicho análisis como se muestra en la Tabla 1. En la Tabla 2 tenemos los parámetros de los materiales a utilizar, que serán datos base en la simulación. Usando cobre como el núcleo de nuestro cable, el polietileno reticulado (XLPE) que será el primer aislante, el plomo [Pb] que será utilizado para la pantalla metálica, el PVC que será la cubierta del cable, también conocida como chaqueta, siendo así el segundo aislante, por último, se encerrará el cable en aire. Teniendo el modelado del cable, se le realiza un embobinado simple en el núcleo y en la pantalla metálica del cable, para poder darle la corriente de excitación que necesita la simulación, esta corriente puede variar, incluso puede ser voltaje o potencia, ya que el software nos permite hacer esa variación, en este caso se utilizara una corriente de 100A. Se crea el mallado de cada parte del cable, incluyendo el aire en el que está encerrado dicho cable como se muestra en la Ilustración 1. En el dominio de la frecuencia tendremos como unidad de frecuencia [Hz], en intervalos de frecuencia de [1, 60, 100, 1000, 10000] Hz. Ya con ese intervalo puesto en el software podemos continuar con el estudio, en donde nos dará la densidad de flujo magnético en cada una de las frecuencias ya declaradas, mostrado en las Ilustraciones 2-6. Una vez calculada la densidad de flujo magnético como se ve en las ilustraciones [2-6], en cada intervalo de frecuencia nos permite analizar que, si hay una elevada frecuencia en el cable, el núcleo de este será cada vez más frio y esto lo sabemos gracias a la escala de temperatura que nos da la simulación, teniendo en cuenta que podrían ser adecuadas las altas frecuencias para añadir fibra óptica, ya que vemos como es que solo el calor es disipado en el aislamiento XLPE, dejando el núcleo frio. En la simulación que obtuvimos, nos permite el cálculo de la inductancia y la resistencia de cualquier material en el cable. Analizamos cada uno de los materiales para conocer estos parámetros bajo condiciones normales y frecuencias declaradas. En la Tabla 3 se muestra la inductancia en todos los materiales, teniendo en primer lugar el núcleo  [Cu], leyendo así los valores de intervalo de frecuencia que se mencionaron anteriormente y las inductancias de cada intervalo. En la Tabla 4 en el mismo orden que en las inductancias, tenemos la resistencia que tienen cada uno de los materiales utilizados en esta simulación. Gracias a estos valores, podemos obtener las impedancias de los materiales.


CONCLUSIONES

Con los resultados de las inductancias y resistencias en sus dos condiciones podemos realizar una comparativa en ambos cables, analizando en que magnitud su campo magnético se ve afectado por esta falla. Se analiza cada material del cable. En la ilustración 13, analizamos por su temperatura la densidad del flujo magnético y vemos la afección que tiene el núcleo cuando este llega a los 10,000 Hz. En las ilustraciones 14-23 estamos analizando el comportamiento de las resistencias e inductancias que se obtuvieron en las dos diferentes condiciones de operación, destacando que el analisis del comportamiento es de cada uno de los materiales en el cable de potencia, siendo asi una comparativa entre ambos valores. En las ilustraciones el eje X son los intervalos de frecuencia y en el eje Y la inductancia o resistencia dependiendo el caso. En la ilustración 14 y 19, se observa un desfasamiento significativo en el núcleo, tanto en su resistencia como en su inductancia comenzando del intervalo de frecuencia de 10,000 Hz, al tener gráficos de cada material podemos ver que la falla que se le provoco en la simulación fue suficiente para generarle un cambio en su campo magnético por ello queda expuesto a una posible falla en el cable. En la ilustración 15 y 20, tenemos nuevamente el desfasamiento del cable en condiciones normales y el que esta en falla, se aprecia el cambio que tuvo en el aislamiento XLPE. En la ilustración 16 y 21, podemos ver que su desfasamiento es muy poco, en donde podemos entender que no sufrió un cambio brusco como lo fue con el núcleo, pero eso no significa que este en condiciones normales, ya que se ve afectado todo lo que conforma el cable. En la ilustración 17 y 22, es mucho mas notorio el desfasamiento que este tiene, pudiendo así entender el cambio como la capa que más sufrió daño, ya que esta es la principal cubierta que tiene el cable de potencia y la cual recibe cualquier tipo de manipulación, siendo así, la capa más sensible. En la ilustración 18 y 23, vemos el comportamiento que el aire recibió en la condición de falla, dejando ver que fue drástica la falla para el aire, siendo así un desfasamiento muy pronunciado desde el intervalo de 60Hz de frecuencia.  
Salazar Arreola Deisy Esther, Universidad Simón Bolivar
Asesor: Dra. Patricia Batres Mendoza, Universidad Autónoma Benito Juárez de Oaxaca

DESARROLLO DE UN SISTEMA DE CONTROL PARA ROBOT BIOINSPIRADO MEDIANTE SEñALES CEREBRALES EEG Y REDES NEURONALES SPIKING (SNN): UNA INTUITIVA INTERACCIóN GUIADA POR LA IMAGINACIóN MOTORA EN PERSONAS CON DISCAPACIDAD.


DESARROLLO DE UN SISTEMA DE CONTROL PARA ROBOT BIOINSPIRADO MEDIANTE SEñALES CEREBRALES EEG Y REDES NEURONALES SPIKING (SNN): UNA INTUITIVA INTERACCIóN GUIADA POR LA IMAGINACIóN MOTORA EN PERSONAS CON DISCAPACIDAD.

Hernández Hernández Luis Angel, Instituto Tecnológico de Puebla. Salazar Arreola Deisy Esther, Universidad Simón Bolivar. Asesor: Dra. Patricia Batres Mendoza, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

El control de robots bioinspirados mediante el análisis de bioseñales Electroencefalográficas (EEG) en la actualidad constituye un campo de estudio en constante crecimiento, que involucra la participación de diversas disciplinas de investigación, interconecta las áreas de la neurociencia, la robótica y el procesamiento de señales. A medida que avanza la tecnología, cada vez aumenta la importancia de utilizar el funcionamiento que ejerce la actividad cerebral para permitir mayor interacción fluida y precisa entre los usuarios y los robots. Sin embargo, el desarrollo de sistemas de control fundamentados en las señales electroencefalográficas (EEG) cada día se enfrenta a retos significativos que limitan su viabilidad y utilidad en escenarios prácticos. A nivel global, se estima que la cifra de personas que viven con algún tipo de discapacidad sobrepasa los mil millones, lo que representa aproximadamente un 15% de la población mundial [1]. La factibilidad de controlar robots mediante señales cerebrales se vislumbra como un enfoque potencial para otorgar una mayor autonomía y mejorar sustancialmente la calidad de vida de las personas afectadas [1]. A pesar de las necesidades existentes y el potencial impacto positivo de los sistemas de control basados en EEG para el control robótico, es de suma importancia abordar a fondo las limitaciones técnicas y desafíos que dificultan una implementación eficiente. La variabilidad y complejidad de las señales cerebrales y la necesidad de interpretar y clasificarlas adecuadamente para traducirlas en comandos de movimiento son cuestiones clave que deben abordarse de manera integral



METODOLOGÍA

La presente metodología tiene como objetivo abordar el desarrollo, implementación y evaluación de un sistema de control robótico basado en EEG. El proyecto se estructura de manera que abarca el diseño experimental, desarrollo de algoritmos, implementación de pruebas y sus limitaciones de forma bien estructurada y considerando los desafíos particulares del entorno: Diseño experimental: el proceso experimental se divide en varias etapas. a) Descripción del robot bioinspirado: Este trabajo está basado en el artículo "A FPGA-Based Neuromorphic Locomotion System for Multi-Legged Robots," que desarrolla un sistema neuromórfico en tarjeta de desarrollo FPGA Spartan 6 para generar patrones de locomoción para tres robots con patas (bípedo, cuadrúpedo y hexápodo). A continuación, se describen las características principales de los robots cuadrúpedo y hexápodo a los que se les implemento el algoritmo bioinspirado: 1. Forma y estructura: la estructura de los robots está diseñada por la empresa LINX MOTION, ambos robots están hecho de aluminio de alta calidad y están equipado con un sistema de servos de alto rendimiento que le permite caminar, correr, saltar y girar de forma rápida y precisa. En el caso del hexápodo cuenta con 18 grados de libertad y el cuadrúpedo con 12. 2. Mecanismos de Movimiento: los robots utilizan un sistema neuromórfico basado en una red neuronal artificial de tercera generación (Spiking Neural Network - SNN) que actúa como un Generador de Patrones Centrales (CPG). Los CPGs son un conjunto de neuronas que se encuentran en el sistema nervioso y son responsables de controlar y coordinar movimientos rítmicos y cíclicos. De esta manera, con la SNN los robots pueden realizar al menos tres tipos diferentes de patrones de locomoción: caminar, trotar y correr. 3. Sistemas de Control: El control se realiza mediante una placa Raspberry Pi 3B, que se conecta a una placa controladora de servos SSC32. La Raspberry Pi envía los patrones de locomoción para activar los servos en sincronía. La configuración de los parámetros del CPG se realiza mediante una metodología basada en Gramáticas Evolutivas (GE), que permite definir las conexiones y pesos presinápticos de las neuronas. b) Desarrollo de algoritmos de procesamiento de señales: Esta fase se encargó de realizar la comunicación entre la computadora y la Raspberry Pi, para realizar la adquisición de señales EEG a través del dispositivo Emotiv Epoc, y el protocolo OSC (Open Sound Control) para comunicar y transmitir los datos de imaginación de movimientos en tiempo real. Así, esta fase consistió en la preparación del Entorno, la verificación de conexión de Red, la configuración del Servidor OSC en la Computadora, la configuración del Cliente en la Raspberry Pi, la implementación del Control de Sistema, las pruebas y ajustes, así como la documentación y mantenimiento. c) Implementación y pruebas: finalmente se realizó la integración de todo el sistema para llevar a cabo la implementación del control de un robot hexápodo utilizando una red neuronal.


CONCLUSIONES

El desarrollo de un sistema de control robótico basado en EEG para robots bioinspirados es una tarea compleja y multidisciplinaria que tiene el potencial de tener un impacto significativo en la vida de las personas con discapacidades motoras y en la sociedad en general. La metodología presentada aquí proporcionó un marco para abordar este desafío, involucrando etapas de diseño experimental, desarrollo de algoritmos, implementación, pruebas y consideraciones éticas que facilitaron el desarrollo de un sistema de control para un robot bioinspirado basado en señales cerebrales EEG y redes neuronales pulsantes (SNN) que con mayor implementación práctica podría dirigirse a que personas con discapacidad motora puedan controlar con alto índice de fluidez cualquier dispositivo utilizando la imaginación motora. Con un enfoque cuidadoso en cada una de estas etapas y una consideración crítica de las limitaciones y desafíos potenciales, este proyecto representó una oportunidad emocionante para avanzar en el campo de la robótica bioinspirada. La colaboración entre diferentes campos como la neurociencia, la robótica, la informática y la ingeniería es esencial para lograr el éxito en este emprendimiento.
Salazar Fernandez Maricielo del Carmen, Universidad César Vallejo
Asesor: Mg. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena

RECICLAJE TéRMICO COMO ESTRATEGIA DE REUTILIZACIóN DE RESIDUOS PLáSTICOS Y FIBRAS VEGETALES DE LA ACTIVIDAD BANANERA EN EL CENTRO ACUíCOLA Y AGROINDUSTRIAL DE GAIRA


RECICLAJE TéRMICO COMO ESTRATEGIA DE REUTILIZACIóN DE RESIDUOS PLáSTICOS Y FIBRAS VEGETALES DE LA ACTIVIDAD BANANERA EN EL CENTRO ACUíCOLA Y AGROINDUSTRIAL DE GAIRA

Cruz Rodriguez Diana, Instituto Tecnológico de Pachuca. Ortiz Flores Damaris Itzel, Instituto Tecnológico de Pachuca. Salazar Fernandez Maricielo del Carmen, Universidad César Vallejo. Asesor: Mg. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena



PLANTEAMIENTO DEL PROBLEMA

La industria del plástico ha aumentado su nivel de producción significativamente, generando cerca de 400 millones de toneladas por año, sin embargo, solo el 9% es reciclado mientras que la disposición final de 19 a 23 millones de toneladas de plásticos termina en botaderos. Cada año Colombia genera 1.400.000 toneladas de plástico al año en todas sus presentaciones, cientos de toneladas de estos residuos terminan en los ríos y mares del país. El Magdalena Santa Marta emite una carga estimada de 16.700 toneladas de plásticos por año que terminan en el Mar Caribe.   En el Centro Acuícola y Agroindustrial de Gaira (CAAG), hay gran demanda de botellas PET (Polietileno Tereftalato) generado por el consumo de aprendices, funcionarios e instructores en promedio 1.689 usuarios que producen 4.720 kg anuales de residuos sólidos aprovechables; entre ellos un 62% de plásticos (Informe Mediciones 2022 Sistema de Gestión Ambiental CAAG). Debido a esto, se ha generado una problemática, ya que existe una incorrecta disposición de los residuos sólidos e inexistencia de estrategias que hagan transformación o reaprovechamiento a los residuos generados.



METODOLOGÍA

La Metodología planteada se fundamenta en los planteamientos de las Normas: ASTM D1037: 12 y la Norma ASTM D143-21; que, aunque no son directamente aplicadas a madera plástica, son desarrolladas para madera y se realizará una adaptación del método para obtener resultados confiables en el prototipo.   Clasificación de residuos Para dar inicio al desarrollo del proyecto, se recolectaron residuos plásticos pertenecientes a tres tipos diferentes de clasificación; Polietileno Tereftalato (PET), Poliestireno (PS) y Polipropileno (PP). Dichos residuos se obtuvieron de los contenedores de reciclaje ubicados dentro del Centro Acuícola y Agroindustrial de Gaira. Posteriormente se extrajeron las etiquetas y las tapas de las botellas de PET que fueron recolectadas; para después realizar la reducción de tamaño de los envases de PET, las bolsas de PS y los fragmentos de LDPE, de esta forma se obtuvieron piezas plásticas de aproximadamente 1cm X 1cm.   Limpieza y desinfección de residuos plásticos Previamente, se realizó la limpieza y desinfección de los diferentes tipos de plásticos de forma mecánica (frotar y enjuagar con agua) y química (utilización de agua, detergentes y detergentes enzimáticos para reducir la carga microbiana y partículas de polvo).   Recolección de la fibra vegetal de banano Se recolectaron dos vástagos de banano de 6 y 9 meses de edad ubicados en el CAAG, los cuales fueron trasladados al centro de acopio en donde se realizó el acondicionamiento de la fibra vegetal de banano, separando las capas de fibras del vástago. Posteriormente, dichas capas fueron distribuidas sobre una superficie plástica y se dejaron a temperatura ambiente durante 48 horas para eliminar la humedad.   Secado de la fibra vegetal de banano Después de las 48 horas el vástago pasó por un proceso de cortado, el cual se llevó a cabo con ayuda de equipos manuales con la finalidad de obtener trozos de 10 a 15 cm de longitud para posteriormente, poderse colocar en charolas de acero inoxidable que se colocaron dentro de un horno de secado ubicado en la planta de alimentos del CAAG. El proceso de secado se realizó durante 8 horas a una temperatura de 45°C.   Pruebas Fisicoquímicas Para realizar los cálculos de humedad se utilizó un método de pesaje, en donde se tomaron muestras de la fibra de banano recién cortada y se colocaron en un horno a 105°C durante 8 horas y se calculó el % Extracto seco e indirectamente el % Humedad, este procedimiento se repitió 2 veces para poder sacar un promedio. Adicionalmente se realizó en un equipo analizador de humedad halógeno localizado en el laboratorio de físico química, en donde se sometieron 2.742 g de muestra de fibra de banano en el equipo a 105°C durante 15 minutos y se obtuvo una humedad de 93.64%, siendo el promedio final de humedad de 94.26%.   Pruebas Microbiológicas Se realizaron pruebas microbiológicas a la materia prima empleada, con el propósito de conocer qué microorganismos se encuentran presentes en los materiales que se manipulan durante el proceso. Se utilizaron dos medios de cultivos: Agar Cromocult en la primera prueba microbiológica y Agar nutritivo para la segunda prueba, asimismo se procedió a realizar diluciones seriadas con agua peptonada utilizando muestras de la materia prima a trabajar.   Pulverización de fibra vegetal de banano Al tener obtener fibras vegetales desecadas se procedió a triturar con ayuda de un triturador de mandíbulas ubicado en el laboratorio de ciencias ambientales se redujo la fibra vegetal hasta 2 cm de tamaño.


CONCLUSIONES

A lo largo de la estancia de verano para la investigación, los resultados obtenidos fueron muy gratificantes, ya que se enriquecieron los conocimientos académicos y culturales de cada uno de los integrantes que apoyaron con el desarrollo del proyecto abordado, resaltando algunos aspectos se pueden mencionar: la búsqueda de la literatura en diversas fuentes electrónicas, conocimientos prácticos aprendidos en los laboratorios del CAAG, reflexión y apreciación de la cultura colombiana, degustación de gastronomía propia de la costa del mar Caribe, entre otros.   Es importante destacar que se trabajó con un proyecto nuevo y financiado por el estado, el cual pertenece a la línea programática: 82 - Fomento de la innovación y desarrollo tecnológico en las empresas;  por lo cual aún se encuentra en proceso la compra de equipos para facilitar la molienda y fundición de los plásticos, por ende nuestros resultados se basan en la obtención de un prototipo conformado por residuos plásticos y fibra vegetal del banano elaborado de manera artesanal siguiendo los protocolos de limpieza y desinfección, los cuales fueron objeto de nuestra estancia y se establecieron en el plan de trabajo, asimismo teniendo en cuenta la contaminación de emisiones generadas en el proceso de fundición de la materia prima.
Salazar Ibarra Isela Donahi, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA Y MEJORA CONTINUA EN EMPRESAS DEL SUR DE SINALOA


LOGíSTICA Y MEJORA CONTINUA EN EMPRESAS DEL SUR DE SINALOA

Cruz Regalado Ariana Daheli, Universidad Politécnica de Sinaloa. Gonzalez Cabanillas Ailin, Universidad Politécnica de Sinaloa. Salazar Ibarra Isela Donahi, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La globalización impulsa la competitividad empresarial entre las cadenas de valor y cadenas de suministro, ambas importantes y con la necesidad de la innovación constante, lo anterior puede ser posible si la estructura organizacional es eficiente y eficaz, aun con lo anterior el factor calidad es esencial, el cual se puede definir como realizar las actividades a la primera y bien con referencia empresarial; es decir, es necesario que se comprenda qué es lo que la hace funcionar, los procesos claves medios por indicadores estratégicos, ser sostenible y la toma de decisión asertiva son tendencia actual y futura. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la capacidad del sector logístico y transporte en mejorar continuamente,  pues si bien las necesidades como el ser competitivo ya no es opcional, es una cualidad natural de la organización, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el tema del objetivo 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio de campo que nos proporcione un conocimiento para la reflexión y difusión del conocimiento derivado del impacto del crecimiento empresarial relacionado con el ámbito logístico y mejora continua. El alcance de la investigación cuantitativa de tipo campo es identificar si las condiciones en materia logística y mejora continua en las empresas del Sur de Sinaloa son adecuadas, desde la perspectiva empresarial del sector industrial.  



METODOLOGÍA

Para este estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos escritos y a distancia con medios digitales de tecnología de la información y la comunicación, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El método de recolección de datos es a través de instrumento de encuesta con 60 reactivos, se aplicó a personas directivas de empresas, con una muestra de 85 organizaciones, de la cual se seleccionó tres reactivos orientada a conocer las opiniones sobre la capacitación de la gestión logística y cadena de suministro (variable A1), capacidad en mejora continua (variable A2); así también, la capacitación en la gestión de calidad (variable A3), para cada reactivo se aplica una categorización de la siguiente forma Muy  necesario (5), Necesario (4), No necesario (3), No sé (2) y No aplica (1). Se analiza la información de forma gráfica estadística para realizar una argumentación sustentada abordando si las condiciones en habilitación del personal en materia logística y mejora continua en las empresas del Sur de Sinaloa son adecuadas, desde la perspectiva empresarial del sector industrial.  


CONCLUSIONES

La población encuestada se encuentra en empresas de giro industrial, en áreas disciplinares de logística y transporte, de la muestra general de 85 personas se muestra un resultado estadístico descriptivo en la variable A1 con una media de 3.9818 y una desviación estándar de 1.147, lo cual indica que la mayoría de las empresas están de acuerdo en que capacitan a su personal en gestión logística y cadena de suministro, mientras que en la variable A2 una media de 4.6941 con una desviación estándar de 0.5123, significa que las organizaciones están muy de acuerdo en que la mayoría de sus colaboradores tienen las habilidades de realizar mejoras continuas; así también, la variable A3 una media de 4.2824 con una desviación estándar de 0.9208, eso describe que la empresa está muy de acuerdo en la necesidad de que los empleados deben ser capacitados con mayor frecuencia en la gestión de calidad, los resultados en materia logística y mejora continua en empresas del Sur de Sinaloa nos proporcionan que las variable A1, A2 y A3 describen en que los subordinados deben ser capacitadas con mayor frecuencia para el desarrollo de sus habilidades en ámbitos de la logística y mejora continua, con el propósito de aportar la continuidad en proyectos orientados al punto 9.- Industria, innovación e infraestructura de los ODS de la ONU incluidos en la agenda 2030.  
Salazar Peralta Ana Cristina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Edgar Fernando Peña Torres, Consejo Quintanarroense de Ciencia y Tecnología

USO DE B-AGONISTAS EN CONDICIONES DE ESTRéS POR CALOR EN RUMIANTES Y SU IMPACTO EN PARáMETRO PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIóN


USO DE B-AGONISTAS EN CONDICIONES DE ESTRéS POR CALOR EN RUMIANTES Y SU IMPACTO EN PARáMETRO PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIóN

Méndez Zamudio María Isabel, Instituto Tecnológico de Estudios Superiores de Zamora. Rodríguez Jiménez Yadira Citlali, Instituto Tecnológico de Estudios Superiores de Zamora. Salazar Peralta Ana Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Torres González Karen Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Edgar Fernando Peña Torres, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

USO DE B-AGONISTAS EN CONDICIONES DE ESTRES POR CALOR EN RUMIANTES Y PARAMETROS EN PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIÓN



METODOLOGÍA

Durante nuestro verano de investigación hemos estado realizando un proyecto con el fin de publicar un artículo que trate sobre el efecto de agonistas β-adrenérgicos en animales de engorda (bovinos y ovinos) bajo condiciones de estrés por calor, durante este proyecto tomamos en cuenta múltiples investigaciones sobre proyectos enfocados al tema los cuales nos ayudaran a cubrir diferentes puntos importantes; desde que son estos tipos de suplementos, su mecanismo de acción, el efecto que tiene durante su etapa de implementación y las características tanto físicas y químicas que tiene la carne una vez llegada la etapa del sacrificio. Los B- antagonistas son moléculas sintéticas análogas a las catecolaminas (epinefrina y norepinefrina). La finalidad de estas es incrementar el anabolismo hacia la síntesis de masa muscular mediante el aprovechamiento de nutrientes y energía obtenido del tejido adiposo. Estos compuestos provocan mayor rendimiento en corral para la carne, favoreciendo el nivel económico y productivo. Su modo de acción se lleva a cabo a nivel celular, la molécula pasa intacta las paredes del rumen y es absorbida por el sistema portal llegando a las células blanco, logrando así unirse a los receptores que están en la membrana celular; lo que genera una activación y fosforilación de los distintos mecanismos incrementando la perfusión sanguínea hacia el músculo y una mejor disponibilidad de energía y aminoácidos, por lo tanto, aumenta la síntesis y retención de proteína que favorecen la hipertrofia muscular y a su vez a la degradación de grasa del animal. Dentro de este tipo de suplementos se encuentran el clorhidrato de clembuterol, cimaterol, clorhidrato de zilpaterol y clorhidrato de ractopamina con un mecanismo de tipo hormonal y solo estos dos últimos se permite su uso en etapas de finalización en animales de engorda. Se ha demostrado tener resultados favorables para la implementación de Zilpaterol en ovinos y bovinos en condiciones de estrés por calor, pero a su vez el rendimiento del mismo bajo temperaturas elevadas disminuye, dando un resultado variable al caso de estudio. La calidad de la carne está relacionada con sus características organolépticas, es decir, suavidad, jugosidad, color, olor y sabor. Algunos factores que influyen en que dicha calidad sea aceptable son la genética, la raza del animal, los días de engorda, el sexo y la edad. Mediante evaluación el Clorhidrato de Zilpaterol como suplemento alimenticio de ovinos y bovinos influyó sobre las características de la calidad de la carne, se reporta que realizaron varios tratamientos y evaluaciones las cuales arrojaron diversos resultados, entre ellos se veía comprometida la calidad de la carne, mientras las características físico- químicas de algunas cabezas aumentaban en peso y musculo incluyendo el descenso de la cantidad de grasa en el animal, también se detectó que era por el aumento en la síntesis de proteínas, otros puntos comprometidos durante el estudio fueron la terneza y el color de la carne, en comparación con otros “aditivos o suplementos” en carne cruda y cocida. Se sabe que la teoría del color en la carne por el CZ no ha sido específicamente reportada, al igual que el mal uso del CZ causa intoxicación dependiendo la sobreexposición y dosis usadas en animales, sin embargo, esto podría generar pérdidas económicas para la industria.


CONCLUSIONES

Las b-agonistas son moléculas que ayudan a incrementar la masa muscular mediante síntesis, en tal caso las condiciones de estrés por calor en animales generar malas características en el animal y la carne, las b- Agonistas nos ayuda a tener mejores características físicas, químicas y sensoriales, sin embargo,en un mal uso de las b-agonistas o mala sobre exposición del animal pueden generar daños al consumidor.
Salazar Pérez Ángel Emiliano, Instituto Politécnico Nacional
Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California

MOVE&LEARN: UN VIDEOJUEGO ADAPTATIVO PARA APOYAR LAS HABILIDADES COGNITIVO-MOTRICES DE PERSONAS CON TRASTORNOS DEL NEURODESARROLLO


MOVE&LEARN: UN VIDEOJUEGO ADAPTATIVO PARA APOYAR LAS HABILIDADES COGNITIVO-MOTRICES DE PERSONAS CON TRASTORNOS DEL NEURODESARROLLO

Perez Mosco Cesar Uriel, Instituto Politécnico Nacional. Salazar Pérez Ángel Emiliano, Instituto Politécnico Nacional. Asesor: Dra. Karina Caro Corrales, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El término “trastornos del neurodesarrollo” (NDD, Neurodevelopmental Disorders, por sus siglas en inglés) hace referencia al grupo de alteraciones o problemas que interfieren en la adecuada maduración y funcionamiento y que se presentan desde el nacimiento o, con mayor frecuencia, en la primera infancia. Las alteraciones de neurodesarrollo implican dificultades en el desarrollo y funcionamiento del cerebro, que no siempre se muestran en lesiones estructurales; algunas hipótesis sugieren una probable deficiencia en la maduración de las fibras que alteran la conectividad y, por ende, la adecuada integración en la comunicación neuronal. Frecuentemente, dichas alteraciones pueden expresarse en desfases motrices, de lenguaje, de aprendizaje o conductuales, así como en la interacción social. Para combatir el desbalance en el desarrollo motriz provocado por los NDD, las personas con estos trastornos deben acudir a terapias tradicionales a largo plazo que resultan no ser tan efectivas. Estudios sugieren que el uso de videojuegos serios propicia la mejoría de resultados de manera significativa en comparación con los programas de terapia física convencionales. En particular, el videojuego Move&Learn, es un videojuego basado en movimiento (exergame en inglés) que se diseñó para apoyar a las personas con NDD en sus habilidades cognitivas y visuales-motrices. Sin embargo, cada persona con NDD tiene diferente nivel de dominio en sus habilidades, por lo que es importante que el videojuego Move&Learn se adapte a las habilidades de cada jugador. He ahí la importancia de realizar un estudio sobre la comparación de las versiones de Move&Learn (adaptativa y no adaptativa), pues permitirá avanzar en el proceso de pruebas del videojuego en niños y adolescentes con NDD.



METODOLOGÍA

Para el desarrollo de este proyecto se utilizó la metodología Design Thinking, la cual es una metodología centrada en el usuario, lo que permite utilizarla para abordar problemas complejos y desarrollar soluciones innovadoras. Esta metodología se basa en el pensamiento creativo, la colaboración y la iteración continua, está comprendida de cinco etapas: Empatizar, Definir, Idear, Prototipar y Evaluar. El proyecto se centró en las etapas de Prototipar y Evaluar, donde se realizaron correcciones en código, y se hicieron modificaciones en las interfaces del videojuego Move&Learn con el objetivo de mejorar la visibilidad de los elementos en pantalla y proveer de una mejor experiencia al usuario. En la etapa de Evaluar, se realizó un experimento que permitió obtener retroalimentación sobre la diferencia que existe entre el uso de versiones (Adaptativa y No adaptativa) dentro de Move&Learn para visualizar las diferencias en tiempo, precisión y experiencia de juego de los participantes en ambas versiones con el objetivo de realizar correcciones a futuro que permitan mejorar la jugabilidad de Move&Learn en todos los ámbitos.


CONCLUSIONES

En esta estancia de investigación se logró realizar el experimento de evaluación con dieciséis estudiantes universitarios. Una vez terminado el experimento, es posible mencionar que los tiempos y precisión arrojados en los minijuegos mostraron que el uso de la versión adaptativa de Move&Learn no sólo plasma cambios positivos en estos rubros (aumento de precisión y disminución de tiempos contra la versión no adaptativa), sino que también impacta en la percepción a futuro que los usuarios tienen con Move&Learn, siendo este último un aspecto importante pues se trata de un videojuego diseñado para apoyar terapias cognitivo motrices de personas con NDD. De acuerdo con los cuestionarios de experiencia de juego y de comparación de versiones a la mayoría de los participantes les gustó más la versión adaptativa debido a que el videojuego modificó la dificultad y/o la velocidad según la interacción del usuario con los minijuegos en términos de rendimiento, propiciando así un sentimiento positivo hacia dicha versión. También opinaron que Space Rain fue el mini juego que más les gustó porque es más dinámico y divertido. Por otra parte, el minijuego que menos gustó fue Space Draw, debido a que la dinámica no fue tan atractiva y porque hubo retos que fueron muy difíciles de alcanzar, los cuales provocaron tensión en los participantes.
Salazar Saldaña Andrea, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)

CARACTERIZACIÓN DE LAS ENTIDADES MUY PEQUEÑAS DE DESARROLLO DE SOFTWARE EN MÉXICO.


CARACTERIZACIÓN DE LAS ENTIDADES MUY PEQUEÑAS DE DESARROLLO DE SOFTWARE EN MÉXICO.

Salazar Saldaña Andrea, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La industria del software en México ha experimentado un crecimiento significativo en los últimos años y ha demostrado ser un motor clave para generar empleos, estimular la economía y fortalecer el desarrollo del país. En este contexto, las microempresas (Mipymes) de desarrollo de software, caracterizadas por su tamaño reducido y capacidad de adaptación rápida, juegan un papel importante en el sector. (Max, 2021). Uno de los principales desafíos que enfrentan las Mipymes de desarrollo de software es la necesidad de optimizar sus procesos internos para ser más eficientes y competitivas. La falta de recursos y herramientas adecuadas puede dificultar la implementación de prácticas de Ingeniería en Software que permitan agilizar tareas repetitivas y mejorar la gestión de recursos para el desarrollo de sistemas informáticos y aplicaciones. (Importancia de un ingeniero de software en una empresa, s. f.). Además, la falta de acceso a información relevante y actualizada sobre la industria del software puede limitar la capacidad de las microempresas para identificar oportunidades emergentes y superar los desafíos del mercado. La selección de fuentes confiables y relevantes para la búsqueda de información es un aspecto fundamental para contar con datos sólidos que orienten la toma de decisiones. Martín, I. (2021, 22 octubre).  En este sentido, contar con un padrón de Mipymes de desarrollo de software puede apoyar a su visualización. Por lo tanto, la presente investigación se enfoca en caracterizar a las microempresas de desarrollo de software en México, identificando y seleccionando las fuentes relevantes para la búsqueda de información, obteniendo datos precisos y actualizados. Mediante este análisis, se pretende ofrecer un padrón iniciando por los estados de Aguascalientes y Zacatecas de las microempresas en el sector del desarrollo de software en México.



METODOLOGÍA

La metodología del proyecto "Caracterización de las Entidades Muy Pequeñas de Desarrollo de Software en México" estará compuesta por diversas etapas que permitirán realizar un análisis exploratorio de la industria de software en México enfocándose en las microempresas. A continuación, se describen las etapas metodológicas que se siguieron: Caracterización de las microempresas. Identificación y selección de fuentes. Establecimiento del protocolo de búsqueda. Ejecución de búsqueda. Definición del instrumento de recopilación de datos. Análisis de datos. Elaboración de informe.


CONCLUSIONES

Con base en el proyecto "Caracterización de las Entidades Muy Pequeñas de Desarrollo de Software en México" y las actividades propuestas, se logró iniciar un padrón de microempresas sobre la industria del software en el país, especialmente enfocada en las microempresas. La justificación de este proyecto resalta la importancia de contar con repositorios en los que se tenga información actualizada y relevante de ingeniería en software, ya que en la mayoría de los países representan arriba del 97% de empresas de desarrollo de software. El objetivo general del proyecto es realizar un análisis exploratorio de la industria de software en México, con un enfoque particular en las microempresas. Para lograrlo, se han definido objetivos particulares, como la caracterización de las microempresas, la identificación y selección de fuentes para la búsqueda de información, el establecimiento y ejecución de la búsqueda y la definición de un instrumento de recopilación de datos. El análisis exploratorio proporciona una lista de entidades muy pequeñas de Aguascalientes y Zacatecas que forman parte del padrón en desarrollo de empresas de desarrollo de software en México. La caracterización de las microempresas de desarrollo de software en México se llevó a cabo siguiendo las categorías de software móvil, software web y software a la medida. En conclusión, este proyecto se presenta como una oportunidad para obtener conocimientos valiosos sobre la industria del software en México. Los resultados y conclusiones obtenidos serán de gran relevancia sirviendo como base para la creación de un padrón nacional de microempresas de desarrollo en software. Se espera que este análisis exploratorio sea el punto de partida para futuras investigaciones más profundas y específicas que puedan abordar aspectos adicionales de la industria del software en México y el papel de las microempresas en su desarrollo, evolución y su fortalecimiento con la aplicación de recursos del área de Ingeniería de Software.
Saldana Melanie Michelle, Instituto Tecnológico de Tepic
Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia

ANáLISIS INTRODUCTORIO DE LA CADENA DE SUMINISTRO DEL HIDRóGENO VERDE: APROXIMACIóN PROSPECTIVA Y SISTéMICA.


ANáLISIS INTRODUCTORIO DE LA CADENA DE SUMINISTRO DEL HIDRóGENO VERDE: APROXIMACIóN PROSPECTIVA Y SISTéMICA.

Becerra Gamboa José Luis, Instituto Tecnológico de Tepic. Saldana Melanie Michelle, Instituto Tecnológico de Tepic. Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

La transición hacia fuentes de energía renovables es crucial para frenar el cambio climático y lograr un desarrollo sostenible. El hidrógeno verde, producido a partir de fuentes renovables, es una alternativa prometedora para descarbonizar sectores que son difíciles de electrificar, como la industria y el transporte. Sin embargo, la implementación del hidrógeno verde a gran escala enfrenta desafíos importantes. Uno de los principales obstáculos es el desarrollo de una cadena de suministro eficiente para el hidrógeno verde. Actualmente, los costos de producción del hidrógeno verde son elevados, limitando su competitividad frente a combustibles fósiles como el gas natural. Además, se requiere de infraestructura para el transporte, almacenamiento y distribución a los sitios de demanda. Esta cadena de suministro debe diseñarse cuidadosamente para minimizar pérdidas de energía y costos. Para que el hidrógeno verde pueda contribuir significativamente a un futuro energético viable, es necesario abordar los desafíos de su cadena de suministro y crear condiciones propicias para su integración competitiva a los mercados. La investigación científica debe apoyar el diseño de soluciones óptimas en estos frentes con una visión prospectiva para el adyacente mercado energético. Con la ayuda de la dinámica de sistemas se pueden emplear escenarios donde se visualicen las diferentes problemáticas y el impacto multidimensional para la toma de decisiones de la implementación de dicha cadena de suministro del hidrógeno verde.



METODOLOGÍA

La implementación de la cadena de suministro del hidrógeno en el mercado energético es un desafío complejo que requiere un enfoque sistémico. La dinámica de sistemas es una metodología que puede ser útil para abordar este tipo de problemas, ya que permite modelar y analizar el comportamiento de sistemas complejos a lo largo del tiempo. Durante esta estadía, el problema de investigación fue abordado con un enfoque en la dinámica de sistemas. En primera instancia, se estudiaron las bases significativas de este método, como los diagramas causales, los cuales se implementan en programas como Vensim PLE. Se desarrollaron diagramas de niveles y flujos para comenzar a crear simulaciones de sistemas complejos y analizar los cambios que ocurren en ellos a partir de alteraciones en distintos parámetros obtenidos del estudio de los diagramas. Esta metodología permitió un análisis detallado y profundo del comportamiento de los sistemas bajo diferentes condiciones, proporcionando valiosos conocimientos para la investigación y el desarrollo de soluciones.


CONCLUSIONES

Reemplazar las fuentes de energía convencionales con hidrógeno renovable mejora la calidad del aire y protege el medio ambiente. Además, la adopción de tecnologías de hidrógeno promueve el autoabastecimiento energético y reduce la dependencia de fuentes externas, favoreciendo la transición hacia una matriz energética basada en fuentes limpias y renovables. El desarrollo de la economía del hidrógeno es un motor importante para movilizar inversiones que respalden el desarrollo económico. Además, el desarrollo de una cadena de valor del hidrógeno también puede promover la generación y el uso local de energía limpia. La introducción de tecnologías de producción de hidrógeno y su uso en diversas aplicaciones, como el transporte y la generación de energía, lleva a una mayor autosuficiencia energética en las comunidades locales. Esto implica impactos técnicos y ambientales ya que el uso del hidrógeno como producto final contribuye a la descarbonización de sectores importantes. El impacto multidimensional de la propuesta de utilizar hidrógeno como vector energético y su análisis en dinámica de sistemas es evidente en las diversas dimensiones técnicas, económicas, ambientales y sociales. La creación de una economía del hidrógeno representa no solo una solución para mitigar el cambio climático, sino también una oportunidad para impulsar el desarrollo de un sector emergente y en constante expansión.
Salgado Álvarez Evelyn America, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

LA CULTURA DE LA CALIDAD COMO HERRAMIENTA DE GESTIÓN INTERNA Y ADAPTACIÓN AL ENTORNO. UN ESTUDIO DE CASOS MÚLTIPLES EN EMPRESAS LATINOAMERICANAS. CASO: APLICACIÓN DEL BENCHMARKING EN LA GESTIÓN DE LA AGENCIA DE TRANSPORTES CMC EN LA CIUDAD DE GUASAVE, SINALOA


LA CULTURA DE LA CALIDAD COMO HERRAMIENTA DE GESTIÓN INTERNA Y ADAPTACIÓN AL ENTORNO. UN ESTUDIO DE CASOS MÚLTIPLES EN EMPRESAS LATINOAMERICANAS. CASO: APLICACIÓN DEL BENCHMARKING EN LA GESTIÓN DE LA AGENCIA DE TRANSPORTES CMC EN LA CIUDAD DE GUASAVE, SINALOA

Palomo Garcia Emily Jazel, Instituto Tecnológico de Piedras Negras. Reyes Sanchez Dayan Pamela, Universidad César Vallejo. Salgado Álvarez Evelyn America, Instituto Tecnológico de Ciudad Juárez. Zavala López Quetzali Daniela, Universidad Politécnica de Texcoco. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La agencia de Transportes CMC es una empresa de paquetería y carga situada en el municipio de Guasave, Sinaloa; teniendo envíos en toda la zona norte y central del país caracterizada por su calidad en el ámbito de la logística, constantemente busca mantenerse a la vanguardia respecto al resto de compañías dedicadas al mismo rubro, derivando en la necesidad de buscar constantemente nuevas ideas y modelos que le permitan mantener su posicionamiento, analizando las cualidades y necesidades de la agencia de transporte se optó por implementar la herramienta para la gestión de calidad Benchmarking con el fin de incrementar la productividad y calidad de su servicio tomando como punto de comparación a la empresa Mercado Libre.



METODOLOGÍA

En primera instancia se realizó una comparativa en el modelo de negocios de mercado libre respecto a su proceso de envíos analizando detalladamente los siguientes puntos en común de ambos negocios Procesamiento de las cargas Logística del servicio Administración de contenedores y almacén Trazamientos de rutas Sistema de Navegación Inspección y mantenimiento de vehículos Monitoreo de las rutas  Evaluación de entrega del cliente Cada uno de estos aspectos fue evaluado en una escala de 1 a 5 para medir el nivel de rendimiento con base encuestas realizadas por personal interno y consumidores, si existía una diferencia en un punto específico donde Mercado Libre tuviera una nota superior se detectaba una oportunidad de mejora, en primera instancia la comparativa arrojo que el tipo de contenedores implementados por Mercado Libre estaban diseñados con un procesos ergonómico adaptados al tipo de mercancía las cuales requerían ciertas características para evitar cualquier tipo de maltrato durante su traslado, los contenedores estaban clasificados de acuerdo al material de carga, plásticos, maderas, metal, entre otros; en base a ello se tomó medida diversificar los tipos de contenedores para el transporte de mercancías específicas que permitan entregar cargas en mejores condiciones. El siguiente punto de comparación donde existió una diferencia significativa fue en el sistema de navegación, la propuesta utilizada por Mercado Libre permite realizar entregas de forma agilizada seleccionando un trayecto preestablecido dónde pueden evitarse retrasos por tráficos o congestionamiento vial, se trata de un software avanzado que gestiona las rutas más óptimas para manejar, indicando las horas adecuadas de circulación para coordinar los descansos de los conductores optimizando los tiempos de entrega y garantizando un mejor calidad, posterior a ello se trabajó en un sistema de navegación para la compañía CMC que utiliza un algoritmo similar que permita reducir el mayor número de incidencias y retrasos durante el transporte de mercancías.  Otra área de oportunidad encontrada fue el monitoreo de rutas, una de las problemáticas habituales en la compañía CMC es el hecho de que tanto los monitoristas cómo los ruteros en ocasiones olvidan recibir el sello de entrega que valida cuando un envió fue realizado, esto es un punto de alto rigor debido a que si se omite debe regresarse nuevamente al destino para obtenerlo, situación que genera una pérdida de tiempo y dinero para la compañía, tomando como referencia nuevamente el método empleado en Mercado Libre dónde la validación para cargamentos de dicha magnitud ahora se realiza de forma digital utilizando unos celulares que los transportistas llevan con una clave por parte del cliente y un número de carga, los datos se vacían en el sistema una vez la carga ha sido entregada llevando un control total de los envíos.  Cómo última observación se consideró la evaluación de entregas del cliente; ambas empresas utilizan el clásico sistema de una lista de cualidades que el cliente califica en base a su experiencia, mientras que en CMC sólo se calificaba de forma general el envío, en Mercado Libre adicionalmente se califica al transportista de forma individual, no solía considerarse un punto relevante evaluar al repartidor, pero posteriormente termino llevándose a la práctica calificando aspectos como: Actitud del repartidor, estado de la mercancía, tiempo de entrega, comunicación, ahora incluso cuando se trata de clientes frecuentes ellos pueden solicitar un repartido en particular con base en su experiencia previa si el servicio les pareció de su agrado, fortaleciendo en el proceso la relación de cliente a empresa.


CONCLUSIONES

Las mejoras introducidas permitieron lograr un incremento en el nivel de satisfacción del cliente, redujo notablemente los gastos de transporte, el nuevo sistema de rutas ha optimizado considerablemente los tiempos de entrega aumentando la productividad de la compañía CMC. La selección de la metodología BenchMarking resultó sumamente favorable, considerando que Mercado Libre es la empresa de E-commerce más grande de Latinoamérica con uno de los sistemas de entrega por excelencia a nivel mundial resultó un excelente punto de comparación, permitiendo extraer atributos favorables de este negocio para fortalecer los puntos débiles de la empresa de transportes y cargas CMC. La evaluación de personal y la opción para seleccionar un transportista de forma predilecta han logrado atraer a un mayor número de clientes, la necesidad de seguir compitiendo en la industria logística y la aplicación de herramientas para la gestión de la calidad seguirán ayudando a mantener el posicionamiento de este negocio en el futuro.
Salgado García Dan Jesús, Universidad Autónoma del Estado de México
Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit

MODELO DE GENERACIóN DE ENERGíA ELéCTRICA POR MICRO HIDRáULICA, APLICADO EN LA LOCALIDAD DE SANTA CRUZ DE MIRAMAR - ADQUISICIóN Y DISEñO DE MEDIDORES VARIABLES MECáNICAS HIDRáULICAS, MPIO. SAN BLAS, NAYARIT, MéXICO.


MODELO DE GENERACIóN DE ENERGíA ELéCTRICA POR MICRO HIDRáULICA, APLICADO EN LA LOCALIDAD DE SANTA CRUZ DE MIRAMAR - ADQUISICIóN Y DISEñO DE MEDIDORES VARIABLES MECáNICAS HIDRáULICAS, MPIO. SAN BLAS, NAYARIT, MéXICO.

Salgado García Dan Jesús, Universidad Autónoma del Estado de México. Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

La comunidad de Santa Cruz de Miramar, en la costa de Nayarit, México, se caracteriza por su actividad económica centrada en el cultivo y empaque de la fruta yaka. En 2023, se visitó "Productores Organizados de yaka y frutas exóticas S.P.R.L.", una instalación de empaque de frutas para exportación. Para prolongar la vida útil de las frutas, se requiere refrigeración en cuartos fríos, pero esto genera un gasto considerable. La empresa es vital para la economía local. En la región, afluentes como el arroyo "El Naranjo" experimentan un flujo significativo de agua, especialmente durante las temporadas de lluvia. Se propone un proyecto para instalar un microgenerador en el arroyo "El Naranjo" y abastecer la demanda de energía de los cuartos fríos.



METODOLOGÍA

La metodología combina herramientas digitales y mediciones en campo para un análisis exhaustivo. Se seleccionarán puntos clave de medición a lo largo del arroyo y se establecerá una frecuencia de muestreo para evaluar el caudal en diferentes condiciones climáticas. Simulaciones del comportamiento hidráulico se realizarán con QGIS y datos hidrológicos. Se analizará el impacto ambiental de la instalación del microgenerador. Mediciones en campo durante épocas de aridez y lluvia proporcionarán datos precisos. Finalmente, se analizarán los datos y se elaborará un informe de investigación.


CONCLUSIONES

En el programa de investigación "Delfín" de 2023 en la Universidad Tecnológica de Nayarit, se realizó un análisis detallado del arroyo "El Naranjo". Mediante herramientas como SIATL y QGIS, se discernieron sus características, incluida su naturaleza perenne y las variaciones estacionales en su velocidad. La construcción de una presa y un canal cercanos por los habitantes destaca como un factor relevante para el proyecto de microgeneración. Se recomienda realizar mediciones adicionales con instrumentación especializada para reafirmar la capacidad óptima de funcionamiento de la máquina generadora de energía. Además de sus beneficios económicos, el proyecto representa un paso hacia una producción más sostenible y ecológica.
Salgado Gómez Kevin, Universidad Veracruzana
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

RELACIóN ENTRE INFARTO DE MIOCARDIO Y CALIDAD DE AIRE: UN ANáLISIS CLUSTERIZADO


RELACIóN ENTRE INFARTO DE MIOCARDIO Y CALIDAD DE AIRE: UN ANáLISIS CLUSTERIZADO

Salgado Gómez Kevin, Universidad Veracruzana. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En México, las enfermedades cardiovasculares representan una preocupación constante, con aproximadamente 220 mil personas falleciendo debido a estas condiciones, siendo el infarto de miocardio la principal causa responsable de 177 mil decesos en el año 2021. Es importante destacar que muchas de estas muertes podrían prevenirse mediante la evitación o control de factores de riesgo como el tabaquismo, la hipertensión arterial, el colesterol elevado y la diabetes no controlada. El año pasado, en 2021, se registraron alrededor de un millón 100 mil defunciones por diversas causas, de las cuales 220 mil se debieron a enfermedades cardiovasculares, siendo el infarto de corazón responsable del 78 por ciento de estas muertes. [4]. La incidencia de enfermedades cardiovasculares, especialmente el infarto de miocardio representa una preocupación de salud pública significativa en el país, con un alto número de fallecimientos cada año. A través del uso de técnicas de aprendizaje automático y clusterización, buscamos identificar patrones y posibles correlaciones entre estas variables para comprender mejor los factores de riesgo asociados y su impacto en la salud de la población. Este proyecto busca aportar conocimientos significativos a la investigación en salud pública y proporcionar información relevante que pueda ser utilizada para la toma de decisiones en políticas de prevención y control de enfermedades cardiovasculares en el país. Al comprender la relación entre el infarto de miocardio y la calidad del aire, se podrán desarrollar estrategias más efectivas para abordar y mitigar los factores de riesgo involucrados, contribuyendo así a la mejora de la salud y el bienestar de la población mexicana.



METODOLOGÍA

La metodología incluye los siguientes pasos, y se muestran a detalle a continuación: Realización de una exhaustiva revisión de la literatura científica y los recursos disponibles acerca del uso de datos abiertos de salud y calidad del aire en proyectos de análisis espaciotemporal relacionados con las muertes por infarto de miocardio. Adquisición de una familiaridad con los conjuntos de datos abiertos de salud y calidad del aire seleccionados para el estudio de la posible conexión entre la contaminación atmosférica y los casos de infarto de miocardio. Procesamiento de los datos abiertos de salud y calidad del aire, que incluye llevar a cabo la depuración de datos, la integración de diversas fuentes y la normalización de formatos, con el fin de garantizar la coherencia y calidad de estos. Exploración de los datos y llevar a cabo análisis descriptivos para obtener una visión preliminar de los patrones espaciotemporales y posibles correlaciones entre la contaminación atmosférica y los casos de infarto de miocardio. Aplicación de técnicas de minería de datos y aprendizaje automático para identificar patrones, tendencias y relaciones ocultas en los datos de salud y calidad del aire relacionados con los casos de infarto de miocardio. En este caso se realizó un aprendizaje automático no supervisado, realizando clustering, aplicando el algoritmo kmeans, en el que se agruparon conjuntos de datos similares sin supervisión, lo que ayuda a descubrir nuevos patrones y relaciones. Localización de los centroides a partir del agrupamiento realizado por el algoritmo kmeans. Análisis de la clusterización, aplicando modelos de clasificación para la identificación de las variables con mayor importancia a la hora de la agrupación. Creación de una documentación detallada del proyecto que abarque el proceso de análisis realizado y los resultados obtenidos.


CONCLUSIONES

A través de este estudio, hemos explorado las posibles clasificaciones de los datos relacionados con la calidad del aire y los casos de infarto de miocardio, permitiendo así la identificación de patrones y relaciones entre ambos conjuntos de datos. Mediante técnicas de minería de datos y aprendizaje automático, hemos logrado agrupar datos similares y analizar las características que influyen en la incidencia de infartos de miocardio en relación con la calidad del aire. Durante el análisis de los datos agrupados mediante técnicas de clustering, se obtuvieron centroides que representaban puntos centrales de cada grupo, lo que permitió visualizar características clave que el algoritmo consideró al realizar el agrupamiento. Sin embargo, surgieron desafíos significativos en la interpretación de los resultados, ya que la comprensión de lo que representan estos clústeres resultó ser complicada. La falta de una guía explícita o etiquetas claras para cada clúster dificultó la identificación y asignación de significados concretos a los grupos resultantes. En trabajos futuros, sería relevante abordar esta limitación y desarrollar métodos adicionales para interpretar y caracterizar de manera más precisa cada clúster. Se podría explorar el uso de técnicas de visualización avanzadas y análisis más detallados de las características predominantes en cada grupo. Además, la incorporación de datos sociodemográficos y otras variables relevantes podría enriquecer el análisis y proporcionar una mayor comprensión de las relaciones entre la calidad del aire, las características socioeconómicas y la incidencia de infartos de miocardio.
Salgado Juarez Marisol, Universidad Mexiquense del Bicentenario
Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla

EDUCACION INCLUSIVA PARA NIÑOS CON ALGUNA DISCAPACIDAD ENFOCADA EN EL AUTISMO


EDUCACION INCLUSIVA PARA NIÑOS CON ALGUNA DISCAPACIDAD ENFOCADA EN EL AUTISMO

Salgado Juarez Marisol, Universidad Mexiquense del Bicentenario. Asesor: Dra. Carmen Ceron Garnica, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El trastorno del espectro del autista (TEA) es un trastorno neurobiológico que afecta la comunicación, la interacción social y la conducta de las personas puede manifestarse de diferentes maneras en niños de 7 a 9 años. Algunos síntomas comunes del TEA en esta edad pueden incluir: 1. Dificultades en la comunicación: Los niños pueden tener dificultades para mantener conversaciones, comprender instrucciones o expresar sus propias ideas de manera clara.   2. Problemas en la interacción social: Pueden tener dificultades para establecer y mantener relaciones sociales, mostrar poco interés en interactuar con otros niños o tener dificultades para entender las emociones y los gestos de los demás.   3. Patrones repetitivos de comportamiento: Los niños pueden mostrar comportamientos repetitivos o estereotipados, como balanceo, movimientos de manos o intereses y actividades restrictivas.   4. Sensibilidad sensorial: Pueden tener una sensibilidad inusual a ciertos estímulos sensoriales, como luces brillantes, sonidos fuertes o texturas específicas.   Es importante tener en cuenta que cada niño con TEA es único y puede presentar una combinación única de síntomas. Además, es recomendable que cualquier preocupación sobre el desarrollo de un niño sea evaluada por un profesional de la salud, como un pediatra o un psicólogo especializado en TEA, para obtener un diagnóstico adecuado y recibir el apoyo necesario.   La mayor problemática con el trastorno autista (TEA) es que los docentes que están frente a un grupo no tienen los suficientes conocimientos por lo que durante el verano de investigación estudie como es que los niños tienen su forma de aprender para así proporcionarle al docente diferentes técnicas y estrategias y así mismo lo que es el TEA y algunos síntomas que pueden presentar los niños.



METODOLOGÍA

Se utilizo la escuela CAM No.33 del municipio de Texcaltitlan donde la escuela tiene distintas discapacidades y por ese motivo se realizo hay el estudio para resolver la problemática del trastorno ya mencionado ya que es la discapacidad que tiene más demanda aquí en la región, ya hablando con la directora del CAM nos proporciono que a los docentes se les dificulta el poderles brindar un mejor estilo educativo a los niños pequeños ya que les es difícil el aprender ya que los niños no aceptan cualquier sonido, así mismo que los docentes al frente del grupo de los niños con trastorno TEA por que lo docentes tiene que buscar la información actividades guiarse de diferentes videos de YouTube o de algún otro programa para así brindarle a los menores una educación más digna. Ya planteando el problema de que la problemática es que los maestros no cuentan con el suficiente conocimiento que necesita los niños, se planteó realizar una página básica es decir que tenga el significado del trastorno algunas actividades básicas y se realizo en el programa de eXeLearning para después compartirla a los profesores de la escuela antes mencionada y no solo a ellos si no también a los papas y publico en general ya que estará disponible en un servidor y así cualquier persona que quiera saber mas sobre el trastorno lo pueda visualizar en el internet.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el trastorno autista (TEA) y ponerlos en practica es decir la pagina que se realizo con lo básico para que ellos puedan adquirir conocimientos básicos, sin embargo, al ser un extenso trabajo falto aun mucho para poder dominar bien el tema y realizar una pagina mas compleja ya que fue básica por que el tema es muy complejo y existen diferentes tipos de autismos y solo me pude basar en el trastorno antes mencionado, aun así con lo básico podremos beneficiar a muchos niños, docentes, padres de familia y a las personas interesadas en saber del tema.
Salinas Dominguéz Jaquelin, Instituto Tecnológico de Gustavo A. Madero II
Asesor: Dra. Claudia del Carmen Gutiérrez Torres, Instituto Politécnico Nacional

SIMULACIóN NUMéRICA EN FENóMENOS DE TRANSPORTE


SIMULACIóN NUMéRICA EN FENóMENOS DE TRANSPORTE

Arellano Alcántar Diana Laura, Instituto Tecnológico de Morelia. Lorenzo Torres Esteban Gabriel, Instituto Politécnico Nacional. Salinas Dominguéz Jaquelin, Instituto Tecnológico de Gustavo A. Madero II. Asesor: Dra. Claudia del Carmen Gutiérrez Torres, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en reproducir mediante un software CAT las diferentes geometrías del copo de nieve de Koch que es una geometría fractal que ha sido estudiada en diferentes ámbitos para diferentes aplicaciones y generar barras sólidas que tengan ese tipo de geometrías en su sección transversal para posteriormente realizar una simulación numérica del flujo sobre esta barra con la finalidad de analizar el comportamiento de las fuerzas de arrastre en las geometrías.  



METODOLOGÍA

La simulación numérica se llevó a cabo utilizando los softwares Ansys-Fluent y Solidworks, en dos y tres dimensiones, pero con las mismas condiciones de flujo, es decir, con el mismo número de Reynolds. Posteriormente, se realizará una comparación del flujo alrededor de estas barras con respecto al flujo sobre un cilindro liso. La idea principal es comparar los campos de flujo (velocidad, presión) de las diferentes geometrías de los copos de nieve de Koch con los del cilindro circular liso cuando en dichos flujos se tiene un número de Reynolds de 30000.


CONCLUSIONES

El objetivo final es determinar si el uso de estas geometrías de copo de nieve de Koch pueden representar un ahorro de energía en términos de reducción del arrastre a geometrías similares como lo es la de un cilindro liso con sección transversal circular. De ser así, este tipo de geometrías podría ser utilizada en el diseño de dispositivos de ingeniería que utilicen cilindros dentro de su construcción y en los que se presente una interacción sólido-fluido como por ejemplo en intercambiadores de calor. Será necesario estudiar los efectos a diferentes números de Reynolds antes de tener conclusiones contundentes al respecto.
Salinas Urbano Saul Demian, Instituto Politécnico Nacional
Asesor: M.C. Alejandra Ibarra Morales, Instituto Politécnico Nacional

IDENTIFICACIóN DEL áRBOL DE PESO MíNIMO DE LAS RUTAS DE EVACUACIóN ANTE UNA POSIBLE ERUPCIóN DEL NEVADO DE TOLUCA


IDENTIFICACIóN DEL áRBOL DE PESO MíNIMO DE LAS RUTAS DE EVACUACIóN ANTE UNA POSIBLE ERUPCIóN DEL NEVADO DE TOLUCA

Salinas Urbano Saul Demian, Instituto Politécnico Nacional. Asesor: M.C. Alejandra Ibarra Morales, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El Nevado de Toluca es un estratovolcán que se localiza en el Estado de México, a 22 km de la capital Toluca de Lerdo. Forma parte de la Cordillera Neovolcánica Transversal y del Cinturón de Fuego del Pacífico, con sus 4680 m sobre el nivel del mar, se sitúa como el cuarto volcán más alto de México. Aunque se considera un volcán inactivo, aún presenta riesgo de posible erupción. Por otro lado, la Movilidad Urbana es una rama de la ingeniería que busca la optimización y desarrollar estrategias que permitan el desplazamiento seguro y eficiente tanto de personas y mercancías en entornos urbanos. Si bien estas estrategias se aplican habitualmente en la vida cotidiana, también pueden ser empleadas en situaciones de emergencia. El presente trabajo tiene como propósito abordar la aplicación de la Movilidad Urbana en el desarrollo de programas de Protección Civil, específicamente en el contexto de un plan de evacuación afectados por una eventual erupción del Nevado de Toluca. Esta investigación surge en respuesta a la relevancia mostrada por estudios geofísicos que destacan la importancia de contar con un plan de acción ante una posible erupción volcánica. Dado que la erupción del Nevado de Toluca podría afectar tanto a la ciudad de Toluca con casi un millón de habitantes como a varios poblados más pequeños, es imprescindible contar con estrategias efectivas para asegurar la seguridad y rapidez de la evacuación de la población.



METODOLOGÍA

El enfoque cualitativo se utilizó inicialmente para investigar las características del volcán y de los planes de evacuación existentes, enfocándose en el contexto específico del Nevado de Toluca. Se realizaron consultas bibliográficas para identificar los peligros volcánicos en el área de Toluca, finalmente se encontró y utilizo el mapa de peligros volcánicos del área de Toluca propuesto por Aceves, López-Blanco y Martín del Pozzo en su trabajo de 2005. Estos mapas permitieron reconocer los principales peligros asociados a una erupción, incluyendo la lluvia de ceniza, avalanchas, flujos de bloques y ceniza, flujos de ceniza y pómez, y Lahares. Para desarrollar un plan de evacuación eficiente, se realizó un análisis de redes en el que se planteó una red que incluyera los poblados señalados en los mapas mencionados, así como las vialidades relevantes. Utilizando el concepto de árbol de peso mínimo, se buscó identificar la configuración óptima de las vialidades necesarias para la evacuación. Esto permitirá determinar las rutas más eficientes, asegurando que estén despejadas para garantizar una evacuación segura y rápida de la población afectada. En el proceso de planteamiento de la red de evacuación, se llevó a cabo una identificación minuciosa de los nodos y enlaces relevantes para garantizar la efectividad del plan. En este caso, se definió que los nodos representaran tanto los poblados en riesgo como las intersecciones de carreteras y caminos que permitieran cambios de dirección. Asimismo, los enlaces se establecieron en base al mapa de peligros proporcionado por Aceves, Lopéz-Blanco y Martín del Pozzo, para asegurar que las rutas de evacuación se alejaran de las zonas de mayor riesgo volcánico y dirigieran hacia zonas seguras. Con el objetivo de evitar direcciones que nos condujeran hacia el volcán y permitir un desplazamiento adecuado, se optó por diseñar una red direccionada que optimizara la seguridad y eficiencia de la evacuación planificada.  La herramienta utilizada para los cálculos y análisis del árbol de peso mínimo fue la librería Networkx, que emplea el lenguaje de programación Python. La red se introdujo en el código como un documento CSV para realizar los cálculos necesarios.


CONCLUSIONES

Durante la estancia de verano, se lograron adquirir conocimientos teóricos sobre las características del Nevado de Toluca, las zonas de peligro ante una posible erupción y el manejo del software para el análisis de redes. Aunque el tiempo limitado no permitió un análisis profundo para el planteamiento completo del plan de evacuación, se logró obtener el árbol de peso mínimo, un primer producto que destaca las vialidades prioritarias en la evacuación. Se espera ampliar este análisis con datos actualizados de la zona cercana a Toluca y replicar un estudio similar para las vialidades de la Ciudad de Toluca en futuras investigaciones. El plan de evacuación propuesto será fundamental para enfrentar un escenario de erupción volcánica y asegurar la protección de la población afectada.
Salmerón Bastidas César Noel, Universidad Autónoma de Sinaloa
Asesor: Dr. Clemente Guadalupe Alvarado Beltrán, Universidad Autónoma de Sinaloa

DEGRADACIóN DE COMPUESTOS COLORANTES TóXICOS CON DIóXIDO DE TITANIO SINTETIZADO CON EXTRACTOS NATURALES DE JAMAICA, MORINGA Y ESPINACA


DEGRADACIóN DE COMPUESTOS COLORANTES TóXICOS CON DIóXIDO DE TITANIO SINTETIZADO CON EXTRACTOS NATURALES DE JAMAICA, MORINGA Y ESPINACA

Lugo Quevedo David Alejandro, Universidad de Sonora. Salmerón Bastidas César Noel, Universidad Autónoma de Sinaloa. Vazquez Chávez Jesús Miguel, Universidad de Guadalajara. Asesor: Dr. Clemente Guadalupe Alvarado Beltrán, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los colorantes como el azul de metileno significan un riesgo para el medio ambiente por sus diversos efectos negativos y la lenta degradación de estos, es por esto que es importante buscar estrategias como lo es la fotocatálisis para poder eliminar estos colorantes tóxicos en nuestro entorno. La fotocatálisis es un proceso fotoquímico que transforma la energía solar en energía química en la superficie de un catalizador, que consiste en un material semiconductor que incrementa la velocidad de la reacción. Durante este proceso, se llevan a cabo tanto reacciones de oxidación como de reducción. Cuando se menciona la fotocatálisis, se hace alusión a una reacción catalítica en la que se absorbe luz por parte de un catalizador o sustrato. En el campo de la química, la fotocatálisis se refiere a la aceleración de una fotorreacción en presencia de un catalizador.



METODOLOGÍA

Partiendo del tetracloruro de titanio (TiCL4) se sintetizó dióxido de titanio (TiO2), al cual se le agregaron extractos naturales de moringa, espinaca y jamaica, para posteriormente evaporar el solvente y calcinarlo en la mufla. Con ayuda del mortero se molieron las cenizas para obtener las nanopartículas, las cuales fueron agregadas a muestras de azul de metileno para iniciar su degradación a luz directa del sol. Una vez obtenidas varias muestras de la degradación de azul de metileno en distintos lapsos de tiempo a exposición de luz, se analizaron con el equipo UV-Vis y se graficaron con el programa origin para comparar los resultados de las degradaciones de las distintas muestras.


CONCLUSIONES

La síntesis del dióxido de titanio (TiO2) fue exitosa según las caracterizaciones realizadas en UV-Vis, sin embargo, al agregar los extractos naturales solo se obtuvo resultado favorable en el caso de la jamaica debido al band gap calculado. En el caso de las degradaciones, en todos los casos se observó disminución de la concentración de azul de metileno, pero la muestra correspondiente a la jamaica fue la que obtuvo mayor eficiencia. Podemos concluir que la investigación fue un éxito al degradar azul de metileno con dióxido de titanio (TiO2​) sintetizado con extracto natural de jamaica, ya que pudimos sensibilizar las moléculas a la luz visible al disminuir el band gap, pudiendo lograr eficientemente la reacción fotocatalitica.
Salto Cruz Anahi, Instituto Politécnico Nacional
Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional

ANáLISIS DE SEñALES SíSMICAS


ANáLISIS DE SEñALES SíSMICAS

Abundis Patiño Joseph Daniel, Universidad Autónoma de Occidente. Salto Cruz Anahi, Instituto Politécnico Nacional. Asesor: Dr. Jesús Yaljá Montiel Pérez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El estudio de los sismos es de suma importancia ya que nos permite comprender mejor la dinámica interna de la Tierra y cómo interactúa con la corteza terrestre. Esta comprensión es esencial para predecir y mitigar los efectos destructivos de los terremotos en nuestras comunidades. Al analizar los patrones y las características de los sismos, los científicos pueden desarrollar modelos más precisos para anticipar cuándo y dónde podrían ocurrir sismos en el futuro. En el caso de nuestro país, los sismos han tenido un impacto devastador debido a nuestra ubicación geográfica. Los terremotos pueden provocar la destrucción de infraestructuras, pérdida de vidas y graves consecuencias socioeconómicas, y es por ello que es particularmente imprescindible un profundo estudio de estos eventos, para así estar mejor preparados para sus arribos, como para ser capaces de predecirlos con mayor precisión y antelación, para ayudar a mantenernos seguros.



METODOLOGÍA

Como bien se ha mencionado, uno de los factores más importantes al arribo de un sismo, es el aviso a los ciudadanos, para así comenzar con los protocolos de emergencia. Dado esto, puede hacerse mención de como las redes neuronales y la inteligencia artificial han sido una gran herramienta al momento de la detección de actividad sísmica. Esto, porque este tipo de modelos de aprendizaje automático pueden realizar un análisis de una gran cantidad de datos en tiempo real, e identificar los patrones que se presentan al momento de la llegada de un sismo. Al identificar estos comportamientos previos a la llegada de un sismo, es que se pueden emitir alertas tempranas, para así darle a la sociedad una alerta temprana y darles un mayor margen de tiempo para la correcta realización de los protocolos de emergencia ante la situación.


CONCLUSIONES

Una vez realizada la red neuronal, se comenzó a ejecutar una serie de entrenamientos los cuales tenían un diferente conjunto de datos en cada prueba, esto, con la finalidad de verificar el correcto funcionamiento y la generalización de ésta.  La red neuronal logró un margen de error aceptable en la predicción de los valores de la Onda P y Onda S (valores de suma importancia en la detección de sismos) y demostró una capacidad de generalización. Esto se evidenció mediante la consistencia de los resultados en los datos de entrenamiento y los datos de prueba, sugiriendo que la red estaba aprendiendo patrones relevantes de manera efectiva.
Sámano Martínez Jacqueline, Universidad Mexiquense del Bicentenario
Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California

ASIGNACIóN DE CIE-10 A NOTAS MéDICAS EN ESPAñOL


ASIGNACIóN DE CIE-10 A NOTAS MéDICAS EN ESPAñOL

Gallego Rojo Laura Sophia, Universitaria Agustiniana Uniagustiniana. Sámano Martínez Jacqueline, Universidad Mexiquense del Bicentenario. Sequeda Castillo Kevin, Universidad de Investigación y Desarrollo. Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Desde su inicio la CIE ha sido de apoyo en los centros hospitalarios en distintos países, para la elaboración de estadísticas de morbilidad y mortalidad. Haciendo posible la obtención de información precisa sobre las enfermedades existentes y anteriormente identificadas, con el fin de conocer, evaluar e identificar enfermedades y contrarrestar posibles epidemias. Sin embargo, La aplicación de la CIE-10 (Clasificación Estadística Internacional de Enfermedades, Décima Revisión) en función de la asignación de codificadores para los diagnósticos médicos resultan laboriosos y expuesto a errores debido a la complejidad de codificación, ya que este proceso es realizado de manera tradicional, es decir, manualmente. De tal manera que, durante el proceso de evaluación médica en los sistemas hospitalarios conllevan retrasos, a fin de tomar mejores consultas en términos diagnósticos. Por consecuencia, se propone el desarrollo de un clasificador mediante la utilización de técnicas de procesamiento del lenguaje natural, Tensor Flow y las API provistas por OpenIA, que mejore la gestión de los datos de salud, facilitando análisis epidemiológicos y estudios de salud poblacional. No obstante, en esta primera etapa del proyecto, tiene como propósito encontrar y analizar los errores de Chat GPT durante el proceso de consulta y predicción del diagnóstico, dichos errores son categorizados en cuatro; comprensión, factual, especificidad e inferencia. Esto con el fin de ahorrar tiempo al personal médico en la elaboración y detección del diagnóstico con mayor calidad asistencial, y proporcionar respuestas tanto veraces como precisas.



METODOLOGÍA

Para llevar a cabo el proyecto hay que tener un conocimiento previo acerca de que es el CIE-10, centrándose en los códigos relacionados con las neoplasias malignas (cáncer). Este término describe las enfermedades en las que hay células anormales que se multiplican sin control e invaden los tejidos cercanos. Para llevar a cabo la primera etapa de este proyecto de investigación, se utilizó la siguiente Base de datos: CodiEsp, para trabajar con CIE-10, el cual consiste en una base de datos pública con más de 2,700 registros entre diagnósticos y procedimientos anotados por el médico para realizar el análisis de la clasificación CIE-10 versión 2018 e identificar los 4 errores de Chat GPT durante la consulta. Dicho esto, el dataset representa objetos digitales compuestos y heterogéneos, así como el conjunto de datos complejos que llevan consigo un orden de datos y su relación. Tales datos comprenden diferentes elementos o tipos de datos, como son los documentos de texto y hojas de cálculo. Una vez obtenida la BD pública (CodiEsp) se realizó el análisis exploratorio que consistió en la identificación y comprensión de los datos presentados. Dentro de ella se visualizan tres carpetas; test, train y dev. En cada una de ellas se encuentran dos carpetas más que contienen los diagnósticos en español e inglés, además de hojas de cálculo (.tsv). Tomando como ejemplo la carpeta dev, estos archivos se clasifican en tres; devD, devX y devP. El primer archivo es una tabla que se divide en 2 columnas; por el identificador del diagnóstico y él código CIE-10 asignado, tiene un total de 2,677 registros. Mientras que en el segundo archivo la tabla se divide en 4 columnas; identificador, procedimiento, código CIE-10, nombre de enfermedad y valores numéricos, tiene un total de 4,477 registros. Finalmente, el tercer archivo se presenta de la misma manera que el devD. Previo a esto, se decidió usar Codiesp debido a que son menos diagnósticos, tiene fácil acceso a los registros y una vista ordenada. Una vez concluido el análisis de la base de datos, se procedió a seleccionar un subconjunto de este, 60 notas respectivamente, para realizar las pruebas que ayude a comparar los resultados obtenidos por el modelo Chat GPT, e identificar si el modelo LLM asigna correctamente el C10 a la nota médica dada. Del cual se desempeñaron las actividades de clasificación y consulta de las notas médicas, asignando manualmente cada código para ejecutar el programa en Chat GPT. Detectando así la efectividad del programa durante la consulta de los códigos ofreciendo su propia valoración de acuerdo con el manual de clasificación CIE-10 vs 2018. Los errores se clasifican en cuatro, como son: Comprensión: Se refieren al fracaso en la comprensión del contexto y la intención del problema. Puede presentar deficiencias cuando se enfrenta a preguntas ambiguas o con errores gramaticales. Factualidad: El modelo carece de los hechos de apoyo necesarios ya sea evento, entidad o atributo, para producir una respuesta precisa Especificidad: El modelo no responde con el nivel adecuado de especificidad, esto ocurre cuando el modelo proporciona una respuesta demasiado general o muy específica. Inferencia: El modelo posee los conocimientos necesarios para responder una pregunta, pero no logra razonar con los hechos de forma eficaz para llegar a la respuesta correcta. [1] Se anexa el análisis manual del subconjunto de datos (https://docs.google.com/spreadsheets/d/1uooe2uTKVIzwmBn5jf_tM4SBbdB1oCXu/edit?usp=sharing&ouid=109721085237076027897&rtpof=true&sd=true).De acuerdo a lo anterior, se procedió a identificar de manera manual los errores y realizar la respectiva cuantificación. Los resultados indican que de las 60 predicciones aplicadas a los diagnósticos por el modelo LLM, presentan en su mayoría error de especificidad obteniendo el 43.33% en su totalidad, en cuanto al 6.67% indica error de comprensión, el otro 6.67% presenta error de factualidad y el 31.67% con error de inferencia, mientras que el 11.67% restante indicó a favor al no presentar errores.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos tanto teóricos como prácticos sobre el CIE-10, Chat GPT, Machine Learning y sus métricas como las aplicaciones con distintos modelos de NLP, sobre todo el curso de OpenAI “Chat Gpt Prompt Engineering For Developers” que fue de gran utilidad para comprender el tema de estudio y el aplicativo de los prompt en chat gpt. Dado esto se obtuvo conocimiento de las distintas formas o instrucciones que se pueden dar al modelo y así obtener respuestas precisas y rápidas. Sin embargo, ya que se trata de un tema a grandes rasgos y con alta complejidad de datos, el trabajo se encuentra en la primera fase, en la aplicación y análisis del CIE-10 para la identificación de las etiquetas correspondientes a los diagnósticos médicos y verificar los errores de predicción, ya que carecen de precisión y veracidad por parte del modelo Chat GPT. Dado que al subconjunto seleccionado de 60 notas médicas con sus respectivas etiquetas C10 y la predicción de LLM, se obtuvo que el 43.33% de ese subconjunto encontramos error de especificidad. Por tal motivo, se espera que mejore la exactitud de la instrucción a escribir en el modelo, de tal manera que podamos corregir los errores y buscar la mejor manera de aplicarlos.
Sampayo Vargas Libni Merari, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Hugo Hernández Cabrera, Instituto Tecnológico Superior de Huauchinango

GESTOR DE INSTRUMENTOS DE EVALUACIóN APLICABLES DE MANERA LOCAL.


GESTOR DE INSTRUMENTOS DE EVALUACIóN APLICABLES DE MANERA LOCAL.

Sampayo Vargas Libni Merari, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Hugo Hernández Cabrera, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En el ámbito educativo, es común que los estudiantes realicen proyectos y actividades como parte de su proceso de aprendizaje. Sin embargo, la evaluación de estos proyectos y actividades puede ser un proceso subjetivo y poco estandarizado, lo que dificulta la medición objetiva del desempeño de los estudiantes y la identificación de áreas de mejora. Por esta razón, es importante contar con herramientas eficaces y estandarizadas para la evaluación de proyectos donde se toman diferentes aspectos (expresión oral, dominio del tema, etc.) para poder asignar una calificación, esto se logra con la ayuda de algún instrumento de evaluación, tal es el caso de: rúbricas, listas de cotejo, etc.; el objetivo de realizar las evaluaciones es que dichos instrumentos una vez calificados y analizados nos permitan obtener información acerca del aprendizaje adquirido con la actividad. Al realizar la presentación de un proyecto se encuentran diferentes participantes (ponentes, evaluadores, organizadores y público) en dicho evento. En el caso de los evaluadores, para poder asignar una calificación a cada equipo o a cada participación de los ponentes utilizan rúbricas realizadas por el organizador del evento, estas son entregadas a los evaluadores en hojas de papel donde también realizan sus anotaciones pertinentes, se ha observado que a veces el espacio no es suficiente y no se puede redactar con precisión, sumado a la cantidad de puntos que estos consideren para su evaluación y el tiempo que le toma al evaluador llenar todos los datos referentes a los criterios de evaluación, así como la identificación de las diferentes áreas a calificar ya que usualmente se realiza dicho proceso de manera simultánea a la exposición y/o demostración del proyecto, complicando así el manejo de las hojas de las rúbricas para asignar la evaluación. Aunado a que el llenado de las rúbricas se hace en hojas de papel y se utiliza lápiz o lapicero, no siempre se cuenta con algún instrumento u objeto en el cual se pueda apoyar el evaluador al hacer sus anotaciones sobre todo cuando estas se realizan al aire libre o se tiene que desplazar de un lugar a otro para evaluar diferentes proyectos. Por último pero no menos importante se ha detectado que al momento de calcular el resultado de todas las rúbricas de forma manual existen altos porcentajes de error en dicho proceso identificando que es por el poco tiempo que tienen para realizarlo y que no se utiliza ningún dispositivo auxiliar en el proceso. Al momento de recabar toda la información de los diferentes evaluadores se deben concentrar y analizar los resultados para poder proveer a los evaluados una retroalimentación que les permita identificar las áreas de oportunidad de mejora para futuras presentaciones o exposiciones, simultáneamente, en el caso de los eventos donde se llevan a cabo concursos es necesario tener a la brevedad los resultados para posteriormente informar a los participantes.



METODOLOGÍA

Se realizaron distintas reuniones donde se identificaron dos escenarios de conectividad distintos uno que será de forma local y otro de forma distribuida, donde se determina que se trabajara de manera local se manejan dispositivos que serán los clientes y se asigna un servidor local. Posteriormente se realizó un análisis de la información obtenida, y fue así que se pudo llevar a cabo la identificación de los requerimientos, los cuales delimitan y definen de mejor manera los alcances y limitaciones, definiendo de mejor manera las funcionalidades del sistema y su prioridad, con esto se comenzó con los distintos modelos de cada funcionalidad llegando a tener como resultado el modelo del negocio con los componentes y elementos que se relacionan con el sistema. En la elaboración del modelo de negocio se trabajó en dos etapas, las cuales se identificó de manera general cada elemento del sistema para que en su siguiente iteración se defina más en específico los elementos que lo componen, con la finalidad de poder identificar las clases, objetos, entidades y sus posibles relaciones. Se decidió tomar como base algunos elementos de la metodología ágil SCRUM, por ejemplo las historias de usuario, que permitieron especificar las actividades que se realizan en cada uno de los procesos o funcionalidades del sistema, desde cómo se agrega a un usuario, hasta cómo se realizan los cambios de contraseña y cálculo de las evaluaciones. Otro de los elementos que se tomaron fue la planificación mediante sprints con una duración máxima de 4 semanas para permitir la construcción de cada funcionalidad y módulos del sistema. También se decidió que para acompañar todo este proceso de modelado del sistema, se utilizarán en primera instancia algunos diagramas propuestos por UML como son: diagramas de clase, de secuencia y de actividades.


CONCLUSIONES

Los conocimientos que adquirí en el programa fueron más de lo que tenía previsto puesto que puse en práctica todo lo aprendido en mi formación académica y pude llevarlo a la práctica en el desarrollo del proyecto, tal es el caso, de la ingeniería de software, tenía un poco de noción, sin embargo pude implementar aspectos de diferentes metodologías para la planeación y desarrollo del sistema. Para poder desarrollar el proyecto tuve que analizar cada requerimiento que se obtuvo después de cada entrevista, para posteriormente realizar un bosquejo de lo que se tenía que hacer y finalmente realice un modelo de negocio que me permitió ver más a fondo las necesidades que debía de cubrir el sistema, una vez realizado lo anterior se lograron redactar historias de usuario que permitieron definir las funcionalidades que tendrá el usuario al registrarse e iniciar sesión en el sistema. Al tener un progreso en todo lo anterior los trabajos futuros serían completar los elementos detectados en el modelo de negocio, crear sus correspondientes historias de usuario para posteriormente desarrollar el flujo de información para realizar los diagramas de bases de datos y así finalmente desarrollar cada módulo del sistema.
Sanabria Melecio José Ángel, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Mtro. Fernando José Martínez López, Instituto Tecnológico Superior del Sur de Guanajuato

DESARROLLO DE UNA APLICACIóN MóVIL PARA EL CARPOOLING: UNA SOLUCIóN DE TRANSPORTE COMPARTIDO PARA ESTUDIANTES UNIVERSITARIOS


DESARROLLO DE UNA APLICACIóN MóVIL PARA EL CARPOOLING: UNA SOLUCIóN DE TRANSPORTE COMPARTIDO PARA ESTUDIANTES UNIVERSITARIOS

Navarro Sosa César Antonio, Instituto Tecnológico Superior del Sur de Guanajuato. Pérez Avalos Gabriela Monserrat, Instituto Tecnológico Superior del Sur de Guanajuato. Pérez Lara Fatima Vianey, Instituto Tecnológico Superior del Sur de Guanajuato. Sanabria Melecio José Ángel, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Mtro. Fernando José Martínez López, Instituto Tecnológico Superior del Sur de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los estudiantes universitarios enfrentan problemas con el transporte público debido a su ineficiencia, lo cual se convierte en un obstáculo en términos de tiempo, disponibilidad, costo e inseguridad. Para resolver esto, se propuso crear una aplicación móvil llamada RideSchool, una solución de carpooling seguro entre estudiantes de una misma institución.



METODOLOGÍA

Se eligieron tecnologías como React Native, Google Firebase, y Google Maps, y se optó por utilizar componentes de Paper siguiendo las pautas de Google Material Design. Para el prototipado, se usó Miro, y para el control de versiones, git y GitHub, aprovechando las herramientas y ventajas que ofrecen. El proyecto también incluyó una fase de onboarding diseñada para mejorar la experiencia de usuario desde el primer uso, utilizando la inteligencia artificial Midjourney para generar imágenes. Se implementó autenticación y registro a través de Google Firebase, asegurando la persistencia de la información de la sesión. La aplicación permite solicitar y atender rides, integrando funcionalidades y servicios de Google Maps como puntos de encuentro, búsqueda dinámica de direcciones, y geolocalización. Además, se diseñó una pantalla para visualizar rides solicitados, incorporando opciones para cuotas y comentarios. Se hizo una solicitud por escrito para una prueba piloto en la comunidad estudiantil, con el fin de evaluar la aplicación en un entorno real y recopilar datos de uso, buscando eventualmente expandirse a más instituciones universitarias.


CONCLUSIONES

En conclusión, el desarrollo de RideSchool marca un avance significativo en la asistencia a los estudiantes en el transporte, aún quedan componentes por desarrollar, pero la experiencia ha fortalecido habilidades técnicas y blandas del equipo. La aplicación promete ser una herramienta útil en la vida cotidiana de los estudiantes.
Sánchez Alarcón Cinthia Elizabeth, Universidad Tecnológica de Nayarit
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

PROTOTIPO DE APLICACIóN DE REALIDAD AUMENTADA USANDO LAS GAFAS VUZIX BLADE PARA REPRESENTAR ELEMENTOS PRINCIPALES DE UNA HISTORIA DE MIGRACIóN EN COLOMBIA


PROTOTIPO DE APLICACIóN DE REALIDAD AUMENTADA USANDO LAS GAFAS VUZIX BLADE PARA REPRESENTAR ELEMENTOS PRINCIPALES DE UNA HISTORIA DE MIGRACIóN EN COLOMBIA

Sánchez Alarcón Cinthia Elizabeth, Universidad Tecnológica de Nayarit. Valencia Zavala Irving Miguel, Universidad Tecnológica de Nayarit. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

El fenómeno migratorio es común en todo el mundo por diversas razones, como buscar mejores oportunidades económicas o huir de conflictos. En Colombia, ha habido un aumento significativo de migrantes venezolanos debido a la crisis en Venezuela, con aproximadamente 1.742.927 ciudadanos ubicados principalmente en ciertos departamentos. El gobierno implementó el Estatuto Temporal de Protección para Migrantes en 2021 para abordar la situación. A pesar de los esfuerzos gubernamentales, la migración masiva ha generado desafíos de integración y acceso a servicios básicos, y ha provocado rechazo social y económico en la sociedad colombiana. Sin embargo, la tecnología puede ser una herramienta valiosa para buscar soluciones creativas y generar empatía hacia situaciones difíciles. En un mundo conectado gracias a la Web e internet, los proyectos tecnológicos pueden llegar a muchas personas y ayudar a fomentar la concientización deseada.



METODOLOGÍA

El objetivo del proyecto es desarrollar un prototipo de aplicación de realidad aumentada que cuente una historia de migración basada en el testimonio de un ciudadano venezolano y sus motivos detrás de la decisión. Se busca proyectar esta aplicación en las gafas inteligentes Vuzix Blade. El proyecto comenzó con la introducción a las gafas por parte de la investigadora líder del equipo, que eran nuevas y no se habían utilizado antes. Se enfocaron en crear productos de realidad aumentada adaptados para las gafas. Se aprendió formalmente el uso de Unity mediante cursos gratuitos en Unity Learns. Se seleccionó una historia de migración basada en entrevistas con migrantes venezolanos, manteniendo la confidencialidad. El equipo acordó un menú con opciones para iniciar y explicar los movimientos. El entorno mostrado sería similar al de la entrevista. Las interacciones básicas presentarían escenas diferentes con audios, texto y objetos significativos relacionados con cada movimiento. Los puntos clave rescatados de la entrevista son: "¿Quién soy?", "Motivos para emigrar", "Migración", "Metas", "¿Qué le diría a los demás?" y "Documentación". Se utilizó el código de interacciones proporcionado por Vuzix y se ajustó según las necesidades del proyecto. Las interacciones quedaron de la siguiente manera: (Al principio) Hacia arriba - Menú de opciones Un tap - Comenzar Hacia enfrente - Quién es, AUDIO (1ra escena) Hacia atrás - Motivos para emigrar, CUADRO DE TEXTO y AUDIO (2da escena) Hacia arriba - Objeto documento, AUDIO (3ra escena) Hacia abajo - Experiencia en la travesía, AUDIO (4ta escena) Desde escena 4 (complemento de la escena 4) dos dedos hacia trás, - OBJETOS escuela y bus consecutivamente, AUDIOS Dos dedos hacia atrás - CUADROS DE TEXTO de quién soy y motivos. La experiencia sería la siguiente:  Dando un tap con un dedo en el touchpad se inicia la experiencia (para volverla a reproducir, sería deslizar el dedo hacia adelante), primero se presentará un plano del avatar y el escenario montado y se reproduciría un audio con voz artificial diciendo: ¿Quién soy?" Deslizando un dedo en el touchpad hacia atrás, se muestra un cuadro de texto y se reproduciría otro audio de voz artificial diciendo: Motivos para emigrar. Deslizando un dedo en el touchpad hacia abajo, se muestra otro enfoque de la cámara/plano del avatar y se reproduciría otro audio de voz artificial diciendo: Experiencia en la travesía."  Deslizar dos dedos hacia atrás nos muestran dos cuadros de texto que es el escrito de los audios Quién soy y Motivos para emigrar. La siguiente idea es mostrar algunos objetos 3D prefabricados que representen un fragmento de la historia, aparecerán después de la 4ta escena y al aparecer, un audio se reproducirá contando lo correspondiente, quedando de la siguiente manera:   OBJETO BUS (a partir de la cuarta escena): Explica que emigraron por bus. OBJETO ESCUELA (a partir de la cuarta escena): Explica que quiere una buena educación para sus hijos. OBJETO DOCUMENTOS (deslizar un dedo hacia arriba): Explica cómo obtuvo sus documentos legales.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos y prácticos sobre realidad aumentada y se exploraron las gafas inteligentes por primera vez. Además, se aprendió a utilizar el programa de Unity para proyectos 3D sin experiencia previa en la plataforma. El producto se visualiza adecuadamente en las gafas y las interacciones programadas funcionan. Sin embargo, se identificó un problema con la carga lenta de escenas, por lo que se busca una estrategia para mejorar el rendimiento al ejecutar los proyectos en las gafas.
Sánchez Bustos Itzel Jatziri, Instituto Tecnológico de Morelia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.


ESTUDIO SOBRE EL COMPORTAMIENTO MECáNICO DEL CONCRETO HIDRáULICO ADICIONADO CON FIBRAS POLIMéRICAS Y ADITIVO FLUIDIFICANTE: ANáLISIS DE RESISTENCIA A LA FLEXIóN Y COMPRESIóN.

Barrera Ifarraguerri Erandi, Instituto Tecnológico de Morelia. Benítez Moreno Abraham, Instituto Tecnológico de Morelia. Celaya Cortés Marina, Instituto Tecnológico de Morelia. Lemus Chávez Martín, Instituto Tecnológico de Morelia. Sánchez Bustos Itzel Jatziri, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto hidráulico es ampliamente utilizado en la pavimentación y construcción debido a sus roles principales de soportar grandes esfuerzos de compresión y flexión, así como absorber cargas sin deformarse en temperaturas bajas. Sin embargo, el agrietamiento es un problema puntual que afecta sus propiedades. El agrietamiento se debe a tensiones a las que está sometido el concreto y se agrava cuando se expande o contrae, o cuando se aplica carga pesada o cambios en soportes. Para abordar el problema de residuos de plástico, se busca usar fibras de polipropileno reciclado como aditamento en el concreto para aumentar su vida útil de 5-10 años hasta 50 años o más. En términos de seguridad en la construcción, es esencial que las construcciones cumplan con estándares para garantizar el bienestar de las personas. El concreto con fibras ofrece una mejora en sus propiedades mecánicas, y el control de grietas dependerá del tipo y dosis de fibra utilizada. Se busca constantemente mejorar las propiedades mecánicas del concreto mediante la adición de fibras poliméricas y aditivos fluidificantes, lo que ofrece beneficios significativos en comparación con el concreto hidráulico sin fibras. El objetivo de este trabajo es evaluar la variación en el concreto al agregar estas fibras y aditivos fluidificantes.



METODOLOGÍA

Para llevar a cabo esta investigación se realizó un diseño de concreto para calcular la mezcla necesaria para obtener 32 cilindros de 10x20 cm  y 12 vigas de 15x15x60 cm. De los cuales, 18 cilindros y 6 vigas fueron adicionadas con fibras de PP. Se hizo uso del método  de los coeficientes del ACI por su alta fiabilidad en cuanto a resultados. La mezcla fue hecha con agregados de los bancos de materiales de “Joyitas” y “La Roka” ubicadas en Morelia, Michoacán, con cemento portland CPC 30R RS. Los cálculos realizados para el diseño de la mezcla por ACI para vigas y cilindros fueron: - cemento sin adición: 44.29 kg - cemento adicionado: 39.03 kg - arena sin adición: 77.74 kg - arena adicionada: 87.15 kg - grava sin adición: 127.58 kg - grava adicionada: 127.57 kg - agua sin adición: 41.82 kg - agua adicionada: 40.11 kg - fibra adicionada: 0.26 kg - fibra sin adicionar: 0.08 kg La preparación de las mezclas se realizó de forma mecánica con ayuda de una máquina mezcladora de concreto. En cuanto a la mezcla que no tenía aditivos, simplemente fue vertida en los moldes  con un proceso de varillado y golpeteo, caso contrario para los cilindros y vigas adicionadas, la mezcla fue adicionada con fibra de polipropileno en forma tubular alargada en las siguientes cantidades: 0.07 kg para los cilindros y 0.19 kg para las vigas y aditivo fluidificante respectivamente, tomando en cuenta la relación agua/cemento que en este caso fue de 0.62, para su proceso de vertida en moldes fueron sometidos a golpeteo. De los 32 cilindros,16 de ellos fueron testeados y de las 12 vigas solamente 4  para llevar a cabo la investigación; Las muestras fueron sometidas al proceso de curado de 6 a 7 días y 20 a 21 días. Las pruebas de flexión y compresión fueron realizadas por medio de una máquina de ensayos universal a los 7 días para los CSA y VSA (cilindros sin adición, viga sin adición), 6 días para los CA y VA (cilindros adicionados, vigas adicionadas), posteriormente se tomó una segunda toma de prueba de compresión a los 21 días para los CSA y VSA , 20 días para los CA y VA.


CONCLUSIONES

El análisis de mezclas mediante el método ACI arrojó que la mezcla con adiciones modificó las siguientes cantidades de materiales con respecto a la mezcla sin adiciones: -Cemento disminuyó un 12%. -Arena aumentó un 12%. -Grava no experimentó un cambio considerable. -Agua disminuyó un 4%. Las pruebas de resistencia a flexión y compresión arrojaron las siguientes modificaciones con respecto a la mezcla modificada con fibras y aditivos: Resistencia a flexión: -Se observó un aumento del 47% para los 6-7 días de curado. -No se tienen los datos para las muestras a 20-21 días de curado, ya que quedaron pendientes; sin embargo, se espera un comportamiento similar o mejor que a los 6-7 días de curado. Resistencia a compresión: -Se presentó una reducción del 14% para los 6-7 días de curado. -Se registró una reducción del 11% para los 20-21 días de curado. En cuanto a los valores máximos de resistencia, se obtuvo lo siguiente: Resistencia a flexión: -2257 MPa en la edad de curado de 6 a 7 días, presentada en la mezcla modificada. Resistencia a compresión: -11211 MPa en la edad de curado de 6 a 7 días y 13194 MPa en la edad de curado de 20 a 21 días, ambos máximos se observaron en las muestras sin modificar. A pesar de que la teoría sugería que las mezclas con adiciones (fibras PP y aditivo fluidificante) tendrían un mejor comportamiento en la resistencia a la flexión y compresión, los resultados obtenidos mostraron una disminución en la resistencia a la compresión. Esto podría deberse principalmente al proceso de colado, ya que no se realizó un vaciado correcto para la mezcla con adiciones, lo que generó huecos en los cilindros de las pruebas de resistencia a compresión, pero no en las vigas de las pruebas de la resistencia a flexión.
Sanchez Chavez Arturo, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DISEñO DE UN DISPOSITIVO DE MONITOREO REMOTO IMPLEMENTANDO IOT


DISEñO DE UN DISPOSITIVO DE MONITOREO REMOTO IMPLEMENTANDO IOT

Sanchez Chavez Arturo, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los sistemas de monitoreo ambiental recopilan datos como temperatura, humedad del aire, luz ultravioleta, CO2, velocidad del viento, luminosidad, y otros, dependiendo del propósito que se le dé. Estos datos tienen diversos usos, desde aplicaciones agrícolas hasta meteorología. El proyecto en desarrollo busca realizar un monitoreo ambiental en una zona específica, utilizando diferentes tecnologías para detectar y registrar los datos en una base de datos compartible, lo que permitirá realizar estudios y encontrar soluciones a problemas en la zona monitoreada. La combinación del Internet de las cosas (IoT) y las redes de sensores inalámbricas (WSN) posibilita el monitoreo de áreas de interés con parámetros físicos o ambientales, como sonido, vibraciones, temperatura, presión, movimiento o gases. Estos sistemas trabajan conjuntamente para recopilar información y almacenarla en una base de datos, optimizando la comunicación mediante redes hasta su destino.



METODOLOGÍA

Se procedió a armar el circuito en un protoboard y se programó el código de Arduino para obtener los datos del sensor analógico de CO2 y transmitirlos al Raspberry a través del puerto TX de Arduino Nano. Los datos se recibieron mediante el puerto RX del Raspberry. Adicionalmente, se obtuvieron los datos de los sensores digitales a través de los puertos digitales del Raspberry. Los datos obtenidos fueron almacenados en la base de datos previamente instalada. Una vez que todo funcionaba correctamente, se avanzó con la creación del circuito impreso en PCB utilizando el software Fritzing. El diseño se plasmó en la PCB, que fue previamente cortada a medida y luego se introdujo en Cloruro Férrico para oxidar el cobre no protegido por la tinta. Posteriormente, se realizó la perforación y soldadura de los componentes en el PCB.  


CONCLUSIONES

Los datos obtenidos de la conexión entre el Raspberry Pi y el Arduino Nano, utilizando distintos sensores para medir el nivel de CO2, la humedad del aire y la temperatura, fueron programados para ser actualizados cada 10 segundos. Estos datos se envían automáticamente y se almacenan en nuestra base de datos. Esta base de datos nos permite realizar estudios con gráficas, lo que nos permite observar cómo estos niveles varían a lo largo del tiempo. Al mostrar los datos, no solo obtenemos los niveles de los parámetros mencionados, sino que también se registra la fecha y hora exacta en que se obtuvieron estos datos.
Sánchez de la Mora Gabriel Humberto, Instituto Tecnológico de Morelia
Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo

OBTENCION Y ANALISIS ESTRUCTURAL DE BIPLASTICOS FUNGICOS.


OBTENCION Y ANALISIS ESTRUCTURAL DE BIPLASTICOS FUNGICOS.

Sánchez de la Mora Gabriel Humberto, Instituto Tecnológico de Morelia. Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La industria textil es, después de la industria del petróleo, la segunda industria más contaminante del medio ambiente y, sobre todo, de la que no se considera el daño que ocasiona. Esto consecuencia de la gran producción de textiles por parte de la industria, así como de otros sectores, se tiene un gran volumen de desperdicio, los cuales, según el segmento, es el impacto ambiental que estos tienen. Por lo anterior descrito, es de alta importancia el desarrollo de textiles a partir de materiales de origen natural, renovables, sustentables, así como procesos ecológicos y con menores impacto al medio ambiente. Así en la investigación que he participado, tiene como objetivo el desarrollo de bioplásticos a partir de micelio fúngico con potencial de uso como materiales textiles.



METODOLOGÍA

  a) Preparación de sustratos y materiales iniciales para el desarrollo de micelio fúngico. Inicialmente, se prepararon los medios nutritivos para el crecimiento de micelio del hongo Pleurotus Ostreatus, al cual posteriormente se adicionarían distintas proporciones de plastificante. Se utilizo agar de papa y dextrosa (BD Bioxon) con agua destilada y se llevó a agitación magnética durante aproximadamente 10 a 16 min y simultáneamente se calienta a 121ºC hasta hervir, una vez llegado el punto de ebullición solo se deja 1 min más, este será el medio de cultivo o medio de crecimiento para el micelio. Posteriormente la solución de agar de papa ya preparada se lleva a esterilizar a la autoclave durante 20 min. Una vez esterilizada la solución de agar se depositó en 25 cajas de Petri donde a cada una se le fue colocando un poco de micelio y se fueron sellando, para esto se utilizó una atmosfera controlada y estéril, pues es muy necesaria la sanidad del medio para así evitar contaminaciones en los medios de crecimiento del hongo, lo que podría dar como resultado el crecimiento de otro hongo, o de bacterias. Una vez selladas y etiquetadas todas las muestras, se colocaron dentro de una estufa a una temperatura de 28ºC. Pasando los días se fue tomando mediciones radiales del micelio, para llevar un registro y control de la tasa de crecimiento del hongo, para la toma de estas mediciones se tomaron fotografías de las muestras y posteriormente en un software de diseño asistido por computadora (AutoCAD) se realizaron las mediciones del radio del micelio. Transcurrido el tiempo necesario para que el micelio creciera lo suficiente como para abarcar toda la caja de Petri y formara una membrana redonda de un espesor de aproximadamente 2mm, se sometieron a un plastificante. b) Obtención de bioplástico con plastificante Se prepararon 4 soluciones en distintas proporciones para muestras de hongo que serían sometidas a un agente plastificante (Glicerol) en 30, 50, 70 y 100% con el resto en agua destilada. Y se etiqueto cada una de las muestras para su control y análisis. Las muestras de micelio se humectaron previamente en agua destilada durante 5 min, donde posterior a su humectación se escurrieron del exceso de agua y se colocan en cajas Petri que contenían las 4 soluciones anteriores. El proceso de plastificado que consistió en dejar sumergidas las muestras en las 4 soluciones de distinta proporción, tuvo una duración de 30 min. Después se pasó a un proceso de secado donde las muestras se escurrieron a una temperatura de 60ºC durante 30 min. Una vez realizado todo el proceso descrito de sometimiento al plastificante se llevaron las muestras a distintos análisis. c) Métodos de caracterización de los bioplásticos. Se realizaron pruebas para determinar el carácter hidrofílico-hidrofóbico de las membranas plastificadas, para ello muestras con plastificante en distinta proporción se sometieron a la prueba de la gota y así medir el ángulo de contacto de la gota con AutoCAD. Se analizaron las propiedades térmicas de las muestras por Caloría diferencial de barrido (DSC) y un análisis termogravimétrico (TGA) el cual es un análisis en el que la masa de una muestra se mide a lo largo del tiempo a medida que cambia la temperatura o a una temperatura constante durante un tiempo determinado. Por último, se realizó un análisis morfológico de las muestras por medio de un microscopio electrónico de barrido (SEM) donde las muestras de distintas proporciones de plastificante fueron sometidas para obtener imágenes de alta resolución de la superficie de la muestra.


CONCLUSIONES

Los resultados obtenidos muestran que entre mayor es la concentración de plastificante (Glicerol) en la muestra, mayor era su hidrofilia, pues el glicerol es un agente muy higroscópico, además, se observó que las muestra que fueron sometidas a una solución de 30% glicerol, fueron las que mostraron las mejores propiedades mecánicas, pues mostraban una gran relación entre resistencia a la tracción y elasticidad. Y por parte del micelio que se encontraba en crecimiento y que se fue realizando una medición radial periódica no se logró llegar a su crecimiento completo debido a que es un proceso muy extenso en cuanto a tiempo. Morfológicamente se observó una estructura fibrosa, un tanto desordenada, ramificada que corresponde a las hifas constituidas del micelio, las hifas se muestran zonas alineadas, lo cual causa anisotropía en sus propiedades mecánicas. Lo ideal sería que sea una estructura ramificada y en todas direcciones para lograr las mismas propiedades en cualquier sentido de esfuerzo. Durante la estancia aprendió acerca de los impactos que la industria textil tiene y como esta pasa desapercibida, se obtuvieron una gran cantidad de conocimientos acerca de hongos, acerca de plastificantes y como así, lograr textiles fúngicos que son una gran alternativa a los textiles convencionales, además conocimientos que se pusieron en práctica como los análisis morfológicos, lo análisis de hidrofobicidad, análisis termogravimétricos. Además, se aprendió a realizar medios de cultivos o medios de crecimiento para micelio. En general se logró un gran avance en experiencia en el ámbito de la investigación por parte del estudiante.
Sánchez Díaz Edén Jair, Instituto Tecnológico de Toluca
Asesor: Mg. Katherine Rosero Florez, Corporación Politécnico de la Costa Atlántica

ANáLISIS COMPARATIVO DE EMPRENDIMIENTOS Y ADOPCIóN DE LA TECNOLOGíA PARA LA OPTIMIZACIóN DE RECURSOS: BARRANQUILLA - CIUDAD DE MéXICO.


ANáLISIS COMPARATIVO DE EMPRENDIMIENTOS Y ADOPCIóN DE LA TECNOLOGíA PARA LA OPTIMIZACIóN DE RECURSOS: BARRANQUILLA - CIUDAD DE MéXICO.

Reyes Carmona Jesus Alejandro, Universidad Autónoma de Ciudad Juárez. Sánchez Díaz Edén Jair, Instituto Tecnológico de Toluca. Asesor: Mg. Katherine Rosero Florez, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El emprendimiento se presenta como una valiosa oportunidad para mejorar la calidad de vida de los ciudadanos, y ha sido adoptado por numerosos países en vías de desarrollo como un impulsor de la estabilidad económica tanto a nivel nacional como regional y local, es así como lo declara (Rada, 2014) donde manifiesta que el emprendimiento se ha convertido en un proceso que ha generado un impacto positivo en la creación de empresas en América Latina a lo largo del tiempo, contribuyendo a la generación de empleo, a la mejora de la eficiencia en la productividad y al aumento de la competitividad tanto a nivel nacional como internacional, es por ello, que se ha tenido un crecimiento notable en el respaldo y promoción de esta estrategia económica. Por otra parte, existe la variable de las tecnologías, de acuerdo con (Portafolio, 2021) las tecnologías permiten optimizar las operaciones de una empresa al hacer que sus procesos sean más eficientes, eliminando duplicaciones, errores y retrasos en el flujo de trabajo. En el entorno empresarial productivo, la tecnología desempeña un papel fundamental al impulsar emprendimientos que buscan fortalecer su productividad y utilidad en la sociedad. Una de las situaciones que logro poner a flote la necesidad de la tecnología en todos los emprendimientos y organizaciones para su crecimiento, fue la pandemia generada por el covid-19, este suceso obligo a los emprendedores a tener que adaptarse a una era digital que les permitiera el desarrollo de su negocio, sin embargo, esto ha presentado otro detalle a tomar en cuenta, y es la adopción de la tecnología en los negocios. De acuerdo con un informe (Lozano, 2020) en México se ha observado un fenómeno preocupante en relación al acceso a la tecnología por parte de los nuevos emprendimientos, el 90% de estas empresas se ven limitadas debido a la falta de acceso al financiamiento, impidiéndoles adquirir este valor agregado en sus organizaciones, esta falta de acceso a la tecnología tiene como consecuencia directa que el 75% de los emprendimientos en México no puedan crecer, ya que no cuentan con las herramientas necesarias para optimizar sus operaciones y procesar la información de manera eficiente. Es evidente que esta situación representa un obstáculo significativo para el desarrollo y éxito de estas empresas, lo cual pone en riesgo su capacidad de competir tanto a nivel nacional como internacional, impidiendo a su vez que puedan prosperar y alcanzar su máximo potencial. De acuerdo con (Endeavor Insight, 2016) en el contexto de Colombia se hace imprescindible un cambio en la mentalidad de los empresarios locales, quienes deben dejar de considerar la incorporación de la tecnología como un gasto y comenzar a verlo como una inversión estratégica. Este cambio resulta fundamental para que los negocios tengan una oportunidad real de dar un salto significativo en la adopción de herramientas tecnológicas adecuadas. Como respuesta a esta necesidad, en los últimos años se ha observado un incremento en los esfuerzos tanto públicos como privados para respaldar el emprendimiento tecnológico en el país. Se ha trabajado en la expansión de las actividades empresariales centradas en el sector tecnológico y se ha promovido un mayor interés a nivel regional e internacional hacia este sector empresarial en Colombia.



METODOLOGÍA

La investigación realizada en este trabajo de grado se clasifica como "aplicada" según lo que declara (minciencia, 2021). El propósito principal es abordar una problemática concreta y proporcionar soluciones prácticas y aplicables para mejorar la implementación de tecnologías en emprendimientos de Colombia (Barranquilla) y México (Ciudad de México). El enfoque utilizado en este estudio es "mixto" (Sampieri, 2014). Se emplea una combinación de métodos cuantitativos y cualitativos para obtener una visión completa y enriquecedora de la implementación de tecnologías en los emprendimientos de ambos países. El alcance de esta investigación es "explicativo" (Bernal, 2010). Se busca identificar las causas y factores que influyen en la falta de adopción y aprovechamiento óptimo de las tecnologías en los emprendimientos de Colombia y México.


CONCLUSIONES

La presente investigación tiene como objetivo proporcionar información valiosa, con el fin de analizar la optimización de recursos y aplicación de tecnologías en emprendimientos de la ciudad de Barranquilla y Ciudad de México, a partir de esta meta promover la eficiencia de los procesos empresariales, el cual, pretende obtener como resultado una caracterización de los tipos de emprendimientos empresariales que se desarrollan en las ciudades objeto de estudio, a través de una búsqueda de fuentes secundarias información que identifiquen los tipos de emprendimientos, asimismo, se realizará una comparativa de información de las fuentes encontradas para  hermanar similitudes teóricas de esta forma comparar y analizar las políticas gubernamentales y los marcos regulatorios para emprendedores en ambas ciudades, resaltando sus diferencias y similitudes. Otro de los resultados esperados consiste en examinar casos de éxitos de emprendimientos empresariales productivos basados en la adaptación de tecnologías, para esto se realizará una selección de casos exitosos de emprendimientos en ambas ciudades que hayan implementado con éxito tecnologías innovadoras en sus procesos empresariales.
Sánchez Durango Diego Andrés, Universidad Tecnológica de Pereira
Asesor: Mg. Adriana Rodriguez Morales, Servicio Nacional de Aprendizaje SENA - Regional Caldas

RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES,CALDAS,2023.


RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES,CALDAS,2023.

Sánchez Durango Diego Andrés, Universidad Tecnológica de Pereira. Asesor: Mg. Adriana Rodriguez Morales, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

 Según el COSPES 3874 la disponibilidad de suelos para efectuar la disposición final no está acorde con la creciente generación de residuos. El 83% de los residuos sólidos domiciliarios que se generan van a los rellenos sanitarios y solo el 17% es recuperado por recicladores para su reincorporación al ciclo productivo (DNP y BM, 2015, como se citó en (Manuel Santos Calderón et al., 2016) ). Si se continúa con la misma dinámica de generación de residuos, sin adecuadas medidas para mejorar su aprovechamiento o tratamiento, y con patrones de producción y consumo insostenibles, en el año 2030 tendremos emergencias sanitarias en la mayoría de las ciudades del país y una alta generación de emisiones de GEI.  Dada la escasez de información Nacional del aprovechamiento de materias primas a partir de residuos de construcción y demolición. Esta investigación pretende abordar los objetivos específicos del Plan Integral de gestión de Residuos Sólidos PGIRS 2015-2027 Manizales, en su apartado de la gestión de Residuos de Construcción y Demolición , en lo que refiere a  realizar la caracterización de los RCD, a fin de conocer sus cualidades químicas y físicas que permitan adoptar estrategias para disminuir la disposición final en escombreras, al igual que  el objetivo de maximizar y  fomentar el procesos de recuperación y reutilización  de los RCD fortaleciendo aspectos de orden técnico, administrativo, ambiental, económico, cultural y social. Principalmente, el enfoque se da en la ciudad de Manizales por las metas establecidas en su plan de desarrollo de 2020-2023 como una ciudad sostenible y resiliente, que actualmente lleva un 70,9 % de cumplimiento en avances, según datos del mes de julio. Para ello la investigación plantea ¿Es viable la recuperación de residuos de construcción y demolición para la fabricación de productos arquitectónicos?  con la cual se busca contribuir a los siguientes objetivos de desarrollo sostenible y a las metas del plan de desarrollo sostenible Manizales 2020-2023: Plan de desarrollo Manizales 2020-2023 y vigilancia de cumplimiento Educación y participación ambiental- 97,2 %, Sistemas productivos sostenibles- 70 %, Economía circular -57,1% Promoción del empleo e inclusión laboral -22,9 % Definiendo el camino. Hacia la ciudad inteligente -20 %



METODOLOGÍA

CARACTERIZACIÓN Prueba geométrica  ASTM C136: Método de prueba estándar para análisis granulométrico de agregados finos y gruesos.(ASTM, 2019a) Pruebas físicas  ASTM C127:  Método de prueba estándar para la densidad relativa y la absorción del agregado grueso.(ASTM, 2015) ASTM C131:  Método de prueba estándar para determinar la resistencia a la degradación de agregados gruesos de tamaño pequeño por abrasión e impacto en la Máquina de los Ángeles. (ASTM, 2020a) ASTM D4791: Método de prueba estándar para partículas planas, partículas alargadas o partículas planas y alargadas en agregados gruesos.(ASTM, 2019c) Microscopía Electrónica de barrido y Fluorescencia de rayos X por energía dispersiva: Método para determinar la composición química superficial del RCD y su apariencia superficial a nivel microscópico para comprender las anteriores pruebas físicas como densidad especifica y absorción de agua. ASTM C39/C39M-20: Método de prueba estándar para determinar la resistencia a la comprensión de cilindros de concreto. (ASTM, 2020b). FABRICACIÓN Diseño de producto Para el diseño de estos productos se parte de un estudio de la normatividad técnica colombiana, dadas por el Instituto Colombiana de Normas Técnicas y Certificación (ICONTEC) esto con el fin de que el diseño cumpla con los lineamientos geométricos y de resistencia establecidos para lograr su comercialización.   . Adoquin Fachaleta Prototipado 3D de los moldes de Adoquín y fachaleta : El prototipado es una técnica utilizada en la fabricación de productos o moldes, debido a las prestaciones económicas y de modelo real o a escala que se obtiene, permitiendo una acercamiento visual y comercial del producto. Diseño de mezcla de concreto con RCD El diseño de mezcla de concreto para los productos de adoquín, fachaleta y los cilindros de testeo para el ensayo de compresión, los Ingenieros Civiles trabajaron bajo el Método ACI 211.1. Desencofrado El desencofrado es una etapa que se realiza con el concreto húmedo con el objetivo de empezar el proceso de curado, dado que en el proceso de curado se garantiza que el concreto conserve la humedad y se eviten fisuraciones en el producto. Ensayo de resistencia a la compresión. El ensayo de resistencia a la comprensión permite evaluar la resistencia mecánica de un material cuando es sometido a una carga axial de aplastamiento, para este caso permite evaluar como se comportará el concreto y específicamente los adoquines en sus aplicaciones de pavimentación, bancas, etc; 


CONCLUSIONES

La producción de adoquines y fachaletas es una oportunidad fundamental para las estrategias del gobierno municipal y nacional en relación con el manejo y la reutilización de RCD, permitiendo la generación de nuevas empresas, nuevos trabajos, dignificación del trabajó de los recicladores como una oferta laboral de la economía circular, negocios verdes y la disminución del impacto ambiental por los rellenos sanitario. El estudio de aprovechamiento de RCD en la fabricación de dos productos iniciales, permite proponer un  aprovechamiento del RCD  para la generación de otros productos como bancas en concreto, pavimentación peatonal, ciclo vías, pavimentación de puentes en estructuras metálicas, todo ello mediante una metodología similar donde se evalué la capacidad del material para responder a la aplicación particular y consideraciones de diseño, producción en masa, embalaje, distribución y/o exportación del mismo.
Sánchez Flores Alicia, Instituto Tecnológico de Pachuca
Asesor: Dra. Laura María Reyes Méndez, Universidad Nacional Abierta y a Distancia

EXTRACCIóN DE COMPUESTOS ACTIVOS DE MAMONCILLO Y SU USO EN EL DESARROLLO DE PELíCULAS BIODEGRADABLES


EXTRACCIóN DE COMPUESTOS ACTIVOS DE MAMONCILLO Y SU USO EN EL DESARROLLO DE PELíCULAS BIODEGRADABLES

Sánchez Flores Alicia, Instituto Tecnológico de Pachuca. Asesor: Dra. Laura María Reyes Méndez, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

El desperdicio de alimentos es un problema cada vez más relevante a nivel global que tiene consecuencias significativas en términos de seguridad alimentaria, impacto ambiental, economía y sociedad en general. Cuando los alimentos no se almacenan adecuadamente, se vuelven susceptibles a la contaminación y a la proliferación de microorganismos dañinos, lo que puede llevar a problemas de salud y a un desperdicio innecesario.   Las películas plásticas se utilizan para envolver alimentos frescos como frutas, verduras, carnes y quesos. Al mantenerlos envueltos, se protege su superficie de la contaminación y se previene el contacto con otros alimentos que puedan transmitir olores y sabores no deseados. Sin embargo éstas películas plásticas, para envolver alimentos y protegerlos de la contaminación, la deshidratación y la pérdida de calidad son generalmente de polietileno o PVC. La acumulación de residuos plásticos es un problema cada vez más preocupante en todo el mundo. Estos residuos, que son fabricados con materiales derivados de combustibles fósiles, como el petróleo, son excepcionalmente duraderos y tardan muchos años en descomponerse por completo. A medida que su producción y consumo han aumentado significativamente en las últimas décadas, se ha generado una cantidad masiva de residuos plásticos que no son gestionados adecuadamente. Se denominan películas bioactivas a las que integran ingredientes con actividad funcional como antioxidantes, vitaminas, prebióticos y probióticos y son  capaces de cambiar las condiciones de un alimento, extender la  vida de anaquel, mejorar la seguridad microbiológica y conservar su calidad  durante el transporte y el almacenamiento.  Algunos ingredientes funcionales utilizados en el diseño de películas y recubrimientos comestibles son: fármacos, vitaminas, antimicrobianos, saborizantes, colorantes y conservadores. Para este proyecto se empleó como ingrediente funcional activo el extracto de mamoncillo. El mamoncillo, también conocido como limoncillo, es una fruta tropical originaria de América Central y del Sur. Su nombre científico es Melicoccus bijugatus. Es una baya pequeña, redonda u ovalada, con una cáscara delgada y dura que suele ser de color verde o amarillo cuando está madura. La pulpa es blanca o amarilla y jugosa, con un sabor agridulce muy característico cuya composición es de 47% pulpa, 29% semilla, 24% cáscara.  



METODOLOGÍA

Acondicionar la materia prima (mamoncillo) separando sus partes de interés: cáscara, semilla y hoja y someter a secado. Después de la disminución de partícula, proceder a la extracción por agitación y por baño ultrasónico empleando etanol absoluto. Posteriormente, añadir a la formulación de las películas (2% grenetina, 1% carboximetilcelulosa, 1% Glicerol) los porcentajes de extracto del activo con mejor acción antimicrobiana de 1%, 2%, 3% y 4%. Realizar el análisis de la acción antimicrobiana de extractos y películas con el sembrado masivo de Bacillus cereus, Escherichia coli, Pseudomonas aeruginosa, Streptococcus mutans, Staphylococcus aureus, midiendo el halo de inhibición en los discos previamente impregnados con los extractos y en las películas. Analizar la actividad antioxidante de extractos y películas con los ensayos ABTS, DPPH, fenoles totales y flavonoides, determinar la concentración mínima inhibitoria y concentración máxima bactericida de los extractos. Caracterizar la película para conocer su espesor, solubilidad, humedad, barrera a la luz UV-vis. Estudiar el recubrimiento directo en un fruto fresco a refrigeración para conocer la pérdida de peso y cambio de pH.  


CONCLUSIONES

El método de extracción con el que se obtuvieron mejores concentraciones de activo fue por ultrasonido que cuenta con 3.19% de extracto blando.  El extracto de cáscara de mamoncillo por ultrasonido presenta acción antimicrobiana, ante Escherichia coli, Bacillus cereus, Pseudomonas aeruginosa, Staphylococcus aureus y Streptococcus mutans y fue adicionado en las películas.  El mayor contenido de fenoles es de 12.38  mg de ácido gálico/ g de extracto, y 30.64 mg de quercetina/g de extracto de flavonoides con presencia en el extracto de hoja de mamoncillo obtenido por ultrasonido. Las películas en las que se incorporó 4% de su peso de extracto de cáscara por ultrasonido, tienen acción antimicrobiana ante Bacillus cereus y  cuentan con acción antioxidante considerable, su humedad es de 15.94±1.60 %, su solubilidad de 70.40±18.42 % y espesor promedio de 0.065±0.002 mm. Al incrementar el porcentaje de extracto en la película se observa una disminución de humedad y solubilidad, y un aumento de fenoles totales así como un espesor mayor. Las películas de grenetina y carboximetilcelulosa adicionadas con extracto de cáscara de mamoncillo obtenido por ultrasonido, presentan acción antibacterial y antioxidante. Asimismo cuentan con una estructura resistente y equiparable al plástico convencional lo cual las hace potencialmente recubrimientos para alimentos como frutos frescos con el fin de su conservación. Esta película plástica es una alternativa biodegradable a los plásticos de un solo uso y provenientes de fuentes no renovables que contaminan los ecosistemas. Al ser hidrosolubles y tener componentes orgánicos biocompatibles no representan un riesgo ambiental y contribuyen a la reducción de residuos y desechos.  
Sanchez Fonseca Edna Julieth, Instituto Tecnológico Metropolitano
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DISEñO DE MAQUINA DOBLADORA DE VARILLA


DISEñO DE MAQUINA DOBLADORA DE VARILLA

Cortés Aparicio Yael Itsuky, Benemérita Universidad Autónoma de Puebla. Hernandez Elizalde Wendy Cecilia, Universidad Autónoma de Sinaloa. Hernandez Sanchez Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Jiménez Rodríguez Anayansi, Universidad Autónoma Benito Juárez de Oaxaca. Sanchez Fonseca Edna Julieth, Instituto Tecnológico Metropolitano. Valenzuela Medina Fabian, Universidad Autónoma de Sinaloa. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el área de la construcción se tiene la necesidad de fabricar hogares, puentes, edificios entre otros, por lo que se requiere resolver el problema de la fabricación de estribos que son varillas de alambrón de acero, que unen las varillas en los castillos, por lo que se plantea el diseño una maquina dobladora de varilla, capaz de doblar por medio de una secuencia con un sistema mecánico y un sistema de moldeo fijo, dirigido por un motor, este diseño se propuso dado que era necesario un prototipo de bajo costo, esto debido a que en el área de la construcción en México ha crecido un 5% de acuerdo a la cámara Mexicana de la industria de la construcción (CMIC), durante el año 2021.



METODOLOGÍA

Para el diseño de la maquina dobladora de varilla se utilizaron materiales biodegradables para el prototipado por impresión 3D, dichos materiales fueron el acido polilactico (PLA) y poliuretano termoplastico (TPU), además de los diseños se pueden realizar bajo cualquier software asistido por computadora como ejemplo Solidworks, autodesk, FreeCAD,  entre otros, los pasos a seguir para el dieño de la maquina dobladora de varilla fuerón los siguientes 1) Se realizó una búsqueda del estado del arte y de vigilancia tecnológica en diferentes buscadores de patentes como Google Patents, EspaceNet,  Patentscope, entre otros más. 2) Posteriormente se realizó con dicha búsqueda inicial una serie de propuestas diseñadas por medio de algún Software CAD para diseño 3D, para posteriormente realizar la impresión de dichos modelos para su fabricación por manufactura aditiva, con PLA.  3) La serie de prototipos se realizaron haciendo simulaciones de movimiento mecánico por computadora y realizando una comparativa con el movimiento en ambiente real.  4)  A la par de la realización de la fabricación por manufactura aditiva de los diferentes prototipos se realizó la escritura de la solicitud de patente que actualmente continua en proceso para solicitar el trámite ante el Instituto Mexicano de la Propiedad Industrial (IMPI).  5) Se realizaba una serie de vigilancias tecnología cada vez que se quería realizar otra propuesta de prototipo y verificar el estado del arte en los diferentes buscadores de patente.  6) Finalmente se construyó el prototipo que cumple las simulaciones mecanicas y en ambiente real,  para verificar la prueba de concepto, por manufactura aditiva que es una representación a escala para la maquina real que se construirá, en caso de conseguir recursos.


CONCLUSIONES

Las diferentes conclusiones que llego el equipo fueron que se aprendió una metodología diferente de como investigar la alta tecnología así de cómo usar el diseño por computadora, la impresión 3D en diferentes materiales para realizar prototipos de manera rápida y como profundizar en un tema para realizar su vigilancia tecnológica además de realizar el desarrollo de la escritura de patente y la solicitud de la misma ante el IMPI en un futuro, en este caso, la maquina dobladora de varilla de alambrón y materiales de inferior densidad así como de sus diferentes aleaciones, dado que fue un reto desarrollar un prototipo mecánico, que cumpliera las caracteristicas de funcionalidad tanto en simulación por computadora y en ambiente real a escala, el mayor reto fue realizar el proceso para hacer los dobleces de la varilla es por medio de un sistema sincronizado de engranajes.
Sánchez García Emir Giovanni, Instituto Tecnológico Superior de Puruándiro
Asesor: Mg. Jessica Gissella Maradey Lázaro, Universidad Autónoma de Bucaramanga

MICROSIMULACIóN DE TRáFICO: CASO UNAB


MICROSIMULACIóN DE TRáFICO: CASO UNAB

Sánchez García Emir Giovanni, Instituto Tecnológico Superior de Puruándiro. Asesor: Mg. Jessica Gissella Maradey Lázaro, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, el crecimiento del parque automotor en Bucaramanga aunado a las necesidades de movilidad de las personas ha generado un alto tráfico en las vías principales, que a su vez aumenta el consumo de combustible y las emisiones contaminantes al ambiente. Además, las congestiones vehiculares tienen un impacto significativo en la movilidad de la zona metropolitana de Bucaramanga. Estas congestiones van de la mano con las emisiones de gases que generan, lo cual es preocupante para la salud de los habitantes, afectando tanto su bienestar personal como su movilidad como ciudadanos. Con respecto a emisiones de carbono por habitante, Bucaramanga se sitúa cerca del promedio nacional con 1.45 toneladas al año, se han registrado disminuciones del 18% entre los años 2019 y 2021.  Dióxido de carbono y que problemas tiene Bucaramanga con respecto a esto. El principal problema de la movilidad de Bucaramanga es la contaminación por parte de los flujos vehiculares el 90% de los gases contaminantes provienen de los vehículos antiguos de servicio público. Los gases como: monóxido de carbono, óxido nitroso y dióxido de carbono, son los que más contaminan el aire y afectan el sistema respiratorio de las personas. La ruta del Bus UNAB. La Universidad Autónoma de Bucaramanga (UNAB) cuenta con un servicio de bus para toda la comunidad UNAB, el cual presta un servicio de traslado de la sede el Jardín hacia la sede Centro de Servicios Universitarios (CSU), teniendo paradas estratégicas en algunos puntos para dejar y recoger pasajeros. La ruta en estos puntos realiza paradas momentáneas, en la sede el Jardín la parada demora de 2 a 5 minutos y en el CSU el bus tiene una espera aproximada de 15 minutos, debido a que es una sede menos concurrida a la principal, realiza esta espera para aprovechar que más parte de la comunidad pueda obtener acceso al servicio. 



METODOLOGÍA

La metodología con la cual se desarrollará este proyecto es el método V, la cual consta de una fase descendente en la cual se señalan las necesidades de nuestro proyecto y una fase ascendente donde se especifican las verificaciones de las necesidades del proyecto. Variables de entrada en la microsimulación de tráfico. De acuerdo al tipo de estudio o bien el software a utilizar podemos identificar distintas variables de entrada. Software y mayores variables de entrada. VISSIM Flujo, composición vehicular, velocidad, velocidad deseada, aceleración y desaceleración, configuraciones de carril, tiempo de frenado, fase de semáforo. PARAMICS Flujo, velocidad, composición vehicular, flujo direccional, aceleración y desaceleración, posición, tiempo de reducción de peatones, velocidad de caminar, accidentes, elección de ruta, trayectoria de vehículos, geometría. AIMSUN Flujo, longitud de segmento, velocidad, diferencia de velocidad, desaceleración, velocidad relativa, espacio libre, espacio libre entre vehículos, tiempo de reacción, estado del vehículo y la carretera, tiempo de viaje. Variables de salida. Ahora bien, obtenemos distintas variables de salida como lo pueden ser retraso en vialidades, rendimiento de vehículos, tiempo de viaje, flujo libre de velocidad, densidad de atascos. Sin embargo, algunas variables de entrada también pueden ser variables de salida como es el caso de la densidad de tráfico y la velocidad de tráfico. Calibración de los modelos de microsimulación. La calibración consiste en ajustar los parámetros del modelo para mejorar la capacidad del mismo para reproducir el comportamiento de los conductores locales y las características del tráfico. La calibración se realiza en varios componentes del modelo global. El objetivo de la calibración es mejorar la capacidad del modelo para reproducir con precisión las condiciones locales de tráfico. Verificación y validación. Verificación: Se puede comprender como la facilidad con la que puede demostrarse el correcto funcionamiento del software, mediante su prueba. Validación: La validación del software es el proceso mediante el cual se comprueba que el sistema está acorde a las especificaciones y que cumple con las necesidades reales de los usuarios.  


CONCLUSIONES

La expansión acelerada del parque automotor en Bucaramanga ha creado importantes problemas de congestión vehicular y altos niveles de emisiones contaminantes, amenazando la salud pública y la calidad del aire en la región. Los municipios de Girón y Bucaramanga son los más afectados por esta situación debido a su concentración de vehículos que contribuyen significativamente a las emisiones de dióxido de carbono, monóxido de carbono y óxido nitroso.  Para hacer frente a este desafío, se ha propuesto la implementación de la microsimulación de tráfico como una herramienta valiosa para permitir el desarrollo de alternativas para reducir la congestión vehicular y, por lo tanto, las emisiones de CO2.  Los softwares especializados como VISSIM, AIMSUN, PARAMICS y SUMO pueden permitir el análisis de detallados y realistas comportamientos del tráfico y las emisiones para evaluar el impacto de varias medidas de movilidad sostenible. Será posible desarrollar estrategias efectivas para reducir las emisiones. La contaminación del aire. Es importante enfatizar la importancia de calibrar y validar adecuadamente los modelos de microsimulación. Estos pasos críticos aseguran la precisión y eficacia de la solución propuesta. Del mismo modo, las variables de entrada de un estudio deben considerarse con mucho cuidado, ya que la proyección correcta determinará si se logra el resultado deseado en base a un estudio de caso. En este sentido, la introducción de la descarbonización del sector transporte, con especial énfasis hacia el UNAB BUS, se plantea como una acción clave para lograr una movilidad más sostenible y mejorar significativamente la calidad del aire en la región. La integración de estas medidas y el uso de herramientas de simulación avanzadas representan un enfoque integral y proactivo para abordar los desafíos ambientales de Bucaramanga y sus alrededores.
Sanchez Gomez Litzzy, Instituto Tecnológico de Pachuca
Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

GENERACIóN DE ENERGíA A TRAVéS DE UN SISTEMA EóILCO PARA CULTIVOS DE CANNABIS


GENERACIóN DE ENERGíA A TRAVéS DE UN SISTEMA EóILCO PARA CULTIVOS DE CANNABIS

Carrillo Soto Jose Victor, Universidad de la Guajira. Sanchez Gomez Litzzy, Instituto Tecnológico de Pachuca. Asesor: Dr. Javier Burgos Vergara, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

Actualmente existe una preocupación importante por el calentamiento global generado por la actividad humana afectando principalmente a los combustibles fósiles para cubrir con los requerimientos energéticos actuales. Uno de los sistemas energéticos más atractivos es aquellos basados en el uso de energía eólica, en los cuales se trasforma la energía del viento a energía mecánica para posteriormente convertirla en energía eléctrica. La nueva era son las energías renovables, de eso no existe duda alguna, la llegada de esta energía contribuye a una mejor relación entre la producción de energía y los recursos naturales del medio ambiente. El combustible que alimenta esos generadores de energía es totalmente gratuito y factible debido al aprovechamiento de los recursos autóctonos contribuyendo a la mejora de la economía local. Este trabajo consta del diseño de un prototipo de un aerogenerador vertical de tipo Rotor H. En el municipio de Santo Tomas, departamento Atlántico de Colombia, donde se encuentra un invernadero de Cannabis en cual se requiere implementar un sistema que nos permita obtener energía eléctrica para un sistema de riego, de una manera económica, productiva y altamente sostenible. 



METODOLOGÍA

El viento es una fuente de energía limpia, gratuita e inagotable. Ha sido ocupada desde hace siglos para navegar, mover molinos, moler trigo o bombear agua. Ya en las civilizaciones sumerias o egipcias, el viento estaba presente no solo en la vida real, sino en toda clase de historias, leyendas o mitos. Las culturas más antiguas aprovechaban su fuerza para desplazarse mediante el uso de velas en los barcos. En una turbina eólica, las palas o aletas giran con la fuerza ejercida sobre ellas por el viento. Al moverse circularmente, hacen girar un eje que, a su vez, impulsa una caja de engranes, la cual hace que un sistema de rotación que está dentro de un generador se mueve a gran velocidad. El generador convierte esa energía de rotación en electricidad, la cual puede usarse directamente en tiempo real o puede almacenarse en un banco de baterías para aprovecharse más tarde. Con base a la implementación requerida se diseñó un modelo del aerogenerador. Inicialmente, optamos por una caja multiplicadora y debíamos decidir si implementar un modelo vertical u horizontal. Tras un análisis, determinamos que un aerogenerador con turbinas verticales de tipo Rotor H era la mejor opción. El cual está diseñado especialmente para adaptarse en el área de los invernaderos de cannabis. Para comenzar con su diseño y establecer las medias de dicho aerogenerador tanto de su altura como de su área se realizaron ciertos estudios para determinarlos. Para la creación de la caja multiplicadora, nos basamos en un modelo propuesto para otro aerogenerador. Sin embargo, también buscamos una alternativa más económica que pudiera reducir los costos. Así, ideamos un diseño de poleas, que resultaba ser una opción más económica para el proyecto. Se determino que su altura total es de 4m, el tamaño de las palas o aletas es de 1.5 m de alto por 20 cm de ancho y 5 cm de espesor. También se adaptó un alternador imantado, el cual con ayuda de un sistema de poleas recibirá la energía generada por las aspas convirtiéndola en energía eléctrica con el fin de abastecer el alumbrado del invernadero. Se realizaron pruebas físicas. Además, hicimos una modificación al alternador para asegurarnos de que el voltaje y la velocidad del sistema fueran suficientes para cargar una batería. Diseñamos una estructura para llevar a cabo el ensamble y presentar el aerogenerador en su versión completa. Mostramos cómo quedaría la propuesta, teniendo en cuenta todos los elementos previamente trabajados y probados.


CONCLUSIONES

La energía eólica se aprovecha de una fuente de energía totalmente inagotable como es el viento, y por tanto tiene grandes ventajas. Tiene un impacto menor en el ecosistema en el que se instalen los parques eólicos y poseen una gran capacidad productiva. En esta zona el precio de la electricidad es elevado, por todo ello, el uso del viento es una solución para crear electricidad, generar una cantidad razonable de electricidad por un bajo coste, dando un resultado de inviabilidad Durante el desarrollo del proyecto del aerogenerador, se llevaron a cabo etapas bien definidas que permitieron una progresión ordenada y eficiente en el diseño y prueba de sus componentes clave. Desde la investigación inicial para obtener ideas hasta la implementación de una alternativa más económica para la caja multiplicadora, el equipo demostró habilidades en la resolución de problemas y en la adaptación de soluciones innovadoras. La combinación del modelo vertical y el diseño de poleas resultó en un aerogenerador completo y funcional que cumple con los requerimientos de voltaje y velocidad para cargar una batería. La experiencia adquirida en este proyecto abre nuevas oportunidades para futuros desarrollos en el campo de la energía eólica, destacando los beneficios de esta forma de generación energética. La energía eólica es una alternativa prometedora y sostenible que ofrece una serie de ventajas, desde la protección del medio ambiente hasta el impulso económico local.
Sánchez Guzmán Carlos, Universidad Tecnológica de Nayarit
Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez

SISTEMA METEOROLóGICO CON INTERNET DE LAS COSAS.


SISTEMA METEOROLóGICO CON INTERNET DE LAS COSAS.

Sánchez Guzmán Carlos, Universidad Tecnológica de Nayarit. Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

El internet de las cosas (IoT), es un termino que hace referencia al monitoreo de variables mediante sensores y acción de objetos físicos reales capaces de transmitir y recibir datos a través de internet, ya sea solamente para enviar datos de su entorno o para ordenar o decidir determinada función en base a los datos recopilados. Hoy en día existen tarjetas de desarrollo comerciales capaces de crear un proyecto de IoT y llevarlo a cabo a un nivel académico y profesional, por lo que existe la posibilidad de crear un proyecto de internet de las cosas sin necesidad de pertenecer a una empresa especializada en estas tecnologías. El IoT se crea con el ideal de tener un ilimitado número de objetos conectados en una red, compartiendo y enviando datos de su entorno para la toma de un posterior decisión, esto puede llevarse a nivel industrial para tomar la decisión de en que momento es oportuno dar mantenimiento a una línea de producción o mucho más simple en el hogar, monitoreando los niveles de humedad en nuestras plantas para determinar cuando debemos regarlas, esta tecnología es el futuro y es necesario investigar todos los alcances y posibilidades que se tiene con esta en base a las necesidades que surgen día a día en nuestra sociedad en todos los niveles (industrial, hogar, comercial, etc.). En este documento se explorará la capacidad del Internet de las cosas para transmitir variables de su entorno, relacionadas con la meteorología, en busca de obtener un sistema meteorológico basado en una tarjeta de desarrollo compatible con Wifi y a su vez que estos datos monitoreados puedas ser mostrados al usuario a través de una plataforma virtual, por lo que cualquier persona con acceso al enlace pueda visualizar los datos meteorológicos que esta monitoreando el sistema.



METODOLOGÍA

Seleccionar la tarjeta de desarrollo para realizar el proyecto: La tarjeta de desarrollo requerida para el prototipo requiere de determinadas características para ser seleccionada: Ser compatible con Arduino IDE Tener conectividad Wifi Tener mas de 2 pines digitales Tener mas de 2 pines analógico a digital (ADC) Tener una salida de operación de 3.3V-5V para la alimentación de sensores Tener protocolo de comunicación I2C Tener un bajo coste En base a las necesidades presentadas, se seleccionó la tarjeta ESP32 que contaba con todas las características requeridas para ser la placa del prototipo, además de contar con características de frecuencia de reloj 240Mhz y una diversa cantidad de pines para utilizar. Investigar artículos acerca de otros sistemas similares desarrollados con anterioridad. Explorando las bibliografías existentes, se encontraron 2 artículos de referencia con una temática similar. Seleccionar los sensores a utilizar. Una vez delimitando las variables a utilizar en base a las utilizadas por las estaciones meteorológicas nacionales, se seleccionaron los siguientes sensores: Sensor de temperatura y humedad. Sensor de presión barométrica y altura del nivel de mar. LDR: Medidor de luz en el ambiente.  Sensor de lluvia. Diseñar y construir el circuito del sistema. El diseño del sistema se hizo en un diagrama mediante el Software Kicad 6.0 y la construcción del circuito se hizo en una placa de prueba. Programar los sensores. La programación se realizo mediante el software Arduino IDE y el lenguaje utilizado fue C. Hacer pruebas de medición de sensores. Crear un canal de lectura en la plataforma ThingSpeak. Se creo un canal privado de ThingSpeak con 6 ranuras de recepción de datos. Programar la comunicación de la tarjeta a la plataforma para envió de datos. Con librerías especializadas de ThingSpeak se realizó la comunicación entre el ESP32 y el servidor de ThingSpeak. Prueba de medición y envió de datos del prototipo. Diseñar un circuito impreso para la integración del circuito. Se realizo el circuito impreso en el software Kicad 6.0. Enviar los datos monitoreados a una base de datos Los datos pueden ser visualizados en Excel, mediante una función de ThingSpeak de descarga de datos en formato de hojas de datos.


CONCLUSIONES

Durante la estancia del verano se logro construir una estación meteorológica montada en una placa de pruebas que envía datos de humedad, temperatura, altura al nivel del mar, presión barométrica y precipitaciones mediante wifi a la plataforma de ThingSpeak donde los datos enviados son actualizados cada 22 segundos, los resultados se muestran a manera de graficas y mediante medidores automatizados. El desarrollo de la estación meteorológica implementada con internet de las cosas, representa un ejemplo para el uso de estas nuevas tecnologías en el ámbito del desarrollo de tecnología abierto y libre, que permite al usuario una libertad creativa sin límites, así como pudo ser creado un proyecto de nivel académico se puede pasar al siguiente nivel obedeciendo las mismas bases establecidas en este documento, no obstante, el uso de sensores económicos limita mucho la precisión de nuestro prototipo donde algunos sensores variaron en rangos de hasta por encima del 10% de error, no obstante cabe destacar que las mediciones varían en concreto del lugar en el que se mide a pesar de encontrarse en la misma ciudad, esto debido a la propia ciencia de la meteorología que estudia los fenómenos climatológicos y del tiempo en un lugar y tiempo específicos. El prototipo puede llegar a ser ampliado de manera indefinida, colocando mas sensores establecidos en otras estaciones meteorológicas de nivel profesional, así mismo como implementando las variables o utilizando otra forma de visualización de datos para el internet de las cosas, se espera que este documento quede como referencia para futuras investigaciones en la exploración de proyectos para el internet de las cosas para futuros estudiantes o aficionados que busquen implementar su propia o estación o ampliar el proyecto.
Sánchez Herrera Isaias, Instituto Tecnológico de Jiquilpan
Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México

IDENTIFICACIóN DE VIOLENCIA DE GéNERO Y ANáLISIS DE SENTIMIENTOS EN TEXTO.


IDENTIFICACIóN DE VIOLENCIA DE GéNERO Y ANáLISIS DE SENTIMIENTOS EN TEXTO.

Sánchez Herrera Isaias, Instituto Tecnológico de Jiquilpan. Asesor: Dra. Alma Delia Cuevas Rasgado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Diversos estudios demuestran el gran poder que tienen los medios en la forma que vemos el mundo, incluyendo cómo éstos contribuyen a la normalización del acoso sexual y otras formas de violencia y discriminación, principalmente contra las mujeres. Derivado de esta problemática, y tomando en cuenta las áreas de oportunidad detectadas en la vasta literatura sobre el tema, la Comisión Nacional para Prevenir y Erradicar la Violencia contra las mujeres, a través del Centro de Investigaciones y Estudios de Género de la Universidad Nacional Autónoma de México (CIEG-UNAM), realizó el estudio titulado Representaciones de Género y Violencia contra las Mujeres en los Medios Digitales y de Entretenimiento. El estudio se centró en identificar las formas en que las principales redes sociales (Facebook, Instagram) y plataformas digitales como YouTube y Netflix, contribuyen a perpetuar, justificar y normalizar la violencia contra las mujeres, principalmente a través de la representación de mujeres y hombres en roles estereotipados que les colocan en posiciones de ventaja y desventaja, respectivamente, perpetuando patrones de dominación y sumisión. Otro de los descubrimientos del estudio tiene que ver la representación de la sexualidad, donde se encontró un marcado énfasis en el control del cuerpo de las mujeres, lo que, aunado a otras variables como la belleza física, la delgadez, la edad y la falta de diversidad corporal, conducen no solo a la cosificación, sino a la violencia sexual y la discriminación en contra de las mujeres.



METODOLOGÍA

Desarrollar un algoritmo que sea capaz de detectar el texto que se considere una violencia o agresión, y reemplazarlo con texto eliminado. Para ello lo primero sería preparar los textos para que puedan ser procesados. Es muy común que en las redes sociales se escriba de una manera irregular, agregando muchos caracteres especiales, emojis, expresiones, etc. Es por ello que debemos eliminar todo ese ruido que pueda ocasionar el texto. Lo siguiente seria eliminar las palabras vacías del texto, como son; como, pero, mas, este, cuando, etc. El repertorio de palabras vacías es muy extenso, es por ello que Python tiene una biblioteca llamada nltk. Esta biblioteca contiene todas las palabras vacías de varios idiomas y los almacena en una sola variable. Ahora una estandarización de términos que no están en el lenguaje y que no podría reconocer el algoritmo. Términos que se usan para representar una palabra, tales como; fb (Facebook), insta (Instagram), omg (oh por dios), etc. También hay expresiones que pueden representar emociones tales como risa, enojo o tristeza. Todos estos términos serian irreconocibles por lo tanto hay que cambiarlos. Una vez que tenemos nuestro texto limpio. Debemos aplicar una técnica en la recuperación de datos en los sistemas de información (RDSI). Existen 2 técnicas de este tipo: Lemantización y Derivación. Lemantización: La Lemantización es un proceso lingüístico que consiste en, dada una forma flexionada, hallar el lema correspondiente. Derivación: La tarea de la Derivación es la misma que la Lemantización, solo que esta obtiene las raíces de las palabras. Puede reducir el número de elementos que forman nuestros textos.  En el procesamiento del lenguaje natural, una técnica común para extraer características del texto es colocar todas las palabras que aparecen en el texto en un cubo. Este enfoque se denomina modelo de bolsa de palabras o BoW para abreviar. Se le conoce como una "bolsa" de palabras porque se pierde cualquier información sobre la estructura de la oración. Cada documento se constituye de un diccionario (listado de palabras) y sus pesos respectivos para dicho documento. Diccionario: listado de todas las palabras que aparecen en todos los documentos sin repeticiones. Pesos o valores de las características: será obtenido por medio de: Frecuencia de aparición de la palabra: TF Frecuencia de aparición de la palabra por la inversa del documento: TF-IDF TF Frecuencia de términos: TF de un término o palabra es el número de veces que el término aparece en un documento en comparación con el número total de palabras en el documento. Para poder determinar el TF debemos hacer uso del CountTokenizer o Vectores de Frecuencia. El CountVectorizer proporciona una manera simple de tokenizar una colección de documentos de texto y construir un vocabulario de palabras conocidas. Pero también se puede codificar nuevos documentos usando este vocabulario. TFIDF Frecuencia inversa de documentos: IDF de un término refleja la proporción de documentos en el corpus que contienen el término. Las palabras exclusivas de un pequeño porcentaje de documentos reciben valores de importancia más altos que las palabras comunes en todos los documentos. Para poder calcular el TFIDF tenemos 2 opciones. TfidfVectorizer o TfidfTransformer. Sin entrar en la matemática, TF-IDF son puntuaciones de frecuencia de palabras que tratan de resaltar las palabras que son más interesantes, por ejemplo, frecuentes en un documento, pero no en todos los documentos. El TfidfVectorizer tokenizará documentos, aprenderá el vocabulario y las ponderaciones inversas de frecuencia de documentos, y te permitirá codificar nuevos documentos. Alternativamente, si ya tiene un CountVectorizer aprendido, puede usarlo con un TfidfTransformer para calcular las frecuencias inversas de los documentos y comenzar a codificarlos. Se utiliza el mismo proceso de crear, ajustar y transformar que con el CountVectorizer.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos sobre PLN, se habló a fondo sobre sus conceptos, aplicaciones, dificultades, etc. Se manejaron diversas herramientas que son necesarias para poder trabajar los textos que se encuentran en las redes sociales. Al ser textos tan especiales usando muchos caracteres especiales y expresiones que no se encuentran en el lenguaje, se necesita hacer una preparación de los textos para eliminar palabras vacías y estandarizar palabras y expresiones a una forma que se pueda procesar el texto y el algoritmo pueda entender y determinar si el texto es ofensivo o no.
Sánchez Huerta Víctor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. Yunellis del Carmen Burgos Pereira, Fundación Universitaria Tecnológico Comfenalco

MODELO RELACIONAL PARA ACTIVIDADES INNOVADORAS Y LA PRODUCTIVIDAD EMPRESARIAL DE LAS EMPRESAS DEL SECTOR CONSTRUCCIÓN CARTAGENA DE INDIAS


MODELO RELACIONAL PARA ACTIVIDADES INNOVADORAS Y LA PRODUCTIVIDAD EMPRESARIAL DE LAS EMPRESAS DEL SECTOR CONSTRUCCIÓN CARTAGENA DE INDIAS

Gonzalez Santiago Carlos Alberto, Tecnológico de Estudios Superiores de Jocotitlán. Ortiz Cano Alberto, Instituto Tecnológico de Morelia. Sánchez Huerta Víctor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Yunellis del Carmen Burgos Pereira, Fundación Universitaria Tecnológico Comfenalco



PLANTEAMIENTO DEL PROBLEMA

En Cartagena de Indias, Colombia, las empresas prestadoras de servicios de mantenimiento industrial y de construcción se adaptan a las necesidades específicas de la región y ofrecen una variedad de características y servicios. Algunas de las características comunes de estas empresas en Cartagena de Indias son las siguientes:  Experiencia y especialización: Las empresas de mantenimiento industrial y de construcción en Cartagena de Indias suelen tener experiencia en proyectos tanto a nivel local como nacional e internacional. Cuentan con personal capacitado y especializado en diferentes áreas técnicas, como electricidad, mecánica, automatización, soldadura, entre otros. Amplio rango de servicios: Estas empresas ofrecen una amplia gama de servicios para cubrir las necesidades de mantenimiento y construcción de diversas industrias. Esto puede incluir mantenimiento preventivo y correctivo de maquinaria y equipos, reparaciones, instalaciones eléctricas, proyectos de ingeniería, montaje y desmontaje de estructuras, entre otros. Cumplimiento de normas y estándares: Las empresas prestadoras de servicios de mantenimiento industrial y de construcción en Cartagena de Indias se adhieren a las normas y estándares de calidad, seguridad y medio ambiente establecidos tanto a nivel local como internacional. Esto garantiza la ejecución de trabajos de forma segura y confiable.  Uso de tecnología y equipos modernos: Estas empresas emplean tecnología avanzada y equipos modernos en sus proyectos. Pueden utilizar herramientas de diagnóstico, software especializado, maquinaria de última generación y materiales de calidad para garantizar la eficiencia y la calidad en sus servicios.  Flexibilidad y adaptabilidad: Las empresas se adaptan a las necesidades específicas de cada cliente y ofrecen soluciones personalizadas. Pueden trabajar en diferentes sectores, como petroquímica, minería, manufactura, energía, construcción civil, entre otros.  Cumplimiento de plazos y presupuestos: Estas empresas se comprometen a cumplir con los plazos acordados y a trabajar dentro de los presupuestos establecidos. Tienen la capacidad de gestionar proyectos de diferentes tamaños y complejidades, asegurando la entrega oportuna y eficiente.  Servicio de atención al cliente: Las empresas de mantenimiento industrial y de construcción en Cartagena de Indias brindan un servicio al cliente de calidad, con atención personalizada y una comunicación fluida. Están comprometidas en satisfacer las necesidades y expectativas de sus clientes.



METODOLOGÍA

La metodología define el camino a seguir para alcanzar los objetivos propuestos, y debe identificar y describir el uso de métodos, procedimientos, técnicas analíticas cualitativas y cuantitativas que se utilizarán para alcanzar cada uno de los objetivos específicos.  Según Neill & Córtez (2018), los métodos utilizados en la investigación científica pueden dividirse en métodos lógicos y métodos empíricos.  En los primeros se encuentran los métodos deductivos, método inductivo, método hipotético deductivo, y en los segundos se encuentran la observación, medición y experimentación.  Se recomienda redactar la metodología por objetivo específico y definir para cada uno de ellos, el procedimiento, técnica o herramienta a utilizar, por ejemplo, observaciones, encuestas, entrevistas, diseños de experimentos, simulaciones, validaciones, pruebas, ensayos y otros, las variables a analizar cuando aplique y la información o datos que aspira a obtener y los resultados. Debe ser incluido en la metodología, la identificación del acompañamiento realizado por el actor asociado (cuando aplique) en las diferentes etapas del proyecto, indicando las acciones a realizar y los resultados que se obtendrán en su ejecución.  


CONCLUSIONES

En la industria metalmecánica y petroquímica, hay varias maquinarias y tecnologías de la industria 4.0 que se están implementando o están por implementarse para mejorar la eficiencia, la productividad y la seguridad, algunas son: ·        Internet de las cosas. ·        Robótica avanzada. ·        Fabricación aditiva. ·        Realidad aumentada. ·        Analítica de Datos y big data. En los sistemas de gestión de la cadena de suministro se buscará satisfacer las necesidades de formación en las áreas de Talento Humano, Corporativa, seguridad y salud, acceso a mercados, gestión de activos, mantenimiento, inventarios y herramientas ofimáticas.  
Sánchez López Abril Ximena, Instituto Politécnico Nacional
Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia

TENDENCIAS TECNOLÓGICAS: UNA REVISIÓN SISTEMÁTICA


TENDENCIAS TECNOLÓGICAS: UNA REVISIÓN SISTEMÁTICA

Hernández Mora Juan Carlos, Benemérita Universidad Autónoma de Puebla. Horcasitas Pérez Ian Gerardo, Universidad de Guadalajara. Sánchez López Abril Ximena, Instituto Politécnico Nacional. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Las instituciones de educación superior, en conjunto con las organizaciones pertenecientes a diferentes sectores, deben establecer estrategias y objetivos empresariales en función de las necesidades internas y las del mercado. La transformación digital es el motor principal para establecer objetivos en entornos educativos y organizativos, ya que las herramientas de software son el medio para optimizar procesos y tareas.  La rápida evolución de la tecnología ha dado lugar a nuevas tendencias tecnológicas, como la inteligencia artificial, la computación en la nube, el internet de las cosas, la analítica de datos, la realidad virtual, el blockchain, entre otras. Estas tendencias ofrecen a las organizaciones oportunidades sin precedentes para mejorar sus operaciones, servicios y productos. No obstante, también presentan desafíos en términos de inversión, capacitación y seguridad de datos. Las consecuencias positivas se evidencian en escenarios en los que transformación digital, por ejemplo, la reducción del tiempo de realización de tareas por medio de la automatización. Otra consecuencia es mejorar la experiencia de los clientes mediante la implementación de herramientas de software como bots en plataformas como Whatsapp, las cuales proporcionan soluciones inmediatas en comparación con métodos tradicionales. Es primordial identificar las tendencias de tecnología y definir cuáles deben adoptarse en una hoja de ruta que garantice la implementación de las tecnologías en ambientes educativos y organizativos. De este modo, este estudio pretende proporcionar las tendencias tecnológicas que deberían adoptarse en los próximos tres años. Esta investigación también se alinea a las necesidades del ODS 9 (Industria, innovación e infraestructura), con el objetivo de construir una infraestructura resiliente, promover la industrialización sostenible y fomentar la innovación, por parte de esta investigación busca impulsar el crecimiento económico inclusivo y sostenible, y fomentar la adopción de tecnologías limpias y eficientes.



METODOLOGÍA

La metodología utilizada en el estudio IT Trends: A literature review es una revisión sistemática ajustada a la declaración PRISMA. Se empleó para identificar seleccionar, evaluar y sintetizar los estudios relevantes. Se establecieron criterios de elegibilidad basados en idioma, fecha de publicación, revisión por pares y reputación de las consultorías. Se realizaron búsquedas en bases de datos indexadas prestigiosas. Se utilizó una estrategia de búsqueda con términos clave relacionados con las tendencias tecnológicas para las organizaciones. Se seleccionaron 40 estudios y se extrajeron los conceptos relevantes, categorizándolos por temas. Se evaluó el riesgo de sesgo mediante los métodos de saturación y triangulación. Se presentan los resultados obtenidos en términos de coincidencias por tema.


CONCLUSIONES

Se extrajeron y estandarizaron 56 diferentes tendencias tecnológicas de 40 estudios académicos, las cuales, por cuestiones de logística, fueron agrupadas en 7 tipos de tecnología. A continuación, se enlistan los tipos de tecnología en orden, utilizando como criterio la cantidad de menciones que sus miembros obtuvieron en conjunto: Data (50), IA (45), Interconnection of devices (35), Automation (34), Digital representation (28), Green innovations (23), Hadware/Devices (23), Digital applications (20), Cybersecurity (19), Digital Society (11) y Communication (9). Dichos resultados podrían ser utilizados como referencia por organizaciones cuyo objetivo es la innovación a través de la tecnología, implementando herramientas como como el análisis de grandes cantidades de información para la toma de decisiones y la automatización de procesos físicos y digitales por medio de inteligencia artificial (por ejemplo, los chatbots).
Sanchez Martinez Nicolás, Universitaria Agustiniana Uniagustiniana
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

TECNOLOGíA DE REALIDAD AUMENTADA EN LA INTERACCIóN CON UN ROBOT SCARA.


TECNOLOGíA DE REALIDAD AUMENTADA EN LA INTERACCIóN CON UN ROBOT SCARA.

Leon Navarrete Carlos Esteban, Universitaria Agustiniana Uniagustiniana. Pernett Alvarez Guarli Jose, Universitaria Agustiniana Uniagustiniana. Sanchez Martinez Nicolás, Universitaria Agustiniana Uniagustiniana. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Particularmente en el contexto de universidades, compañías y para las personas en general, el acceso y mantenimiento de un robot SCARA puede ser costoso y poco accesible. En este sentido, la realidad aumentada surge como una herramienta valiosa para superar estas barreras, se abre la posibilidad de beneficiarse de sus capacidades y funcionalidades sin incurrir en los altos costos asociados a la adquisición y mantenimiento de un robot físico. En este contexto, surge la necesidad de abordar el siguiente problema: ¿Cómo maximizar el potencial de la realidad aumentada en conjunto con un robot SCARA para optimizar la economía de recursos, tiempo y gastos en diversas situaciones cotidianas y profesionales? Este proyecto tiene como objetivo principal explorar las posibilidades de la realidad aumentada combinada con un robot SCARA para identificar y desarrollar soluciones que permitan economizar en recursos y tiempo, al mismo tiempo que se mejora la eficiencia y la precisión en diferentes escenarios de aplicación. Al abordar este problema, se pretende establecer una base sólida para el desarrollo y la implementación efectiva de esta tecnología, potenciando su uso en actividades académicas, empresariales y de la vida diaria.



METODOLOGÍA

Para llevar a cabo esta investigación se hace necesario dividirla en etapas, esto con el fin de tener una estructura clara y organizada y así facilitar la planificación, el seguimiento, la gestión de tareas y además de facilitar la medición de progreso del mismo. Las etapas son: Etapa 1: Diseño y Creación de Interfaces de Control para Robot SCARA mediante Realidad Aumentada Como primer paso es necesario definir los modos de operación y requisitos de Interacción del robot SCARA, para después de esto Identificar los modos de operación necesarios, como la manipulación, navegación, junto con los requisitos de interacción, incluidos gestos, acciones, comandos y feedback para cada modo. Por último establecer criterios para evaluar el éxito de las interfaces, como eficiencia, precisión y facilidad de uso. En el segundo paso se lleva a cabo la investigación de prácticas de diseño de interfaces de realidad aumentada, realizando una revisión exhaustiva de literatura sobre diseño de interfaces de realidad aumentada y su aplicación en control de robots y analizar ejemplos de interfaces de realidad aumentada exitosas y extrapolar lecciones clave para aplicar en el diseño. Como tercer paso tenemos la creación de prototipos de interfaces de control en Unity, en este paso es necesario familiarizarse con las herramientas de diseño en Unity y adquirir el conocimiento necesario para diseñar los prototipos iniciales de interfaces de control para cada modo de operación, siguiendo los requisitos de interacción definidos y integrar elementos de realidad aumentada, como objetos virtuales y feedback visual, en los prototipos. El cuarto paso es de pruebas y ajustes de las interfaces de control, en este se implementaron los prototipos en un entorno de prueba con el robot SCARA simulado o real, se realizaron pruebas con usuarios representativos para evaluar la funcionalidad y usabilidad de las interfaces, se recopilaron comentarios de los usuarios y identificaron áreas de mejora, para realizar los ajustes en los prototipos en función de los resultados de las pruebas y retroalimentación de los usuarios. Etapa 2: Evaluación y Optimización de las Interfaces de Control Como primer paso en esta segunda etapa se realizaron las pruebas de eficiencia y precisión, llevándolo a escenarios de prueba que reflejen situaciones reales de uso para cada modo de operación para por último registrar datos cuantitativos y cualitativos de las pruebas para análisis posterior. Ese paso es de iteración y optimización, aquí se analizaron los resultados de las pruebas y se detectaron posibles problemas de eficiencia, precisión o usabilidad. Luego de esto se realizaron los ajustes y mejoras en las interfaces en función de los resultados y conclusiones obtenidos. Se hizo necesario repetir el ciclo de pruebas y ajustes varias veces hasta alcanzar interfaces de control óptimas. Por último la documentación y conclusiones, en este último paso se documenta detalladamente el proceso de diseño, desarrollo, pruebas y optimización de las interfaces de control, es importante resumir los hallazgos clave, lecciones aprendidas y mejoras implementadas en las interfaces para lograr presentar conclusiones sobre la efectividad de las interfaces de realidad aumentada en el control del robot SCARA y su aplicabilidad en otros contextos.


CONCLUSIONES

En conclusión, la implementación de un robot SCARA mediante realidad aumentada nos brinda una solución más económica y accesible para que los estudiantes puedan familiarizarse con estos robots, lo que podría llegar a eliminar la necesidad de adquirir costosos robots físicos. Además, se pudo evidenciar que la realidad aumentada proporciona una experiencia más inmersiva, permitiendo a los estudiantes interactuar de manera más directa con los robots SCARA en un entorno simulado y controlado. Esta experiencia educativa mejora el aprendizaje al ofrecer una forma práctica y visual de entender los conceptos detrás de los robots SCARA y su funcionamiento. Gracias a la realidad aumentada, es posible simular el robot SCARA, lo que permite a los estudiantes practicar y aprender sin estar expuestos a riesgos inherentes al trabajar con maquinaria real, brindando así un ambiente de aprendizaje más seguro y permitiéndoles cometer errores sin consecuencias graves. En general, el proyecto investigativo basado en Unity y realidad aumentada para simular un robot SCARA demuestra ser una alternativa prometedora y efectiva para la educación en robótica. La combinación de estas tecnologías ofrece beneficios educativos, accesibilidad y seguridad, facilitando que los estudiantes adquieran conocimientos prácticos sobre los robots SCARA y se preparen para enfrentar desafíos futuros en el campo de la automatización industrial y la robótica.
Sanchez Nepomuceno Luz Angelica, Universidad de Guadalajara
Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional

DISEñO, FABRICACIóN Y CARACTERIZACIóN DE SEMICONDUCTORES


DISEñO, FABRICACIóN Y CARACTERIZACIóN DE SEMICONDUCTORES

Sanchez Nepomuceno Luz Angelica, Universidad de Guadalajara. Asesor: Dr. Norberto Hernández Como, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El proceso de creación de semiconductores (entendidos bajo el presente contexto como circuitos integrados) es sumamente complejo. Todo comienza desde la documentación e investigación, prosiguiendo con el diseño empleando diferentes software para desarrollar tanto simulaciones como la construcción de los circuitos electrónicos a partir del cual se desempeñará el proceso de fabricación y cuyos dispositivos obtenidos posteriormente serán sometidos a caracterización. Se sabe que en la actualidad existen muchos avances tecnológicos como lo plantea la Ley de Moore. No obstante, en el caso particular de México se estima que existe un retraso tecnológico de alrededor de 40 años, es por ello que las instituciones tanto académicas como de investigación buscan contribuir a la disminución de dicho atraso desarrollando nuevas soluciones que puedan emplearse en la construcción de importantes dispositivos. Si bien en su mayoría, los proyectos que se encuentran actualmente en progreso a nivel industria están enfocados en circuitos fabricados a base de silicio, existe la necesidad de continuar miniaturizando dichos circuitos, empleando técnicas nuevas y novedosas que permitan superar las deficiencias que pueden generarse al disminuir el tamaño de los dispositivos de silicio. Una de las alternativas que se están explorando hoy por hoy son los circuitos construidos a partir de transistores de películas delgadas.



METODOLOGÍA

En primera instancia se desarrolló el diseño de los circuitos de manera superficial, realizando una simulación previa en un software para detectar errores de conexión, confirmar valores de longitud y generar una estimación de comportamiento en el circuito a construir. Posteriormente se nos proporcionó el bloque de propiedad intelectual desarrollado por el equipo de trabajo del investigador a cargo en el Centro de Nanociencias y Micro y Nanotecnologías, en base a dicho bloque se construyeron por Layout diferentes compuertas lógicas a partir de transistores prediseñados. El proceso de fabricación se desarrolló en un cuarto limpio, donde se eligieron dos materiales como sustratos: fragmentos de 2 cm 2 cm de Corning Eagle XG y Kapton HN PI. Se realizó una limpieza previa de dichos sustratos para asegurar un depósito con bajos índices de contaminantes. A continuación se procedió a realizar el depósito de materiales, comenzando por la compuerta cuyos materiales se depositaron por evaporación e-beam para posteriormente someterse fotolitografía, un proceso de revelado, ataque húmedo y limpieza. Este procedimiento se repitió para el depósito del material dieléctrico, semiconductor y capa pasivante con sus respectivas variaciones tanto en los equipos empleados como en los pasos a seguir antes definidos. Desafortunadamente en parte del proceso, se perdió la muestra depositada en el Kapton por lo que se tomó la decisión de continuar únicamente con el sustrato restante. Una vez obtenidos los circuitos, se procedió a realizar la caracterización eléctrica de los mismos en donde se emplearon ciertos parámetros definidos en consenso, que permitieron vislumbrar de forma parcial las mejores condiciones bajo las cuales trabajan mejor los dispositivos. Los datos obtenidos fueron procesados y presentados en gráficos comparativos tanto para la entrada como para salida en función del voltaje y el tiempo.


CONCLUSIONES

En conclusión, se obtuvieron buenos resultados respecto a las compuertas lógicas. De forma particular, se identificó que mientras mayor es el factor β del circuito, mejor es su funcionamiento (aunque se presentaron significativas caídas de voltaje). En lo personal, además del diseño de compuertas lógicas, también desarrollé el diseño de dos osciladores de anillo, de los cuales se identificó de forma parcial que pese a que soportan altas frecuencias, a mayor voltaje empleado, mayor tiende a ser la amplitud de la onda.
Sanchez Ramirez Juan Pablo, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dra. Petra Baldivia Noyola, Universidad Autónoma de Guerrero

USO DE HERRAMIENTAS PARA LA CREACIóN DE VIDEOJUEGOS


USO DE HERRAMIENTAS PARA LA CREACIóN DE VIDEOJUEGOS

Sanchez Ramirez Juan Pablo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dra. Petra Baldivia Noyola, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad hace un uso correcto de las tecnologías para investigación, desarrollo de software o aplicación en áreas distintas. Por ello, en la creación de software es importante que existan distintas formas de dar a conocer dichas herramientas, y así evitar que existan retrasos en trabajos (si es que te encuentras emergido en un proyecto). Esto se refiere, a qué tengamos también conocimiento en su proceso como es la creación, diseño e interacción con dicho Software o proyecto en mano.



METODOLOGÍA

El desarrollo de software es una amplia gama de conocimientos que adquirir, dependiendo que es lo que desees crear. En este caso nos enfocamos en la creación videojuegos utilizando algunos programas en especial, utilizando programas como Unity, aseprice, los cuales se estarán trabajando o implementando más adelante. En la creación de videojuegos pueden variar las herramientas que se emplean para su desarrollo dependiendo de las necesidades y objetivos específicos del proyecto. Sin embargo, a continuación, se presentan algunas recomendaciones generales que se pueden seguir: En la etapa inicial, se deben establecer los objetivos del videojuego, el público objetivo, la temática, la mecánica y cualquier otro aspecto relevante. Esto ayudará a guiar la selección de herramientas adecuadas. En las herramientas se pueden incluir motores de juego, software de modelado, editores de sonido, entre otros, una vez que se tienen las herramientas seleccionadas, es necesario invertir tiempo en aprender a utilizarlas de manera efectiva según la importancia que tenga en el trabajo o proyecto. Fundamento de scrum En base a los fundamentos de scrum consiste en abordar proyectos reduciéndolo en partes en un entorno de trabajo, en los sistemas se podrán llevar proceso de tareas pendientes en el área laboral, funciona en casi todos los aspectos para fomentar el trabajo de equipo y poder obtener resultados favorables para el proyecto determinado que estén realizando. También depende mucho de varios factores y procesos para poder llevar a cabo un buen proyecto con esta herramienta, en la cual tiene que llevar transparencia, inspección y adaptación para tener un mejoramiento agradable. Para los fundamentos de scrum se puede crear un tablero para las fases que se acaban de mencionar anteriormente para tener un mejor rendimiento Taller de diseño de personajes en 2D En este curso se utilizó lo más básico de aseprite, se utiliza a base de pixeles, los pixeles son una mínima de imagen digital, y guarda la información de color de uno de muchos puntos que llegue a tener la imagen. Para poder utilizar más fácil y entendible debemos de conocer algunos puntos importantes que son: paleta de colores, la forma y característica del personaje o diseño que se valla a crear, para eso utilizamos aseprite que es más que nada pixel art. El pixel art es una técnica de diseño digital muy utilizada para crear videojuegos y desarrollar tu creatividad y poder mejorar los diseños de personajes y poder darle vidas por medios de frames ya depende de cada persona en los bits que lo quiera hacer ya sea de 1bit, 8bit, 16bits, etc. Creación de un videojuego en Unity Unity ha sido una de las plataformas más utilizadas para crear videojuegos por su fácil funcionalidad y entendimiento ya que puedes hacer tus propias creaciones en ella, dándole vida a tus creaciones exportándola de aseprite si llegaste hacer algún diseño. En unity nos da las herramientas generadas para poder hacer videojuegos más complejos y entretenidos con los diseños, para poder crearlos necesitamos conocer varios aspectos que utilizaremos en nuestro proyecto que son. Escenas, Game objects, Componentes, Navegar por la escena, Cámara También necesitamos poder programar en C#, un lenguaje de programación para poder darle la mecánica a los personajes ya sean correr, saltar, agacharse, etc. Como también, los elementos que debe de llevar, como programar los niveles y tenga una mejor mecánica cada uno, dicho conocimiento puede funcionar para hacer videojuegos recreativos para niños y jóvenes. Creación de videojuego con HTML, JavaScript y Css (Buscaminas) En la creación de videojuegos también podemos utilizar otros medios de programas y lenguajes en este caso utilizaremos Html, JavaScript y CSS. Son un conjunto de lenguajes que van de la mano para poder dar estructura a una página web como también a videojuegos como el buscaminas que fue el proyecto que se hizo en HTML. Se basa mucho en lógica por la estructura del juego, en la cual consta de cuadrados, en el tablero hay un numero de minas el objetivo es abrir todas las casillas sin que tenga una bomba para poder ganar la partida. Para la creación de página se utiliza HTML para crear la página web donde estará la estructura del juego, titulo del juego entre otras cosas, en la parte de CSS se encontrará todo el diseño de la página como del juego, en la cual se basará en color del tablero, botones, imágenes y tamaño de los componentes, entre otras cosas. En JavaScript en donde se dará las instrucciones de todos los botones como en el tablero del juego como en el exterior del tablero.


CONCLUSIONES

Durante la estancia dentro de la institución, se lograron adquirir conocimientos de los cursos obtenidos mediante diversas áreas y ponerlas en práctica con el nuevo conocimiento en software en la creación de videojuegos. No obstante, dejar a lado el enfoque de cada uno de los cursos para poder adquirir conocimientos de diseño, desarrollo y otros recursos utilizando las herramientas necesarias para su creación. En primer lugar, estas herramientas han democratizado la creación de videojuegos al permitir que cualquier persona, con o sin experiencia en programación, pueda crear su propio juego. Finalmente, para concluir el uso de herramientas para la creación de videojuegos ha tenido un impacto positivo en la industria, democratizando la creación de juegos y facilitando el proceso de diseño y desarrollo. Sin embargo, es importante utilizar estas herramientas de manera creativa y original para evitar la saturación y fomentar la innovación.
Sanchez Rodriguez Christopher William, Universidad de Guadalajara
Asesor: Mg. María Consuelo Rodriguez Niño, Universidad Nacional Abierta y a Distancia

APLICACIóN DE TéCNICAS DE APRENDIZAJE AUTOMáTICO PARA LA DETECCIóN Y CONTROL DE ENFERMEDADES Y PLAGAS EN CULTIVOS DE PAPAS


APLICACIóN DE TéCNICAS DE APRENDIZAJE AUTOMáTICO PARA LA DETECCIóN Y CONTROL DE ENFERMEDADES Y PLAGAS EN CULTIVOS DE PAPAS

Sanchez Rodriguez Christopher William, Universidad de Guadalajara. Asesor: Mg. María Consuelo Rodriguez Niño, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

Las plagas en los cultivos de papas en Colombia representan una amenaza significativa para la producción agrícola, causando pérdidas económicas y daños ambientales [1]. La papa es uno de los cultivos fundamentales en varias regiones del país, y su producción es vital para la economía local y la seguridad alimentaria. La detección temprana y el control eficiente de estas plagas son cruciales, especialmente en un entorno donde las condiciones climáticas y geográficas pueden favorecer la proliferación de diferentes tipos de plagas. Las técnicas tradicionales de monitoreo y control pueden ser mejoradas mediante el uso de aprendizaje automático, ofreciendo una solución más precisa y oportuna[2]. La implementación de estas tecnologías podría no solo aumentar la productividad y reducir los costos para los agricultores colombianos, sino también contribuir a prácticas agrícolas más sostenibles y respetuosas con el medio ambiente en todo el país[3]. Durante el verano de investigación, se buscó implementar un modelo de Deep Learning que haga uso de la visión computacional para el reconocimiento de plagas en cultivos. Para esto, fue primero necesario llevar a cabo la implementación de una búsqueda sistemática de la información requerida para la presente investigación.



METODOLOGÍA

La realización de una investigación sistemática implicó el uso de la plataforma Parsifal, donde se buscaron en distintas bibliotecas papers relacionados con el cultivo de papas, modelos de Deep Learning y redes neuronales convolucionales clasificadoras. A partir de las distintas fuentes, se extrajeron cerca de 370 papers en bruto. Luego, a través de una revisión utilizando la metodología PICOC, se llegó al número aproximado de 48 papers efectivos.   De estos 48 papers se extrajo información clave en cada uno de ellos, como el tipo de modelo que utilizan, su precisión (si es que la tiene), la principal meta del paper, sus conclusiones, y sus principales impedimentos al momento de realizar la investigación.   Luego de extraer toda esta información, el siguiente paso fue identificar cuáles de estos papers contenían modelos que fueran replicables o, mejor dicho, tuvieran la mejor precisión. El objetivo era obtener características de estos modelos y, a partir de datos de cultivos colombianos, realizar un modelo propio que sea funcional para el área de Colombia. Este proceso se llevó a cabo gracias al uso de repositorios como Google academics y Springer link entre otros, en donde los datos de libre acceso, así como plataformas en donde las bases de datos de imágenes ya existentes son de gran utilidad al momento de hacer este tipo de predicciones.


CONCLUSIONES

Después de llevar a cabo mi verano de investigación, he logrado avanzar significativamente en una de mis principales metas: aprender más sobre modelos de aprendizaje profundo aplicados al campo de la agronomía. Ahora cuento con una visión más completa acerca de estas aplicaciones, aunque también he comprendido que el modelo de deep learning que se buscó desarrollar durante este periodo aún necesita realizar algunos avances para completarse. El progreso importante que he realizado en este tema me ha permitido ver el potencial de aplicación a largo plazo. En el futuro, se buscará aplicar el modelo de deep learning creado a sistemas embebidos[4]. Esto permitirá su uso en aplicaciones de campo reales, como podría ser un sistema de monitoreo a través de drones o cámaras estacionarias[2]. El trabajo en esta área no solo ha enriquecido mis conocimientos, sino que ha sentado las bases para futuras innovaciones en la tecnología agrícola. [1]          M. J. Suarez Baron, A. L. Gomez, and J. E. E. Diaz, Supervised Learning-Based Image Classification for the Detection of Late Blight in Potato Crops, Appl. Sci., vol. 12, no. 18, Art. no. 18, Jan. 2022, doi: 10.3390/app12189371. [2]          S. Khan, N. Latif, H. Adnan, and I. Khosa, A Portable Real Time Health Inspection system for Cotton and Potato Crop using Drone, in 2022 International Conference on Emerging Trends in Electrical, Control, and Telecommunication Engineering (ETECTE), Dec. 2022, pp. 1-5. doi: 10.1109/ETECTE55893.2022.10007247. [3]          D. Tiwari, M. Ashish, N. Gangwar, A. Sharma, S. Patel, and S. Bhardwaj, Potato Leaf Diseases Detection Using Deep Learning, in 2020 4th International Conference on Intelligent Computing and Control Systems (ICICCS), May 2020, pp. 461-466. doi: 10.1109/ICICCS48265.2020.9121067. [4]          L. Freitas, V. Martins, M. De Aguiar, L. De Brisolara, and P. Ferreira, Deep Learning Embedded into Smart Traps for Fruit Insect Pests Detection, ACM Trans. Intell. Syst. Technol., vol. 14, no. 1, pp. 1-24, Feb. 2023, doi: 10.1145/3552435.  
Sánchez Rosas Valeria, Universidad Mexiquense del Bicentenario
Asesor: Mtra. Aurea Teresa Reyes Delgado, Universidad Mexiquense del Bicentenario

RADIOGRAFíAS DEL TóRAX: UN ANáLISIS CATEGóRICO PARA DIAGNóSTICOS PRECISOS"


RADIOGRAFíAS DEL TóRAX: UN ANáLISIS CATEGóRICO PARA DIAGNóSTICOS PRECISOS"

Sánchez Rosas Valeria, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Aurea Teresa Reyes Delgado, Universidad Mexiquense del Bicentenario



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la radiografía digital es la técnica más común dentro de las especialidades en radiología, es una herramienta ágil y eficaz para identificar estructuras internas del cuerpo humano, representa un beneficio muy alto en comparación al riesgo. La calidad de la imagen es un factor fundamental a la hora de dar un diagnóstico más preciso. (Durán Almeciga, Valoración y optimización de la calidad de imagen a partir de los controles de calidad de los equpios de radiografía digital en el servicio de imágenes diagnósticas en la fundación Valle del Lili, 2019) En el siguiente proyecto se categorizará la información obtenida de radiografías de tórax el cual ha sido desarrollado mediante avanzadas técnicas de procesamiento de imágenes. Con lo anterior se mejorará significativamente la detección y clasificación de patologías pulmonares en radiografías de tórax, permitiendo así un diagnóstico más preciso y oportuno para los pacientes. A través de técnicas de análisis de imágenes y aprendizaje automático. Así mismo facilitaría la toma de decisiones clínicas, reduciendo los tiempos de espera para los pacientes y aumentando la eficiencia en la atención médica. El diseño de un método de aplicación de datamining en el procesamiento digital de imágenes de radiología de tórax para el mejoramiento de los procedimientos médicos en la detección de cáncer pulmonar, a través del software Imagen. La información obtenida estará concentrada en tres grupos de control: probable, positivo y negativo.



METODOLOGÍA

Dentro de la inteligencia artificial, el Deep Learning se presenta como una evolución más avanzada del machine learning, ya que sus principios se basan en que la máquina tiene la capacidad de razonar por ella misma. El deep learning o aprendizaje profundo es una variante del machine learning que utiliza una serie de técnicas (más avanzadas) para que las máquinas puedan aprender por si solas, esto sin ser programadas específicamente para ello, (CEUPE, 2023). A través de esta metodología mencionada es establecen las etapas a desarrollar: Evaluación de la precisión diagnóstica del software ImageJ en la detección temprana del cáncer pulmonar a partir de radiografías de tórax: Un estudio comparativo con radiólogos expertos. Desarrollo de un algoritmo de inteligencia artificial basado en el software ImageJ para la detección automatizada de nódulos pulmonares sospechosos en radiografías de tórax: Validación con casos clínicos. Análisis cuantitativo de características de textura y forma extraídas con el software ImageJ en radiografías de tórax para el pronóstico del cáncer pulmonar: Una aproximación hacia la medicina de precisión. Evaluación de la utilidad del software ImageJ como herramienta de apoyo para el seguimiento de la respuesta al tratamiento en pacientes con cáncer pulmonar mediante análisis de cambios en la densidad y tamaño de lesiones en radiografías de tórax.


CONCLUSIONES

Son múltiples las formas que se pueden usar para valorar la calidad de la imagen en un equipo de radiografía digital, este proyecto muestra la importancia de usar una adecuada técnica radiográfica para el estudio de tórax con las características. Con el software ImageJ se relacionaron las densidades de grises que generan las imágenes para poder cuantificar y graficar. En conclusión, la investigación de categorización de información de radiografías de tórax fue digno de todo el proceso que generó, además de todo lo mencionado anteriormente también se testificó que despertará el interés de la comunidad científica y médica, generando debates y colaboraciones que fortalezcan aún más el potencial de esta tecnología en el campo de la salud.   Los resultados arrojaron que al emplear una solución tecnológica basada en el datamininig con las radiografías de tórax ayudara a tener un diagnóstico pronto y preciso, para así tener una detección temprana del cáncer de pulmón. Así mismo reduciría costos que implica el proceso de detección, a su vez agilizaría el tiempo de detección y recibir un tratamiento adecuado a las necesidades del paciente. En conjunto, tanto el análisis de las imágenes como los resultados de la encuesta enfatizan la importancia y el potencial de la tecnología en el campo de la radiología de tórax. La aplicación de técnicas de procesamiento de imágenes, junto con soluciones tecnológicas como el datamining, podría mejorar significativamente la detección temprana y el diagnóstico preciso de enfermedades pulmonares, lo que a su vez podría beneficiar a los pacientes al permitir tratamientos más efectivos y personalizados.
Sanchez Tellez Maria Carolina, Universidad Autónoma de Occidente
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DISEñO DE UNA ESTACIóN DE MONITOREO AMBIENTAL.


DISEñO DE UNA ESTACIóN DE MONITOREO AMBIENTAL.

Sanchez Tellez Maria Carolina, Universidad Autónoma de Occidente. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El calentamiento global, el efecto invernadero y otros contaminantes han generado múltiples problemas al nivel mundial y como ejemplo la contaminación del aire es el principal riesgo ambiental en lo que respecta a la salud publica en el continente americano. Según un estudio de la organización mundial de la salud (OMS), alrededor de 249 mil muertes prematuras fueron atribuibles a los altos índices de contaminación en el aire y alrededor de 83 mil muertes prematuras atribuibles a la contaminación del aire por uso de combustibles sólidos. Y a esto sumado a la pandemia del Covi-19 del 2020 donde se aumentó la preocupación de la calidad del aire en áreas externas y espacios cerrados. Por lo cual se evidencia la necesidad de diseñar dispositivos de monitoreo ambiental en espacios cerrados y abiertos que cuenten con la capacidad de medir distintas variables. Por lo que durante el verano de investigación es desarrollo de estos dispositivos se dividió en 3 partes la primera el uso de sistemas embebidos como Raspberry, Arduino y distintos sensores. La segunda parte del proyecto es realizar la conexión vía internet, usando recursos y herramientas de IOT para que la obtención de los datos sea clara para el usuario y este puede realizar un análisis de estos y poder mejorar la calidad del aire. Y por último el diseño del case haciendo uso de herramientas de fabricación digital como la impresión 3D.



METODOLOGÍA

En este caso se enfoco en el diseño e implementación del case para este tipo de estaciones de monitoreo. Con lo anterior se define que la metodología para el diseño de este se utilizara la del diseño concurrente que nos permite realizar diferentes iteraciones en distintas del proceso además de que nos permite trabajar en diferentes etapas al tiempo. Lo primero que se realiza es una investigación del estado actual de este tipo de dispositivos; después se realizó una serie lluvia de ideas con el equipo de trabajo para extraer los requerimientos mínimos del case; de esta lluvia de ideas salieron 7 necesidades y 6 métricas. Por lo siguiente se genera una matriz QFD de correlación de necesidades vs métricas para evaluar cuál de las métricas era la más importante y cuál de estas  se debía tener muy presente, esta matriz nos arrojo como resultados que las métricas más importantes era que el case debía contener diferentes tipos de sensores y que estos funcionar correctamente en el case con un porcentaje del 47% y la segunda métrica mas importante fue la de temperatura máxima que pueda aguantar el case que fue del 36%. Ya teniendo una visión más amplia para el diseño, se prosigue a diseñar los cases para exteriores e interiores basándonos en los diseños posteriores que se contaban previamente al verano. Luego se realiza un análisis de la arquitectura de producto y uno de diseño industrial para este dispositivo donde se evidencio que el diseño de este es un diseño modular por los componentes que se implementaron además de que el dispositivo tiene como indicador de que es fácil de usar y seguro. Se prosigue realizando los primeros prototipos del dispositivo para interiores usando una impresora 3D de tipo FFF y el material a usar para este fue PLA, que es las más usado para realización de prototipos de baja y media gama. Al tener el prototipo inicial ya en su estado físico se realizan validaciones de funcionamiento y si los sensores calzaban correctamente. Con este se evidencio que se requería realizar unos ajustes en las medidas, ya que hubo unos cambios de los modelos de los sensores que se iban a usar. Ya por ultimo se genera el modelo definitivo del case para su correspondiente fabricación.


CONCLUSIONES

Durante la estancia se logro reforzar conocimientos en el diseño y desarrollo de productos mecatrónicos, al ponerlo en practica en un proyecto en curso, no se logro implementar completamente por fallas técnicas del equipo de impresión 3D y se espera que un futuro se pueda realizar la implementación completa de estos dispositivos y que estos estén fabricados con materiales con mejores propiedades mecánicas.
Sandoval Reyes Jenifer, Instituto Tecnológico de Chilpancingo
Asesor: Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala

INTELIGENCIA ARTIFICIAL CHATGPT


INTELIGENCIA ARTIFICIAL CHATGPT

Romero Nava Jeanine Doreida, Instituto Tecnológico de Chilpancingo. Sandoval Reyes Jenifer, Instituto Tecnológico de Chilpancingo. Asesor: Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial (IA) ha experimentado un crecimiento exponencial en los últimos años y ha dejado una marca significativa en nuestra vida diaria, transformando la forma en que interactuamos con la tecnología. La IA es una herramienta poderosa que ha mejorado numerosos campos, incluidos la salud, la educación y la industria. Su capacidad para analizar grandes volúmenes de datos y extraer patrones ha llevado a avances significativos en el diagnóstico médico, la toma de decisiones empresariales y la personalización de experiencias.   Sin embargo, el crecimiento y la adopción masiva de la IA también han planteado desafíos éticos y sociales que requieren una atención cuidadosa. La privacidad y la seguridad de los datos se convierten en preocupaciones importantes, ya que la recopilación y el análisis masivo de información pueden exponer a las personas a riesgos de violaciones de privacidad y uso indebido de información personal. Además, la IA está impactando el mercado laboral, generando inquietudes sobre la automatización y la pérdida de empleos en ciertos sectores.   Por otro lado, la comprensión pública sobre cómo funciona la IA y sus aplicaciones sigue siendo limitada, lo que puede dar lugar a malentendidos y miedos infundados. Es fundamental aumentar la conciencia y el conocimiento sobre la IA para fomentar una adopción responsable y beneficiosa para la sociedad en su conjunto.



METODOLOGÍA

Para abordar estos desafíos y cuestionamientos, este proyecto de investigación se basará en un enfoque multidisciplinario y exhaustivo. Se utilizará una combinación de métodos cualitativos y cuantitativos para obtener una visión completa de la IA y su impacto en diferentes ámbitos. Se recopilarán y analizarán estudios de casos relevantes para comprender cómo la IA ha beneficiado o transformado sectores específicos.   Además, se llevará a cabo una revisión sistemática de la literatura para explorar los fundamentos teóricos de la IA, incluidos los conceptos clave de aprendizaje automático, procesamiento del lenguaje natural y la arquitectura Transformer. Esto permitirá comprender las bases técnicas que hacen posible el desarrollo de modelos de lenguaje como Chat GPT.   Para investigar las implicaciones éticas y sociales de la IA, se realizarán encuestas y entrevistas a expertos en el campo de la ética de la inteligencia artificial y la regulación de tecnologías emergentes. Estas entrevistas proporcionarán información valiosa sobre cómo abordar temas éticos como la privacidad, la equidad y la transparencia en el desarrollo y despliegue de sistemas basados en IA.   El análisis de grandes cantidades de datos de texto recopilados de diversas fuentes, como artículos académicos, publicaciones de blogs y redes sociales, ayudará a comprender las percepciones y opiniones del público sobre la IA. Esto permitirá identificar preocupaciones y prejuicios comunes, así como oportunidades para mejorar la comunicación y la educación pública sobre la IA.   El objetivo final de este proyecto de investigación es contribuir al conocimiento existente sobre la IA, sus posibilidades futuras y cómo asegurar su desarrollo responsable para el bienestar de la sociedad. Se espera que los resultados de este estudio proporcionen información valiosa para la toma de decisiones informadas y políticas que promuevan un uso ético y beneficioso de la IA en todos los ámbitos. Al profundizar en los fundamentos teóricos y metodológicos de la inteligencia artificial, este proyecto sentará las bases para futuras investigaciones y desarrollos en el campo de la IA y la interacción humano-computadora.  


CONCLUSIONES

En el marco de esta investigación, hemos explorado a fondo el concepto de Chat GPT y su utilidad en diversas aplicaciones. Hemos observado que Chat GPT ofrece diversos beneficios, ya que puede ser integrado fácilmente en diferentes plataformas y tecnologías, lo que lo convierte en una herramienta versátil para múltiples usos. Su capacidad para comprender y responder preguntas de manera eficiente ha demostrado ser invaluable para mejorar la experiencia del usuario en aplicaciones de atención al cliente y asistencia virtual. Sin embargo, también hemos identificado algunas limitaciones en su desempeño. En cuanto a la creación de un modelo de Chat GPT, hemos analizado el proceso de preparación de datos y entrenamiento del modelo. La utilización de prompts generales y específicos para acelerar el aprendizaje ha demostrado ser una estrategia efectiva.
Sandoval Rodríguez Edgar Felipe, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato

PROTOTIPO DE GARAPIñERA SEMIAUTOMáTICA


PROTOTIPO DE GARAPIñERA SEMIAUTOMáTICA

Ochoa Pérez Alan Enrique, Instituto Tecnológico Superior de Guanajuato. Rodríguez Murrieta Luis Ubaldo, Instituto Tecnológico Superior de Guanajuato. Sandoval Rodríguez Edgar Felipe, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Lilia Marcela Zaldumbide Carrillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El proceso de elaboración del garapiñado se realiza de manera artesanal, lo cual presenta dos problemas principales. Por una parte, no existe un control exacto de la cantidad de ingredientes a utilizar dependiendo del conocimiento de una sola persona, además, que no se esta midiendo la cantidad de calor durante el proceso por lo que todo el proceso no es homogéneo. Por otro lado, al ser una actividad manual requiere de un esfuerzo importante para obtención del alimento pudiendo facilitarse el proceso por medio automatización en el sistema de calentamiento y de mezclado. 



METODOLOGÍA

Hoy en día el proceso de elaboración de garapiñados se realiza comúnmente de manera manual por parte de los artesanos que se dedican a la producción y venta de dicho producto, debido a esto se necesita cierta cantidad de personal involucrado esto dependiendo si es solo un artesano todo el trabajo cae sobre él y en cambio sí es un pequeño negocio que se dedique a la venta y distribución se ocupan más trabajadores, es necesario que dicho personal participe activamente en el tiempo que lleva el proceso en realizarse el cual consta más o menos de 30 minutos teniendo un rendimiento de 290 gramos y pudiendo conservarlos hasta por 6 meses en una bolsa bien sellada según la Profeco. Esto ha venido sucediendo a lo largo de los años en el municipio de Guanajuato y localidades adyacentes donde un gran número de comerciantes se dedican a su venta en el Mercado hidalgo como punto principal, puestos ambulantes e incluso en el transporte público y según la entrevista realizada a Cristian Eduardo Aguilar Murrieta el lleva 13 años en este oficio. Basándonos en los objetivos del proyecto, obtenemos lo siguiente: Recursos:     Equipo de ingeniería mecatrónica 6°A y B (tres personas): 6 horas de trabajo a la semana durante 6 semanas.     Asesor del proyecto (una persona): 6 horas de trabajo a la semana durante 6 semanas.     Revisión de diseño, cálculos y fabricación (tres personas): 7 horas de trabajo a la semana durante 6 semanas.     $2000 de materiales, componentes y herramientas. Entregables:     Formato de protocolo a mediados de noviembre.     Maquina semiautomática, fabricadora de garapiñados. Hoja de ruta del proyecto y cronograma (Sexto semestre):     19 de junio: Reorganización del equipo, por cambios en la cantidad de integrantes.     21 de junio: Retomar el formato del semestre anterior para realizar correcciones.     24 de junio: Definir justificación, Objetivos específicos y generales, y portada.     segunda semana de Junio: Entregar avance de formato protocolo de proyecto.     27 de junio: Revisar correcciones propuestas por docentes.     27 de junio: Realizar las correcciones indicadas.     29 de junio: Entrega de formatos para participar en verano Delfín.     5 de julio: Implementación de circuito para regularización de velocidades.     13 de julio: Corregir el balanceo dinámico del prototipo.     19 de julio: Corrección y actualización de los documentos del prototipo.      24 de julio: Corregir el balanceo dinámico del prototipo y agregar un sistema de elevación al motor.     27 de julio Acoplar una resistencia para calentar los ingredientes.     30 de julio: Probar la maquina ya en forma con los detalles agregados.     30 de julio: Registrar los datos de la prueba de acuerdo con la curva de caramelización.     1 de agosto: Corregir los inconvenientes que surjan con el prototipo.     Realizar la exposición y documentos para presentar el proyecto.     Presentar el proyecto con los resultados y conclusiones.   Fuera de alcance:     Máquina multiusos fabricadora de garapiñados y otros elementos.     Elaborar una máquina a gran escala


CONCLUSIONES

Se hizo uso de la curva de caramelización para encontrar la temperatura en la que el caramelo llega a su punto ideal. Se realizo el diseño de la estructura en un software CAD y posteriormente implementarlo en físico El motor que se usó solo realiza el proceso de mezclado el cual ayuda a que todo el cacahuate reciba el recubrimiento del azúcar y que este no se pegue, este tiene adjunto una varilla de acero inoxidable, así como las aspas del mismo material. Se elaboraron garapiñados de forma manual para poder medir tiempos, temperatura y cantidad y así poderlas compararlas con las pruebas realizadas en el prototipo.  Hasta el semestre anterior se habían cumplido los puntos anteriores. Se realizaron pruebas con el prototipo, se tomaron muestras de los cacahuates en cada parte del proceso de caramelización, se empezó a elaborar nuevamente la estructura en perfil-t 225 calibre 18, se empezó a corregir el balanceo dinámico y se empezaron a rediseñar los agitadores dado que los anteriores presentaron problemas al momento del mezclado.   La curva de caramelización se ajusta a una curva lineal de manera inicial buscando un tendencia del comportamiento, pero debido a la naturaleza del caramelo, la temperatura varía. Ese comportamiento debe tomarse en cuenta.  Este es un proyecto multidisciplinario que por la innovación en el proceso de la elaboración de garapiñados y de otros dulces que tengan el mismo proceso. Es bastante versátil debido a que cualquier persona siguiendo una hoja de instrucciones puede elaborar dicho dulce. Aún se seguirá trabajando y mejorando en los siguientes semestres y que el proceso a realizar sea lo más optimo posible, está dirigido a pequeños negocios e incluso a nosotros mismos para comenzar a emprender. Se deben corregir errores de diseño para que el prototipo pueda realizar nuevamente las pruebas de elaboración de garapiñados. Es un proyecto joven, sin embargo, para el período tan corto que fue el verano y con la inversión monetaria de los integrantes se consiguió tener un buen avance.   
Sandoval Vazquez Lizet Andrea, Instituto Politécnico Nacional
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología

IMPLEMENTACIóN DE SERVICIOS DE VOZ SOBRE EL PROTOCOLO DE INTERNET SOBRE RASPBERRY PI.


IMPLEMENTACIóN DE SERVICIOS DE VOZ SOBRE EL PROTOCOLO DE INTERNET SOBRE RASPBERRY PI.

Sandoval Vazquez Lizet Andrea, Instituto Politécnico Nacional. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La red VoIP es una buena opción de comunicación a través de tráfico de Voz para las regiones o lugares con poca o mala comunicación entre usuarios ya que usualmente se utilizan las redes públicas conmutadas las cuales elevan sus costos por la distancia y uso de la red dando lugar a la alta inversión económica que se emplea en este tipo de redes sin embargo las redes VoIP trabajan sobre internet esto quiere decir que no necesariamente deben estar enrutadas a través de un troncal de fibra óptica. La red pública conmutada es de un precio más elevado a comparación de una red con tecnología de red VoIP ya que el costo de la red PSNT está basada en distancia y tiempo de comunicación entre usuarios a comparación de la red VoIP que su precio no está basado en la distancia ni tampoco en el tiempo sin embargo la red VoIP necesita una banda ancha de internet para poder enviar un tráfico de voz estable, aunado a esto la red VoIP debe tener una conexión a internet ya que por este medio se rige esta red por eso es llamada Voz sobre Protocolo de Internet a comparación de la red PSNT que necesita estar conectada a una línea de telecomunicaciones la cual se rige por circuitos conmutados aumentando aún más el precio de comunicación en la red PSNT ya que para poder tener extensiones entre usuarios requieren de un costo adicional pues se asigna una ruta dedicada entre el emisor y el remitente.



METODOLOGÍA

Para odo el sistema utiliza Raspberry Pi, que es una placa del tamaño de una tarjeta a la que se pueden conectar muchos dispositivos, como auriculares, puerto de Ethernet, fuente de alimentación y puerto LAN. Muchos modelos de Raspberry pi están disponibles, el teléfono IP usa Raspberry PI 2. Los usuarios de teléfonos IP deben registrarse en asterisk, que es una implementación de software de PBX y se conecta al usuario deseado. Utiliza el protocolo SIP (The Session Initiation Protocol), para iniciar y finalizar las llamadas telefónicas; no se requiere una red adicional para la comunicación, lo que hace que el sistema sea rentable, escalable y flexible. En el caso de las redes IP las llamadas por telefonía IP utilizan raspberry pi y reemplaza PBX con asterik, que es una implementación de software de PBX, protocolo SIP para iniciar y finalizar las llamadas. Esto introduce una solución de bajo costo para conectarse al usuario deseado mediante el puerto LAN. Para la comunicación de los usuarios se utilizó un softphone el cual permite el tráfico de Voz entre host, para comunicarse con cada usuario a través de la configuración del protocolo SIP se crearon extensiones para que entre Host se comunicaran.


CONCLUSIONES

La implementación de una red VoIP en zonas donde hay poca comunicación por la falta de recursos para un servicio de una red pública conmutada por los altos precios que se pueden llegar a generar al iniciar llamadas o al comunicarse es más caro que si se tuviera una red de voz sobre protocolo de internet por ello el software de asterisk el cual es gratuito acompañado del protocolo SIP que inicia y finaliza llamadas es una de buena opción para la comunicación en ese tipo de zonas. Aunque también hay otros softwares que nos proporcionan la misma facilidad de comunicarnos a través de internet como Elastix solo que este programa es un poco más complicado de trabajar ya que las funciones o configuraciones que se quieran utilizar se limita a menos que se compre el plan Premium además que se limita mucho para el protocolo SIP y ya no es tan factible comunicarse por medio de tráfico de voz por las funciones que algunas son Premium sin embargo Asterisk es más amigable en esa parte. Ademas que los costos para la comunicación serian más bajos.
Sangri Espitia Luis Arturo, Instituto Tecnológico de Matamoros
Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara

APLICACIóN INFORMATIVA CON REALIDAD AUMENTADA PARA SMARTPHONE PARA EL CENTRO UNIVERSITARIO DE LA COSTA


APLICACIóN INFORMATIVA CON REALIDAD AUMENTADA PARA SMARTPHONE PARA EL CENTRO UNIVERSITARIO DE LA COSTA

Cervantes Paz Alejandra, Universidad Autónoma Benito Juárez de Oaxaca. Hermosillo Sandoval Edwin Gabriel, Universidad Tecnológica de Nayarit. Ramos Avalos Roberto, Universidad Tecnológica de Nayarit. Sangri Espitia Luis Arturo, Instituto Tecnológico de Matamoros. Asesor: M.C. José Francisco Reinaga Camacho, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La problemática detectada en el Centro Universitario de la Costa (CUC) de Puerto Vallarta Jalisco conforme ha pasado el tiempo ha ido aumentando cada vez más y por ende sigue afectando a toda la comunidad estudiantil y a todos los usuarios que visitan por primera vez las instalaciones de este centro de estudios, ya que, este instituto tiene una alta demanda de solicitudes de ingreso debido a que también se encuentra ubicado en un municipio de grado turístico y recibe estudiantes tanto locales que habitan en el mismo estado o municipio y hasta alumnos internacionales. Otro de estos motivos es que el centro  universitario está afiliado a distintos programas de estudio lo que conlleva a recibir estudiantes de distintas partes nacionales e internacionales. Por estas razones al visitar por primera vez sus instalaciones  los alumnos se encuentran desorientados ya que desconocen dónde se encuentra cada área de las cuales se compone el campus, debido a que esta institución es muy amplia y se desconoce la ubicación de los mapas de los edificios o algún personal específico o asignado que oriente a los estudiantes o usuarios que ingresan por primera vez a este centro universitario, otro problema detectado es que los señalamientos dentro del instituto están bastante deteriorados y dañados, por lo tanto no son muy entendibles, lo que conlleva a verse involucrados en la problemática mencionada anteriormente.



METODOLOGÍA

Definición del Alcance y Objetivos: En esta fase inicial, el equipo se reunirá con representantes del Centro Universitario para comprender los requisitos y expectativas de la aplicación de realidad aumentada. Se establecerá el alcance del proyecto y se definirán los objetivos específicos, centrándose en proporcionar información detallada sobre instalaciones, edificios, departamentos, oficinas y el reptilario del campus. Planificación y Diseño: El equipo diseñará un plan detallado para el desarrollo de la aplicación. Esto incluirá la asignación de tareas, la definición de los entregables y la estimación de tiempos para cada fase del proyecto. Además, se definirán los requisitos para la captura de datos mediante la tecnología Vuforia y la integración de los área targets generados en Unity para crear el entorno virtual. Fase de Escaneo y Generación de Área Targets: En esta etapa, el equipo llevará a cabo el escaneo de las áreas relevantes del campus utilizando la tecnología Vuforia. Los datos recopilados se utilizarán para generar los área targets necesarios para la aplicación de realidad aumentada. Desarrollo del Entorno Virtual en Unity: Con los área targets generados, el equipo procederá a desarrollar el entorno virtual en Unity. Se crearán los modelos 3D y la interfaz de usuario necesaria para presentar la información adicional de cada ubicación en el campus. Implementación y Pruebas: En esta fase, se integrarán los area targets y el entorno virtual en la aplicación de realidad aumentada. Se llevarán a cabo pruebas exhaustivas para garantizar que la información se muestre correctamente en cada área target y que la aplicación funcione sin problemas. Pruebas de Campo y Retroalimentación: Una vez que la aplicación esté lista, se llevarán a cabo pruebas en campo en el campus universitario para validar su funcionalidad y experiencia de usuario. Se recopilará la retroalimentación de los usuarios para realizar ajustes y mejoras necesarias. Entrega y Despliegue Definitivo: Con todas las funcionalidades implementadas y las pruebas completadas, se preparará la aplicación para su lanzamiento definitivo en el campus universitario. Se llevará a cabo una capacitación más completa para el personal y los usuarios finales. Seguimiento y Mantenimiento Continuo: Una vez que la aplicación esté en funcionamiento completo, se realizará un seguimiento continuo para detectar y resolver cualquier problema que pueda surgir. Se considerará la posibilidad de agregar nuevas funcionalidades en el futuro para mejorar aún más la experiencia de los usuarios.


CONCLUSIONES

El desarrollo de una aplicación informativa con realidad aumentada para Smartphone en el Centro Universitario de la Costa (CUC) promete ser una herramienta valiosa para proporcionar información detallada sobre las instalaciones del campus, incluyendo edificios, departamentos, oficinas y el reptilario. Los usuarios podrán navegar con facilidad y confianza por el centro universitario, lo que mejorará significativamente su experiencia de ingreso y estancia, facilitando su adaptación y comodidad en el campus. La metodología implementada para el desarrollo de la aplicación ha sido cuidadosamente planificada y ejecutada en colaboración con representantes del Centro Universitario, asegurando que los objetivos del proyecto estén alineados con las necesidades reales de los usuarios. El aprovechamiento de tecnologías como Vuforia para el escaneo y generación de área targets, junto con el entorno virtual en Unity, ha permitido una experiencia de realidad aumentada fluida y precisa, garantizando la solidez técnica del proyecto. Esta tecnología no solo facilita la navegación en el campus, sino que también impulsa la imagen del Centro Universitario de la Costa como una institución moderna. La aplicación representa un avance significativo hacia la mejora de la calidad educativa y la satisfacción de la comunidad universitaria, consolidando al CUC como un referente en el ámbito educativo tecnológico.
Sanjuan Camarena Julio César, Universidad Tecnológica de Nayarit
Asesor: Mg. Carlos Alejandro Ramirez Gómez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

DESARROLLO DE UN SISTEMA DE SUPERVISIÓN - CONTROL PARA GENERACIÓN DE ENERGÍA, A TRAVÉS DE INTERNET OF THINGS - IOT


DESARROLLO DE UN SISTEMA DE SUPERVISIÓN - CONTROL PARA GENERACIÓN DE ENERGÍA, A TRAVÉS DE INTERNET OF THINGS - IOT

Aguilar Reyes Brayan Jazheel, Instituto Tecnológico de Morelia. Sanjuan Camarena Julio César, Universidad Tecnológica de Nayarit. Velázquez Villasana Francisco Alejandro, Instituto Tecnológico de Morelia. Asesor: Mg. Carlos Alejandro Ramirez Gómez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los sistemas de autogeneración de energía a partir de fuentes renovables, como la energía solar fotovoltaica y eólica, están diseñados para funcionar sin la supervisión permanente de un profesional. Sin embargo, estos sistemas todavía requieren de inspecciones regulares para garantizar su correcto funcionamiento, ya que están expuestos a la intemperie y pueden sufrir fallas y problemas que afecten su rendimiento y vida útil.



METODOLOGÍA

Se diseñó un módulo para los sensores y se utilizó el software Proteus, programa en el cual se simuló el funcionamiento de estos para lograr un diseño eficiente.Para el diseño del sistema solar fotovoltaico fue necesario tomar en cuenta ciertos cálculos que nos permitieron establecer la cantidad de paneles, tipo de controlador, numero de baterías e inversor, cabe mencionar  que esto está sujeto a las necesidades que se requieran, otros datos muy importantes que se tomaron fue la hora solar pico que hay en la región asi como los días de autonomía, para poder validar y entender el funcionamiento se utilizó el software SharpDevelop que nos permitió realizar una simulación de este sistema para poder implementarlo físicamente.  La elección de la plataforma BLINK en la cual pudimos realizar nuestra base de datos, es muy didáctica, simple e intuitiva.Se realizó la conexión de los 3 sensores de voltaje y 3 sensores de corriente, además se adaptó una caja riel para el módulo de sensores y de la placa arduino Mega. Se utilizó un contenedor metálico con compuerta manual adaptando un sistema de empotramiento tipo RIEL DIN OMEGA y cableado eléctrico por medio de canaletas. Se continuó con la programación de la tarjeta Arduino para la realización de las primeras pruebas de recolección de datos. y posterior en envio a la tarjeta que nos ayudara a subir los datos a la nube, la cual ya recibe los datos de los sensores que le envia la tarjeta Arduino. Lo siguiente es subir los datos a la nube para poder visualizarlo de manera gráfica.


CONCLUSIONES

El impacto del proyecto es positivo ya que este busca implementar una red de IOT que permita al centro de formación monitorear y controlar los diferentes sistemas de energía con fuente renovables y de esta manera garantizar su buen funcionamiento y mejorar su vida útil. Esto da un paso a estrategias relacionadas con la economía del comportamiento que fomenta una ayuda para mejores decisiones frente al cuidado del medio ambiente a través de energías renovables. Tener un monitoreo en tiempo real con la red IOT en los sistemas fotovoltaicos es una manera de administrar el consumo, así mismo gestionar el progreso de las tareas de mantenimiento y control en caso de que surja algún evento fuera de lo normal e intervenir con anticipación personalmente para llevar a cabo el soporte. Queda pendiente la visualización de datos en la plataforma BLINK.
Sansores Quintana María Fernanda, Universidad Veracruzana
Asesor: Dra. Jazmin Perez Mendez, Universidad Tecnológica de Nayarit

CREACIóN DE UNA PáGINA WEB CON MATERIAL DE APRENDIZAJE PARA ALUMNOS QUE CURSAN LA LICENCIATURA EN TECNOLOGíAS DE INFORMACIóN EN LA UNIVERSIDAD TECNOLóGICA DE NAYARIT


CREACIóN DE UNA PáGINA WEB CON MATERIAL DE APRENDIZAJE PARA ALUMNOS QUE CURSAN LA LICENCIATURA EN TECNOLOGíAS DE INFORMACIóN EN LA UNIVERSIDAD TECNOLóGICA DE NAYARIT

Sansores Quintana María Fernanda, Universidad Veracruzana. Asesor: Dra. Jazmin Perez Mendez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Se tiene la necesidad de contar con una plataforma web en la que los alumnos que cursan la carrera de Tecnologías de Información en la Universidad Tecnológica de Nayarit puedan consultar información y realizar ejercicios sobre temas de Bases de Datos, la cual facilitaría el autoaprendizaje y fungiría como complemento a su educación universitaria.   Debido a los ambientes digitales en los que nos desenvolvemos hoy en día, hay más interés en trasladar las actividades que se hacen o estudian de manera tradicional a estos ambientes. Por ello, para la problemática anterior, se creó una página web donde los estudiantes puedan consultar información y puedan realizar ejercicios que involucren temas de Base de Datos, como etiquetas HTML y estilos (CSS).   Existen distintas plataformas en la web donde se pude hacer publica información de diversa índole, entre ellas está WordPress.     Wordpress fue creado como software para blogueo. Los blogs son una forma de Content Management System (CMS) (Sistema de gestión de contenidos), es decir, un sistema que facilita el acceso a la publicación de contenidos a un rango mayor de usuarios.   Un sitio puede pensarse como una colección de artículos e información acerca de un tema, servicio o producto en específico. Más recientemente, el rol de WordPress se ha expandido, y los desarrolladores de WordPress han comenzado a utilizar el término más general de sitio, en lugar de blog.         Para este proyecto, se creó una página web con etiquetas HTML, donde se agregaron apartados para consultar material de la materia mencionada, con una sección para visualizar códigos básicos y ejemplos, donde el objetivo principal es la accesibilidad para consultar material de aprendizaje sobre Bases de Datos, que requieren los alumnos de la Universidad Tecnológica de Nayarit.



METODOLOGÍA

Se trabajó bajó la metodología Scrum, la cual consiste en un marco de gestión de proyectos que ayuda a los equipos a estructurar y gestionar el trabajo mediante un conjunto de valores, principios y prácticas.   Se fueron realizando por pautas la recolección de información sobre los temas de desarrollo web, como la creación de páginas con etiquetas HTML, estilos aplicables, funcionalidades, entre otros.   Las actividades se fueron realizando por semana, resumido de la siguiente manera:   Realización de un esquema para el diseño de la página web. Asignar un prototipo a seguir para la página web, como son los colores, imágenes, etc. Dar una estructura a la página web donde ya incluya parte del contenido y los colores indicados. Diseñar los apartados donde aparecerán los ejemplos. Pedir una verificación del avance.   Realización de código, utilizando Visual Studio Code:   Para la página principal se utilizaron etiquetas como head, title, body, header, li, nav, las cuales sustituyen la estructura básica de una página web. En los apartados de los ejemplos de etiquetas y estilos, se agregaron otras etiquetas, como table y tr.   Para los estilos, las etiquetas abarcaron el fondo (background), márgenes (margin top), decoración y bordes (border colapse).  


CONCLUSIONES

  Considero que, en la actualidad el uso de plataformas digitales para el aprendizaje es esencial. De acuerdo con el proyecto, se trata de una manera de visualizar material de clase que sirve para que los alumnos tengan fácil acceso y manejo de este. La realización de este proyecto junto con la investigadora fue una gran experiencia de aprendizaje, tanto académica como personalmente, pues considero que tener recursos como una página web hacen que pueda aprovecharse el uso de la tecnología con una carrera a fin. El proyecto está dirigido a estudiantes que cursan la carrea de Tecnologías de Información en la Universidad Tecnológica de Nayarit, donde éstos podrán tener esta herramienta y todas sus funcionalidades, durante el desarrollo del curso. Este proyecto beneficiará al equipo de investigación es los siguientes aspectos: • Una manera práctica para la enseñanza de la materia de Bases de Datos. • Poder acceder al contenido de manera asíncrona. • Motivar a los alumnos al autoaprendizaje. • Visualización de ejemplos relacionados con los temas.
Santacruz Espinoza Guillermo, Instituto Tecnológico de Morelia
Asesor: Dr. Luis Ariosto Serna Cardona, CIAF Educación Superior

SISTEMA DE PREDICCIóN ORIENTADO A LAS PRUEBAS SABER 11° MEDIANTE VARIABLES SOCIODEMOGRáFICAS Y ECONóMICAS UTILIZANDO TéCNICAS DE APRENDIZAJE AUTOMáTICO.


SISTEMA DE PREDICCIóN ORIENTADO A LAS PRUEBAS SABER 11° MEDIANTE VARIABLES SOCIODEMOGRáFICAS Y ECONóMICAS UTILIZANDO TéCNICAS DE APRENDIZAJE AUTOMáTICO.

Berecochea Estrada Linda Anaid, Instituto Tecnológico de Morelia. Moreno Gómez José Antonio, Instituto Tecnológico de Morelia. Rodríguez Carvajal Eva Jaqueline, Universidad de Guadalajara. Santacruz Espinoza Guillermo, Instituto Tecnológico de Morelia. Asesor: Dr. Luis Ariosto Serna Cardona, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

Para los colombianos, alcanzar altos niveles de educación es vital para lograr el éxito y prosperidad en diferentes aspectos, desde el aumento de ingresos y productividad hasta el compromiso político y la igualdad social. Sin embargo, las enormes brechas de inequidad que existen en el país perjudican a los estudiantes de grupos o regiones con carencias socioeconómicas, impidiendo que el estudiante desarrolle sus actividades académicas con normalidad, aumentando así la deserción. Debido a esto, el país busca evolucionar en este aspecto y lograr estar conformado por ciudadanos competentes, formados académicamente, que puedan satisfacer los requisitos impuestos por la oferta laboral. Actualmente el ingreso a la educación superior en Colombia está determinado en gran medida por el desempeño en las pruebas saber 11, prueba que evalúa las áreas fundamentales del conocimiento como matemáticas, lectura crítica, ciencias naturales, lengua inglesa y ciencias sociales y ciudadanas, además de recoger información de tipo sociodemográfico y económica de los estudiantes de educación media. Estas pruebas no solo sirven como criterio de ingreso para la educación superior, adicional a esto, también aportan al desarrollo de investigaciones de carácter cultural, social y educativo implementadas por el gobierno mediante las convocatorias del ICFES. De acuerdo a lo planteado anteriormente es evidente que existe un problema metodológico en relación a la determinación de las variables no académicas que influyen en los resultados de las pruebas saber 11, y siendo consecuente con el auge actual de las técnicas de aprendizaje automático en el campo educativo, se hace pertinente plantear la siguiente pregunta de investigación ¿Cómo desarrollar un sistema para predecir los resultados de las pruebas saber 11°, mediante los patrones de desempeño obtenidos de las variables de carácter social y económico y usando técnicas de aprendizaje de máquina?



METODOLOGÍA

Las bases de datos que se utilizaron para este proyecto fueron exclusivamente del ICFES. Se utilizaron las bases de calendario 1 y 2 de las pruebas saber 11° a partir del año 2015 hasta el 2022. Se utilizaron todas las muestras en este rango de años, esto con el fin de tener un mejor entrenamiento del modelo de predicción y poder saber cuáles son los factores de desempeño que más afectan el nivel académico de la nación y poder tener un modelo de predicción general para todo el país colombiano. Se organizaron las bases de datos a partir de las encuestas realizadas a los estudiantes colombianos sobre la prueba saber 11°. Una vez alineado, se empezó con el preprocesamiento. Primero, se analizó detenidamente cada una de las características proporcionadas por la base de datos, por consiguiente, se eliminaron las columnas que resultaban irrelevantes o de datos repetitivos a los que ya existían y se pueda tener un procesamiento realmente efectivo. El siguiente reto al que se enfrentaron fue la diversidad en la escritura de un mismo dato. Este error humano surgió debido a que diferentes personas lo redactaron de manera distinta, según su percepción, lo que ocasionó la existencia de múltiples variantes del mismo dato. Esta variabilidad en la escritura generó una mayor cantidad de datos únicos, lo que complicó la precisión del análisis. Para resolverlo, se implementó una estrategia de normalización para las palabras mal redactadas. Luego, con las características resultantes se realizó una lista con todos los valores únicos que proporcionaba cada posible respuesta en las columnas, todo eso para poder convertir los datos categóricos y pasarlos a datos numéricos, que son mucho más fáciles y eficientes de procesar. Otro de los problemas que poseían los datos era la dimensionalidad, el exceso de características, por lo que para eliminarlos, se utilizaron diferentes métodos para así debatir cuál era el más conveniente y acertado.


CONCLUSIONES

Con los avances actuales en la investigación, nos encontramos en la fase final del preprocesamiento de datos, donde el objetivo principal es abordar el desafío de la dimensionalidad mediante el empleo de tres métodos distintos: correlación, PCA y ReliefF. Con el análisis de estos enfoques, buscamos reducir la complejidad del conjunto de datos para facilitar el siguiente paso de la investigación. Al finalizar esta etapa, podremos debatir y determinar cuál de los métodos se muestra más eficiente y adecuado para el desarrollo posterior de la investigación. La selección del método óptimo será de gran importancia para obtener resultados precisos y significativos en el entrenamiento de la inteligencia. En cada uno de estos métodos, nos enfocamos en el análisis de las matrices de correlación resultantes al final de cada proceso, analizando así, la disminución, parcial o total, de los cuadrados de color rojo en dichas matrices. El objetivo es lograr que la diagonal principal sea la única zona con este tono, mientras que el resto de los cuadros muestre preferentemente colores azules o blancos. Este patrón en las gráficas nos indica que la correlación entre los datos ha sido reducida de manera significativa, lo que a su vez implica una disminución en la dimensionalidad de los datos y una mayor eficiencia en la representación de la información relevante para la investigación. Al final, se tuvo un exhaustivo análisis de los tres métodos utilizados en el preprocesamiento y el equipo llegó a la conclusión de que se van a utilizar los dos últimos procesos para el siguiente paso de la investigación, debido a que se consideró que cada uno aportaba información relevante y se quiere comprobar qué método va a ser el más eficiente al momento de pasar por el procesamiento, en este caso, el método seleccionado sería k-means, que lamentablemente es un proceso muy tardado por la cantidad de datos que se presenta, por lo que ya no se dió el tiempo de seguir con este paso. 
Santamaría Álvarez Thomás, Universidad Nacional Abierta y a Distancia
Asesor: Dra. Patricia Martinez Moreno, Universidad Veracruzana

USABILIDAD Y ACCESIBILIDAD EN LOS VIDEOJUEGOS


USABILIDAD Y ACCESIBILIDAD EN LOS VIDEOJUEGOS

Santamaría Álvarez Thomás, Universidad Nacional Abierta y a Distancia. Asesor: Dra. Patricia Martinez Moreno, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La popularidad de los videojuegos como forma de entretenimiento ha crecido significativamente sin tener en cuenta la usabilidad y la accesibilidad. Estos aspectos a menudo no son considerados adecuadamente, lo que puede afectar negativamente la experiencia de juego de muchos jugadores, afrontar estos desafíos puede ser complejo, pero es crucial para crear experiencias inclusivas y satisfactorias para todos, sin importar sus habilidades o necesidades.  La usabilidad es crucial para que los jugadores aprendan rápidamente a jugar y comprendan cómo interactuar con el juego. Si los controles no son intuitivos, las instrucciones no son claras o la retroalimentación es deficiente, se genera confusión y frustración, impidiendo una inmersión completa en la experiencia del juego.  La accesibilidad se refiere a la capacidad de los videojuegos para ser disfrutados por personas con diversas habilidades y necesidades, muchos juegos carecen de opciones de accesibilidad adecuadas debido a la falta de información en el pasado y las dificultades técnicas para implementar estas características. Esto excluye a personas con discapacidades visuales, auditivas, motoras y otras, privándoles de disfrutar plenamente del entretenimiento que ofrecen los videojuegos.  Garantizando la usabilidad y la accesibilidad para que los controles sean intuitivos, las instrucciones claras y la retroalimentación efectiva, incorporando estas opciones de accesibilidad adecuadas, se amplía el público de los videojuegos y se permite que todas las personas disfruten plenamente de esta forma de entretenimiento, independientemente de sus habilidades o necesidades.  Es necesario reconocer que antes era más difícil programar estas funcionalidades debido a la falta de información disponible y las limitaciones técnicas de la epoca, en la actualidad la tecnología ofrece más oportunidades para mejorar la usabilidad y la accesibilidad en los videojuegos.  Mejorar la usabilidad y la accesibilidad permite garantizar que los juegos sean intuitivos, fáciles de aprender y jugar, y que estén disponibles para una amplia gama de jugadores. La falta de atención a estos aspectos puede llevar a experiencias de juego excluyentes, frustrantes y poco satisfactorias para numerosos jugadores presentandole hoy en dia una responsabilidad de la industria del videojuego trabajar en soluciones que permitan a todos disfrutar plenamente de esta forma de entretenimiento, evitando dañar la experiencia de otros solo por llegar a un público minoritario. 



METODOLOGÍA

Objetivo general   Mejorar la usabilidad y la accesibilidad en los videojuegos con el fin de proporcionar una experiencia de juego inclusiva y satisfactoria para todos los jugadores, independientemente de sus habilidades o necesidades.  Específicos  Investigar los desafíos existentes en términos de accesibilidad en videojuegos.   Indagar de como evaluar la usabilidad para videojuegos Preguntas de investigación  ¿Cuáles son los principales elementos y/o heurísticas en términos de usabilidad en el videojuego X y cómo pueden abordarse de manera efectiva?  ¿Existe una herramienta para evaluar la accesibilidad en los videojuegos?  Variables de Usabilidad Visibilidad del estado del sistema Coincidencia entre el sistema y el mundo real Control y libertad del usuario Consistencia y estándares Prevención de errores Reconocimiento en lugar de recuerdo Flexibilidad y eficiencia de uso Diseño estético y minimalista Ayude a los usuarios a reconocer, diagnosticar y recuperarse de errores Método cuantitativo:  El método cuantitativo puede utilizarse para recopilar datos objetivos y medibles, como el tiempo de completar una tarea, la precisión de las acciones del jugador o las respuestas de los usuarios en cuestionarios estructurados. Las técnicas comunes de recolección de datos cuantitativos incluyen encuestas, experimentos controlados, análisis de registros de juego y análisis estadístico.  Método cualitativo:  Puede utilizarse para recopilar datos a través de entrevistas en profundidad, grupos focales, observaciones participantes y análisis de contenido de entrevistas, revisiones de juegos y comentarios de los jugadores. El análisis cualitativo implica la identificación de patrones, temas y relaciones significativas y la interpretación de los resultados desde una perspectiva más subjetiva. Diseño experimental Selección de participantes Recopilación de datos cuantitativos Recopilación de datos cualitativos Interpretación y conclusiones Características de accesibilidad a juegos  Interfaz de usuario y gráficos descriptivos para color ciego  Subtítulos  Transcripción de chats en juegos  Información del sonido  Controles completamente asignables  Selección amplia niveles de dificultad  Pruebas de epilepsia fotosensible Metodologia completa https://onedrive.live.com/view.aspx?resid=913A3CD3611E4A2D!29521&ithint=file%2cdocx&authkey=!AOlb5Wp3KHFBuBY


CONCLUSIONES

Usabilidad; se considera fundamental la retroalimentación visual y auditiva para mostrar el estado del sistema y el progreso de una tarea. La representación de interacciones realistas y la posibilidad de personalizar los controles también son relevantes. Accesibilidad; se destaca la importancia de considerar a los jugadores con discapacidades visuales o auditivas. Esto implica utilizar metáforas visuales, fuentes legibles y subtítulos claros, se enfatiza en proporcionar opciones para activar o desactivar ciertos elementos, como subtítulos. Implementar una interfaz de usuario con combinaciones de colores adecuadas para los jugadores con discromatopsia, así como proporcionar opciones de tamaño de fuente para una mejor legibilidad. También se sugiere separar los controles de volumen de música, voz y efectos de sonido, lo que facilita la personalización para cada jugador. Conclusion completa (con tablas y fotos): https://onedrive.live.com/view.aspx?resid=913A3CD3611E4A2D!29523&ithint=file%2cdocx&authkey=!AO5b8aoMKWFkOdY
Santana Franco Edith Marlene, Universidad de Guadalajara
Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California

ADQUISICIÓN Y PROCESAMIENTO DE SEÑALES ELECTROENCEFALOGRÁFICAS DURANTE EL PROCESAMIENTO DE DILEMAS MORALES


ADQUISICIÓN Y PROCESAMIENTO DE SEÑALES ELECTROENCEFALOGRÁFICAS DURANTE EL PROCESAMIENTO DE DILEMAS MORALES

Franco Miramontes Ariana Belén, Universidad de Guadalajara. Santana Franco Edith Marlene, Universidad de Guadalajara. Silva Montes de Oca Carlos, Universidad de Guadalajara. Zamora Blanco Jesús Miguel, Universidad de Guadalajara. Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El procesamiento moral comprende sistemas neurológicos que forman el pensamiento moral, dirigen cognición y acción a objetivos internos como imaginar acontecimientos distantes y representar estados mentales en otros. La corteza prefrontal ventromedial se activa, según estudios de RNM funcional, cuando se hacen juicios morales o cuando se observan fotos que hacen referencia a emociones sociales como la solidaridad, la justicia y la culpa. También al plantearse dilemas, especialmente cuando estos implican contemplar la posibilidad de tener que actuar de forma que se pueda dañar a otros. Existen muchos estudios sobre el procesamiento moral, dando un enfoque desde ámbitos psicoeducativos pero hay poca evidencia de alta precisión bioeléctrica y componentes electroencefalográficos asociados al procesamiento moral. Es por eso que durante este verano de investigación, se estudian las señales electroencefalográficas adquiridas durante la presentación de dilemas morales en adultos jóvenes.   



METODOLOGÍA

Se adquirieron señales electroencefalográficas de ocho sujetos de estudio, entre los rangos de edad de 21 y 23 años, con características neurotípicas, cuatro con problemas visuales, 6 diestros y 2 zurdos.  A cada uno de los sujetos, se les realizó un previo cuestionario para descartar cualquier problema neurológico para después presentarle, por medio de un software, una serie de dilemas morales, en donde se les explica una situación en la que tienen que decidir si realizar o no la solución que se presenta con una posibilidad de tener que actuar de forma que se pueda dañar a otros por el bien general.  El software se conforma de 12 dilemas morales, en los que cada uno se divide en tres partes, primero dando un contexto general de la situación, después presentando el problema y la posible solución, y finalmente la pregunta donde el sujeto debe de responder con un sí o un no a la posible solución presentada.  Durante toda la presentación de los 12 dilemas se toman señales electroencefalográficas por medio de 6 electrodos de copa de oro, ubicados en las zonas prefrontal, frontal y temporal (según el sistema 10-20: Fp1, Fp2, F3, F4, F7, F8, T5, T6); utilizando el software y hardware de OpenBCI sincronizado al software de dilemas por medio de un marcador.  Para la identificación de cada dilema y sus partes en las señales electroencefalográficas se utilizó el marcador temporal previamente mencionado, para dividir las señales y facilitar el procesamiento de las mismas.   En el planteamiento del problema y de la posible solución de cada dilema, se espera ver una activación en el área prefrontal, lo cual se traduce en un cambio de la potencia de los componentes frecuenciales de las señales obtenidas en dichos electrodos. Para tener una mejor comparativa en el cambio de las señales electroencefalográficas se realizó un registro baseline o controlado sin estímulos exteroceptivos, que consta de tres etapas, los primeros 30 segundos del registro el sujeto está en estado de relajación con ojos abiertos, en la segunda etapa el sujeto debe de cerrar los ojos, teniendo esta una duración de 30 segundos más, para finalizar con una etapa de 2 minutos en la que el sujeto se mantiene con los ojos cerrados mientras que se le pide imaginar diferentes figuras geométricas para mantener un estado de concentración y relajación. Para el procesamiento de la información adquirida en el procesamiento moral, se tomaron las señales adquiridas y se dividieron según los segmentos de interés para el análisis, siendo estos antes y después del planteamiento del problema moral, posteriormente, se calculó el espectrograma de cada uno de estos canales para tener de primera instancia una comparativa visual de los cambios de la potencia en cada frecuencia a través del tiempo, posteriormente, se aplicaron herramientas estadísticas como el cálculo de la desviación estándar para tener una comparativa cuantitativa de los cambios que se produjeron durante todo el procesamiento moral.


CONCLUSIONES

Durante el procesamiento de dilemas morales se encontró un cambio significativo en la potencia de ondas beta en el área prefrontal del cerebro, mayormente de los electrodos F7 y F8 en comparación con el segmento de línea base, ocurriendo esto mismo para el caso del planteamiento del contexto del dilema en comparación con el registro de línea base, no se encontró un cambio significativo entre la activación de estos canales en la misma banda durante el procesamiento moral del dilema en comparación con el planteamiento del contexto del dilema.
Santana Mendoza Pily Fernanda, Universidad Autónoma del Estado de México
Asesor: Mg. Andres Mauricio Arguello Vasquez, Fundación Universitaria Empresarial

USO DE TECNOLOGíAS 4.0 Y 5.0 COMO APOYO A PRáCTICAS DE MANUFACTURA SOSTENIBLE.


USO DE TECNOLOGíAS 4.0 Y 5.0 COMO APOYO A PRáCTICAS DE MANUFACTURA SOSTENIBLE.

López Guerrero Mariana, Universidad Tecnologica de León. Muñoz Chávez Vania Isabella, Instituto Tecnológico de Pachuca. Santana Mendoza Pily Fernanda, Universidad Autónoma del Estado de México. Asesor: Mg. Andres Mauricio Arguello Vasquez, Fundación Universitaria Empresarial



PLANTEAMIENTO DEL PROBLEMA

Según el Banco de desarrollo de América Latina y el Caribe, las pymes representan más del 99.5% de las empresas en la región, por lo que estas juegan un papel crucial en el desarrollo económico de los países. En la actualidad, la cuarta revolución industrial ha introducido nuevas tecnologías, metodologías y procesos que han transformado la vida actual. Esto ha llevado a los empresarios a considerar la necesidad de transformación interna para adoptar posturas más competitivas, innovadoras y propiciar el crecimiento en sus respectivos sectores. Sin embargo, no todos poseen el conocimiento necesario sobre las técnicas y lineamientos para implementar estas tecnologías, lo que genera una brecha tecnológica y productiva entre las organizaciones. Por ello es de gran importancia la correcta implementación de estas nuevas tecnologías para respaldar el crecimiento del modelo de negocio en términos de desarrollo, innovación e investigación aplicada. En el ámbito del desarrollo, la adopción de nuevas tecnologías podría impulsar la creación de empleos para personal capacitado y especializado en el manejo de los nuevos procesos, además de optimizar el uso de los recursos internos, lo que se traduciría en ahorros y disminución de costos. Durante el verano de investigación, se realizan investigaciones pertinentes a la innovación tecnológica, así como a las tecnologías 4.0 y 5.0 aplicadas a diferentes ámbitos, principalmente en el entorno empresarial y como herramientas de apoyo en Pymes. Agregando con ello, la formación de un curso de innovación tecnológica, con 8 módulos de información relevante. Además, se entrevista a expertos de distintas áreas, con conocimiento en tecnologías 4.0 y 5.0 como apoyo a prácticas de manufactura sostenible en Pymes.



METODOLOGÍA

Se inicia con la investigación documental de manera individual, para familiarizarnos con el tema de las tecnologías 4.0 y 5.0 en el mundo actual. Así como también, con el uso de las herramientas tecnológicas para realizar las tareas asignadas, por ejemplo la utilización de la IA de Chat GPT. Esta herramienta nos apoyó en el desarrollo de la investigación, donde inicialmente brindamos información para ayudar a contextualizar a la inteligencia, favoreciendo así la eficiencia, veracidad y aproximación a la realidad de las respuestas, de modo que durante el desarrollo pudiéramos ampliar la investigación y generar un aporte desde un punto de vista diferente, apoyándonos en la generación de preguntas, cuestionarios , ejercicios, como también tomando fuentes de información y generando un proceso dinámico dentro del archivo. Una vez familiarizadas, iniciamos con la labor de dar un formato específico a la elaboración de un curso online que abordó temas de la innovación tecnológica, de tal manera que fuera dinámico, estructurado y concreto para el aprendizaje de los próximos aprendices e interesados al curso. Se generó un desarrollo del formato del curso, teniendo un total de 8 módulos, en donde se contempla no solo la instrucción de información, además se considera e invita a la participación y reflexión, ya que el formato se dividió en : el módulo con la información a instruir, un caso de éxito, el taller, un quiz, en donde en el módulo se instruye al participante sobre toda la información, contenidos y características del tema. En el caso de éxito, se muestra un ejemplo de la aplicación del contenido, generalmente de empresas, mostrando su éxito a través de la aplicación de lo visto en el módulo. El taller, donde se invita al participante a ejercitar lo aplicado, invitando a la reflexión y retención del contenido. El quiz, finalmente evalua lo aprendido. A la par, se estuvo trabajando con una selectiva entrevista a personas que estuvieran un poco más familiarizadas con el tema y que a lo largo de su trayectoria, pudieron observar la aplicación de dichos avances tecnológicos en su sector manufacturero. Gracias a esta técnica de recolección de información personal, pudimos obtener un acercamiento de cómo es en tiempo real la relación de innovadoras herramientas y su impacto en la sociedad empresarial en Latinoamérica.


CONCLUSIONES

El haber participado en un verano de investigación Delfín, favoreció a la formación de un curso de innovación tecnológica, que ayudará a transmitir la importancia que tiene la tecnología actualmente en nuestra sociedad, principalmente en las organizaciones. Así mismo cada módulo se profundizó en temas específicos que de alguna manera son parte de las prácticas de manufactura sostenible, mismos que posteriormente se pretende sean compartidos a estudiantes, y fomenten una cultura de innovación en su área de estudio. Se aportó además un registro de conclusiones obtenidas a partir de entrevistas aplicadas a dos Ingenieros Industriales y un Licenciado en Diseño Industrial, como aportación a la investigación Tecnologías 5.0 como apoyo a prácticas de manufactura sostenible en Pymes.
Santana Saucedo Salma Patricia, Instituto Tecnológico de Morelia
Asesor: Dra. Adela Lemus Santana, Instituto Politécnico Nacional

PREPARACIóN DE MEMBRANAS COMPUESTAS DE SPEEK MAS TETRACIANONIQUELATOS


PREPARACIóN DE MEMBRANAS COMPUESTAS DE SPEEK MAS TETRACIANONIQUELATOS

Santana Saucedo Salma Patricia, Instituto Tecnológico de Morelia. Asesor: Dra. Adela Lemus Santana, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente se buscan alternativas en generación de energías limpias una de ellas es la innovación de materiales sustentables para la generación y almacenamiento de energía. Entre los cuales destacan los electrolitos poliméricos (potencialmente usados en baterías y pilas de combustible) también conocidas como membranas de intercambio iónico. En particular las membranas de matriz mixta de conducción iónica, propuestas en este proyecto, están constituidas por materiales tipo MOFs en una base polimérica compatible con el relleno (polietér-éter-cetona sulfonada). La preparación y obtención de los materiales descritos en el proyecto, están basados en: materias primas de bajo costo, métodos sencillos de síntesis y compuestos químicos más amigables con el ambiente. En la investigación desarrollada durante la estancia Programa Interinstitucional Para El Fortalecimiento De La Investigación Y El Posgrado Del Pacífico - Delfín se proponen nuevos materiales en forma de membrana con propiedades potenciales que alcancen conductividades iónicas comparadas o superiores al polímero Nafion®, esto en condiciones de temperatura ambiente y ambientes húmedos (99% RH).



METODOLOGÍA

Disolución polimérica Para TCNFe-DMSO Para la preparación de la disolución polimérica se hicieron cálculos de % peso de la carga para saber la cantidad de carga de tetracianoniquelatos y SPEEK necesarios, ya que para las 3 membranas se buscaba una mezcla de 85% SPEEK Y 15%  de carga, obtenidos los resultados, primero en un vaso de precipitado se agregaron 2ml de DMA + 0.312gr de SPEEK (A), se agitó a una temperatura de 45°C por 24 hrs, transcurridas las 24 hrs aún no estaba disuelto el SPEEK por lo que, se separó en otro vaso de precipitado al cual se le agregó 3 ml de DMA (B), la mezcla B se agitó a 40°C por 24 hrs, después esta mezcla B se elevó a 85°C por 20 min para reducir el DMA. Para TCNMn-DMSO Se inició haciendo los cálculos de % peso de la carga para obtener la cantidad de SPEEK y de TCNMn-DMSO, después en un vaso de precipitado se agregaron 0.96 ml de DMA + 0.1507 gr de SPEEK y se agitó a 45°C por 24 hrs, debido a que pasadas las 24 hrs aún no se disolvía el SPEEK se agregaron 2 ml más de DMA a 35°C por 24 hrs, luego se elevó la temperatura a 37°C por 3 hrs 20 min para reducir el DMA. Para TCNCo-DMSO Similar al anterior hicimos los respectivos cálculos de % peso de la carga y después agregamos a un vaso de precipitado 0.67 ml de DMA + 0.1025 gr de SPEEK, se agitó a 45°C por 24 hrs, posteriormente a esta mezcla se agregaron 1.6 ml de DMA para disolver por completo el SPEEK y se agitó a 35°C por 24 hrs, luego se incrementó la temperatura a 37°C por 3 hrs 20 min para reducir el DMA. Dispersiones De Cargas (TCN) Con TCNFe-DMSO Dentro del vial con 0.0551 gr de TCNFe-DMSO se agregaron 0.6 ml de DMSO, se sonicó durante 30 min para disolver, después esta mezcla del vial se agregó a nuestra mezcla de disolución polimérica A misma a la que también se agregó el contenido de B y se agitó a 40° C por 24 hrs, posterior a esto se sonicó durante 15 min, luego se llevó al agitador a 30°C por 24 hrs y obtuvimos toda la disolución lista. Con TCNMn-DMSO A este vial con 0.0266 gr de TCNMn-DMSO se le agregaron 0.3 ml de DMSO, se llevó a sonicar por 30 min, ya que estaba disuelto el contenido del vial se agregaró a la disolución polimérica la cual se agitó a 36°C por 24 hrs, se colocó un salvavidas al vaso de precipitado y se sonicó por 15 min, después se llevó a agitación a 37°C por 24 hrs. Con TCNCo-DMSO Similar a lo anterior a este vial con 0.0181 gr de TCNCo-DMSO se le agregaron 0.2 ml de DMSO y se sonicó por 30 min, una vez disuelto el contenido del vial se agregó a la disolución polimérica que se agitó a 36°C por 24 hrs y se sonicó por 15 min, después se llevó a agitación a 37°C por 24 hrs. Preparación De Las Placas De Vidrio Para las 3 membranas se realizó la misma preparación, el cual consistió en limpiar las placas de vidrio, se aplicó un tratamiento con NaOH al 1 molar en el cual se colocaron dos placas en un recipiente junto con la disolución de NaOH para mantener el contacto con las caras que se quieren activar y se dejó reposar durante 48 hrs. Después del reposo se enjuagaron con agua, luego con un paño y metanol y se dejaron secar perfectamente antes de usarse. Casting Y Preparación De La Membrana Con TCNFe-DMSO Sobre una placa de vidrio previamente tratada se colocaron dos guías del mismo espesor en ambos extremos de la placa y se vertió la disolución polimérica (método casting), después se realizó el barrido con una navaja limpia a una velocidad constante y controlada, una vez extendida la membrana se introdujo a la estufa con rampas de 20°C cada 20 min hasta alcanzar una temperatura de 120°C, alcanzados los 120°C se mantuvo la temperatura constante por 3 hrs y por último se desprendió cuidadosamente la membrana de la placa de vidrio despegando los bordes de ella con la navaja limpia. Con TCNMn-DMSO y TCNCo-DMSO De la misma forma sobre una placa de vidrio previamente tratada se colocaron dos guías del mismo espesor en ambos extremos de la placa y se vertió la disolución polimérica (método casting), después se tenía que hacer el barrido pero debido a que la disolución era muy liquida se expandió lo suficiente y no se hizo barrido, ya extendida la membrana se introdujo a la estufa con rampas de 20°C cada 20 min hasta la temperatura de 120°C y se mantuvo a esa temperatura durante 3 horas, se dejó enfriar la estufa y una vez fría sacamos las placas, como las 2 membranas eran muy delgadas se metieron al congelador durante 40 min para desprenderla más fácilmente, pasados los 40 min se pudo desprender con una navaja cuidadosamente.


CONCLUSIONES

Tras el análisis realizado con espectroscopia IR, podemos deducir que las membranas obtenidas tienen grupos funcionales iguales a los reactivos utilizados para su fabricación por lo que es una buena señal ya que probablemente se debe a que no hubo reacciones indeseables en la fabricación y por medio de otros análisis como DRX Uv-vis se busca confirmar esto.
Santiago Nogales Benjamin Natanael, Instituto Politécnico Nacional
Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla

DISEñO DE UN SISTEMA DE ILUMINACIóN FRONTAL ADAPTATIVA USANDO ARDUINO Y COMUNICACIóN CAN-BUS


DISEñO DE UN SISTEMA DE ILUMINACIóN FRONTAL ADAPTATIVA USANDO ARDUINO Y COMUNICACIóN CAN-BUS

Santiago Nogales Benjamin Natanael, Instituto Politécnico Nacional. Asesor: Dr. Roberto Carlos Ambrosio Lazaro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

A diferencia de los faros convencionales, los sistemas de iluminación adaptativa (AFS, Adaptive Front Lighting Systems) son capaces de adaptar dinámicamente la forma en la que iluminan el camino basándose en diferentes condiciones de manejo. En el alumbrado dinámico en curvas, los lentes de proyección del  faro siguen la rotación del volante a velocidades de 15 km/h o más, con el objetivo de iluminar el camino durante curvas. Así el conductor puede observar el camino de la curva, al igual objetos que estén en la carretera. Servomotores dentro de los faros giran los lentes de proyección de acuerdo con el ángulo de giro del volante y la velocidad del vehículo. El ángulo del giro de los lentes de proyección tiene como máximo 15° para evitar afectar al tráfico en sentido contrario. Otras funciones los sistemas de iluminación adaptativa es la capacidad de ajustar la intensidad de las luces de acuerdo con la velocidad y el tipo de camino en el que se encuentra el vehículo. El desarrollo de sistemas como este permite al conductor observar objetos durante las curvas, así como reconocer el camino durante estas. Adicionalmente evita deslumbrar a otros conductores y así reducir condiciones de riesgo en la carretera. Su propósito es reducir el número de accidentes en las carreteras, brindando herramientas al conductor para el pleno reconocimiento del camino.  



METODOLOGÍA

El proceso que fue seguido para crear un AFS comienza por la definición del problema, donde el problema es ¿Cómo crear un AFS usando Arduino y comunicación CAN-BUS? Inicialmente, fue necesario comprender la comunicación CAN-BUS, su composición e implementación. Se recurre a bibliografía de donde se reconocen los elementos que integran a una trama CAN, los bits de los que se conforma y condiciones de operación. Para su integración con Arduino es necesario el módulo MCP2515 el cual tiene integrado un transceptor TJA1050 que es la interfaz entre el CAN y bus físico. Posteriormente se seleccionó un elemento que permitiera conocer la posición del volante con la peculiaridad de que, al apagar el sistema, este retuviera la última posición del volante. Se plantea la selección entre dos elementos: un potenciómetro lineal y un encoder rotativo. Después de pruebas se selecciona el potenciómetro lineal, pues este si retiene la última posición del volante al reiniciar el sistema. El giro del eje del volante debe ser transmitido al eje del potenciómetro. Considerando que la volante gira 900° y el potenciómetro 300°, es necesario un juego de engranes que permita la transmisión de la posición. Se calculan las relaciones de trasmisión de movimiento entre el engrane acoplado al eje del volante y el engrane acoplado al eje del potenciómetro. Posteriormente se crea la comunicación CAN-BUS con dos módulos: uno transmisor y otro receptor, los cuales se encargan de procesar la información y ejecutar acciones en los faros, respectivamente. Se sigue por crear la programación necesaria para el funcionamiento del AFS. En el código del módulo trasmisor se adquieren valores para las variables de estados de los switches, posición del volante e iluminación, así como se les asigna un ID y un mensaje por el cual serán transmitidos. En el código del módulo receptor se reciben los mensajes enviados por el módulo trasmisor y basándose en condiciones, se envían las señales correspondientes a la activación, desactivación y movimiento de los actuadores. Debido a que en el modelo físico se cuenta con un faro izquierdo, la programación del movimiento del lente de proyección solo responde a giros en el volante hacia la izquierda, o bien, en sentido contrario a las manecillas del reloj, mientras que en giros a la derecha el lente de proyección apunta hacia enfrente. En el caso del accionamiento de las luces se crearon dos modos, uno manual donde el usuario puede activar y desactivar el encendido de las luces, y otro automático donde el sistema se encarga de activar y desactivar las luces basándose en la cantidad de luz que recibe la fotorresistencia. Posteriormente se crea el modelo físico, en el que se integran los elementos creados en 3D: un volante, ejes, un juego de engranajes y una carcasa, todos hechos de paneles de fibra de madera. Se agregan las tarjetas de desarrollo Arduino, los módulos MCP2515 y el cableado necesario. El faro utilizado en el este modelo fue proporcionado por el Dr. Roberto Ambrosio Lázaro, el cual cuenta con dos focos, que corresponden a las luces bajas y altas, y los lentes de proyección móviles, todos en una carcasa de fibra de vidrio. El módulo transmisor recibe la información correspondiente a la posición del volante, los estados de los interruptores para los modos de funcionamiento del sistema, encendido y apagado de las luces, y la cantidad de luz recibida. Esta información se trasmite al módulo receptor, que la interpreta para mover los lentes de proyección y encender o apagar las luces. Se realizan pruebas en las que se comprueba el correcto funcionamiento del sistema, así como se verifica que las tramas enviadas por el módulo trasmisor correspondan con la información enviada. Se analizan  las tramas y se concluye que la comunicación CAN funciona correctamente. En general diseño cumple con las expectativas.


CONCLUSIONES

Durante la participación en este Programa Interinstitucional para el Fortalecimiento de la Investigación y el Posgrado del Pacífico se logra poner en práctica los conocimientos adquiridos en mi programa de estudios, así como adquirir nuevos conocimientos. En cuanto al proyecto desarrollado se espera sea un modelo que permita la comprensión de sistemas de asistencia al conductor de una manera más sencilla, en el que se observen características propias de los sistemas automotrices, como en este caso son las comunicaciones por CAN-BUS, y que inspiren al desarrollo de nuevas tecnologías de asistencia al conductor. Si bien los AFS existen en el mercado, estos son costosos y solo se encuentran en modelos de alta gama. Desarrollar diseños como el presentado en este trabajo permiten crear sistemas de menor costo para su integración en vehículos más comerciales y prevenir un mayor número de accidentes.
Santillan Hernandez Daniel Antonio, Universidad Autónoma de Tamaulipas
Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes

VALORIZACIóN DE RESIDUOS DE AGAVE EN PROCESOS AMBIENTALES


VALORIZACIóN DE RESIDUOS DE AGAVE EN PROCESOS AMBIENTALES

Santillan Hernandez Daniel Antonio, Universidad Autónoma de Tamaulipas. Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de procesos sostenibles y ecológicos ha llevado a una importante investigación en la valorización de materiales de desecho agroindustriales. El bagazo de agave tequilana es un subproducto de la industria del tequila posee un gran potencial para su utilización en diversas aplicaciones debido a su disponibilidad y propiedades fisicoquímicas inherentes. Actualmente la industria del tequila produce aproximadamente 300,000 toneladas al año de bagazo de agave sin valor agregado, el cual puede aprovecharse en la remoción de contaminantes en el agua. Considerando lo anterior, en este estudio se preparó un adsorbente de base carbonosa a partir de este desecho y se empleó como adsorbente de plomo. Se seleccionó este contaminante como caso de estudio ya que la ingesta de plomo puede originar afectaciones en el sistema nervioso, hematopoyético, gastrointestinal y reproductor, entre otras afecciones.



METODOLOGÍA

El bagazo de agave se sometió a un proceso de carbonización hidrotermal a 180 °C durante 9 h. El carbonizado obtenido se secó durante 24 h a 100 °C. Se realizaron estudios cinéticos empleando una solución de plomo con concentración inicial de 200 mg/L (Co, mg/L) a pH 5. Los ensayos se realizaron a 30 °C, con una relación adsorbente-adsorbato (V/m) de 5 g/L y tiempos de contacto de 0.5 - 24 h. Trascurrido este tiempo se estimó la concentración final de plomo (Ce, mg/L) y se calculó la capacidad de adsorción correspondiente empleando la siguiente formula: qe=(C0-Ce)V/M


CONCLUSIONES

De acuerdo con los resultados obtenidos, la adsorción de plomo alcanzó el equilibro a las 6 h de contacto. Por otro lado, se pretende realizar estudios de equilibrio de adsorción y correlacionar los datos con diferentes modelos de isotermas. Asimismo, durante mi estancia logré adquirir nuevos conocimientos sobre la adsorción y el tipo de materias primas que se pueden utilizar para preparar adsorbentes. Aprendí que los residuos como el bagazo de agave que se utiliza en la industria tequilera tiene un potencial muy grande como adsorbente de metales pesados después de modificar sus características mediante varios procesos. También aprendí y reforcé mis conocimientos sobre técnicas de laboratorio, conocí y utilicé equipos de laboratorio nuevos.
Santillán Martínez Fernanda Josefina, Universidad de Guadalajara
Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán

IMPORTANCIA DEL USO DE LOS POLíMEROS EN LA INDUSTRIA.


IMPORTANCIA DEL USO DE LOS POLíMEROS EN LA INDUSTRIA.

Gutierrez Torres Melanie Aidee, Universidad de Guadalajara. Ramírez Campos Karime Anahí, Universidad de Guadalajara. Santillán Martínez Fernanda Josefina, Universidad de Guadalajara. Velázquez Plascencia David, Universidad de Guadalajara. Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la Industria y los diversos sectores en los que se divide, depende mucho de un material avanzado: los polímeros. Estos, mayormente se utilizan en la creación e innovación de productos que faciliten su desarrollo y la forma en la que estos se pueden acoplar a nuestro estilo de vida. Pero, no se toman en cuenta del todo las consecuencias que puede traer al ambiente futuro el uso constante y desenfrenado de este material, pues tanto la producción de este mismo y de otros termoplásticos, traen un sinfín de afectaciones directas e indirectas al medio ambiente e incluso a nosotros mismos.



METODOLOGÍA

Los materiales poliméricos son elementos necesarios en nuestro día a día, por lo cual se debe disponer de un diseño y desarrollo racional que establezca parámetros de sostenibilidad. En los últimos años debido a las diferentes problemáticas que genera el sector industrial con el uso y creación de polímeros y sus productos, se han planteado nuevas vías científicas y tecnológicas para elaborar plásticos ecológicos, que impulsen nuevas materias primas menos contaminantes o cero contaminantes, así mismo se innova a partir de los reconocidos bio-polímeros, polímeros biobasados y polímeros nanotecnológicos, que no solo favorecen en la reducción de contaminación del planeta, sino que pueden reducir costos asociados a la producción y postconsumo por lo que van asociados a impulsar la reutilización, reparación y reciclaje final.


CONCLUSIONES

Con esta investigación, se busca concientizar a la Industria para que la innovación que tanto buscan desarrollar, vaya de la mano con el uso sostenible y poder lograr así, una industria resiliente ante los cambios negativos, pues de esta forma, se podrá lograr un equilibrio con el crecimiento y el cuidado mediambiental.  
Santillan Renteria Jorge Antonio, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Eistin Ivan Caratt Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISPOSITIVO DE RECONOCIMIENTO


DISPOSITIVO DE RECONOCIMIENTO

Santillan Renteria Jorge Antonio, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Eistin Ivan Caratt Padilla, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

En SENA Tecnoparque de la mano con EFIM - Escuela de Formación de Infantería de Marina , se ha llevado a cabo un proyecto confidencial de diseño de un dispositivo de reconocimiento. El objetivo de este dispositivo es la detección de objetos a distancia y emitir una señal de ‘objeto detectado’, lo que podría tener aplicaciones en diversas áreas como la seguridad y la vigilancia. El problema radica en que el proyecto se encuentra estancado en la fase de diseño debido a que el tiempo no es suficiente para alcanzar la fase de implementación por la llegada de los materiales que implica meses para su llegada, la restricción de información impuesta por un acuerdo de confidencialidad con los clientes y partes involucradas. Esta limitación impide que el equipo de delfines e investigador pueda compartir detalles específicos sobre las características, funcionalidades y desafíos técnicos que enfrenta el dispositivo. Por lo tanto, el reto para el equipo de delfines e investigador del SENA Tecnoparque es encontrar la manera de avanzar en el desarrollo del dispositivo sin violar el acuerdo de confidencialidad establecido y con el limite de tiempo que especifica el Programa Delfin. Esto implica idear estrategias y soluciones creativas para abordar los desafíos técnicos, mejorar la precisión de detección, optimizar la eficiencia energética y reducir los costos de producción, todo ello dentro de los límites y restricciones impuestas por el acuerdo de confidencialidad. El equipo debe equilibrar la necesidad de avanzar en el proyecto sin comprometer la confidencialidad y seguridad de la información. Esto requiere una comunicación efectiva y colaborativa con las partes involucradas, y posiblemente la exploración de alternativas para el desarrollo conjunto del dispositivo. El éxito en superar estos obstáculos permitirá al Tecnoparque entregar un dispositivo funcional, competitivo y de alto rendimiento, manteniendo la confianza y el respeto de sus clientes y estableciendo una base sólida para futuras colaboraciones y proyectos en el ámbito de la innovación tecnológica.



METODOLOGÍA

Desarrollo del dispositivo de reconocimiento por infrarrojo: Definición de requerimientos: Trabajo en conjunto con EFIM - Escuela de Formación de Infantería de Marina para establecer las necesidades específicas de detección de obtejos y otros detalles esenciales. Investigación y diseño conceptual: Investigación exhaustiva de proyectos similares, resultando en un diseño conceptual que integra tecnologías innovadoras. Diseño del circuito impreso (PCB): Detallado diseño de PCB con Altium Designer para optimizar eficiencia y reducir ruido electromagnético. Modelado 3D con Solidworks: Creación de modelo 3D para asegurar un diseño estético y funcional del dispositivo. Programación del microcontrolador: Haciendo uso de Visual Code para manejo de datos de sensores. Control de versiones con GitHub: Registro organizado y seguro del progreso de desarrollo mediante GitHub. Documentación y entrega: Entrega de código fuente, esquemáticos detallados del PCB y diseños en 3D a SENA Tecnoparque para futuros desarrollos. Cabe mencionar que, dado el acuerdo de confidencialidad, los detalles específicos sobre el diseño y desarrollo del dispositivo de reconocimiento no pueden ser divulgados en esta metodología. Sin embargo, se garantiza que se siguieron buenas prácticas de ingeniería, pruebas rigurosas y una comunicación efectiva para cumplir con los objetivos del proyecto y mantener la confidencialidad de la información.


CONCLUSIONES

El proyecto de desarrollo del dispositivo de reconocimiento representó un desafío técnico significativo y una experiencia valiosa para el equipo de delfines Tecnoparque. A pesar de las limitaciones impuestas por el acuerdo de confidencialidad, se lograron avances significativos en el diseño y programación del dispositivo de reconocimiento. Las principales conclusiones del proyecto son las siguientes: Investigación y aprendizaje: El proceso de investigación y estudio de tecnologías avanzadas, permitió al equipo expandir sus conocimientos en el ámbito de la detección y comunicación. La experiencia adquirida será valiosa para futuros proyectos y desafíos técnicos. Importancia de la confidencialidad: El acuerdo de confidencialidad resaltó la importancia de mantener la seguridad y privacidad de la información en proyectos con colaboraciones externas. Aprendimos la importancia de respetar y cumplir con las restricciones y obligaciones legales para proteger los intereses de nuestros clientes. Colaboración y comunicación: El proyecto destacó la importancia de una comunicación efectiva y colaborativa con los clientes y partes interesadas. La claridad en la comunicación y la retroalimentación constante permitieron al equipo adaptarse a los requerimientos y expectativas del cliente. Uso de herramientas de desarrollo: La utilización de herramientas como Altium Designer, Solidworks, GitHub y Visual Code demostró ser esencial para el desarrollo del proyecto. La aplicación de estas herramientas facilitó la organización, el seguimiento y la colaboración en el proceso de desarrollo.
Santos Alonso Judith, Universidad Mexiquense del Bicentenario
Asesor: Mtro. Armando Hernández Machuca, Instituto Tecnológico Superior de Pánuco

CONSTRUCCIóN DE UN PROGRAMA DE CóMPUTO PARA EL CáLCULO DE ÍNDICES DE VEGETACIóN ENFOCADO A LA DETERMINACIóN DE MASA VEGETAL EN UN CULTIVO.


CONSTRUCCIóN DE UN PROGRAMA DE CóMPUTO PARA EL CáLCULO DE ÍNDICES DE VEGETACIóN ENFOCADO A LA DETERMINACIóN DE MASA VEGETAL EN UN CULTIVO.

de Jesús Sabino Azucena, Universidad Mexiquense del Bicentenario. Santos Alonso Judith, Universidad Mexiquense del Bicentenario. Asesor: Mtro. Armando Hernández Machuca, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Dado al crecimiento de la población en el mundo el cual exige una producción suficiente de alimentos en cantidad y calidad de bajo costo, y con el menor impacto ambiental. La agricultura convencional considera las condiciones de un cultivo como uniformes y aplica la misma cantidad de insumos agrícolas a toda la superficie de siembra, lo que genera un incremento en los costos de inversión y aumenta los riesgos de la contaminación ambiental. Con el uso de nuevas tecnologías, la implementación de la Agricultura de Precisión permite aplicar distintas cantidades de insumos y valorar las necesidades de manera específica de cada sección del cultivo y proporcionar respuesta en tiempo real. En cuanto al caso de estudio en la Ciudad de Pánuco, Veracruz se realizan actividades de agricultura en la cual se aplican técnicas convencionales y no se tiene acceso a tecnologías emergentes que permiten obtener una mayor sostenibilidad, sobre todo para lograr reducir los recursos invertidos y a la par reducir el impacto ambiental y maximizar la producción. El propósito de la presente investigación es desarrollar un Programa de cómputo para el cálculo de índice de vegetación, enfocado a la determinación de masa vegetal en un cultivo, teniendo como objetivo asegurar la sostenibilidad de los sistemas de producción de alimentos, adicionalmente detectar plagas o malas hierbas en campos de cultivo por medio de visión artificial y uso de drones para coadyuvar a prevenir pérdidas y monitorear el sano crecimiento de los cultivos.



METODOLOGÍA

La presente investigación se encuentra enfocada en construir un Programa de cómputo que permita el cálculo de índices de vegetación, específicamente el EXG (Exceso de Verde). El Índice de Vegetación Verde-Exceso de Verde (EXG, por sus siglas en inglés Enhanced Vegetation Index) es un índice de vegetación que se utiliza para cuantificar y resaltar la presencia y salud de la vegetación en imágenes. La fórmula para calcular el EXG es la siguiente: EXG = 2 * Green - Blue – Red. Donde: Green es el valor de reflectancia en el canal verde, Blue es el valor de reflectancia en el canal azul y Red es el valor de reflectancia en el canal rojo. A diferencia de otros índices de vegetación como el NDVI o el EVI, el EXG no utiliza el infrarrojo cercano y, en su lugar, se basa en los canales visibles de la imagen. Esto puede hacer que el EXG sea más sensible a las variaciones de vegetación en diferentes condiciones y tipos de vegetación. El rango de valores del EXG depende de la escala de la imagen y las unidades de los valores de reflectancia. Generalmente, valores más altos de EXG indican áreas con mayor presencia de vegetación y vegetación más saludable, mientras que valores más bajos o negativos indican áreas con menor presencia de vegetación o con otros tipos de superficies, como agua o suelo desnudo. Para construir el software se utilizó el lenguaje de programación Python y la librería OpenCV. OpenCV (Open Source Computer Vision Library) es una biblioteca de código abierto de visión por computadora y procesamiento de imágenes. OpenCV está escrita en C++ y cuenta con interfaces para varios lenguajes de programación, incluidos Python, Java y MATLAB, así también proporciona más de 2500 algoritmos optimizados para llevar a cabo tareas de visión por computadora y análisis de imágenes en tiempo real. El programa necesita como entrada imágenes aéreas de cultivos, para lo cual se obtuvieron imágenes aéreas de cultivos de caña de azúcar de la ciudad de Pánuco, Veracruz. El proceso del programa construido es el siguiente: 1. Dentro del programa importamos el módulo cv2, es el módulo más importante de OpenCV, que proporciona una interfaz para trabajar con funciones de procesamiento de imágenes y vídeo. 2. Cargamos la imagen a través de la función cv2.imread() que se encarga de localizar y cargar la imagen desde el sistema de archivos. La imagen se carga en formato JPG, y tiene las siguientes propiedades: una dimensión de 490 x 474, un ancho de 490 píxeles, una altura de 474 píxeles y una profundidad de bits de 32. 3.Una imagen digital a color usualmente está compuesta por tres canales de información, para un espacio de color RGB tendremos los siguientes canales, (R) Rojo, (G) Verde y (B) Azul. Por lo que separamos la imagen en los tres canales RGB, utilizando la función cv2.split(), el resultado de esta fase son tres imágenes, correspondientes a cada uno de los canales RGB. 4. El cálculo del índice EXG se obtiene utilizando la expresión algebraica EXG = 2 * G – R - B, donde G corresponde al canal verde RGB, R corresponde al canal rojo RGB y R corresponde al canal rojo RGB de una imagen. Cada uno de los canales se obtiene a través de la función cv2.split (). 5. El resultado de la ejecución de la expresión EXG = 2 * G – R - B es una imagen en escala de grises. El siguiente paso es extraer características de la imagen. Para lo cual se aplica un umbral a la imagen a través de la función cv2.threshold(), función que permite segmentar la imagen y extraer las regiones de interés. El resultado de este proceso es una imagen binarizada, utilizando un valor de umbral de 127 y Otsu como algoritmo de umbralización. 6. Para mostrar la imagen final construida es necesario redimensionarla, por lo que se utiliza la función cv2.resize(). Es una instrucción que utiliza la biblioteca de OpenCV para redimensionar una imagen. En este caso, la imagen que se redimensiona es la imagen generada a través de la función cv2.threshold(), y la nueva dimensión se establece en 800 píxeles de ancho y 600 píxeles de alto. 7. Como salida mostramos la imagen a través de la función cv2.imshow (). Se logra mostrar la imagen de salida con un título especificado ‘Índice Exceso de Verde’. El resultado de programa construido es una imagen binaria, compuesta por pixeles de color negro y blanco. La siguiente etapa de la investigación es determinar y aplicar una máscara de visualización a la imagen para interpretar visualmente el área verde correspondiente a la vegetación en la imagen del cultivo.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos y tecnológicos, sobre el procesamiento de imágenes y el desarrollo de códigos para determinar la separación de canales RGB, determinar la cantidad de pixeles que tiene de cada color primario, calcular los índices de color y aplicar el Umbral (Otsu). Sin embargo, al ser extenso trabajo, aún se encuentra en desarrollo de dicho software, pero así mismo se pueden obtener resultados conforme lo mencionado ya anteriormente.
Santos Hernández Daniel Alberto, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango

SIMULACIóN DE PROTOTIPO MEDIDOR DE VARIABLES ELéCTRICAS.


SIMULACIóN DE PROTOTIPO MEDIDOR DE VARIABLES ELéCTRICAS.

Santos Hernández Daniel Alberto, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Durante esta estancia validaremos la propuesta de un medidor de variables eléctricas para residencias, con la ayuda de simulaciones y códigos diseñados desde los programas “ARDUINO IDE” y “PROTEUS 8.8”. Para esto se propone esta opción distinta a la de la empresa suministradora de energía eléctrica, para corroborar el consumo de los usuarios a través de un dispositivo simple en su uso e interpretación. Este problema radica en la falta de conocimiento y compresión por parte de los usuarios que habitan las residencias, sobre cómo funcionan la medición de variables eléctricas en sus hogares. Para resolver esta problemática, se validará una forma más adecuada de medición de variables para una mejor compresión de los usuarios, con la ayuda de software (Arduino, proteus 8.8) y simulaciones en estas herramientas.



METODOLOGÍA

El problema plateado, se resolverá validando la propuesta de un medidor de variables, utilizando Arduino y Proteus para su simulación, de igual manera se implementará las pruebas de medición de corriente (I) y voltaje (V) de manera física a una instalación eléctrica de una residencia. Para poder usar de manera correcta los programas, tome cursos de estas herramientas para poder diseñar códigos en Arduino, los cursos implementados fueron de cómo usar y construir funciones, comandos y ecuaciones para poder mandar señales al Arduino uno, también tome el curso de Proteus 8.8, en este curso aprendí a diseñar circuitos en dos dimensiones, también conectar de manera correcta y poder dar valores deseados a los componentes electrónicos, que se encuentran en las librerías ya instaladas en el software. Para diseñar el circuito propuesto se utilizaron los siguientes componentes: Simulino; es utilizado para correr códigos y mandar señales que no se pueden manipular con componentes más simples. Este componente cuenta con un microcontrolador encargado de aceptar y correr códigos, igual cuenta con salidas y entradas para conectar otros componentes. LCD1 (display): refleja los valores medidos para una mejor comprensión del observador, es usado para recibir las señales que manda el Arduino y poder reflejar los valores deseados. Transformador: es usado para transformar los 127V a 12V para poder utilizar la energía en el puente de diodos. Puente de diodos: rectifica la corriente para poder usarla en el sensor de voltaje. Sensor de voltaje: se usa para recibir una señal de voltaje y enviarla al Arduino, y así reflejar una medición en el display. Sensor de corriente: es el encargado de recibir una señal de corriente y enviarla al Arduino y mostrar las mediciones en el display. También se utilizan resistencias como cargas para simular el consumo de corriente y el voltaje que llega a ellas. Estos componentes son utilizados para la simulación y validación de la propuesta, para iniciar la construcción del circuito, empezamos colocando una fuente de 127V y esta va conectada en serie hacia un amperímetro que después va a la entrada de el sensor de corriente, pero antes se conecta una resistencia de 100 ohms en serie, para simular la carga, y a la salida del sensor se conecta otro amperímetro que se conecta a una entrada (A0) de Arduino. Para el voltaje se conecta el volmetro en paralelo con el trasformador, y a las salidas del trasformador se conecta el puente de diodos, a las salidas del puente un capacitor que van conectado a las entradas del sensor de voltaje, después se conecta la salida del sensor a la entrada (A1) de Arduino. La señal de salida de Arduino va conectada al display para que nos refleje las señales de medición de las variables (corriente, voltaje, potencia y kilowatts), de esta forma se conectan los componentes para poder validar el circuito. Se desarrollo la programación del código en el IDE de Arduino que permitió tomar las mediciones de las señales analógicas (voltaje y corriente) de entrada y mediante ecuaciones matemáticas convertirlas de manera interna en el microcontrolador en digitales para ser tratadas y plasmadas en el display. Con la compilación del código se obtiene la dirección del archivo “.hex”, que es utilizado en Proteus, donde se agrega al microcontrolador (Simulino) para realizar la simulación del circuito.


CONCLUSIONES

El desarrollo de la simulación fue el adecuado y funciono de manera correcta, se valido para poder ser implementado físicamente, con esto se facilitará la compresión del consumo eléctrico y se tendrá un comparativo con lo que la empresa suministradora proporciona. Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de las mediciones eléctricas, y ponerlos en práctica con simulaciones en programas especializados, para validar y llevarlos a cabo físicamente.
Santos Honorato Ulises Sadami, Instituto Tecnológico de Chilpancingo
Asesor: M.C. Oscar Gabriel Flores López, Instituto Tecnológico de Chilpancingo

IMPLEMENTACIÓN Y EVALUACIÓN DE UNA ESTRATEGIA DE ALFABETIZACIÓN CON REALIDAD AUMENTADA, DISEÑADA PARA NIÑAS Y NIÑOS DE 5 A 7 AÑOS DE EDAD, EN LA REGIÓN CENTRO DEL ESTADO DE GUERRERO.


IMPLEMENTACIÓN Y EVALUACIÓN DE UNA ESTRATEGIA DE ALFABETIZACIÓN CON REALIDAD AUMENTADA, DISEÑADA PARA NIÑAS Y NIÑOS DE 5 A 7 AÑOS DE EDAD, EN LA REGIÓN CENTRO DEL ESTADO DE GUERRERO.

Santos Honorato Ulises Sadami, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Oscar Gabriel Flores López, Instituto Tecnológico de Chilpancingo



PLANTEAMIENTO DEL PROBLEMA

Una de las carencias en los países de habla hispana y particularmente en México, ha sido el fracaso en la enseñanza y por consecuencia el aprendizaje de la lecto-escritura; son evidentes los errores ortográficos al escribir y no hay comprensión lectora en un gran número de estudiantes, esto ha sido por años un verdadero reto para los profesores de educación básica, educación media y educación superior. La importancia de la lectura es que se considera la puerta de entrada al conocimiento y la escritura es un medio privilegiado para expresar  ideas y sentimientos. La relevancia de la alfabetización radica en que es un derecho humano y un recurso para la autonomía personal y el desarrollo social. El Consejo nacional de evaluación de la política de desarrollo social CONEVAL, reportó que en el año 2018 el componente de población de 3 a 15 años, es de  57.1 miles de personas en el indicador de rezago educativo en el estado de Guerrero, lo que lo coloca a nivel nacional en los últimos lugares de aprovechamiento y asistencia escolar. El presente proyecto se ha de centrar en el desarrollo de material didáctico innovador con realidad aumentada, con el objetivo de implementar y evaluar una estrategia de alfabetización durante veinte días, dirigido a niñas y niños no alfabetizados, de la región centro del estado de Guerrero.



METODOLOGÍA

La presente investigación tiene un enfoque mixto, es inductivo, con un modelo de evaluación de Contexto, Insumo, Proceso, Producto (CIPP), con sus respectivas categorías, de pertinencia, adecuación y factibilidad, planificaciín y desarrollo de acciones, preguntas de investigación ¿Qué fundamentos teóricos sustentan la Alfabetización a través de realidad aumentada en niños de 5 a 7 años? ¿Qué habilidades de lecto escritura se desarrollan a través de la realidad aumentada en niños de 5 a 7 años respecto de la lecto escritura? ¿Cómo contribuyen la Realidad Aumentada en el desarrollo de la lecto escritura en niños de 5 a 7 años? ¿Cuál es el impacto de la Realidad Aumentada para el desarrollo en las habilidades de lecto escritura en niños de 5 a 7 años de la región centro del estado de Guerrero?  Innovación del método de alfabetización vacachadafa, a través de modelado por medio de la plataforma Spark AR construir la herramienta (cubos) didácticos y ejercicios de lectura y escritura considerando un estudio  de caso. 


CONCLUSIONES

Durante la estancia de verano Delfín 2023, se logró adquirir conocimientos teóricos, referentes empíricos así como, antecedentes históricos del proceso de alfabetización mediante realidad aumentada, conociendo la pertinencia de la tecnología en el proceso de enseñanza-aprendizaje.  • Se logró modelar (crear y diseñar) a través de la plataforma Spark AR, efectos y vivencias de realidad aumentada  y ponerlos en práctica con el objetivo de implementar y evaluar una estrategia de alfabetización mediante tecnología en RA.   • Se encuentran en proceso de alfabetización un sujeto de estudio de 5 años, el diagnóstico inicial es que el sujeto tiene habilidades de grafía.  Estatus del proceso de  implementación: • Grafía de letras  • Fonema con identificación de imágenes  • Escritura de sílabas  • Lectura de sílabas  • El estudio de caso sobre la aplicación del método VACACHADAFA en Realidad Aumentada en la lecto-escritura de un sujeto de cinco años durante diez días ha arrojado resultados prometedores.  • Al practicar regularmente la asociación de imágenes con las silabas iniciales de los objetos y animales que se utilizaron en los cubos, se observó como el sujeto encuentra mayor facilidad para leer y relacionar letras con imágenes.  • Se pudo apreciar durante la jornada de trabajo que esto provocó un mayor interés y gusto por la lectura (que otra forma de hacer trazos), haciéndola más atractiva y entretenida para el objeto de estudio. • Durante el proceso se puede afirmar que esta experiencia visual y práctica reforzó en el sujeto, la asociación entre letras e imágenes. • A través de esta estrategia de alfabetización innovadora y lúdica, el sujeto ha demostrado un avance significativo al adquirir la habilidad de escribir y leer sílabas en un corto período de tiempo (5 dias x 30 minutos). • En la presente investigación se pudo observar la efectividad del método VACACHADAFA en Realidad Aumentada en el sujeto de estudio, la cual radica en su enfoque participativo, el cual ha estimulado el interés en el proceso de aprendizaje.  • Al combinar actividades visuales en realidad Aumentada, auditivas y kinestésicas, se ha logrado un aprendizaje más completo y significativo para el sujeto de estudio, permitiéndole asimilar de manera más rápida los fonemas y caligrafía en la construcción de sílabas. • Aunque aún no ha logrado construir palabras ni oraciones completas, el hecho de que pueda leer y escribir sílabas es un indicador alentador de su progreso, ya que a través de la imagen construye oraciones en forma oral, desarrondo habilidades lingüistícas que permitieron un mejor lenguaje,  lo que facilitará la transición hacia niveles más avanzados de lectura y escritura. • El método VACACHADAFA en Realidad Aumentada ha demostrado ser una herramienta valiosa de atención y retención, para potenciar las habilidades de lecto-escritura en el sujetode estudio en específico, lo que sugiere que puede ser una opción efectiva para otros niños en situaciones similares. • Este estudio de caso subraya el impacto positivo del método VACACHADAFA en Realidad Aumentada, en el proceso de lecto-escritura de un sujeto de cinco años. Su capacidad para leer y escribir sílabas después de haber trabajado por solo cinco días durante treinta minutos diarias es un logro significativo y alentador.  La presente investigación por su periodicidad, aún se encuentra en proceso; (en la fase de lectura y escritura de sílabas)  y por ahora no se pueden mostrar los resultados finales.
Sánz Soto Rocío Alexandra, Universidad Autónoma de Sinaloa
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

SURGICAL INSTRUMENT DETECTION, SEGMENTATION AND DEPTH PERCEPTION


SURGICAL INSTRUMENT DETECTION, SEGMENTATION AND DEPTH PERCEPTION

Sánz Soto Rocío Alexandra, Universidad Autónoma de Sinaloa. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal de este proyecto es desarrollar un sistema de segmentación automática de instrumentos quirúrgicos de datos laparoscópicos utilizando métodos autosupervisados para la detección y segmentación de dichas herramientas. En este trabajo se estudian diferentes modelos de aprendizaje profundo, los cuales se implementan para comprender imágenes etiquetando cada píxel con una clase específica, tales como el modelo PSPNet y DANet que fueron el principal objeto de estudio de este proyecto. La cirugía mínimamente invasiva ha transformado la práctica quirúrgica al proporcionar varios beneficios al paciente, como menos trauma y tiempo de recuperación; en estas prácticas se emplea un endoscopio para acceder a la anatomía interna del cuerpo, lo que facilita el registro de todo el procedimiento. Estos datos visuales podrían aprovecharse para mejorar la percepción visual del cirujano y ayudarlo en la comprensión del escenario quirúrgico. La falta de segmentación automática en este ámbito presenta un desafío relevante para elevar la inteligencia cognitiva en los quirófanos modernos.



METODOLOGÍA

La segmentación es un proceso en la visión por computadora donde una imagen se divide en regiones o segmentos para identificar y etiquetar objetos individuales en la imagen. El objetivo es asignar una etiqueta o clase a cada píxel de la imagen para comprender mejor su contenido y la disposición de los objetos presentes. PSPNet (Pyramid Scene Parsing Network) y DANet (Dual Attention Network) son dos modelos avanzados en el campo de la segmentación semántica basados en redes neuronales convolucionales (CNN).  PSPNet es un modelo que se basa en una arquitectura en forma de pirámide, que captura características contextuales en diferentes escalas de la imagen para mejorar la precisión de la segmentación semántica, lo que permite que la red se centre tanto en detalles finos como en contextos más amplios. En otras palabras, esta pirámide divide la imagen de entrada en diferentes escalas para extraer características, y luego aplica operaciones de agrupación en cada región de la cuadrícula a diferentes tamaños. Esto mejora la capacidad de la red para comprender detalles tanto locales como globales en la imagen. Mientras que el modelo DANet se centra en la atención dual, lo que significa que emplea dos tipos de mecanismos de atención en paralelo: atención espacial y atención de canal, que se emplean para mejorar la discriminación de características relevantes y la segmentación de objetos en condiciones difíciles. El mecanismo de atención espacial de este modelo, permite que la red se centre en regiones más relevantes de la imagen, ignorando regiones redundantes o no informativas. Mientras que el mecanismo de atención de canal se enfoca en resaltar características semánticamente importantes dentro de cada canal de características, lo que permite que la red se centre en detalles cruciales y suprima lo irrelevante. En este caso, se implementaron dos conjuntos de datos o datasets de imágenes endoscópicas, los cuales tienen las siguientes características. CholekSeg8K Dataset Comprende 8,080 imágenes y 13 clases, algunas de ellas son hígado, tracto gastrointestinal, grasa, pinzas, pared abdominal, sangre, gancho en L, entre otras. EndoVis2018 Dataset Comprende 3,232 imágenes y 11 clases, algunas de ellas son riñón cubierto, intestino delgado, hilo, aguja de sutura, tejido de fondo, entre otras. Para evaluar el rendimiento de los modelos se emplearon dos métricas que son muy comunes en tareas de segmentación semántica, el Dice Loss y el IOU. El objetivo del Dice Loss es medir cuán similar es la segmentación de la computadora en comparación con la segmentación correcta (ground truth). Mientras que el IOU mide cuán bien la computadora ha dibujado los contornos correctos alrededor de los objetos en una imagen. Cuanto más alta sea la puntuación de las métricas (considerando los posibles valores entre 0 y 1), la computadora lo está haciendo bien; si es baja, necesita mejorar. Empezando por la implementación del modelo PSPNet y su entrenamiento, se obtuvieron diversos resultados en los distintos experimentos realizados que fueron mejorando progresivamente; sin embargo, el mejor de ellos para el dataset de CholecSeg8K fue de un dice loss de 0.03216 y el IOU de 0.9383, en donde se utilizó un learning rate de 0.0001, 60 épocas y un batch size de 8. Para el caso del dataset de EndoVis 2018 fue de un dice loss de 0.1447 y el IOU de 0.7537, en donde se utilizó un learning rate de 0.0001, 60 épocas y un batch size de 12. El efectuar distintos experimentos permitió observar el comportamiento del modelo bajo distintos parámetros y datos de entrada, así como la evaluación de los gráficos de resultados obtenidos y su interpretación. Además, se realizaron distintos aumentos en las imágenes para hacer el modelo más robusto y preciso al lidiar con diferentes situaciones, algunos de estos aumentos fueron volteo horizontal y vertical, rotación aleatoria, recorte de centro, cambio de saturación y distorsión óptica.


CONCLUSIONES

Durante la estancia de verano se estudiaron conceptos teóricos importantes para la visión computacional y procesamiento de imágenes, principalmente enfocado en datos médicos. En este proyecto he conocido e introducido de manera muy grata a este campo del aprendizaje profundo y la segmentación de imágenes, además de conocer el entorno de trabajo de la investigación científica.  A través de las labores llevadas a cabo durante mi período en esta estancia, confío en que mi aporte contribuya a fomentar la implementación y mejoramiento de la segmentación automática en escenarios quirúrgicos, lo cual en última instancia culminará en la mejora de la calidad de la atención quirúrgica. Como trabajo futuro de este proyecto queda el desarrollar la implementación del modelo DANet con resultados favorables en sus experimentos, así como el perfeccionamiento y optimización del modelo implementado para obtener resultados cada vez más precisos y consistentes.
Saucedo Cazares Jessica Monserrat, Universidad Veracruzana
Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia

PROTOTIPO DE UN SISTEMA MODULAR PREFABRICADO PARA VIVIENDA SOCIAL FLEXIBLE Y SOSTENIBLE EN VERACRUZ, MÉXICO.


PROTOTIPO DE UN SISTEMA MODULAR PREFABRICADO PARA VIVIENDA SOCIAL FLEXIBLE Y SOSTENIBLE EN VERACRUZ, MÉXICO.

Gutierrez Valadez Nancy Montserrat, Universidad de Guadalajara. Peña Plascencia María Fernanda, Universidad de Guadalajara. Saucedo Cazares Jessica Monserrat, Universidad Veracruzana. Xicohtencatl Gómez Alexa Irene, Universidad Veracruzana. Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En Poza Rica de Hidalgo, Veracruz, México, existe falta de salubridad, seguridad, confort y estética en la vivienda social. Esto hace que los usuarios carezcan de una buena calidad de vida.  Además, el sitio de los conjuntos habitacionales no es accesible debido a que se ubican en la periferia de la ciudad. Por otra parte, la falta de planeación de equipamiento urbano provoca el abandono de las viviendas. Lo que genera conjuntos fantasma propicios a ser zonas de inseguridad. Esa problemática social debe ser atendida para los estándares de calidad. La población se ve obligada a trasladarse para acceder a los servicios con los que no se cuenta dentro de la unidad, generando viviendas dormitorio. A causa de que éstas se encuentran alejadas del centro urbano, el costo de vida se incrementa volviéndose inaccesible.   Por tanto, se considera que el diseño de vivienda social no atiende las necesidades básicas de los usuarios de esta tipología de vivienda. ¿Podríamos proponer una alternativa de diseño de vivienda social flexible y sostenible para Poza Rica Veracruz?  El objetivo de esta investigación fue diseñar una unidad habitacional flexible y sostenible mediante el sistema modular. La hipótesis de trabajo de esta investigación fue Si diseñamos una vivienda social flexible y sostenible a partir de un sistema modular, mejoraremos las condiciones de los usuarios de la vivienda de bajos ingresos en Poza Rica.



METODOLOGÍA

La metodología utilizada en este proyecto se enfocó en primer lugar, en realizar un análisis de las necesidades habitacionales de la población objetivo y las condiciones del contexto. Luego, se revisaron investigaciones previas sobre vivienda social para identificar las mejores prácticas de proyectos análogos. En la siguiente fase, se desarrolló el diseño arquitectónico y urbano del prototipo de vivienda con módulos de 3.5 m. x 3.5 m. Además, se determinaron los parámetros de diseño estructural necesarios para garantizar la resistencia y estabilidad de la estructura. Se adoptó un enfoque modular para permitir ampliaciones futuras según las necesidades cambiantes de los usuarios. Esto implica la utilización de componentes prefabricados que se puedan ensamblar fácilmente y de manera eficiente. Se utilizaron herramientas de modelado tridimensional y simulación para evaluar la eficiencia térmica y energética del modelo propuesto. Finalmente, se presenta una propuesta integral que contempla la vivienda de interés social en Poza Rica. Desde una perspectiva flexible y sostenible, integrando el espacio público, el semipúblico y el privado. Contribuyendo de esta manera al desarrollo de un hábitat más inclusivo y amigable con el medio ambiente. Esta metodología garantiza un enfoque general del prototipo de vivienda social, con la visión de mejorar la calidad de vida de la población beneficiaria.


CONCLUSIONES

Con base al método planteado, se generó en el conjunto habitacional espacios públicos, semipúblicos y privados. Se toma en cuenta la importancia de tener comercio de fácil acceso para los habitantes. Asimismo, suficientes zonas con arbolado para generar un microclima y mejorar el confort del sitio. El área pública se compone de espacios verdes, comercio y vialidades seguras para el peatón. Los puntos de recolección de basura, caseta y cajones de estacionamiento son los espacios semipúblicos. Mientras que la unidad habitacional es de carácter privado, siendo esta el protagonista del conjunto. La alternativa planteada de vivienda social tiene como objeto generar espacios más seguros y confortables para quienes carecen de tener un ingreso económico digno. Como resultado, se produce un prototipo de sistema modular, para vivienda social flexible y sostenible. La implementación de componentes prefabricados que se puedan ensamblar fácilmente agiliza el proceso de construcción y facilita la posibilidad de modificar la vivienda en el tiempo. Asimismo, se busca optimizar el uso de recursos y minimizar los residuos durante la construcción, incorporando principios de sostenibilidad en cada etapa del proceso. El diseño estructural propuesto para el prototipo busca no solo brindar viviendas seguras y adecuadas a las familias de escasos recursos, sino también promover una solución resiliente y adaptable a largo plazo en el contexto de la vivienda social en el municipio de Poza Rica. Se busca en cada parte del proceso de diseño, la oportunidad de generar un cambio dentro del mercado inmobiliario.  En la mayor parte del territorio mexicano surgen problemas con la vivienda social por lo que la posibilidad de desarrollar propuestas a partir de un diseño modular permite reproducir esta experiencia en otras regiones. Abriendo así, el mercado a un mayor número de consumidores. El concepto de flexibilidad se desarrolla cuando los usuarios tienen la libertad de modificar los espacios dentro del módulo de acuerdo con necesidades. En definitiva, el resultado de la investigación permite construir diferentes tipologías de vivienda adaptándose a un sitio en particular. Lo que brinda alternativas que ayudan a mejorar la vivienda social de cualquier ciudad. Se concluye entonces que, la construcción masiva de viviendas sociales en México está dejando de lado a los usuarios. Por lo que, como solución se propone un módulo prefabricado, que funcione como base para proyectar un conjunto habitacional. De esta manera, se relacionan en nuestro prototipo las estrategias bioclimáticas y alternativas sustentables con la vida diaria de las personas.
Savalza Castillo Karla Veronica, Universidad Autónoma de Nayarit
Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer

MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS


MEGATENDENCIAS GLOBALES Y SU EFECTO EN LA EFICIENCIA LOGíSTICA DE LAS EMPRESAS COLOMBIANAS

Díaz Ibarra Jatsiry Citlally, Instituto Tecnológico de Tepic. Gutiérrez Cervantes Silvia Marlene, Instituto Tecnológico Superior de Irapuato. Herrera Diaz Ailed Lourdes, Instituto Tecnológico de Tepic. Juárez Ochoa Carmen Andrea, Instituto Tecnológico Superior de Irapuato. Mancilla Flores Lizeth Berenice, Universidad de Guadalajara. Ramírez Ulloa Abraxis Baruch, Instituto Tecnológico de Tepic. Savalza Castillo Karla Veronica, Universidad Autónoma de Nayarit. Asesor: Mg. Rodrigo Usuga Angel, Institución Universitaria Esumer



PLANTEAMIENTO DEL PROBLEMA

En la actualidad Colombia está enfrentando diversos retos a nivel del comercio internacional debido a las diferentes fuerzas que trae la globalización y que han llegado para transformar como se producen, los diferentes productos servicios que necesitan los consumidores, de igual manera, representa una oportunidad para que las empresas nacionales desarrollen estrategias con el propósito de lograr mayor productividad y competitividad en un mercado compuesto por clientes mucho más exigentes en cuanto a sus preferencias y necesidades. La globalización es parte esencial cuando se habla de competencia y actualización de metodologías, debido a que las empresas nacionales tienen la posibilidad de renovar sus procesos con el fin de automatizarlos como lo hacen algunas  empresas extranjeras, aunque se debe destacar que la entrada de nuevas tecnologías no se debe relacionar con la salida de capital humano.  La reingeniería de procesos está relacionada con la reducción de costos y aumento de utilidades, pero no con el recorte de personal como la gente lo supone. Las empresas en Colombia tienen tiene solo una opción en su planeamiento estratégico: es involucrase decididamente en procesos de transformación tecnológica con el fin de lograr estándares mundiales de alto nivel con el fin de lograr su sostenibilidad en el tiempo.



METODOLOGÍA

Tener casos de éxito en la adaptación a las megatendencias en el sector empresarial es fundamental, por lo que cuando se realizó una visita pedagógica  en la empresa Cohan: (Cooperativa de Hospitales de Antioquia), donde se pudo observar cómo se desarrolló un proyecto de automatización en sus procesos de venta, el personal directivo logró la implementación de almacenes verticales automatizados  para la optimización de procesos de picking y dicha implementación fue exitosa tanto así que sus ventas y tiempos de entrega mejoraron drásticamente. Antes la entrega de un pedido podía durar hasta 8 días para llegar al cliente final, ahora se entrega en 24 horas y lo más importante de todo, no salió ningún auxiliar de sus operaciones lo que la hacen un ejemplo a seguir de muchas empresas Colombianas de su sector ya que, tomaron las megatendencias a su favor y decidieron adaptarse a por medio de la tecnología. Como se ha dado a conocer, los recursos son siempre escasos y por ello es necesario invertir en aquellos proyectos que le den a la empresa la mayor rentabilidad posible tal como lo hizo la empresa Cohan, la tecnología en sí misma no es la solución, pero haciendo una planeación adecuada, la tecnología agrega valor, ayuda a que nuestras operaciones sean más eficientes, eviten errores y reduce los costos operativos y tiempos logísticos, estos elementos hacen que un proyecto sea rentable. En este caso, debemos estar plenamente convencidos de la relación entre la inversión y el sistema de almacenamiento que necesitamos. También, visitamos una de la empresa más representativas de la industria del Café en Colombia, Colcafé; esta es la primera empresa colombiana de café en exportar café en  diferentes presentaciones. Esta empresa en su proceso implementa un software con el cual se escanea el código de barras que está colocado en el pallet con la carga de mercancía, al momento de escanearlo arroja una ficha técnica, donde se especifica el historial del producto, es decir, detallando datos importantes como si será exportado o será distribuido a nivel nacional, y en caso de ser exportación nos indica el país de destino.


CONCLUSIONES

Con base en la información proporcionada, es importante destacar que las megatendencias globales tienen un impacto significativo en la eficiencia logística de las empresas colombianas. Las megatendencias son fuerzas transformadoras a gran escala que afectan a nivel mundial y que generan cambios importantes en la sociedad, la economía y la tecnología. Cada una de las empresas que se visitaron y evaluaron, implementan de forma distinta las megatendencias, sin embargo, todas lo realizan con la misma finalidad que es eficientizar y optimizar sus procesos. Algunas de las megatendencias globales relevantes para la eficiencia logística en Colombia incluyen la globalización, los cambios demográficos, la variabilidad y cambio climático, la escasez de recursos, la hiperconectividad, el traslado de los ejes del poder, y la urbanización. Estas tendencias han dado lugar a desafíos y oportunidades para las empresas que operan en el país, especialmente en el ámbito logístico. En conclusión, las megatendencias globales están transformando la forma en que las empresas colombianas abordan la eficiencia logística. Aquellas que logren adaptarse y aprovechar las oportunidades que estas tendencias ofrecen, a través de la implementación de tecnologías avanzadas, prácticas sostenibles y estrategias innovadoras, estarán en una mejor posición para mantenerse competitivas y satisfacer las demandas cambiantes de un mercado globalizado y en constante evolución. La colaboración entre el sector público y privado también es esencial para superar los desafíos logísticos y mejorar la infraestructura, lo que contribuirá en última instancia al crecimiento económico y desarrollo sostenible del país.
Segundo Escamilla Jenifer Guadalupe, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia

ANáLISIS DE BACHES PARA LAS RUTAS DE TIANGUISTENCO CON DEEP LEARNING


ANáLISIS DE BACHES PARA LAS RUTAS DE TIANGUISTENCO CON DEEP LEARNING

Segundo Escamilla Jenifer Guadalupe, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

Los baches son una desviación en la superficie en la carretera, se forma por medio de las aguas subterráneas que se filtran en el pavimento en el cual se agrietara y por ende el pavimento se debilitara en el proceso. Cuando un automóvil pasa encima el peso seguirá sumiendo con ello las piezas se desprenderán haciendo grietas o lo peor haciendo huecos en el pavimento formando así el bache. Teniendo en cuenta que ya está el bache este mismo se llenara de agua en épocas de lluvia que normalmente esto pasa en los meses de mayo-octubre lo cual provocará se haga más grande y será un ciclo sin terminar. Es imprescindible que los baches se tomen como tema de precaución para que así mismo los conductores y las personas de movilidad se percaten de ello, ya que implica consecuencias en las cintas asfálticas, problemas en el tránsito, retraso en los traslados, gastos no considerados y en casos peores accidentes por el mismo echo. Con lo señalado anteriormente, para poder un análisis de los baches que se presentan en las carreteras de Tianguistenco, se utilizara Yolov5 que es un sistema de detección de objetos en tiempo real entrenado con el dataset, haciendo así una red neuronal para la detección de objetos en imágenes. La red neuronal pronostica las probabilidades de una clase a partir de una imagen en una sola evaluación. Sabiendo que Yolo crea una grilla de 13*13 dando así 5 predicciones aproximadamente 845 posibilidades para cada clase que se detectara.



METODOLOGÍA

Creación y etiquetado de la base de datos Consiste en el compuesto de imágenes sobre, adquiriendo 3000 imágenes en total, dividiéndolas en cuatro clases: baches baches-luz, baches-sombra, no-baches-luz, no-baches-sombra, en la que cada clase tendría 750 imágenes tomando en cuenta que en la mayoría de las imágenes tendría mas de un objeto. Teniendo ya las imágenes clasificadas se realiza el etiquetado con Labellmg, la cual será identificada por un rectángulo con coordenadas, guardando un archivo txt el que se utilizará Yolo para el entrenamiento. Entrenamientos en la red y Yolov5 Los entrenamientos se realizarán con 2400 imágenes ya etiquetadas en donde se ocuparán 600 imágenes cada clase para el entrenamiento total. El conjunto de datos ya estará particionado de diferentes maneras y con el modelo cambie en cada uno. Los entrenamientos se realizarán en Google Colab considerando que el número de épocas serán 200 para cada entrenamiento para que la detección se haga correctamente y arroje las pruebas en tiempo real. Validación Para la validación se usa el conjunto de datos sobrantes de las 2400, siendo diferentes distintas de las que se ocuparon, en el que las 600 imágenes restantes tengan 150 en cada clase. Yolov5 tiene como entrada los datos que están almacenados en la base de datos par ser evaluadas conforme a las clases.


CONCLUSIONES

El entrenamiento realizado Python se hizo con el número de imágenes a detectar, las clases con las que fueron etiquetadas, las épocas que fueron consideradas para realizar las predicciones y con la clase (m). La matriz de confusión nos ayudó a poder visualizar los resultados del algoritmo de aprendizaje, y que está representado en una tabla en la que cada columna es esta la predicción de las clases. Asi mismo vemos los aciertos y errores que tiene cada modelo.  Se reconoció que las imágenes presentaban cierto margen de error en Recall porque de las misma solo presentaba un resultado hasta la época 139 en el que ya no mostraba mejorías. Los entrenamientos y sus resultados presentaban un error al momento de su ejecución por el hecho en que la rotación y el número de épocas no facilitaba bien su reconocimiento, haciendo asi que se volviera ha realizar varias pruebas de los entrenamientos para obtener resultados favorables, dándonos como resultado la matriz de confusión en valores reales. Las predicciones en la detección de los objetos tienen relación también en la clasificación de las imágenes y su etiquetación.
Segura Gallegos Luis Arturo, Universidad de Guadalajara
Asesor: Dr. Erick Axel Padilla García, Universidad Politécnica de Atlacomulco

PRóTESIS MECATRóNICA


PRóTESIS MECATRóNICA

Díaz López Javier Ignacio, Universidad de Guadalajara. Moreno Bautista Natalie Xiomara, Universidad de Guadalajara. Segura Gallegos Luis Arturo, Universidad de Guadalajara. Asesor: Dr. Erick Axel Padilla García, Universidad Politécnica de Atlacomulco



PLANTEAMIENTO DEL PROBLEMA

Una amputación es la separación o corte de un miembro o una sección del cuerpo de un ser vivo a través de una cirugía quirúrgica. De acuerdo con la Academia Nacional de Medicina de México (ANMM), en nuestro país se efectúan aproximadamente 75 amputaciones diarias; es decir más de 25 mil personas al año sufren la escisión de alguna de sus extremidades. La pérdida de un miembro generalmente tiene un impacto psicológico en las personas, así como social, pues al faltarles un miembro se consideran incapaces de realizar ciertas actividades y/o trabajos robustos, creando así un incremento en el porcentaje de desempleados. Una prótesis reemplaza al miembro perdido de forma artificial, mejorando así la comodidad, la estabilidad y permitiendo el desempeño de varias actividades al usuario. El objetivo de la realización de las prótesis es poder proporcionar al usuario una solución para los problemas que la pérdida del miembro puede provocar y el diseño de la misma se debe adaptar a las necesidades de cada paciente. En este caso se planteó la problemática de un paciente con una amputación de tipo transradial con ambos impactos post-amputación y se trabajó con la finalidad de ofrecerle al usuario una calidad de vida lo más parecida a la que tenía antes de la pérdida del miembro.



METODOLOGÍA

Para el desarrollo del proyecto se utilizó la metodología científica llamada diseño mecatrónica secuencial/iterativo. Se basa en obtener las necesidades del paciente para posteriormente realizar propuestas del sistema físico, las cuales pueden ser: mecánica, eléctrica, de sensores, electrónica y/o de instrumentación. Cuando se pasa a la fase de pruebas se evalúa el desempeño del control, del GUI, del software y de las señales que retroalimentan al sistema de control (señales feedback). Si el resultado de la fase de pruebas es satisfactorio el diseño se da por terminado, de lo contario, se realizará una nueva iteración; es decir, comenzar a revisar nuevamente las necesidades del paciente, luego realizar modificaciones al sistema físico y finalmente las modificaciones al desempeño. Este proceso se repetirá las veces que sea necesario hasta lograr un sistema satisfactorio. Se propusieron dos modelos de prótesis con la finalidad de que cada uno solucione las dos problemáticas post-amputación que se generan. El primer modelo propuesto es una mano con dedos articulados, esto con la finalidad de satisfacer de alguna forma el vacío psicológico del usuario por la falta del miembro y lograr la sensación de normalidad que la depresión puedo minimizar. Sin embargo, este tipo de diseños tienen un enfoque principalmente estético, por lo que cuentan con motores pequeños que no permiten el desempeño de actividades o trabajos más robustos o que requieran de mayor fuerza que se presentan en su día a día, como lo sería cargar la bolsa del súper. Es por ello que nuestro segundo modelo propone una garra motorizada que proporcione al usuario la facilidad de sostener y/o empujar elementos pesados. Para el diseño ambos modelos de prótesis se utilizó el método anteriormente mencionado, dentro del cual dividimos la realización del proyecto en dos fases: Diseño del artefacto físico y evaluación del desempeño del mismo. Para la primera fase se subdivide en 3 etapas: Planificación: En esta etapa se definió el propósito que tendría que cumplir cada modelo. Análisis y diseño: En esta etapa se evalúa la necesidad del usuario para definir el nivel electrónico que tendrán los modelos, es decir si requería un nivel meramente electromecánico o si era conveniente el diseño de un modelo biónico. Después del análisis, vienen las propuestas, se propone primeramente un diseño mecánico, posteriormente se consideran los actuadores convenientes, así como los sensores. El diseño de las partes de la prótesis se realizó en programas de diseño 3D como fueron SolidWorks para el diseño de la garra que requería mayor precisión en la geometría y Fusión 360 para diseños más orgánicos como la mano articulada. La impresión de las partes se realizó con ayuda de una impresora 3D con un filamento de materia PLA y para las partes flexibles de las articulaciones de la mano fue con un filamento de tipo TPU. Implementación: En esta etapa se ejecutó de forma física todo el diseño teórico previo y se incluyó el circuito eléctrico. Para el circuito de la mano se requirió un arduino nano y 5 servomotores (uno por dedo), y para la garra se utilizó un sistema de engranajes que eran empujados por un motor MG995. Para la segunda fase se subdivide en 2 etapas: Pruebas: En esta etapa se realizaron diversas pruebas con el artefacto en el usuario para lograr los ajustes necesarios en las propuestas de control, el cual fue un control de tipo PID así que solo se tuvo que ajustar las ganancias del mismo. Evaluación y revisión: En este caso quien midió la factibilidad fue el paciente y en los casos de no satisfacerla se revisó y modificó el diseño, después se volvió a realizar las pruebas pertinentes para la nueva evaluación. Terminamos de iterar hasta que el producto se consideró útil para el paciente.


CONCLUSIONES

Se logró adquirir conocimientos teóricos sobre las amputaciones, las prótesis y sensores biológicos, además del conocimiento práctico del proceso de diseño rústico y digital de una prótesis con el uso software para amputaciones de tipo transradial. También se adquirieron habilidades de investigación basándonos en el método secuencial iterativo, con el que se pudo establecer un plan de trabajo eficiente, sin embargo, por limitaciones de algunos recursos por la ubicación geográfica de la estancia, nos retrasó el conseguir los materiales pertinentes y no se logró llegar a la etapa de implementación de un control con sensores bilógicos quedando así una prótesis mecatrónica en lugar de la prótesis biónica planeada.
Segura Hernández Jessica, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

LA GESTIóN SOSTENIBLE DE LA CADENA DE SUMINISTRO EN LA INDUSTRIA ALIMENTARIA


LA GESTIóN SOSTENIBLE DE LA CADENA DE SUMINISTRO EN LA INDUSTRIA ALIMENTARIA

Segura Hernández Jessica, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con la sociedad científica tenemos hasta 2030 para reducir drásticamente las emisiones contaminantes que provocan el incremento de temperatura. (Greenpeace, 2023). El sector alimenticio actualmente representa alrededor del 30% del consumo total de energía del mundo. Además, contribuye con más del 20% de las emisiones totales de gas de efecto invernadero (FAO, 2011) posicionándolo como uno de los sectores con mayor impacto que tiene en el medio ambiente después de las energías fósiles. (García, M., 2023). La industria alimenticia es uno de los sectores que mayor impacto tiene en el medio ambiente después de las energías fósiles. Debido a la preocupación de la población, especialmente una nueva generación de consumidores conocidos como millennials, el cambio en los hábitos de consumo y el interés en la economía circular está cambiando la toma de decisiones de los consumidores. Las nuevas generaciones están tomando conciencia debido a la emergencia climática y están comprometidas con la sostenibilidad y el medio ambiente. Los consumidores se sienten más comprometidos con el planeta, tomando acción en comprar solo aquello que necesitan, revisar las etiquetas de los productos e informarse del origen y composición del producto, lo cual cae en la responsabilidad de las empresas del sector alimenticio para atender las necesidades de los clientes. La exigencia provoca que las compañías no solo produzcan artículos que estén pintados de verde, sino que realmente sean producidos mediante prácticas que no impacten al planeta, por ejemplo, alargar la vida útil de los productos, reducir su precio, ofrecer más variedades o envases más sostenibles. Además, los productos alimenticios deben ser cada vez más naturales, menos procesados y con menor cantidad de aditivos.



METODOLOGÍA

Revisión sistemática de literatura a partir de la búsqueda de artículos en las bases de datos EBSCO, Redalyc y SciELO en cuyo proceso se leyeron 9 documentos científicos, principalmente artículos, publicados entre el 2013 hasta el 2023. La recopilación de la muestra de documentos se realizó mediante la ecuación de búsqueda que se muestra a continuación: Cadena de suministro Sostenible, Gestión de la cadena de suministro sostenible, cadena de suministro sostenible en las industrias alimentarias, la gestión de la cadena de suministro, industria alimenticia. Por consiguiente, se recopilan datos destacados de los documentos leídos anteriormente para poder describir la cadena de suministro del sector alimentario. Por último, se proponen prácticas para mejorar la cadena de suministro sostenible en la industria alimentaria.


CONCLUSIONES

De acuerdo con los artículos leídos se encontró una similitud en los textos donde destacan los factores que influencian en la gestión de la cadena de suministro sostenible en la industria alimenticia como el compromiso de la alta dirección, la logística reversiva, y los acuerdos y regulaciones para la sostenibilidad. Además, se hace énfasis que la capacitación y desarrollo de los involucrados en la cadena de suministro son fundamentales para la implementación exitosa de prácticas sostenibles. La gestión sostenible de la cadena de suministro en la industria alimentaria es una urgente necesidad debido al impacto significativo que este sector tiene en el medio ambiente La creciente conciencia de las nuevas generaciones de consumidores sobre el impacto ambiental y social de sus elecciones de consumo está impulsando a las empresas a adoptar prácticas más responsables y sostenibles en todas las etapas de la cadena de valor. Aunque la literatura revisada no incluye investigaciones en México, se reconoce la importancia de abrir una línea de investigación sobre empresas alimenticias en el país para impulsar prácticas sostenibles en este sector. En conclusión, la gestión sostenible de la cadena de suministro en la industria alimentaria es un desafío apremiante que requiere la colaboración y el compromiso de todas las partes involucradas. Adoptar prácticas responsables y sostenibles no solo contribuirá a la protección del medio ambiente y la sociedad, sino que también puede ofrecer beneficios económicos y una mayor resiliencia ante crisis futuras. Es esencial que las empresas del sector alimentario actúen de manera proactiva y se adapten a las demandas de los consumidores conscientes, contribuyendo así a un futuro más sostenible y equitativo para todos.
Sequeda Castillo Kevin, Universidad de Investigación y Desarrollo
Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California

ASIGNACIóN DE CIE-10 A NOTAS MéDICAS EN ESPAñOL


ASIGNACIóN DE CIE-10 A NOTAS MéDICAS EN ESPAñOL

Gallego Rojo Laura Sophia, Universitaria Agustiniana Uniagustiniana. Sámano Martínez Jacqueline, Universidad Mexiquense del Bicentenario. Sequeda Castillo Kevin, Universidad de Investigación y Desarrollo. Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Desde su inicio la CIE ha sido de apoyo en los centros hospitalarios en distintos países, para la elaboración de estadísticas de morbilidad y mortalidad. Haciendo posible la obtención de información precisa sobre las enfermedades existentes y anteriormente identificadas, con el fin de conocer, evaluar e identificar enfermedades y contrarrestar posibles epidemias. Sin embargo, La aplicación de la CIE-10 (Clasificación Estadística Internacional de Enfermedades, Décima Revisión) en función de la asignación de codificadores para los diagnósticos médicos resultan laboriosos y expuesto a errores debido a la complejidad de codificación, ya que este proceso es realizado de manera tradicional, es decir, manualmente. De tal manera que, durante el proceso de evaluación médica en los sistemas hospitalarios conllevan retrasos, a fin de tomar mejores consultas en términos diagnósticos. Por consecuencia, se propone el desarrollo de un clasificador mediante la utilización de técnicas de procesamiento del lenguaje natural, Tensor Flow y las API provistas por OpenIA, que mejore la gestión de los datos de salud, facilitando análisis epidemiológicos y estudios de salud poblacional. No obstante, en esta primera etapa del proyecto, tiene como propósito encontrar y analizar los errores de Chat GPT durante el proceso de consulta y predicción del diagnóstico, dichos errores son categorizados en cuatro; comprensión, factual, especificidad e inferencia. Esto con el fin de ahorrar tiempo al personal médico en la elaboración y detección del diagnóstico con mayor calidad asistencial, y proporcionar respuestas tanto veraces como precisas.



METODOLOGÍA

Para llevar a cabo el proyecto hay que tener un conocimiento previo acerca de que es el CIE-10, centrándose en los códigos relacionados con las neoplasias malignas (cáncer). Este término describe las enfermedades en las que hay células anormales que se multiplican sin control e invaden los tejidos cercanos. Para llevar a cabo la primera etapa de este proyecto de investigación, se utilizó la siguiente Base de datos: CodiEsp, para trabajar con CIE-10, el cual consiste en una base de datos pública con más de 2,700 registros entre diagnósticos y procedimientos anotados por el médico para realizar el análisis de la clasificación CIE-10 versión 2018 e identificar los 4 errores de Chat GPT durante la consulta. Dicho esto, el dataset representa objetos digitales compuestos y heterogéneos, así como el conjunto de datos complejos que llevan consigo un orden de datos y su relación. Tales datos comprenden diferentes elementos o tipos de datos, como son los documentos de texto y hojas de cálculo. Una vez obtenida la BD pública (CodiEsp) se realizó el análisis exploratorio que consistió en la identificación y comprensión de los datos presentados. Dentro de ella se visualizan tres carpetas; test, train y dev. En cada una de ellas se encuentran dos carpetas más que contienen los diagnósticos en español e inglés, además de hojas de cálculo (.tsv). Tomando como ejemplo la carpeta dev, estos archivos se clasifican en tres; devD, devX y devP. El primer archivo es una tabla que se divide en 2 columnas; por el identificador del diagnóstico y él código CIE-10 asignado, tiene un total de 2,677 registros. Mientras que en el segundo archivo la tabla se divide en 4 columnas; identificador, procedimiento, código CIE-10, nombre de enfermedad y valores numéricos, tiene un total de 4,477 registros. Finalmente, el tercer archivo se presenta de la misma manera que el devD. Previo a esto, se decidió usar Codiesp debido a que son menos diagnósticos, tiene fácil acceso a los registros y una vista ordenada. Una vez concluido el análisis de la base de datos, se procedió a seleccionar un subconjunto de este, 60 notas respectivamente, para realizar las pruebas que ayude a comparar los resultados obtenidos por el modelo Chat GPT, e identificar si el modelo LLM asigna correctamente el C10 a la nota médica dada. Del cual se desempeñaron las actividades de clasificación y consulta de las notas médicas, asignando manualmente cada código para ejecutar el programa en Chat GPT. Detectando así la efectividad del programa durante la consulta de los códigos ofreciendo su propia valoración de acuerdo con el manual de clasificación CIE-10 vs 2018. Los errores se clasifican en cuatro, como son: Comprensión: Se refieren al fracaso en la comprensión del contexto y la intención del problema. Puede presentar deficiencias cuando se enfrenta a preguntas ambiguas o con errores gramaticales. Factualidad: El modelo carece de los hechos de apoyo necesarios ya sea evento, entidad o atributo, para producir una respuesta precisa Especificidad: El modelo no responde con el nivel adecuado de especificidad, esto ocurre cuando el modelo proporciona una respuesta demasiado general o muy específica. Inferencia: El modelo posee los conocimientos necesarios para responder una pregunta, pero no logra razonar con los hechos de forma eficaz para llegar a la respuesta correcta. [1] Se anexa el análisis manual del subconjunto de datos (https://docs.google.com/spreadsheets/d/1uooe2uTKVIzwmBn5jf_tM4SBbdB1oCXu/edit?usp=sharing&ouid=109721085237076027897&rtpof=true&sd=true).De acuerdo a lo anterior, se procedió a identificar de manera manual los errores y realizar la respectiva cuantificación. Los resultados indican que de las 60 predicciones aplicadas a los diagnósticos por el modelo LLM, presentan en su mayoría error de especificidad obteniendo el 43.33% en su totalidad, en cuanto al 6.67% indica error de comprensión, el otro 6.67% presenta error de factualidad y el 31.67% con error de inferencia, mientras que el 11.67% restante indicó a favor al no presentar errores.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos tanto teóricos como prácticos sobre el CIE-10, Chat GPT, Machine Learning y sus métricas como las aplicaciones con distintos modelos de NLP, sobre todo el curso de OpenAI “Chat Gpt Prompt Engineering For Developers” que fue de gran utilidad para comprender el tema de estudio y el aplicativo de los prompt en chat gpt. Dado esto se obtuvo conocimiento de las distintas formas o instrucciones que se pueden dar al modelo y así obtener respuestas precisas y rápidas. Sin embargo, ya que se trata de un tema a grandes rasgos y con alta complejidad de datos, el trabajo se encuentra en la primera fase, en la aplicación y análisis del CIE-10 para la identificación de las etiquetas correspondientes a los diagnósticos médicos y verificar los errores de predicción, ya que carecen de precisión y veracidad por parte del modelo Chat GPT. Dado que al subconjunto seleccionado de 60 notas médicas con sus respectivas etiquetas C10 y la predicción de LLM, se obtuvo que el 43.33% de ese subconjunto encontramos error de especificidad. Por tal motivo, se espera que mejore la exactitud de la instrucción a escribir en el modelo, de tal manera que podamos corregir los errores y buscar la mejor manera de aplicarlos.
Sereno Arellano Jaffet Alejandro, Instituto Tecnológico de La Piedad
Asesor: Dra. Macaria Hernández Chávez, Instituto Politécnico Nacional

PROTOTIPO DE UN DISPOSITIVO DE SEGURIDAD PERSONAL PORTáTIL


PROTOTIPO DE UN DISPOSITIVO DE SEGURIDAD PERSONAL PORTáTIL

Sereno Arellano Jaffet Alejandro, Instituto Tecnológico de La Piedad. Asesor: Dra. Macaria Hernández Chávez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El principal problema a resolver ser la seguridad al salir de nuestras casas o al salir a hacer ejercicio, muchas veces no estamos al 100% seguros de regresar a nuestras casas, hoy en día existen 546 medidas de seguridad las cuales se consideran que tiene 90% de efectividad​​, en el 2022 se registraron en todo el año 7 mil 128 robos tanto en trasporte como en vía pública​​, en el periodo de 2018 - 2022 se registran 4844 secuestros en el país el cual se encuentran 6333 víctima​​ y por último en marzo del 2023 se obtuvo en un lapso de un año 60 mil 705 robos a vehículos asegurados, donde la mitad de estos robos se utilizó violencia​  En la actualidad a nivel nacional se reportaron 227 feminicidios​​, es mucho la inseguridad de mujeres tanto así que ya existen algunas aplicaciones de monitoreo de seguimiento para la seguridad de ellas, intentamos mejorar estas aplicaciones para mayor seguridad, así mismo se espera obtener buena respuesta de las personas ante este proyecto, esperando así que la seguridad aumente y haya una respuesta inmediata de las autoridades para aumentar aún más la seguridad.  



METODOLOGÍA

Los componentes utilizados para el prototipo fueron un microcontrolador PIC18F4550, modulo GSM/GPRS sim808 y un botón físico, para la parte del código se utilizó el ide MPLAB, se programó el microcontrolador para mandar un mensaje de auxilio seguido con la ubicación en tiempo real de la persona, el mensaje se manda en un lapso de 5 a 10 segundos al número o números de teléfonos previamente seleccionados.  Para comprobar que el código funcionara se realizó una simulación con el programa Proteus, una vez comprobado que el código funciona se realizó una PCB (printed circuit board) para montar el prototipo y fuera discreto y compacto. Para diseñar la PCB se utilizó Proteus; para obtener un diseño de cómo quedaría el circuito en la PCB. Una vez que se tuvo este mismo se plasmó en la PCB y se soldaron los componentes a la placa, basándose en el diagrama del microcontrolador se realizaron las conexiones correctamente.  Concluida la PCB se colocó un chip Telcel al módulo GSM/GPRS y se probó que mandara el mensaje de texto al contacto establecido. Ya con el prototipo funcional, se realizó el modelado e imprimió en 3d un case que protegera al prototipo de romperse o separar algún componente.  Una vez terminado y montado el prototipo en el case, se realizaron pruebas al mismo en situaciones reales para probar su funcionalidad. 


CONCLUSIONES

Se diseñó y construyó un prototipo de un dispositivo de seguridad personal portátil y funcional que permite que el usuario que se encuentra en riesgo pueda mandar un mensaje de texto con su ubicación a sus contactos. Para ello se utilizó un módulo GSM/GPRS, el cuál obtiene las coordenadas de la posición actual del usuario mediante un GPS y envía un mensaje de texto con la información de la ubicación a un número determinado al activarse por medio de un botón físico en el dispositivo. Con este dispositivo se espera que los usuarios puedan utilizarlo para pedir auxilio ante situaciones que los ponen en riesgo.  
Servin Santillán Diana, Instituto Tecnológico Superior de Irapuato
Asesor: Mtro. César Manuel Hernández Mendoza, Instituto Tecnológico Superior de Irapuato

DISEÑO Y MODELADO DE PROTOTIPO PARA LA CAPTACIÓN DE ENERGIA POR MEDIO DE CELDAS FOTOVOLTAICAS


DISEÑO Y MODELADO DE PROTOTIPO PARA LA CAPTACIÓN DE ENERGIA POR MEDIO DE CELDAS FOTOVOLTAICAS

Servin Santillán Diana, Instituto Tecnológico Superior de Irapuato. Asesor: Mtro. César Manuel Hernández Mendoza, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

La captación y uso de energía solar es una tendencia que favorece y contribuye el impacto del cambio climático, el desarrollo continuo de nuevos componentes electrónicos, programación, diseño, manufactura y otras tecnologías permiten generar prototipos aptos para aprovechar esta energía. Actualmente, los vehículos cuentan con uno o varios puertos USB para la conexión o carga de baterías para una gran cantidad de dispositivos móviles con los que cuenta una persona o familia, tales como: teléfonos, tablets, audífonos, entre otros; de este modo el desgaste de la batería y su vida útil puede reducirse o en otros casos y según el mal uso podría ocasionar fallas y averías en la circuitería electrónica o fusibles. La estancia Verano de Investigación ha permitido desarrollar un modelo 3D, que logra conectar celdas fotovoltaicas al medallón del auto y que eventualmente cargue baterías recargables independientes a la batería del auto.  



METODOLOGÍA

La metodología empleada fue la SMART, dado que se definieron objetivos (específicos, medibles, alcanzables, realistas y de duración limitada) para escoger las celdas fotovoltaicas adecuadas al voltaje y amperaje necesario, el diseño de la estructura que debería resguardar las celdas, su modelado en un software de Diseño Asistido por Computadora 3D, y su impresión. Posteriormente se realizaron varias adecuaciones al modelado para el cableado y conexiones con el fin de obtener un producto final. Así mismo, se trabajó con el módulo ESP8266 y algunos servomotores con el fin de que este mismo proyecto pudiera implementarse como una segunda versión para casas y/o oficinas.


CONCLUSIONES

De la presente investigación se la logrado tener un diseño 3D útil y compatible con las celdas fotovoltaicas mas comunes de encontrar en el mercado y las cuales son accesibles para todo el público, por lo que podemos confirmar que se tiene un modelo de utilidad que es de interés para desarrollar otras investigaciones en áreas y sectores como energías renovables o la industria automotriz. Por otra parte, se cuenta con un prototipo que es capaz de almacenar energía limpia en baterías recargables de litio, a las que eventualmente un usuario podrá conectar sus dispositivos móviles con el fin de recargar su batería y no invadir la circuitería del automóvil o afectar el rendimiento de su batería principal. Por ultimo agradezco al Verano de la Investigación del programa Delfín por permitir utilizar y adquirir habilidades y competencias de la carrera de Sistemas Automotrices para el desarrollo de ideas que contribuyan a dar solución a problemas reales en el área en el que me desenvuelvo.    
Sicairos Enriquez Aarón Efrén, Universidad Autónoma de Sinaloa
Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo

FACTIBILIDAD ECONóMICA ENTRE MéTODOS DE DISEñO DE MEZCLAS DE CONCRETO POR EL ACI Y LAS CURVAS DE ABRAMS.


FACTIBILIDAD ECONóMICA ENTRE MéTODOS DE DISEñO DE MEZCLAS DE CONCRETO POR EL ACI Y LAS CURVAS DE ABRAMS.

Sicairos Enriquez Aarón Efrén, Universidad Autónoma de Sinaloa. Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el concreto es uno de los materiales más usados en el mundo para las obras constructivas y en base a su eficiencia se necesita una correcta dosificación para garantizar su resistencia y durabilidad, los métodos de diseño de mezclas de concreto son bastante utilizados e importantes para la dosificación o proporcionamiento de materiales para una mezcla de concreto. El concreto está compuesto por cuatro elementos principales: cemento, agua, agregado fino (arena) y agregado grueso (grava) los cuales en una unión forman una pasta blanda trabajable que al momento de secarse se vuelve dura y resistente, en el mundo existen diferentes maneras de realizar una dosificación de materiales para mezclas de concreto pero las más utilizadas son el método del American Concrete Institute (ACI) y el método de curvas de Abrams, la comparativa analizada en este trabajo radica en la cantidad de materiales que se utilizaran para un metro cubico de concreto y posteriormente su análisis de costos con precios establecidos en el mercado en los diferentes bancos de materiales de los que se obtuvieron los materiales, así dando una comparativa de los precios y cuál es el más conveniente de usar para no tener un gasto excesivo en una obra.



METODOLOGÍA

Los diseños en cuestión tienen diferentes pasos en su metodología para lograr la dosificación, parte de los datos básicos de diseño los cuales son las características de los agregados, propiedades del cemento y solicitaciones del proyecto, algunas de las características de los agregados pétreos y de los concretos a considerar son: revenimiento, f’c, las características físicas de los agregados y si será un aire con o sin aire incluido. Cada método tiene sus pasos ya establecidos, las principales diferencias radican entre métodos es la parte empírica ya que está basado en la percepción del ojo humano y los cálculos, el método de diseño por las curvas de Abrams se basa en eso, en gráficas y curvas por lo cual la falla principal es en la cuestión de percepción de cada persona al momento de diseñar, el método consiste en los siguientes pasos: cálculo del f’cr, determinar mediante un nomograma la relación agua-material cementante, determinar mediante un segundo nomograma la relación grava-arena, determinar mediante un tercer nomograma el contenido de agua por metro cubico de concreto, calcular el contenido de cemento por metro cubico de concreto, determinar el volumen de la lechada de cemento, determinar el volumen de los agregados y por último los ajustes por humedad, el método de ACI es un poco más preciso ya que este utiliza tablas de datos ya establecidos y una serie de pasos muy sencillos los cuales son: elección del revenimiento, elección del tamaño máximo del agregado, cálculo de cantidad de agua y contenido de aire, cálculo de la relación agua-cemento, cálculo del contenido de cemento, cálculo de la cantidad de grava, cálculo de la cantidad de arena y por último el ajuste por humedad del agregado, la diferencia entre los dos métodos es la manera en la que se calculan diferentes materiales para los diseños, es decir, en el método de Abrams se utilizan gráficas y nomogramas y el método de ACI utiliza tablas y datos.


CONCLUSIONES

Los costos de materiales se compararon para ver que método es el más económico de usar en base a precios locales de la región para los agregados y el cemento los cuales se cotizaron en los diferentes bancos de materiales de los cuales se obtuvieron dichos elementos, a continuación se da un costo aproximado para los diferentes materiales que se utilizaron para los diseños, la grava triturada el metro cubico sale en $230 MXN mientras que la arena volcánica sale en $150 MXN, el agua se cotizo en base a una tarifa fija de precios máximos de un periodo abalado por el gobierno mexicano el cual el periodo comprendido es del 23 al 29 de enero de 2022, la tarifa aplicada es para la entidad federativa de Michoacán y su municipio Morelia dando como tarifa por kg de agua más el IVA es de $23.23 MXN, los costos aproximados por método fueron los siguientes: por el método de las curvas de Abrams el cemento se cotizo en sacos y por cada saco su costo, dando un total de 575 kg de cemento el cual su precio fue de $2587.5 MXN, la grava con un peso de 1036.48 kg con un costo de $89.81 MXN, la arena se obtuvo un peso de 684.9 kg y su costo de $36.45 MXN y para el agua dio un peso total de 216.59 kg dando así un costo de $5031.46 MXN, por el método de ACI el cemento dio un total de 408.04 kg y su costo fue de $1836.18 MXN, la cantidad de arena por ACI fue de 667.19 kg y su costo fue de $35.55 MXN, la cantidad de grava fue de 1085.02 kg y el costo fue de $94.07 MXN, el agua para el método de ACI fue de 237.57 kg y su costo fue de $5518.75 MXN, dando como precio total $7745.21 MXN para el método de las curvas de Abrams y $7484.55 MXN para el método del ACI, y de esta manera podemos observar que dosificar por el método de ACI es más conveniente y factible ya que genera menor costo en los materiales para una mezcla de concreto.
Sierra Álvarez Daniela, Instituto Tecnológico de Morelia
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Sierra Carrascal Marian Tatiana, Universidad Autónoma de Bucaramanga
Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa

MIPYMES ARTESANALES: DIAGNÓSTICO ESTRATÉGICO PARA LA CONFIGURACIÓN DE LA PROPUESTA DE VALOR


MIPYMES ARTESANALES: DIAGNÓSTICO ESTRATÉGICO PARA LA CONFIGURACIÓN DE LA PROPUESTA DE VALOR

Sierra Carrascal Marian Tatiana, Universidad Autónoma de Bucaramanga. Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa



PLANTEAMIENTO DEL PROBLEMA

Este proyecto de investigación  fue realizado en el marco del Programa Interinstitucional para el Fortalecimiento de la Investigación y el Posgrado del Pacífico (Programa Delfín)  y tiene como objetivo general formular un diagnóstico estratégico para la configuración de la propuesta de valor en las Mipymes artesanales de Colombia tomando como referencia tres ciudades turísticas. Los principales productos derivados de esta investigación son el diagnóstico estratégico de  Mipymes artesanales de Colombia donde se encuentran importantes datos estadísticos que revelan la situación actual de las ciudades: Barichara, Bucaramanga y Medellín. Donde después de un levantamiento de campo se el comportamiento del mercado y consumidores, donde el 70,3% conoce dónde comprar artesanías, el 65% prefiere los productos de tipo artesanal mientras que el 35%  simpatiza más con la fabricación industrial y 7 de 13 artesanos comenta que la artesanía no es valorada por su país ya que sus principales clientes son extranjeros. Es de suma importancia  la propuesta de valor de bienes en  Mipymes de éxito documentada que aporta este proyecto, ya que actualmente no se tiene documentado de manera formal un pilar de referencia que  sujete todo el modelo de negocio de los artesanos Colombianos en el desarrollo de sus diferentes actividades productivas y comerciales como son las estrategias de Marketing  Promocional, Relacional y  Multicanal que son utilizadas de manera empírica por lo que en esta investigación se articulan de una manera formal para ser adoptada y replicadas por las Mipymes artesanales de Colombia.



METODOLOGÍA

Para iniciar con esta investigación, se definió el objetivo de la misma mediante una revisión bibliográfica que proporciona una base sólida de conocimiento sobre el tema. Esta revisión permitirá establecer el estado actual de las artesanías en Colombia, identificar las principales problemáticas y las oportunidades de desarrollo. Debido a que es una investigación con enfoque mixto que combina elementos cualitativos y cuantitativos,  se diseña un levantamiento de datos en campo para conocer la situación real desde el punto de vista de las partes involucradas. Posterior a la etapa de recolección de datos, se analizaron las respuestas recibidas y se buscaron relaciones, patrones y conexiones entre los datos cualitativos; mientras que en los datos cuantitativos, se realizó su análisis mediante estadísticos descriptivos para obtener una visión general de los resultados que nos brinde la información necesaria para desarrollar y sustentar hipótesis. Contando con dicha información, se procede a elaborar el informe final. el cuál comprende de introducción, antecedentes, metodología utilizada, los resultados obtenidos, el análisis de los datos y las conclusiones.


CONCLUSIONES

Entrevista a artesanos Los artesanos entrevistados están ubicados en Barichara, Bucaramanga y Medellín. En la búsqueda de conocer la regularidad con la que son vendidas cada tipo de artesanías evaluadas en esta investigación se obtuvieron los siguientes resultados: el 76.9% fabrica y vende artesanía para uso personal, y decoración doméstica y el 7.7% artesanías de tipo religiosa o ceremonial. Cabe mencionar que el 84.6% de los artesanos mencionaron que sus productos están dirigidos al público en general y no a un mercado en específico. Es importante destacar que los artesanos reportan que la linealidad entre su jornada laboral con la jornada laboral de Colombia es del 23.1%, ya que el 46.2% de los artesanos mencionaron que su trabajo diario se encuentra entre un tiempo aproximado de 4 y 7 horas, siendo solo el 7.7% los que trabajan menos de 4 horas al día. Es lamentable que la apreciación de los artesanos sea que su artesanía no es valorada en su país, esto fue reportado por 7 de 13 artesanos entrevistados. Entrevista a posibles clientes Los posibles clientes interesados en la compra de artesanía presentan este comportamiento: el 10,8% de 45 años en adelante, 16,2% de 30-45 años y la mayoría de respuestas, el 73%, provienen de personas entre 15-30 años; y reportan su frecuencia de compra de 1 a 3 veces por año el 81.1% y un 8.1% menciona que no está interesado en comprar artesanía. Siendo su apreciación de los precios de la artesanía nacional como cara o precio elevado por el 16.2% y de bajo costo por el 8.1%. El 51.4% considera que el precio es congruente al valor ofrecido por la artesanía a adquirir. Un 30.7% menciona que no conoce dónde puede comprar la artesanía en las ciudades de estudio. Pero los que si conocen refieren que la compran en ferias o eventos  (56.8%) y lugares turísticos (70.3%). Es interesante que al preguntar a los posibles clientes que les gustan los productos artesanales existe un 35% que prefiere estos productos realizados de una manera industrial y no artesanal. Las  siguientes  10 estrategias específicas incluyen el Marketing  Promocional, Relacional y Multicanal y se proponen específicamente como resultado  de la metodología aplicada y tienen la finalidad de mejorar la propuesta de valor de las Mipymes de Colombia, considerando aspectos como calidad, diseño y sostenibilidad de los productos. Elaborar el direccionamiento estratégico de la Mipyme mediante la asesoría y acompañamiento obtenida mediante alianza con las autoridades de la zona turística. Utilizar  productos biodegradables en el proceso de fabricación de la artesanía que sean diferenciadores de la competencia. Crear paquetes promocionales con los productos más vendidos. Otorgar descuentos a grupos turísticos de visitas guiadas en los eventos turísticos. Traslado de las artesanías de uso doméstico o decorativas de gran volumen o peso según convenios con los clientes. Camisetas distintivas con el logo de la Mipyme para el personal. Sitio web del artesano o Mipyme que incluya su ubicación,  diseños y creaciones. Diseñar una experiencia de compra mediante la personalización de la interacción del artesano con los clientes. Ampliar los canales de atención con la venta en redes sociales y entrega por mensajería. Crear y compartir publicidad en puntos turísticos y de ascenso y descenso de viajes.
Sierra Lua Andrea, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE COMPRAS EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU


LEAN SERVICE PARA LA MEJORA DE LAS OPERACIONES EN PROCESO DE COMPRAS EN LA ADMINISTRACIóN DE AGUA POTABLE EN CAPASU

Sierra Lua Andrea, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La demora de las compras ocasiona que se retrasen trabajos de todo tipo desde en las oficinas hasta en las operaciones como arreglos de fugas de agua, falta de agua, etc. Sin compras no se puede operar en la CAPASU.



METODOLOGÍA

La CAPASU es un organismo público de servicios de agua potable así que, se implementó la metodología Lean service (DMAIC), nos apoyamos con esta herramienta para hacer los procesos más óptimos posibles y con ello acelerar el proceso de compras.


CONCLUSIONES

Los resultados al aplicar la metodología fue de gran ayuda ya que con esto estandarizamos los procesos de adquisiciones y servicios generales. Manuales extensos se simplificaron  La comunicación informal se modificó a comunicación formal Los procesos indefinidos se convirtieron a procesos definidos Todo lo que se aplicó en resumen fue para manejar un programa con el que ya contaban para sistematizar, al manejar este programa al 100% ayudara a todo el organismo CAPASU a que sea más ágil el proceso de compras y saber el stock de los inventarios 
Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Sierra Suaza Dayana Manuela, Universidad Católica de Oriente
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

ALTERNATIVAS Y PRáCTICAS DE ECONOMíA CIRCULAR EN EL SECTOR AGROINDUSTRIAL


ALTERNATIVAS Y PRáCTICAS DE ECONOMíA CIRCULAR EN EL SECTOR AGROINDUSTRIAL

Sierra Suaza Dayana Manuela, Universidad Católica de Oriente. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Desde el siglo XXI las industrias enfrentan el encarecimiento de las materias primas y las fuentes de energía, atribuido principalmente a la alta demanda y descenso de la oferta (Miramontes, 2020), las  cuales son paralelas al aumento poblacional, que exige con el tiempo más bienes y servicios pero que superan lo ofrecido por naturaleza. Este escenario de escasez está estrechamente relacionado con un modelo económico lineal (extracción, producción, consumo y desecho) que actualmente está llegando a sus límites físicos (Cosenza, J; et al, 2020), generando preocupaciones tanto en los gobiernos, entidades como en la sociedad, es así como se han desarrollado estrategias sostenibles como lo es un modelo de economía circular, la cual ha permitido que los procesos sean mucho más eficientes, eficaces y, principalmente, respetuosos con el medio ambiente, brindándoles a las agroindustrias el fortalecimiento de un desarrollo económico competitivo, gracias a que dicho modelo maximiza la eficiencia productiva y optimiza la cadena de suministros, aportando a cada agroindustria un valor competitivo desde lo social, económico y ambiental, cerrando las brechas de los nuevos paradigmas ambientales a los que se les está apuntando, generando en diferentes enfoques oportunidades de innovación.



METODOLOGÍA

Este proyecto de carácter cualitativo con alcance descriptivo fue realizado mediante la búsqueda de información secundaria empleando la base de datos bibliográfica Scopus; se realizó una investigación de artículos de revisión para el periodo 2013 a 2023 y una ecuación de búsqueda Circular Economy que fue delimitada considerando palabras clave como agribusiness y sustainability. Las bases de datos fueron descargadas en formatos csv para el análisis bibliométrico en el software VOSviewer y ResearchRabbit, en estos se consideró la coocurrencia de palabras clave del autor y citaciones. Por otra parte, para describir las tendencias y prácticas en economía circular y los centros de investigación con enfoque en economía circular se realizó un análisis de la información de los portal web de Ellen MacArthur Foundation y google.


CONCLUSIONES

La investigación permitió identificar gracias al análisis bibliométrico diversas tendencias en los artículos consultados, direccionados a prácticas de economía circular, sostenibilidad, reciclaje, gestión de residuos y biorrefinería. El estudio reflejó que las prácticas y alternativas dedicadas a la economía circular desde la agroindustria son limitadas, debido a las recientes publicaciones sobre el tema, a la poca presencia de políticas que regulen o normaticen la implementación de prácticas circulares objetivas. La pluralidad en las definiciones sobre economía circular ha creado entre las partes interesadas beneficios particulares, disuadiendo establecer y tener un objetivo en común que permita el buen sentido de la economía circular; sugiriendo así, la implementación articulada de las partes interesadas para lograr alineamientos.
Siles Mendéz Deyling, Universidad Nacional de Ingeniería
Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco

DISEñO EN 3D Y CONSTRUCCIóN DE MAQUINA ENCORCHADORA SEMIAUTOMáTICA MEDIANTE PRINCIPIOS DE TECNOLOGíA APROPIADA


DISEñO EN 3D Y CONSTRUCCIóN DE MAQUINA ENCORCHADORA SEMIAUTOMáTICA MEDIANTE PRINCIPIOS DE TECNOLOGíA APROPIADA

Cuarezma Gonzalez Fatima del Carmen, Universidad Nacional de Ingeniería. Siles Mendéz Deyling, Universidad Nacional de Ingeniería. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

Por el alto costo de las encorchadoras automatizadas o semiautomatizadas adquirir una por parte de los(as) elaboradores de vinos artesanales en Nicaragua no ha sido una opción, Fishers, Herrera, & Cruz (2014) indican Maquina manual con sistema de cuatro mordazas que facilitan un buen encorchado, su precio es de $ 500 dólares americanos; Nicaragua es un país que sus ingresos son en Córdoba, moneda nacional, por ende, adquirir un equipo a tal precio para un emprendedor o microempresa no es viable. El diseño en 3D de una encorchadora haciendo uso de un software como Sketch Up permite crear el prototipo de lo que se convertirá en una máquina indispensable para optimizar una operación unitaria en la producción de vinos artesanales. Tanto los tiempos y movimientos a la hora de efectuar un trabajo es lo que determina la productividad en una empresa, por tal razón El objeto de un estudio de movimientos es eliminar o mejorar elementos innecesarios que podrían afectar la productividad, seguridad, y calidad de la producción Bello, Murrieta, & Cortes (2020). El proyecto de diseño desarrollado en este documento presenta aplicación de tecnología apropiada, la cual se convierte en un proceso para satisfacer una necesidad o darle solución a una problemática mediante la adaptación de medios con los que se cuenta, al respecto (Turner, 1972) como se citó en (Belcredi, y otros, 2011)  La tecnología verdaderamente adecuada es la tecnología que la gente ordinaria puede usar para su propio beneficio y el de su comunidad, la que no les hace dependiente de sistemas sobre los que no tienen control. por consiguiente al introducir este tipo de tecnología se pretende mejorar los procesos de elaboración de vinos artesanales.



METODOLOGÍA

Para el análisis de ausencia de máquinas encorchadoras semiautomatizadas en la elaboración de vinos artesanales se hizo uso del diagrama de Ishikawa o conocido también como de causa - efecto, que nos permitió conocer la problemática mediante un esquema de manera más clara y divididas por áreas (maquina, métodos, mano de obra, medio, materiales, medición) para una mejor comprensión. Se planteó en maquinaria la falta de equipo debido a escases de recursos económicos y a su vez los altos costos de adquirir este tipo de encorchadoras, por otro lado, en mediciones el tiempo perdido por no poseer una maquinaria semiautomatizada o no tener acceso a ninguna; También se refleja en el diagrama lo que causa en el operario encargado de esta acción tanto estrés laboral por el sobrecargo de trabajo como falta de seguridad por los riesgos ( cortaduras por vidrios al quebrarse una botella, heridas al realizarle una punta al corcho para que logre entrar en la boca de la botella, entre otros) de encorchar de manera no adecuada, de igual forma es importante mencionar la pérdida económica que genera tal problemática en el emprendedor de vinos artesanales. En base al diagrama de causa - efecto se logra establecer la problemática y delimitar las causas, lo que conlleva a realizar una encuesta que permita determinar las características necesarias que debe de tener una maquina encorchadora semi-automática. La encuesta se realizó en la Universidad Nacional de Ingeniería Sede Juigalpa-Chontales, Nicaragua y se tomó en cuenta como población a todos los estudiantes de la carrera de Ingeniería Agroindustrial, teniendo como muestra los estudiantes que cursan el quinto año, quienes son personas emprendedoras que elaboran vinos artesanales y no disponen de un equipo como este. Al analizar y recopilar los datos de la encuesta se obtiene que la mayoría de las personas realizan la operación del encorchado de forma manual, exponiéndose a los riesgos que esto representa, el 100% expone que le gustaría adquirir una encorchadora de material de acero puesto que tiene mayor vida útil, un 71.4% considera que el peso adecuado de una maquina encorchadora semiautomática sería de 20 Lb, de forma que permita realizar una fácil manipulación, en su mayoría (42.9%) los emprendedores expresan que elaboran un promedio de 30 unidades de botellas de vino artesanal. Uno de los puntos más importantes a tomar en cuenta son los tiempos y movimientos, ya que a partir de esto se analiza la efectividad de una maquina o equipo empleado; Los encuestados expresan que de forma manual realizan la operación de encorchado en aproximadamente 5 minutos, lo que significa que encorchar 30 unidades de botellas de vino se realiza en 2.5 horas. Listo el análisis del caso y las respuestas obtenidas en la encuesta aplicada se procede a realizar el diseño en 3D mediante Sketch Up, software de diseño en 3D, de lo que se convertirá en la maquina encorchadora semiautomática.


CONCLUSIONES

Al obtener las características determinadas mediante la pequeña encuesta que se realizó a partir de las interrogantes que se hicieron por medio del método del diagrama de pescado o Ishikawa, se logra llevar a cabo un diseño 3D de la máquina encorchadora semiautomática, para finalmente ejecutar su construcción siguiendo los requerimientos necesarios para efectuar la operación unitaria del encorchado de vinos artesanales eficazmente. La creación de una maquina como esta brinda beneficios a los emprendedores que elaboran este tipo de productos, ya que refiere la solución a la problemática encontrada, podrán contar con una maquina eficiente la cual les proporcionará una seguridad laboral y una reducción significativa de costos en las pérdidas que comúnmente resultan al encorchar de forma manual.
Silva Aquino Axl Matthew, Universidad Autónoma de Baja California
Asesor: Prfnal. Jorge Mario Villegas Jimenez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

DISEñO DE METODOLOGíAS DE CONTROL DE VARIABLES DE CRECIMIENTO PARA EL AUMENTO DE SELECTIVIDAD DE CBD EN CULTIVO DE CANNABIS SATIVA CON FINES MEDICINALES


DISEñO DE METODOLOGíAS DE CONTROL DE VARIABLES DE CRECIMIENTO PARA EL AUMENTO DE SELECTIVIDAD DE CBD EN CULTIVO DE CANNABIS SATIVA CON FINES MEDICINALES

Silva Aquino Axl Matthew, Universidad Autónoma de Baja California. Asesor: Prfnal. Jorge Mario Villegas Jimenez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

La investigación aborda el interés creciente en el cannabis medicinal y su componente clave, el cannabidiol (CBD), reconocido por sus propiedades terapéuticas. Se explora la necesidad de aumentar la selectividad del CBD mientras se minimiza el THC en las plantas de Cannabis Sativa con fines medicinales. Se discute el diseño de metodologías para controlar variables de crecimiento y optimizar perfiles de cannabinoides, lo que permitiría producir cepas con alto contenido de CBD y bajos niveles de THC. Se destacan los beneficios potenciales de estas metodologías, como mayor eficiencia en la producción de CBD, calidad y consistencia del producto, y avances en la investigación médica. Además, se resalta la importancia de prácticas de cultivo basadas en la ciencia y el impacto positivo que esto podría tener en terapias a base de cannabinoides y en la salud humana en general.



METODOLOGÍA

El diseño de metodologías de control de variables de crecimiento para aumentar la selectividad de CBD en el cultivo de cannabis con fines medicinales es un tema relevante y actual que tiene el potencial de generar beneficios tanto en el campo de la medicina como en el desarrollo de la industria del cannabis. Un enfoque científico y técnico en esta área es esencial para mejorar la calidad y eficacia de los productos medicinales a base de cannabis y para potenciar el desarrollo sostenible y responsable de esta industria emergente.   Para este proyecto se realizó una investigación exhaustiva en la que se recapitula sobre diferentes experimentos realizados con la planta de la cannabis sativa, donde se realizaron pruebas desde la germinación de la planta hasta la extracción de terpenos. A partir de esto, se llega a la formulación de un plan de trabajo que consta de la germinación de la planta de manera natural o con pulsos de luz infrarroja lejana (720 nm) y un control del reloj circadiano de la planta que consta de 16 horas diurnas y 8 nocturnas con longitudes de onda de 450+ nm y 630 nm respectivamente. De la misma manera se formula la receta para hacer gomitas cannabicas de mango para así potenciar el efecto del CBD, en esta se toma en cuenta la implementación del extracto en el producto comestible y el almacenamiento de las mismas para una futura comercialización. Debido al tiempo de estancia, no se realiza ninguna prueba con la cannabis, pues la floración de esta y su preparado, requiere de más tiempo del que se dispone.


CONCLUSIONES

En conclusión, el diseño de metodologías de control de variables de crecimiento para aumentar la selectividad de CBD en el cultivo de Cannabis Sativa con fines medicinales es una área crítica y prometedora de investigación. La creciente demanda y el interés en el cannabis medicinal han impulsado la necesidad de producir productos de alta calidad con perfiles precisos de cannabinoides, centrándose en el CBD. La implementación de estas metodologías puede mejorar la eficacia y seguridad de los productos medicinales, al tiempo que ofrece oportunidades económicas y comerciales en la industria del cannabis medicinal. La sostenibilidad y eficiencia en el cultivo también se destacan como aspectos clave para garantizar un enfoque responsable con el medio ambiente. Aunque se han logrado avances significativos en la investigación de cannabinoides, se necesita más trabajo para desarrollar metodologías estandarizadas que aseguren la consistencia y calidad de los productos. El cumplimiento de las regulaciones específicas de cada país también es esencial para garantizar la seguridad y legalidad de los productos. En resumen, el diseño de estas metodologías ofrece un gran potencial de impacto, mejorando la producción de cannabis medicinal de alta calidad y asegurando la seguridad y eficacia de los productos para el beneficio de pacientes y consumidores en la industria del cannabis medicinal.
Silva Areyán Paulo Sebastián, Instituto Politécnico Nacional
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

MODELACIÓN DE LOS ACUÍFEROS ZAMORA Y COTIJA CON MODFLOW


MODELACIÓN DE LOS ACUÍFEROS ZAMORA Y COTIJA CON MODFLOW

Silva Areyán Paulo Sebastián, Instituto Politécnico Nacional. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los acuíferos con clave 1608 Zamora y 1622 Cotija se encuentran en la zona noroeste del estado de Michoacán, por su parte el acuífero de Cotija colinda con el estado de Jalisco. Se encuentran dentro de la Región Hidrológica No. 12 (Lerma-Santiago) y No. 18 (Balsas). Actualmente los acuíferos Zamora y Cotija (con clave 1608 y 1622 respectivamente) ubicados en la zona noroeste del estado de Michoacán, dentro de la Región Hidrológica No. 12 (Lerma-Santiago) y No. 18 (Balsas) se encuentran sobreexplotados y no existe un volumen disponible para otorgar nuevas concesiones; por el contrario el déficit es de 11,468,400 m3 anuales para el acuífero Zamora y de 17,500 m3 anuales para el acuífero de Cotija que se están extrayendo a costa del almacenamiento no renovable de los acuífero. Debido a la falta de estudios hidrológicos y subterráneos en la zona de estudio, el presente trabajo tiene como objetivo la caracterización y calibración de un modelo de simulación de las aguas subterráneas de los acuíferos Zamora y Cotija para poder comprender como se almacena y fluye el agua, determinar la cantidad de agua subterránea disponible en ambos acuíferos y las zonas de recarga y de vulnerabilidad a fuentes de contaminación. Para ello, a partir de la información para la caracterización de la zona, y las acciones que afectan al acuífero, como recargas y salidas de agua se realizó la modelación subterránea en MODFLOW.



METODOLOGÍA

Para hacer la modelación subterránea de los acuíferos de Zamora y Cotija se utilizó el software Processing MODFLOW, con el cual se conceptualizó el modelo a partir de un mallado en el que se definirán las dimensiones de la zona de estudio. Requiere de una malla para representar al modelo subterráneo, por lo que con ayuda de ArcMap se realizó el mallado con una dimensión para cada celda de 2 km por 2 km, con un total de 47 filas y 51 columnas, resultando en 1947 celdas. A partir del mallado y de la información característica de los acuíferos se generaron las matrices a ingresar al modelo, que son las matrices de estado de las celdas, ubicación de manantiales, profundidad y altura del acuífero, coeficiente de almacenamiento y conductividad hidráulica. Para la matriz de estado de las celdas se van a considerar las celdas que contengan un área mayor a 0.3 km2, que serán las celdas activas y tendrán un valor de 1 en la matriz, y aquellas donde tenga valores menores a 0.3 km2 o igual a 0 se considerarán como celdas inactivas y tendrán un valor de 0 en la matriz. Además, dentro de las celdas activas se van a considerar celdas con altura constante, que serán los cuerpos de agua, y en este caso solo se va a considerar el Río Duero, que se encuentra dentro del acuífero de Zamora, y la laguna de San Juanico, que se encuentra en el acuífero de Cotija, y tendrán un valor de -1 en la matriz. Para la matriz de manantiales, a partir de la ubicación de los manantiales dentro de la zona de estudio se identificaron las celdas con presencia de manantiales y se les asignó un valor de conductancia igual a 0.5. Para la matriz de los pozos, se contó con información de volúmenes de extracción de pozos del año 2008 y se hizo la sumatoria de los volúmenes de extracción por celda, es decir, del total de pozos que se encuentran en una celda se hizo la suma de todos los valores de extracción de cada pozo y es el valor que se utilizó para cada celda de la matriz. Para las matrices de elevación del terreno y elevación del nivel estático, a partir del mallado generado en ArcMap y los puntos obtenidos al centro de cada celda se extrajo el valor de elevación al centro de la celda a partir del Modelo Digital de Elevaciones (MDE) y de acuerdo con los documentos de disponibilidad media de los acuíferos de CONAGUA a fecha de corte del 2020 se estimó un valor del espesor de la zona de los acuíferos de 200 m, y se consideró constante el espesor en todo el acuífero, por lo que a los valores de elevación del MDE se le restaron los 200 m de espesor del acuífero para obtener las elevaciones del nivel estático. Para las matrices de conductividad hidráulica y coeficiente de almacenamiento se obtuvieron a partir de la geología y litología de la zona de estudio y estos valores servirán para la calibración del modelo. Al tener las matrices primero se ingresó al modelo la información de coeficiente de almacenamiento, el estado de las celdas, manantiales y conductividad hidráulica, y enseguida se ingresaron las acciones que afectan al acuífero, que son la recarga natural, el retorno por riego y las extracciones de los pozos. Después se sometió el modelo a una subrutina de bucle de tiempo y se procedió a ajustar parámetros para calibrar el modelo.


CONCLUSIONES

Al no contar con suficiente información sobre agua subterránea en el país y al contrario del agua superficial, que es fácil comparar y comprobar la modelación al poder visualizarlo físicamente, la modelación subterránea se vuelve difícil de comprobar y validar ya que no podemos observar físicamente los acuíferos porque se encuentran bajo la superficie, sin embargo no es imposible, por lo que a partir de información confiable, proveniente de instancias gubernamentales, como lo es CONAGUA se puede realizar la modelación de los acuíferos y llegar a una aproximación muy cercana a la realidad. Con la modelación de los acuíferos de Zamora y Cotija podremos identificar y caracterizar los acuíferos Zamora y Cotija para comprender como se almacena y fluye el agua, determinar la cantidad de agua subterránea disponible en ambos acuíferos, y determinar las zonas de recarga de los acuíferos de Zamora y Cotija, y áreas de vulnerabilidad a fuentes de contaminación. Y a partir de estos poder estimar y proponer proyectos de recarga artificial de acuíferos en las zonas con mayor potencial, que pueden ser superficiales, subsuperficiales y directos. Los tipos de recarga superficial y subsuperficial son muy factibles, ya que se pueden llevar a cabo en suelos permeables, con altos niveles de infiltración de agua, en cambio los del tipo directo conllevan tener que penetrar los estratos impermeables a través de pozos, lo que hablando económicamente tiene costos muy elevados.
Silva Camargo Mariana, Universidad de Sonora
Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo

ANáLISIS DE DATOS CON PYTHON PARA DETERMINAR EL PERFIL DE VíCTIMAS DE VIOLENCIA CON EL OBJETIVO DE PREVENIR EL FEMINICIDIO.


ANáLISIS DE DATOS CON PYTHON PARA DETERMINAR EL PERFIL DE VíCTIMAS DE VIOLENCIA CON EL OBJETIVO DE PREVENIR EL FEMINICIDIO.

Arévalo Hernández Mariana, Universidad de Sonora. Silva Camargo Mariana, Universidad de Sonora. Suazo Buenas Ma del Carmen, Instituto Tecnológico de Ciudad Altamirano. Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El análisis de datos y el lenguaje de programación se han convertido en herramientas fundamentales en la lucha contra la violencia de género y el feminicidio. Estas tecnologías permiten abordar el problema desde una perspectiva más informada y eficiente, identificando patrones y tendencias que ayudan a comprender mejor el perfil de las víctimas y, en última instancia, a prevenir futuros casos de feminicidio. El feminicidio, entendido como el asesinato de mujeres por razones de género, es una de las manifestaciones más extremas y preocupantes de la violencia de género. Para abordar este problema, es esencial contar con una comprensión sólida de las características comunes entre las víctimas. Aquí es donde entra en juego el análisis de datos y el lenguaje de programación.   El análisis de datos implica la recopilación, procesamiento y examen de información relevante para obtener conocimientos significativos. En el contexto de la prevención del feminicidio, esto se traduce en recabar datos sobre las víctimas, como su edad, ubicación, ocupación, estado civil, historial de violencia y otros factores relevantes.   El lenguaje de programación es una herramienta poderosa para procesar grandes cantidades de datos de manera rápida y eficiente. Con él, se pueden desarrollar algoritmos y modelos predictivos que ayuden a detectar patrones en tiempo real y a evaluar el riesgo potencial de que una mujer sea víctima de feminicidio.  



METODOLOGÍA

Preparación del entorno Se han llevado a cabo las instalaciones de los programas Anaconda, destinado para la utilización del lenguaje de programación Python, y Mysql Workbench, empleado para el manejo de datos mediante la instalación de MySQL. Recopilación y preparación de datos Se realizó un análisis en la Página de Mujer Segura, considerando las variables más específicas. Selección de campos Se consideró la base de datos; dicha información fue de gran utilidad para incrementar la certeza y precisión en nuestro análisis de datos. Modelo relacional El modelo relacional se establece con el propósito de representar la estructura y las relaciones entre los datos en una base de datos de manera lógica y coherente. Su objetivo principal es proveer una forma organizada de almacenar y gestionar datos de la violencia  para que puedan ser fácilmente accesibles y manipulados de manera eficiente y efectiva. Análisis Exploratorio de Datos Se llevó a cabo un análisis exploratorio de datos considerando una muestra de 235 mujeres. Se evaluaron variables relevantes como número de hijos, estado civil, edad, grupo étnico, entre otras. Para ello, se construyó un dataset que refleja la información obtenida de cada una de ellas respecto a las variables mencionadas. Asimismo, se realizó un proceso de limpieza de datos para eliminar valores atípicos, datos duplicados o faltantes, y se adecuaron los datos a un formato apropiado para su posterior análisis.  Creación de un Modelo Predictivo.  Utilizar algoritmos de regresión lineal para crear un modelo predictivo. Para utilizar un algoritmo de regresión lineal, es esencial que la tendencia de los datos sea lineal.  Para llevar a cabo la implementación del modelo, inicialmente se importa la librería "sklearn" con el propósito de acceder a funciones que facilitarán la aplicación del modelo.    A continuación, es necesario proceder a la división de los datos, utilizando la regla del 70/30, donde el 70% de los datos serán destinados al conjunto de entrenamiento y el 30% restante al conjunto de prueba. Los datos estaban guardados en un objeto tipo *Series* y se cambia el objeto a uno tipo *Array*. También es necesario redimensionar el arreglo, de 1 dimensión a 2 dimensiones. El modelo de regresión se inicia mediante la asignación de la función "LinearRegression()" proporcionada por la librería Sklearn. Para llevar a cabo el entrenamiento del modelo, se emplea la función "fit", a la cual se le pasan los datos de entrenamiento, tanto los valores de entrada "x" como los valores objetivo "y", como parámetros.  En la etapa de prueba o testeo, utilizaremos la función "predict", en la cual pasaremos como parámetro los datos de prueba "x". Esta función nos proporcionará las predicciones para "y", las cuales serán almacenadas en la variable "y_predict"  


CONCLUSIONES

El "Mean Squared Error" (MSE) es útil para evaluar la precisión de un modelo de regresión. Un 23% de error sugiere relación entre Edad y Estado Civil. Sin embargo, para abordar violencia de género y feminicidio, el análisis de datos y programación son herramientas, pero insuficientes. Es crucial un compromiso activo de toda la sociedad y enfoque multidisciplinario que incluya educación, justicia y salud. El análisis de datos ayuda a entender a las víctimas y factores, pero la erradicación requiere colaboración y políticas efectivas para lograr una sociedad segura e igualitaria. La transformación social precisa esfuerzo conjunto en todos los niveles. Tecnología y enfoque holístico pueden proteger los derechos de las mujeres y promover respeto, igualdad y seguridad.
Silva Galvan Alexandra Dariana, Instituto Tecnológico de Piedras Negras
Asesor: Mg. Juan Camilo Gutierrez -, Universidad de Investigación y Desarrollo

MODELOS PARA LA GESTIÓN DE INVENTARIOS EN PYMES E INTERACCIÓN CON LA INDUSTRIA 4.0


MODELOS PARA LA GESTIÓN DE INVENTARIOS EN PYMES E INTERACCIÓN CON LA INDUSTRIA 4.0

Silva Galvan Alexandra Dariana, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Juan Camilo Gutierrez -, Universidad de Investigación y Desarrollo



PLANTEAMIENTO DEL PROBLEMA

Durante los procesos actuales el ser humano ha desarrollado diversas bases de datos a traves de las tecnologias de la industria y dentro del manejo de los sistemas internos de las Pequeñas y Medianas Empresas (PYMES), ha implementado modelos para la gestión de los inventarios que han sido complementado con las innovacciones de la Industria 4.0. De igual manera las PYMES de acuerdo a su actividad comercial deben identificar el modelo de gestion de inventarios que mas beneficie a los procesos productivos de la organización y gracias los avances de la nuera era se tienen diversos modelos pero lamentablemente no se ha logrado gestar un analisis critico de las diversas fuentes de informacion tales como SciElo, Redalyc, Dialnet, Scopues, Sciens, Webray Sciencie en las cuales se encuentran mas de 2.000 articulos investigativos. Es por ello que se hace necesario realizar un analisis investigativo de las diferentes fuentes de información de 12 diferentes paises para determinar cuales son los modelos mas usados en los diferentes contextos y poder entender cuales son los beneficios que estos modelos de gestuion de inventarios traen consigo, para finalmente determinar como se relacionan con las tecnologias de la industria 4.0. Por lo cual la presente investigación tuvo como princio el planetamiento de las preguntas problematizadoras de investigación que ayudaran a contribuir a la recopilación y el analisis de los datos. ¿Cuales son los modelos mas usados en la gestión de inventarios en las inesvtigaciones aplicadas? ¿A partir de los resultados de la revisión, que benficio tiene la aplicación de dichos modelos de gestión de inventarios? ¿Como se han relacionado el uso, el manejo de gestión de inventarios y las tecnologias en las investigaciones?



METODOLOGÍA

El estudio actual siguió un proceso de cinco pasos para comprender mejor la literatura existente: 1. Determinacion de las preguntas de investigación 2. Base de datos examiandas en el estudio 3. Indentificación de palabras claves 4. Criterios de inclución y exclusión 5. Analisís de resultados 


CONCLUSIONES

 A partir de la presente investigación desarrollada y el analisis de los procesos implementados de la metodologia diseñada se logro identificar y percibir las siguientes conclusiones Una vez desarrollado el analisis de la informacion encontrada en las diversas bases de datos de SciElo, Redalyc, Dialnet, Scopues, Sciens, Webray Sciencie en las cuales se encuentrarón 2.463 articulos investigativos y posterior a la depuración de la información, se determinaron 50 articulos que cumplian con los criterios de busqueda generando variedad de infromación en cuanto a los modelos de gestión para inventarios. Determinado el analisis de información se pudo contemplar que los 5 modelos mas utilizados en la gestión de inventarios dentro de las investigaciones aplicadas son el modelo EOQ, PEPS, MRP, Modelo minimos y maximos y el modelo de sistema multicriterio difuso. De igual manera se pudo identificar que los principales beneficios de los modelos de optimización de inventarios son: mejora en la toma de decisiones, organización de los inventarios, minimización de costos, busqueda de la rentabilidad, flujo de inventarios de manera constante y la satisfacción de los clientes. Finalmente se determinó que la interacción de los modelos de sistemas de gestión de inventarios con los avances tecnologicos de la industria 4.0 permite la automatización y control de los procesos de gestión de inventarios para lograr la optimización de tiempos y recursos.
Silva Montes de Oca Carlos, Universidad de Guadalajara
Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California

ADQUISICIÓN Y PROCESAMIENTO DE SEÑALES ELECTROENCEFALOGRÁFICAS DURANTE EL PROCESAMIENTO DE DILEMAS MORALES


ADQUISICIÓN Y PROCESAMIENTO DE SEÑALES ELECTROENCEFALOGRÁFICAS DURANTE EL PROCESAMIENTO DE DILEMAS MORALES

Franco Miramontes Ariana Belén, Universidad de Guadalajara. Santana Franco Edith Marlene, Universidad de Guadalajara. Silva Montes de Oca Carlos, Universidad de Guadalajara. Zamora Blanco Jesús Miguel, Universidad de Guadalajara. Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El procesamiento moral comprende sistemas neurológicos que forman el pensamiento moral, dirigen cognición y acción a objetivos internos como imaginar acontecimientos distantes y representar estados mentales en otros. La corteza prefrontal ventromedial se activa, según estudios de RNM funcional, cuando se hacen juicios morales o cuando se observan fotos que hacen referencia a emociones sociales como la solidaridad, la justicia y la culpa. También al plantearse dilemas, especialmente cuando estos implican contemplar la posibilidad de tener que actuar de forma que se pueda dañar a otros. Existen muchos estudios sobre el procesamiento moral, dando un enfoque desde ámbitos psicoeducativos pero hay poca evidencia de alta precisión bioeléctrica y componentes electroencefalográficos asociados al procesamiento moral. Es por eso que durante este verano de investigación, se estudian las señales electroencefalográficas adquiridas durante la presentación de dilemas morales en adultos jóvenes.   



METODOLOGÍA

Se adquirieron señales electroencefalográficas de ocho sujetos de estudio, entre los rangos de edad de 21 y 23 años, con características neurotípicas, cuatro con problemas visuales, 6 diestros y 2 zurdos.  A cada uno de los sujetos, se les realizó un previo cuestionario para descartar cualquier problema neurológico para después presentarle, por medio de un software, una serie de dilemas morales, en donde se les explica una situación en la que tienen que decidir si realizar o no la solución que se presenta con una posibilidad de tener que actuar de forma que se pueda dañar a otros por el bien general.  El software se conforma de 12 dilemas morales, en los que cada uno se divide en tres partes, primero dando un contexto general de la situación, después presentando el problema y la posible solución, y finalmente la pregunta donde el sujeto debe de responder con un sí o un no a la posible solución presentada.  Durante toda la presentación de los 12 dilemas se toman señales electroencefalográficas por medio de 6 electrodos de copa de oro, ubicados en las zonas prefrontal, frontal y temporal (según el sistema 10-20: Fp1, Fp2, F3, F4, F7, F8, T5, T6); utilizando el software y hardware de OpenBCI sincronizado al software de dilemas por medio de un marcador.  Para la identificación de cada dilema y sus partes en las señales electroencefalográficas se utilizó el marcador temporal previamente mencionado, para dividir las señales y facilitar el procesamiento de las mismas.   En el planteamiento del problema y de la posible solución de cada dilema, se espera ver una activación en el área prefrontal, lo cual se traduce en un cambio de la potencia de los componentes frecuenciales de las señales obtenidas en dichos electrodos. Para tener una mejor comparativa en el cambio de las señales electroencefalográficas se realizó un registro baseline o controlado sin estímulos exteroceptivos, que consta de tres etapas, los primeros 30 segundos del registro el sujeto está en estado de relajación con ojos abiertos, en la segunda etapa el sujeto debe de cerrar los ojos, teniendo esta una duración de 30 segundos más, para finalizar con una etapa de 2 minutos en la que el sujeto se mantiene con los ojos cerrados mientras que se le pide imaginar diferentes figuras geométricas para mantener un estado de concentración y relajación. Para el procesamiento de la información adquirida en el procesamiento moral, se tomaron las señales adquiridas y se dividieron según los segmentos de interés para el análisis, siendo estos antes y después del planteamiento del problema moral, posteriormente, se calculó el espectrograma de cada uno de estos canales para tener de primera instancia una comparativa visual de los cambios de la potencia en cada frecuencia a través del tiempo, posteriormente, se aplicaron herramientas estadísticas como el cálculo de la desviación estándar para tener una comparativa cuantitativa de los cambios que se produjeron durante todo el procesamiento moral.


CONCLUSIONES

Durante el procesamiento de dilemas morales se encontró un cambio significativo en la potencia de ondas beta en el área prefrontal del cerebro, mayormente de los electrodos F7 y F8 en comparación con el segmento de línea base, ocurriendo esto mismo para el caso del planteamiento del contexto del dilema en comparación con el registro de línea base, no se encontró un cambio significativo entre la activación de estos canales en la misma banda durante el procesamiento moral del dilema en comparación con el planteamiento del contexto del dilema.
Silva Ortiz Ericka, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. José Roberto Razo Hernández, Instituto Tecnológico Superior de Irapuato

ANáLISIS DEL CAMPO ELéCTRICO EN CABLE SUBTERRáNEO UTILIZANDO TéCNICAS DE ELEMENTO FINITO CON CORRELACIóN A FALLAS EN EL AISLAMIENTO.


ANáLISIS DEL CAMPO ELéCTRICO EN CABLE SUBTERRáNEO UTILIZANDO TéCNICAS DE ELEMENTO FINITO CON CORRELACIóN A FALLAS EN EL AISLAMIENTO.

Silva Ortiz Ericka, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. José Roberto Razo Hernández, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

  Los cables de potencia deteriorados pueden causar interrupciones frecuentes en el suministro eléctrico. Esto puede resultar en apagones, cortes de energía y pérdidas de productividad para empresas y hogares. Las interrupciones constantes pueden afectar negativamente a las operaciones y la calidad de vida. La manera de afrontar la situación, será realizando inspecciones periódicas de los cables de potencia para detectar daños, desgaste o corrosión. Establecer un programa de mantenimiento preventivo puede ayudar a identificar y abordar problemas antes de que se conviertan en situaciones críticas. Para abordar este problema, se deben considerar diversos aspectos técnicos, tales como la geometría y dimensiones de los cables, las características eléctricas y dieléctricas de los materiales utilizados en la capa de aislamiento, la variación de la constante dieléctrica a lo largo del cable y las condiciones de operación a las que se somete el sistema. Además, es fundamental analizar cómo estas variaciones en el campo eléctrico pueden influir en la distribución y magnitud de las descargas eléctricas, así como en la pérdida de energía por efectos dieléctricos y conductoras. Se planea desarrollar la determinación del estudio del comportamiento al campo electrico y su voltaje en base a su aislamiento, el cual puede estar formado por la combinación de diferentes capas de acuerdo con su permitividad eléctrica, con ayuda al software Finite Element Method Magnetics (FEMM).   



METODOLOGÍA

Se realizó una simulación para el estudio de comportamiento del campo eléctrico en cable subterráneo con una distribución de aislamiento con una sola capa de constante dieléctrica, para poder observar el comportamiento del cable, cuando se le encuentra alguna falla de una pretuberación de aire. Para realizar la simulación, se basó en que fuera un problema electrostático; en este caso, solo se tomará en cuenta un cable de un solo núcleo conductor y se introducirá la geometría del cable, valores de frontera y valores de permitividad relativa eléctrica de los materiales utilizados en el aislamiento.A continuación, se presentarán los datos para dicho modelo: Radio del conductor (r) = 0.812 cm Espesor del aislamiento = 2.85 cm Permitividad del material = 2.5 (XLPE) Blindaje puesto a tierra = 0 volts. Voltaje del conductor (v) = 66 kV Esto se simuló dentro del software FEMM, como ya se había mencionado, el siguiente paso, es la geometría del cable, en este caso empezamos por definir los parámetros que se debe de seleccionar en la opción de problem que se encuentra la barra de herramienta superior del software, solo se hará cambio en la longitud en centímetros, ya que es la unidad que se maneja a nivel del SI, mientras tanto, los demás valores serán los mismos. El comportamiento del campo eléctrico y del voltaje, en donde se encuentran en su estado normal; tienen como datos un potencial entre los 7e+004 y 6e+004 volts, en una longitud de 2 cm, es decir están en un cierto rango de estabilidad; se le agregó una carga de densidad y una falla al aislamiento, para realizar una comparación y ver qué diferencias existen. Modificamos el valor de la carga de densidad, del material del XLPE, a un valor de 10, para ver con más atención el cambio. Surgió un drástico cambio, puesto a que se le modifico con una carga de densidad, entonces esto produce un salto no eficiente en el comportamiento del voltaje, por lo que esto produciría un daño en la permitividad del aislamiento, ya que presenta en su gráfica un inicio en su valor potencial a 0 volts, en 0 cm y sube a un valor pico de 2.5e+007 volts a la mitad del cable y luego baja a 0 volts al límite de la longitud del cable, es decir a los 2 cm. Ahora, en cuanto al comportamiento del campo eléctrico del aislamiento cuando se encuentra con una carga de densidad de 10, tiene un inicio común a la estabilidad normal, pero esta baja al límite de 0.8 cm y con 0 V/m, a lo que define, que habrá un retacho y después de eso, volverá de nuevo a su estabilidad. Proseguimos por introducir una falla de aire,la que podría ser la causante de una descarga parcial. Este círculo tiene como coordenadas: (1.1300, -0.0300) y (2.3100, -0.0300); y se le agregó el material del aire para la simular la falla de este. Con esta nueva determinación, se crearon 10, 929 nodos dentro de la malla, las gráficas se presentan inestables; mientras que el comportamiento del voltaje es alto, y el del campo eléctrico bajo, incluyendo que este estudio sigue con la carga de densidad 10, entonces eso hace que la falla sea más notoria, teniendo como dato que el comportamiento del voltaje, inicie con un potencial a 0 y un valor pico a los 2e+007 volts a los 1.5 cm del aislamiento, y por otro lado el campo eléctrico tiene una referencia senoidal en su comportamiento, esto sucede por el fenómeno de la falla del aire, lo que causa que no tenga una buena fiabilidad en el aislamiento y no pueda conducir a una rigidez ideal.


CONCLUSIONES

Mediante la correlación de los resultados del campo eléctrico con fallas del aire en el aislamiento del cable, se pudó evaluar cómo las concentraciones de campo eléctrico podrían contribuir al desarrollo o propagación de fallas en el aislamiento. Basándonos en los resultados, y con ayuda de Elemento Finito (FEMM), observamos el comportamiento que mantuvo cada estudio que se le hizo, primero en su estado normal, luego con una carga de densidad, que finalizaría incluyendo por una falla de aire, esto nos propone a dar recomendaciones para el diseño de cables subterráneos y que minimicen las concentraciones de campo eléctrico y reduzcan el riesgo de fallas en el aislamiento. La investigación en el aislante XLPE para cables subterráneos, contribuye al desarrollo de tecnologías avanzadas en el campo de la transmisión y distribución de energía eléctrica. Esto incluye la búsqueda de materiales aislantes con mejores propiedades dieléctricas, mayor resistencia al envejecimiento, menor impacto ambiental y mayor vida útil. Estas investigaciones pueden conducir a mejoras significativas en la eficiencia y confiabilidad de los sistemas eléctricos, así como a la incorporación de tecnologías más sostenibles.  
Silva Tapia Melchor, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

LEAN SAFETY


LEAN SAFETY

Coronado Hernández Ayelen Geraldine, Instituto Tecnológico de Tlalnepantla. Cortes Navarro Orlando, Instituto Tecnológico Superior de Uruapan. Garibay Diaz Marcela, Instituto Tecnológico Superior de Uruapan. Ramirez Castro Ana Georgina, Instituto Tecnológico Superior de Uruapan. Silva Tapia Melchor, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La falta de implementación de la filosofía Lean Safety en la empresa empacadora de aguacates, no permite reducir los sietes desperdicios en el área de producción y contribuir a la minimizar la incidencia de accidentes, además de riesgos laborales.  Con lo anterior mencionado, se requiere darle solución a este problema por parte de la empresa Brandon´s Fresh.



METODOLOGÍA

El plan de trabajo llevado a cabo se realizó bajo los principios de Manufactura Esbelta tales como: 5s, 7 desperdicios, Kaizen, Administración visual y Mantenimiento Productivo Total (TPM).  El equipo de trabajo se apoyó del campo de la Seguridad e Higiene Industrial, que con su enfoque y normatividad, se buscó la aplicación de las Normas Mexicanas establecidas por la Secretaría de Trabajo y Previsión Social (NOM-STPS). Fue así que en la primera intervención se inició con un recorrido dentro de las diferentes áreas que conforman a la empresa empacadora: proceso de selección, empaquetado, cámara de frio y distribución del producto. Con lo anterior se identificaron oportunidades de mejora en el área de producción utilizando un formato llamado Actividad de Seguridad Esbelta. Se prosiguió con la realización de una encuesta para el llenado del formato de Relevamiento Inicial, donde se identifican las Normas Mexicanas (NOM) de acuerdo a la Secretaria de Trabajo y Previsión Social (STPS). Se buscó profundizar en los inconvenientes que en la empresa se encontraron, a través del formato de Actividad de Seguridad Esbelta, revisando temas como: ergonomía, riesgos latentes y desperdicios (esperas, transporte, sobreproceso, inventario, movimientos, defectos y sobreproducción). Se elaboró una base de datos en una hoja de calculo de EXCEL donde se organizaron los inconvenientes encontrados con su debida propuesta, herramienta Lean, Normativa y Clausula Especifica que le corresponde. Cabe mencionar que los inconvenientes encontrados se presentaron formalmente ante el departamento de S.H.I con las respectivas propuestas, herramientas de Lean y su normatividad. Se invitó al equipo de trabajo a participar en la Comisión Mixta de Seguridad e Higiene, junto con el coordinador de S.H.I y participantes del área de inocuidad y almacén, con el fin de identificar condiciones y actos inseguros en cada área de le empresa Brandon´s Fresh.  


CONCLUSIONES

Para culminar, durante las intervenciones a la empresa se logró aplicar la filosofia Lean Safety para la elaboración de un diagnóstico que nos diera la nocion total sobre la situación actual de la empacadora. Apartir de conocer a la empresa se pudieron proponer alternativas de solución para los inconvenientes encontrados, es decir, por cada área de oportunidad encontrada se propone una acción de mejora a partir de la aplicación de herramientas de Lean y siguiendo la normatividad de las Normas Mexicanas (NOM).  El proyecto de Lean Safety ayudó a cada miembro del equipo a desarrollar sus competencias en un plano práctico.    
Silva Vazquez Ruben Abraham, Universidad de Colima
Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo

DESARROLLO DE APLICACIóN WEB PARA PROCESO ADMINISTRATIVOS


DESARROLLO DE APLICACIóN WEB PARA PROCESO ADMINISTRATIVOS

Canché Gómez Andy Allen, Consejo Quintanarroense de Ciencia y Tecnología. Larios Bravo Cristian Armando, Universidad de Colima. Olmos Romero Nydia Naomi, Universidad de Colima. Silva Vazquez Ruben Abraham, Universidad de Colima. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El manejo de la información en grandes volúmenes tiene como cargo el saber administrar estas cantidades de una manera eficiente, sencilla y eficaz. Las tecnologías de la información tienen como propósito ayudar al usuario a mantener un orden y manipular esta información de manera sencilla y concisa para él. Nuestro trabajo comienza en desarrollar herramientas para manipular esta información y facilitar el uso de las funcionalidades del sistema al usuario.  



METODOLOGÍA

Para la elaboración de este proyecto se recurrió al uso de diversas tecnologías y herramientas: el framework de PHP Laravel, JavaScript junto con sus frameworks JQuery.js y Node.js, tanto como el Bootstrap. Primeramente, se realizó una inspección del sistema para analizar la funcionalidad del sistema junto con la valoración de las mejoras y requerimientos a implementar, así como para seguir un estándar para vistas y los nombres de los componentes, controladores, modelos, migraciones, entre otros. Resultó indispensable el diseño de una representación visual de la estructura de la base de datos a implementar en el sistema, para posteriormente trasladar dicho diseño de manera lógica en forma de código. Una vez establecida la base de datos (relaciones, tipos de datos a utilizar, etc.) se comenzó a sobre llevar el desarrollo de las interfaces de usuario (frontend) y la lógica detrás de estas (backend). Adicionalmente se establecieron los tipos de usuarios que harán uso del sistema, así como los permisos y restricciones. En el transcurso de la estancia de investigación se pusieron en práctica todos aquellos conocimientos previos del framework Laravel con los que contamos, adicionalmente utilizamos nuevas tecnologías y herramientas que nos fueron de gran ayuda para la realización del proyecto; por ejemplo, la utilización de BitBucket, Git y Github para el control de versiones eficiente nuestro trabajo.


CONCLUSIONES

El aprender diferentes estándares y protocolos de programación fue una parte integral de nuestro aprendizaje durante el desarrollo del sistema, así como tomar en consideración las aportaciones del investigador al aplicar los conocimientos adquiridos. Por otro lado, el sobrellevar los distintos requerimientos solicitados para el sistema fue uno de los mayores retos a los que nos enfrentamos, ya que es un sistema bastante extenso sin embargo las especificaciones siempre fueron claramente indicadas.
Silverio Morales Marco Sebastian, Instituto Tecnológico de Morelia
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

USO DE MATERIALES PUZOLÁNICOS COMO ESCORIA DE ALTO HORNO, COMO AGREGADO EN MEZCLAS DE CEMENTO PORTLAND


USO DE MATERIALES PUZOLÁNICOS COMO ESCORIA DE ALTO HORNO, COMO AGREGADO EN MEZCLAS DE CEMENTO PORTLAND

Silverio Morales Marco Sebastian, Instituto Tecnológico de Morelia. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la tendencia mundial de producción en la mayoría de los sectores industriales se inclina a la reducción de residuos que terminan en depósitos y vertederos que sólo dañan al ambiente. En el sector siderúrgico, especialmente dónde se incorpora el alto horno como parte del proceso, la generación de subproductos como escoria es inevitable; por lo tanto, el uso de este subproducto es benéfico para el ambiente y propicia la producción de cementos, concretos, ladrillos, cerámicos, suelos, entre otros. La escoria al ser el principal subproducto generado en el proceso de siderurgia se caracteriza por poseer propiedades de naturaleza puzolánicas, es decir, formación de Clinker del cemento; así como de propiedades hidráulicas. Que contribuyen a comportamientos de durabilidad y buena relación de compresión. Se busca que propiedades de los cementos incrementen con la adición de subproductos y residuos de procesos siderúrgicos, tal es el caso de la escoria de alto horno. La revisión documental se concentró en tres distintos proyectos, dónde destaca el titulado Efecto de las adiciones minerales ceniza volante y escoria de alto horno sobre el desempeño mecánico de concretos hidráulicos binarios y ternarios.



METODOLOGÍA

Para el proyecto Efecto de las adiciones minerales ceniza volante y escoria de alto horno sobre el desempeño mecánico de concretos hidráulicos binarios y ternarios, se elaboraron 4 mezclas de concreto constituidas por 4 mezclas binarias con cemento, con diferentes dosificaciones de cemento portland, ceniza volante y escoria de alto horno. Para continuar con el ensayo de 60 piezas cilíndricas para las distintas mezclas preparadas. El cemento Portland fue el comercial Tipo I, ceniza volante clase F proveniente de la planta termoeléctrica de Sochagota y escoria granulada de alto horno de la planta de Acerías Paz del Río. El agregado pétreo fino fue arena de río con un módulo de finura de 3.04 y absorción de 0.81%; por otra parte el agregado grueso fue grava fina con Tamaño Máximo Nominal de 12 mm. Las mezclas se diseñaron para un contenido de cementante de 448 kg/m3 y una relación agua/cemento de 0.5. Los ensayos de resistencia a compresión del concreto se realizaron con 60 piezas cilíndricas con medidas de 15x30 cm, a edades de 28 y 90 días de curado. Siguiendo el procedimiento de la norma ASTM-C-39 de 2021. La carga se aplicó utilizando una prensa hidráulica automatizada a una velocidad de 0.25 MPa/s. Para regularizar la carga y que fuera uniforme se hizo uso de discos metálicos y neopreno. Al observar los resultados de las pruebas, las piezas con inclusiones de escoria incrementan su resistencia a la compresión a una menor edad de curado; caso contrario de la inclusión de ceniza que reduce la propiedad en edades tempranas pero la incrementa, aún más que la escoria, en edades mayores (90 días); esto se debe principalmente al comportamiento puzolánico de la ceniza.


CONCLUSIONES

Con relación a los resultados obtenidos de las pruebas, para obtener el comportamiento óptimo de las mezclas de cemento con estos agregados, estos deben representar el 20% de nivel y no exceder este nivel ya que disminuiría las resistencias a la compresión. Con esta conclusión se obtuvieron ecuaciones que describen el comportamiento para cementos con una relación agua/cemento de 0.45 y una resistencia a compresión entre 10 MPa y 30 Mpa, con porcentajes de adición de entre 20 y 40% por peso de cemento. Estos resultados son similares a otros obtenidos en distintos proyectos de investigación, tal es el caso del estudio Granulated Blast:Furnace Slag and Coal Fly Ash Ternary Portland Cements Optimization, en el que se realizan pruebas de generación de cementos ternarios con adición de escoria y ceniza. Dónde las pruebas de compresión registran valores más altos en piezas con las adiciones; con condiciones de edad similares de 2, 7 y 28 días. Dónde se explica el origen del fenómeno por la naturaleza puzolánica de la escoria y la ceniza. Durante esta estancia de verano se logró adquirir conocimientos teóricos del sector de la construcción, destacando el diseño de mezclas y talleres de optimización de espacios urbanos. Ambos en virtud del desarrollo ambiental y la reducción del impacto en este. La fusión de estos dos campos, haciendo referencia a la construcción y la siderurgia, puede no estar únicamente limitada a proveedores y materiales de construcción, ya que el aprovechamiento de los subproductos del proceso siderúrgico representa una gran oportunidad de aprovechamiento para el sector de la ingeniería civil, propiciando proyectos de menor impacto ambiental y de mayor resistencia.
Soberanes Ruiz Mariana Jaqueline, Universidad Politécnica de Atlautla
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

ÁNALISIS DE PROPIEDADES ELECTROQUÍMICAS EN CONCRETO CON FIBRAS DE COCO, DESPUÉS DE UN AÑO DE SU ELABORACIÓN


ÁNALISIS DE PROPIEDADES ELECTROQUÍMICAS EN CONCRETO CON FIBRAS DE COCO, DESPUÉS DE UN AÑO DE SU ELABORACIÓN

de la Torre Lopez Edith Aurora, Universidad Autónoma de Chiapas. Soberanes Ruiz Mariana Jaqueline, Universidad Politécnica de Atlautla. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El Concreto es una mezcla de piedras, arena, agua y cemento que al solidificarse constituye uno de los materiales de construcción más resistente que junto al acero se convierten en una mezcla ultra resistente elaborada a base de concreto y acero. Esto quiere decir que el cemento es reforzado con componentes metálicos en forma de armadura de barras o pequeñas fibras. Actualmente es de los más utilizados en la ingeniería civil. El concreto reforzado con varillas de acero es uno de los materiales de construcción más usado en todo el mundo, sin embargo, presentan el inconveniente de ser susceptibles a fallar por corrosión. El problema de la degradación de las estructuras de concreto debido a procesos de corrosión es serio y de implicaciones económicas mayores. La habilidad para evaluar la corrosión de las varillas de refuerzo en estructuras y poder estimar la vida en servicio remanente es tema de estudios en muchas partes del mundo.  los grandes avances tecnológicos mundiales, sin ser entendido completamente, debido principalmente a la complejidad del proceso de corrosión en sí mismo. Para tratar de establecer las bases que rigen al fenómeno de la corrosión, se presentan temas fundamentales que permitirán al lector comprender el fenómeno de la corrosión. El concreto tiene ciertas características: es relativamente resistente en compresión, pero débil en tensión y tiende a ser frágil. La debilidad en tensión puede ser superada por el uso de refuerzo convencional de varilla y, en cierta medida, por la inclusión de un volumen suficiente de ciertas fibras.



METODOLOGÍA

La investigación se llevó a cabo en la ciudad de Campeche, Campeche, en esta zona el tipo de agregado que se utiliza es el triturado de roca para el agregado grueso y polvo de roca para el agregado fino, ambos de roca caliza. y la fibra de coco se obtiene como residuo de los frutos cocoteros, estas fibras se extraen de manera manual. Es una materia prima muy interesante, ya que tiene la ventaja de ser abundante, disponible, renovable y barato. Los restos de frutos cocoteros se obtuvieron de un negocio ubicado en el mercado municipal de Campeche.  El uso de fibras en mezclas de concreto es con la finalidad de aumentar ciertas propiedades mecánicas, y así disminuir el agrietamiento, fisuras y agregar capacidad de carga posterior a su agrietamiento. En busca de utilizar alguna fibra natural como material alternativo. Para la realización de esta investigación se utilizaron cilindros de concreto de hace un año que contienen distintas proporciones de fibra de coco, para lo cual se realizaron 3 mezclas. Un concreto convencional o de referencia (M1), un concreto con 0.5% de fibra de coco respecto al cemento utilizado (M2) y un concreto con 1.0% de fibra de coco respecto al cemento utilizado (M3), para analizar y comparar los resultados después de un año de ser coladas. Al recibir los cilindros y revisar su estado, estos se encontraban en buenas condiciones a la vista y pudieron correrse las pruebas electroquímicas sin ningún problema. Así pues, las prácticas realizadas fueron la de Impedancia, Resistencia de polarización línea (LRP) y la resistividad de cada una de estas muestras.   La electroquímica se define como: la rama de la química que estudia la relación entre las corrientes eléctricas y las reacciones químicas, y de la conversión de la energía química en eléctrica y viceversa. Como presentación de resultados, la resistividad puede ser un indicador del fraguado, del grado de saturación del hormigón y por ello del grado de curado y de la impermeabilidad o resistencia al ingreso de sustancias agresivas en el hormigón. Los resultados fueron obtenidos con la ecuación: p=2π(a)(R)(b) De las M1 varian de D1=82.72Ω,D2=43.98Ω,D3=48.17Ω,M2 de D1=80.11Ω,D2=35.08Ω,D3=47.12Ω,y para las M3 D1=62.30Ω,D2=39.79Ω,D3=50.78Ω. La impedancia y el LRP. La impedancia es una medida que engloba tanto la resistencia como la reactancia en un circuito de corriente alterna, y es fundamental en el análisis y diseño de circuitos eléctricos y electrónicos. Los resultados arrojados de la impedancia para la (M1), en cuanto a los diagramas de Bode, mostraron que en la gráfica (M1-D1) cuya frecuencia comienza a descender para posteriormente comenzar a ascender en manera recta y lineal hasta llegar a IZ| ohms, por la teoría proporcionada se concluye muestran un comportamiento tendiente a la actividad, y para (M1-D2) la gráfica la frecuencia comienza a ascender y arriba de 100 se mantiene constante hasta llegar a  IZ| ohms, con tendencia a difusión. Para los diagramas de Nyquist M1-D1 presento un proceso de corrosión por difusión debido a que el comportamiento fue ascendente y para la muestra M1-D2 su comportamiento fue de transferencia de carga en las regiones más bajas y en las regiones más altas presento un comportamiento por difusión Para las gráficas de LRP todas comienzan desde la parte inferior izquierda (catódica) y comienzan a ascender de manera parabólica, con un incremento de corriente.    


CONCLUSIONES

Las pruebas electroquimicas arrojaron datos muy diversos debido a su proceso de elaboración un mal varillado, colado y se le puede atribuir un gran índice de porosidad en el concreto de manera interna. Se observó que la resistividad disminuyó con la cantidad de fibra adicionada. El seguimiento en el tiempo no es un se muestra como un factor que afecte hacia un mejor resultado para estos cilindros adicionados con fibra de coco Aprendizaje Final. Agradezcemos el conocimiento brindado, puesto que pudimos aprender a colar y varillar esto aprendido tanto en laboratorio de CICORR, como en la visita técnica a la concretera, aprendimos a obtener gráficas de nyquist,  bode y los LRP, también a sacar potencias, resistividad y resistencias, enetre muchas otras cosas, pero esto es lo que más pusimos en práctica.
Solano Corona Pamela Sthepani, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla

DISEñO DE UN ASISTENTE ROBóTICO PARA PERSONAS CON ENFERMEDADES ASOCIADAS CON LA PéRDIDA DE LA MEMORIA


DISEñO DE UN ASISTENTE ROBóTICO PARA PERSONAS CON ENFERMEDADES ASOCIADAS CON LA PéRDIDA DE LA MEMORIA

González Cornejo Axel Baruc, Universidad de Guadalajara. Solano Corona Pamela Sthepani, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La pérdida de memoria se asocia con una capacidad disminuida para aprender nueva información o recuperar información aprendida. Los informes de pérdida de memoria no reflejan necesariamente cambios en este dominio, pero pueden reflejar efectos en otro dominio cognitivo. La disminución en la capacidad para recuperar información puede causar pérdida o cambios en la memoria sin afectar el funcionamiento diario. Si la pérdida de memoria cambia las actividades diarias, puede ser un proceso demencial que debe explorarse de manera específica. La demencia es una enfermedad neurodegenerativa multifactorial que afecta progresivamente la memoria, el pensamiento y la capacidad para realizar las actividades cotidianas, llegando a un estado de discapacidad y dependencia. El aumento de la incidencia de esta enfermedad convierte a la demencia en un problema prioritario de salud pública, que requiere una acción rápida para desarrollar e implementar estrategias encaminadas a la prevención y reducción de los factores de riesgo, el diagnóstico precoz y la atención integral. La demencia debida a la enfermedad de Alzheimer (EA) es la forma más común de demencia y representa el 60-80% de todos los casos notificados. La prevalencia de demencia aumenta exponencialmente entre los 65 y los 85 años; este número se duplica cada 5 o 6 años y se mantiene estable entre los 85 y los 90 años. Actualmente se estima que en México aproximadamente un millón 300 mil personas padecen la enfermedad de Alzheimer, cifra que representa entre 60 y 70 por ciento de los diagnósticos de demencia y afecta con mayor frecuencia a las personas mayores de 65 años.



METODOLOGÍA

Este proyecto se enmarca en una investigación científica pura con un enfoque de investigación de tipo teórico exploratorio, el objetivo es realizar un análisis exhaustivo sobre la viabilidad y el potencial de un robot de asistencia para pacientes que presentan una enfermedad neurodegenerativa. La investigación se basa principalmente en la revisión bibliográfica y análisis de estudios o proyectos existentes relacionados con el tema, esto con la finalidad de obtener datos importantes que puedan ser utilizados al poner en práctica el proyecto Para el proyecto se tomaron en cuenta las siguientes etapas: Análisis de Requisitos: Esta etapa se realizó con el objetivo de conocer las necesidades y requerimientos del prototipo, se establecieron las funciones necesarias y los casos de uso. Adaptación del Turtlebot3: El diseño del prototipo del robot tomo como base el robot comercial Turtlebot3, se realizaron modificaciones tanto en su diseño físico (con miras a una construcción en físico) como en su programación. Desarrollo del Sistema de Programación: Se utilizaron técnicas de Inteligencia Artificial y visión por computadora para la implementación del sistema de programación en el robot. En esta etapa se consideraron los puntos vistos en la primera etapa, por ejemplo, que el robot se mantuviera a una distancia determinada del paciente, así como la programación de una alerta para dar a conocer cuando el paciente no se encuentre en su vivienda.


CONCLUSIONES

El desarrollo de este robot de asistencia es innovador y prometedor para mejorar la calidad de vida de las personas afectadas por enfermedades neurodegenerativas. Con la integración de la inteligencia artificial podrá aprender de acuerdo al comportamiento dinámico de los pacientes y permitirá que el robot pueda ser utilizado de diferentes formas. La transformación de un robot comercial como lo es Turtlebot3 permite que sea posible el diseño pueda llevarse a cabo con materiales que sean accesibles y no encarezcan el proyecto para que se pueda brindar a los pacientes asistencia y seguimiento necesario para una mejora en su calidad de vida. Cabe recalcar que por ahora la investigación aún se encuentra en la etapa teórica y aún no se ha concretado en forma de prototipo funcional. No obstante, se espera que la base teórica establecida proporcione una base sólida para la creación de prototipos físicos posteriores.
Solis Rios Daniel, Universidad Autónoma de Occidente
Asesor: Dr. Víctor Hugo Castillo Topete, Universidad de Colima

METODOLOGíA MIXTA PARA EL LLENADO SINTéTICO DE DATOS.


METODOLOGíA MIXTA PARA EL LLENADO SINTéTICO DE DATOS.

Solis Rios Daniel, Universidad Autónoma de Occidente. Valencia Calero Juan Camilo, Universidad Autónoma de Occidente. Asesor: Dr. Víctor Hugo Castillo Topete, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El electrohilado es una técnica versátil y prometedora para la fabricación de nanofibras a partir de soluciones poliméricas. Estas nanofibras tienen aplicaciones en diversos campos, como la entrega de fármacos, la ingeniería de tejidos, la filtración y la electrónica. Al recolectar datos experimentales relacionados con los parámetros del proceso de electrohilado, es común encontrarse con valores faltantes debido a diversas razones, como errores de medición, condiciones experimentales variables que no eran consideradas importantes registrarlas al momento de hacer el reporte del procesamiento de estas variables en la publicación científica. Disponer de un archivo de datos completos es ideal para la optimización de este proceso, pero aplicar métodos de imputación inapropiados para lograrlo, puede generar más problemas de los que resuelve, es por eso, que requerimos a la imputación de datos para los valores faltantes, es el proceso de estimar o predecir valores para los datos ausentes utilizando información disponible en el conjunto de datos. Este proceso es fundamental para garantizar la integridad y la calidad de los análisis posteriores.



METODOLOGÍA

1. Comprensión del Proceso de Electrohilado:    Para llevar a cabo una imputación efectiva, es esencial comprender en profundidad el proceso de electrohilado. Esto implica conocer los diversos parámetros involucrados, como la concentración de la solución polimérica, la tasa de flujo, la distancia de la boquilla, la tensión aplicada, entre otros. Esta comprensión permitirá identificar patrones y relaciones entre los parámetros 2. Exploración y Análisis de Datos    Antes de abordar la imputación, es fundamental realizar un análisis exploratorio de los datos. Esto incluye visualizar la distribución de los valores faltantes, identificar posibles patrones de ausencia y evaluar la correlación entre diferentes parámetros. La comprensión de la naturaleza de los datos faltantes ayudará a seleccionar las técnicas de imputación más apropiadas. 3. Selección de Técnicas de Imputación:    Existen varias técnicas de imputación que pueden ser aplicadas, como la imputación media, mediana, moda, imputación basada en regresión, imputación de valores aleatorios y métodos avanzados como el uso de redes neuronales. La elección de la técnica dependerá de la distribución de los datos, la cantidad de valores faltantes y la relación entre los parámetros. 4. Validación    Después de realizar la imputación, es crucial evaluar la calidad de los datos imputados. Esto se puede lograr mediante técnicas de validación cruzada y comparación de estadísticas descriptivas antes y después de la imputación. La evaluación ayudará a determinar si la imputación ha mejorado la integridad y la utilidad del dataset. 5. Consideración de Incertidumbre:    Es importante reconocer que la imputación introduce cierta incertidumbre en los datos. Por lo tanto, se debe ser transparente acerca de las técnicas utilizadas y la proporción de datos imputados al informar los resultados del estudio.


CONCLUSIONES

Según los resultados obtenidos por el método de imputación de datos por moda y redes neuronales, se realizó una comparación entre los datos sintéticos de cada método mediante la evaluación de los datos atípicos de cada parámetro. Los valores atípicos (outlier) para esta situación nos permiten tener una estadística de cuantos datos son distantes al resto, para así darnos una de idea de cuantos posibles valores serian engañosos. Los outliers obtenidos para cada parámetro de estos dos distintos métodos de imputación de datos fueron muy cercanos, significando que ambos métodos para el rellenado de dataset pueden ser válidos, faltaría ponerlos en practica para hacer una validación de que a partir de esos datos sintéticos si obtengan resultados acordes al experimento practico.
Solis Solis Miryam Paloma, Universidad Tecnológica de La Sierra
Asesor: Mg. Teresa de Jesus Altamar Perez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico

ELABORACIÓN DE UNA BEBIDA ALCOHÓLICA TIPO LICOR A PARTIR DE LA BERENJENA SOLANUM MELONGENA C029 PROCEDENTE DEL DEPARTAMENTO DEL ATLÁNTICO - COLOMBIA


ELABORACIÓN DE UNA BEBIDA ALCOHÓLICA TIPO LICOR A PARTIR DE LA BERENJENA SOLANUM MELONGENA C029 PROCEDENTE DEL DEPARTAMENTO DEL ATLÁNTICO - COLOMBIA

Solis Solis Miryam Paloma, Universidad Tecnológica de La Sierra. Asesor: Mg. Teresa de Jesus Altamar Perez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico



PLANTEAMIENTO DEL PROBLEMA

La berenjena es un fruto que pertenece a la familia de las Solanáceas (Solanaceae) proviene de la especie silvestre de Solanum melongena y la variedad de fruto es globoso es esculentum; la producción mundial de berenjena es de aproximadamente 46 millones de toneladas al año. En la Región del Caribe del departamento del Atlántico existe un alto índice de producción de berenjena, dicho fruto contiene características que contribuyen a la transformación de alimentos y bebidas más sin encambio no se aprovecha. Señalando lo anterior, basado en la gran productividad y destacando que dicha materia prima, tiene como principal uso el consumo en fresco y la comercialización nacional e internacional, más sin embargo al tener grandes rendimientos, no existe un índice de aprovechamiento del 100%, por lo anterior se plantea la siguiente pregunta problema: ¿Cómo desarrollar una bebida alcohólica tipo licor a partir de la berenjena C029 aportará valor agregado a esta materia prima cultivada en el departamento del Atlántico Colombia?



METODOLOGÍA

Teniendo en cuenta el tipo de investigación explorativa se plantean las siguientes fases: Fase 1: Analizar la materia prima para la obtención de las características de la berenjena. Para el análisis de las propiedades fisicoquímicas de la berenjena, se tomaron en cuenta las siguientes actividades: 1. Se Identificó el tipo de berenjena C029 cultivada en la región caribe: teniendo presente que con seguridad se obtiene fácilmente la materia prima en la región, para esto se tomó en cuenta la información suministrada por las entidades de Agravia. 2. Se realizó la Caracterización a la berenjena C029 mediante pruebas fisicoquímicas con el fin de conocer su información nutricional entre las prueba desarrollada están proteínas, humedad, cenizas, pH y Brix°. Fase 2: Estandarizar un licor a partir de la pulpa de berenjena y otros Se Identificaron las operaciones y procesos unitarios: Para definir las tecnologías disponibles y las operaciones que se requieren en la elaboración de licor, Se estableció un diagrama de procesos para la elaboración del licor donde se identificaron las etapas de elaboración del producto. De igual manera, se realiza el alistamiento y disponibilidad de los materiales e insumos necesarios para la elaboración del producto. Se desarrolló un diseño experimental de 3 a la 3, ósea tres formulaciones con cambios en todas las materias prima y se le determinan parámetros de Brix°, pH grado alcohólico después de la fermentación del mosto. Para la determinación del grado alcohólico se realizó una destilación simple en cada una de las muestras, que nos permitió determinar el grado alcohólico. Esta información sirvió de base para la selección de la bebida con mayor grado de alcohol, la cual según las normas técnicas de ambos países  nos orienta para  establecer el tipo de bebida desarrollada. Fase 3: Determinar las características bromatológicas de un licor a partir de pulpa de berenjena y otros. La norma oficial mexicana NOM-199-SCFI-2017 se tomó como guía para clasificar la bebida obtenida después de haberle realizado los análisis fisicoquímicos: pH que se realizó mediante el método de AOAC 90.19/picnómetro. Solidos solubles Brixº fueron analizados mediante la técnica AOAC2001.11/Volumétricas. Acidez se identificó mediante el método AOAC 962.12/Titulométrico. Grado alcohólico que se determinó mediante la AOAC 920.57/volumétrica.


CONCLUSIONES

Como resultado durante la estancia de verano de investigación del programa delfín se lograron adquirir conocimientos teóricos y prácticos en el tema referente a la elaboración de licor de frutas. Los análisis fisicoquímicos permitieron identificar características propias de la berenjena C029 en su estado de maduración donde la berenjena tiene un contenido de humedad del 88.93%, proteínas 1.44%, cenizas 1.10%, un pH de 5.6 y un contenido de solidos totales de 6.2 Brix°. Una vez que se logró estandarizar el mosto se obtuvo un diagrama de proceso con su respectiva descripción. En consecuencia de la parte experimental donde se realizó la relación 3 a la 3 en la primera formulación el mosto está compuesto por pulpa de berenjena, aguardiente, agua y azúcar su pH inicial fue de 5.58 y solidos solubles iniciales fueron el 26.6% mientras que a la formulación número dos se le adicionó pulpa de berenjena, agua, azúcar y levadura. El pH inicial del mosto fue de 4.8 y solidos solubles iniciales del mosto fueron 13.1%. por otro lado al mosto número tres se le adicionó; pulpa de berenjena, agua, pulpa de piña, azúcar y levadura donde su pH inicial fue 4.9 y sus solidos solubles iniciales del mosto fueron 4.32% respectivamente. Conforme a lo antes mencionado se realizó un diagrama de proceso con su respectiva conclusión. Por último la fórmula 3 con mayor graduación de alcohol se llevó a laboratorio para obtener resultados más confiables, además de analizar el contenido alcohólico se determinaron: pH final, Brix° final y acidez titulable por lo que como resultados obtenidos mediante estos análisis fueron los siguientes pH 3.92, acidez 2.55%, grado alcohólico 15.45% y solidos solubles 3.85%. En conclusión  se logo obtener un licor seco de berenjena y otros insumos con un contenido alcohólico del 15.42% Alc. Vol. de acuerdo a la norma oficial mexicana NOM-199-SCFI-2017
Solorio Avalos Carmen Estefania, Instituto Tecnológico de Morelia
Asesor: Dr. Miguel Abud Archila, Instituto Tecnológico de Tuxtla Gutiérrez

ENCAPSULACIóN DE EXTRACTO DE DAUCUS CAROTA (ZANAHORIA) EN PERLAS DE ALGINATO DE SODIO


ENCAPSULACIóN DE EXTRACTO DE DAUCUS CAROTA (ZANAHORIA) EN PERLAS DE ALGINATO DE SODIO

Solorio Avalos Carmen Estefania, Instituto Tecnológico de Morelia. Asesor: Dr. Miguel Abud Archila, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

En los últimos años han surgido diversas investigaciones con innovación en alimentos funcionales con el fin de brindar un beneficio en el organismo, así mismo una nutrición óptima (Katsa et al., 2021). El consumo y productos a base de zanahoria a aumentado debido a que es una fuente rica de antioxidantes, destacando los carotenoides (Espíritu, 2018). Los carotenoides son pigmentos orgánicos liposolubles del grupo de isoprenoides, se encuentran en forma natural en organismos fotosíntesis (Román et al., 2017).



METODOLOGÍA

Encapsulación de extracto de zanahoria. La solución se formuló con 12.5% de sacarosa y variación de 1 y 2% de alginato de sodio respecto al volumen del jugo de zanahoria. Todos los recipientes se cubrieron con papel aluminio y se trabajó el área con poca luz, debido a fotosensibilidad de los carotenoides. El jugo de zanahoria se obtuvo incorporando trozos en un extractor de jugos hasta obtener un volumen de 25 mL. El extracto se sometió a agitación constante, se incorporó el alginato de sodio y sacarosa, hasta obtener una mezcla homogénea. El cloruro de calcio se preparó al 5% respecto al mismo volumen del extracto de zanahoria (25 mL) y se agregó 12.5% de sacarosa. La solución se goteó en el cloruro de calcio, con una peristáltica. De la primera a la última gota que se agregó al cloruro de calcio tuvo un tiempo promedio de 10 min para la solución con 1% de alginato de sodio y 16 min para la de 2% debido a su mayor densidad. Las perlas se dejaron reticular en el cloruro de calcio durante 15 min para el de 1% y 10 min para el caso del 2%. Posteriormente, las perlas se enjaguaron con agua potable. Cuantificación de carotenoides. El contenido de carotenoides se determinó a partir de lecturas de absorbancia obtenidas en un espectrofotómetro. Para lo cual, 1.5 g de perlas se colocaron y trituraron en un mortero con 2.5 mL de acetona. La mezcla fue transferida en un tubo Falcón y se fue adicionando 2.5 mL de acetona hasta que el filtrado fue incoloro. Posteriormente, el extracto fue transferido a un embudo de separación con 4 mL de hexano y se dejó en reposo durante 10 min. La acetona fue removida con adición lenta de agua destilada. El extracto se transfirió a un vaso precipitado con 1.5 g de sulfato de sodio anhídrido; finalmente, se leyó en espectrofotómetro a 450 nm. El extracto libre llevó igual procedimiento para su cuantificación. El contenido de carotenoides fue calculado con la ecuación 1: Contenido de carotenoides (μg/g)= [A*V*(10^4)] /(2592*P) Donde A es Absorbancia medida a 450 nm; 104 es la constante de conversión de unidades μg/g; V es el volumen final (mL); 2592 es el coeficiente de extinción molar de β-caroteno en hexano y P es el peso de la muestra en gramos. Preparación de yogurt. Las perlas de zanahoria se colocaron en yogurt. Para esto, se preparó leche al 12 % con leche en polvo, se coloco 9 mL en 5 tubos de ensaye (cada tubo equivale a 100 mL de yogurt) y se esterilizaron. El cultivo iniciador se realizó agregando el polvo de los microorganismos en agua previamente esterilizada y se dejó en reposo 2 h. Los tubos de ensaye se inocularon con 1 mL del cultivo iniciador y se incubaron a 35 °C hasta obtener cambio de textura (formación de cuajo). El yogurt se preparó con 500 mL de leche al 6 % de leche en polvo y 7 % de sacarosa, estando en agitación constante y calentado a 85 °C, se mantuvo por 20 min a esa temperatura e inmediatamente se bajo a 42 °C, se adicionó el contenido de los 5 tubos de ensaye (inóculo) y se agitó por10 min. Las perlas de zanahoria se colocaron en recipientes pequeños con tapa y se agregó yogurt en relación 2:10 (p:v). Se incubaron a 45 °C hasta obtener pH de 4.5; finalmente, se refrigeraron para detener la reacción. La eficiencia de encapsulamiento (EE) total se determinó con la ecuación 2: EE (%)=(contenido de carotenoides en perlas)/(contenido de carotenoides en extracto)*100


CONCLUSIONES

Las perlas tienen características físicas dependiendo del porcentaje de alginato de sodio. Las perlas con 1% tuvieron color oscuro, debido a que los carotenoides se oxidaron, fueron suaves, con sabor y olor a zanahoria y esféricas; mientras que las de 2% tuvieron color naranja claro, duras (causado por la reacción del alginato de sodio y el cloruro de calcio), su sabor fue más dulce y su morfología similar a una a gota. Los resultados del contenido de carotenoides en el extracto libre y en las perlas obtenidos en el extracto con 1% de alginato de sodio fue 116.81 μg/g y 93.72 μg/g de una muestra de 1.5 g. Para el de 2 % se obtuvo 77.5 μg/g y 65.94 μg/g. La concentración total de caroteno en el extracto libre y perlas en el de 1 % de alginato de sodio fue 1837.8 ug/g y 787.25 ug/g; y el del 2 % fue 1049.89 ug/g y 554.78 ug/. El valor medio de carotenoides totales para tipos común de zanahorias es de 13.8 mg/100 g (Oscuro y Booth, 1946). Ajustando las unidades, se tiene que el valor medio de carotenoides total es 1380 μg/g. El extracto y por ende las perlas que contienen 1% de alginato en su formulación dan mejor rendimiento al contenido de carotenoides en las perlas, sin embargo, la mayor eficiencia de encapsulación fue en las perlas con alginato al 2%.  El yogurt con las perlas reaccionó óptimamente. El yogurt más perlas de 1% de alginato de sodio mantuvo su pH inicial de 4.35, las perlas se quedaron en el fondo y su sabor se percibía levemente; en tanto con las de 2 %, el pH fue 4.33, las perlas se conservaron en la superficie y su sabor fue más intenso. En ambos casos el color de las perlas y yogurt no cambió, la relación de p:v de las perlas respecto al yogurt fue baja y hay formación de sinéresis. La sinéresis  ocurre por incremento de temperatura, agitación en la fermentación, contaminación y demasiado tiempo de fermentación (Basanta, 2010). Concluyendo que, el extracto de zanahoria en perlas de alginato de sodio al 2% a comparación de al 1 % da mejores resultados en términos de la eficiencia de encapsulación y sabor. El yogur elaborado podría ser considerado como un alimento funcional factible para la población para brindar beneficios de carotenoides.
Solórzano Magallanes Adriana, Instituto Tecnológico de Tepic
Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana

MODELO DINáMICO DE AGRICULTURA DE PRECISIóN PARA VEGETALES CULTIVADOS BAJO TECHO


MODELO DINáMICO DE AGRICULTURA DE PRECISIóN PARA VEGETALES CULTIVADOS BAJO TECHO

Ruiz Avila Mary Carmen, Instituto Tecnológico de Toluca. Solórzano Magallanes Adriana, Instituto Tecnológico de Tepic. Asesor: Mg. David Alejandro Guerrero Pirateque, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

El modelo dinámico de agricultura de precisión para vegetales cultivados bajo techo es un sistema de control que funciona mediante un modelo matemático. El modelo se aplica en este caso, en un invernadero geodésico, con estructura de cúpula ubicua, diseñado con el objetivo de supervisar y gestionar la temperatura la iluminación, el riego, la humedad relativa, el control del agua y otras variables de importancia para el cultivo, utilizando tecnologías de monitoreo y control avanzadas. El invernadero emplea sensores y dispositivos especializados para recolectar información acerca de las variables dentro del ambiente, estos datos son transmitidos posteriormente a un sistema de adquisición de datos, donde son analizados y empleados para tomar decisiones relacionadas con las condiciones ambientales del entorno. Asimismo, este sistema permite predecir y comprender el comportamiento de los cultivos en diversos escenarios ambientales y condiciones de manejo, a través del estudio de las interacciones entre las variables identificadas. 



METODOLOGÍA

Se elaboró un resumen ejecutivo donde se hizo una introducción sobre el proyecto, determinó la TRL de la creación, se identificaron las actividades a realizar y se hicieron las conclusiones sobre cómo escalar el proyecto para que sea viable para la institución; después se hizo el informe de evaluación del entorno, donde se hizo una investigación sobre la situación actual de la agricultura urbana inteligente en colombia, se identificaron los competidores, posibles clientes y la normatividad de los invernaderos en el país, y por último se realizó un informe de vigilancia tecnológica, donde se elaboraron palabras claves, ecuaciones de búsqueda y la identifición y valoración de patentes relacionadas con la creación.


CONCLUSIONES

1. La zanahoria es uno de los vegetales más vendidos en Colombia; resulta un cultivo útil en invernadero porque extiende su temporada de crecimiento y disminuye significativamente las pérdidas. 2. La zanahoria Royal Chantenay, al ser un vegetal ampliamente producido en Colombia, podría beneficiar significativamente a los agricultores locales al implementar soluciones de agricultura urbana inteligente. La tecnología de creación podría mejorar la eficiencia de cultivo, optimizar el uso de recursos y aumentar la productividad, lo que contribuiría a fortalecer la seguridad alimentaria en el país y reducir la dependencia de importaciones. 3. La agricultura urbana inteligente es un área poco explorada, en la actualidad Colombia no cuenta con un registro de cuántas personas la llevan a cabo por ser una práctica relativamente nueva además de ser una actividad realizada a pequeña escala, esto supone un reto pero a la vez una oportunidad de negocio por ser una propuesta innovadora. 4. La creación de soluciones tecnológicas para agricultura urbana también podría generar impactos positivos en la sostenibilidad ambiental. Al promover métodos de cultivo más eficientes y reducir el uso de productos químicos, se podría reducir el impacto ambiental negativo asociado con la agricultura convencional. Además, al fomentar la producción local de alimentos, se podría disminuir la huella de carbono asociada al transporte de alimentos desde regiones distantes, contribuyendo así a la lucha contra el cambio climático. 5. La creación impulsa la innovación y el desarrollo de capacidades en el sector agrícola de Colombia. La adopción de tecnologías inteligentes y el enfoque en la agricultura urbana pueden fomentar la formación de talento local en áreas relacionadas con la agricultura de precisión, la robótica agrícola y la gestión de datos, lo que a su vez podría generar oportunidades de empleo y contribuir al crecimiento económico del país. 6. La creación podría promover la inclusión social al facilitar el acceso a la producción de alimentos frescos y saludables en áreas urbanas desfavorecidas o con acceso limitado a productos agrícolas de calidad. La tecnología podría ser adaptada para su uso en espacios reducidos, como jardines verticales o huertos urbanos comunitarios, lograr que comunidades locales participen activamente en la producción de alimentos y mejoren su calidad de vida a través de una mayor autonomía alimentaria. 
Solórzano Ramos Matías Eliseo, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

IMPLEMENTACIóN DE CONFIGURACIóN Y GESTIóN DE SERVICIOS EN UNA RED LAN, PARA DISMINUIR VULNERABILIDADES Y ATAQUES CIBERNéTICOS.


IMPLEMENTACIóN DE CONFIGURACIóN Y GESTIóN DE SERVICIOS EN UNA RED LAN, PARA DISMINUIR VULNERABILIDADES Y ATAQUES CIBERNéTICOS.

Rodríguez Cuevas Frida Sofía, Instituto Tecnológico Superior de Guanajuato. Solórzano Ramos Matías Eliseo, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Internet es una red global de computadoras, ordenadores y servidores que se encuentran interconectados entre si. Esto permite a las personas acceder y compartir información, comunicarse por diversas plataformas, con el incremento de usuarios, se aumenta el número de ataques informáticos. Hoy en día la tecnología es parte esencial para las personas, es por ello que se debe evaluar las vulnerabilidades que puede presentar la infraestructura en una red, en este proyecto se enfatizo en identificar las alteraciones provocadas por un ataque cibernético en una red LAN, a través de diversas técnicas y métodos éticos, esto se realiza a través de la creación de VLAN’s generando un mayor control, gestión y configuración de servicios y dispositivos.



METODOLOGÍA

A) Identificación de vulnerabilidades Aquí se escaneo la red, para identificar protocolos, puertos y servicios con los que contaba la red e infrestructura, nos permitio analizar los sistemas accesibles dentro de la red y conocer los componentes que son vulnerables a los ataques. B) Evaluación de vulnerabilidades  Se simularon ciberataques a servicios y dispositivos de red, para el servicio de telefonía se utilizó el protocolo SIP (Protocolo de iniciación de sesión), a través de Wireshark, este nos permitio el monitoreo del tráfico y se logró capturar la conversación entre redes. Para el servicio Web, se utilizó la denegación de servicios, debido a que este esta diseñado para tirar páginas web con apoyo de DDos que es para hacer una simulación de solicitud del servicio, a través del envío de paquetes simultaneo TCP y filtrado http. La inundación de puertos es una de las técnicas más utilizadas debido a que solo se comprueba que este abierto, pero se llega a saturar la comunicación y se puede llegar a apagar el puerto. C)Tratamiento de vulnerabilidades Creamos acl's extendidas y estas se implementaron cerca de los usuarios, donde se denego el servicio ICMP, WEB y correo, permitiendo controlar el tráfico hacia las subredes y los recursos.  Para verificar la implementación de las nuevas técnicas de seguridad, se volvieron a ejecutar los ciberataques. D) Informe de vulnerabilidades. Se comenzo a identificar las vulnerabilidades y se esta haciendo una evaluación de las mismas, permitiendo determinar vulnerabilidades a lo largo del tiempo.


CONCLUSIONES

En resumen, las vulnerabilidades son un fallo informático que pone en peligro al sistema y a la infraestructura de la red, pero es bien sabido que continuarán encontrando la forma de realizar los ciberataques, solo podrás actualizarte y estar preparado para resultar lo menos afectado. Son de mucha ayuda las políticas, porque estas permiten o niegan servicios dependiendo las necesidades, también para las empresas es muy útil implementar vlan's, faciliitando un poco más la administración.
Solorzano Roblero Octavio, Universidad Tecnológica de La Selva
Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva

DESARROLLO DE LA APLICACIÓN MÓVIL EDUSMART


DESARROLLO DE LA APLICACIÓN MÓVIL EDUSMART

Garcia Caballero Jesus, Universidad Tecnológica de La Selva. González Hernández Dilmar, Universidad Tecnológica de La Selva. Morales Ancheyta Cesar Adrian, Universidad Tecnológica de La Selva. Solorzano Roblero Octavio, Universidad Tecnológica de La Selva. Asesor: Mtro. Jesús Domínguez Gutú, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto aborda la problemática de la falta de recursos didácticos digitales que puedan ser consultado fuera de aula de clases por lo estudiantes, así como, la inserción de la gamificación como parte del proceso de enseñanza y aprendizaje en las escuelas, ya sean públicas como privadas, con un enfoque específico en la creación de una aplicación dirigida a ser adquirida por instituciones educativas. Si bien el público objetivo son las instituciones educativas del sector público y privado, nuestros principales usuarios serán los maestros y los alumnos. El propósito de la aplicación es proporcionar a los maestros una plataforma que les permita gestionar el contenido temático y crear exámenes de manera interactiva y lúdica. De esta manera, se busca fomentar un enfoque más dinámico y atractivo para la enseñanza, involucrando a los estudiantes de una forma más activa en el proceso de aprendizaje. Por otro lado, los alumnos serán beneficiados al poder consultar recursos didácticos a cualquier hora y lugar, además, resolver los exámenes en un entorno gamificado, lo que hará que el aprendizaje sea más entretenido y motivador.  



METODOLOGÍA

Para el desarrollo de la aplicación móvil, se basó en la metodología ágil llamada incremental, primeramente, se parte de un bosquejo que dentro de esta metodología se denomina como el primer incremento, se codifica este primer bosquejo y se manda a aprobación del cliente, siendo éste la primera versión de la aplicación; a partir de ésta, se desarrolla el siguiente incremento, donde se eliminan errores del incremento anterior y se agregan nuevas funcionalidades, iniciando nuevamente el ciclo de codificación y validación del cliente; el proceso finaliza cuando la aplicación está libre de errores y está validado por el cliente, teniendo así la versión final de la aplicación. (Domínguez-Gutú et al., 2022, Somerville 2011)


CONCLUSIONES

El proyecto de desarrollo de la aplicación ha avanzado de acuerdo con el plan de trabajo establecido. Hasta la semana 5, se han completado diversas actividades clave que nos han permitido sentar las bases para la creación de la aplicación móvil y web conectadas, enfocadas en la gestión de temas y subtemas, y la publicación de contenido. La metodología ágil adoptada para el desarrollo del software ha demostrado ser efectiva en la gestión de las iteraciones y la corrección continua de actividades, lo que ha facilitado un progreso constante y la identificación oportuna de posibles ajustes necesarios para alcanzar nuestros objetivos.   En cuanto al diseño de la aplicación, se han definido la gama de colores y la tipografía, lo que ayudará a proporcionar una identidad visual coherente en ambas plataformas. Además, se han creado mockups y wireframes para la aplicación móvil y aplicación web, lo que nos ha permitido visualizar la estructura y distribución de los elementos de manera más clara y eficiente. En el ámbito de la base de datos, después de investigar y evaluar diferentes gestores de bases de datos, se ha seleccionado uno que se ajusta adecuadamente a los requerimientos del proyecto.  Asimismo, se ha avanzado en el desarrollo de la API, lo que permitirá la conexión entre la aplicación móvil y la aplicación web. Además, hemos iniciado con el desarrollo del módulo de creación de temas y subtemas, así como la funcionalidad de publicación de contenido, que son componentes centrales de nuestra aplicación.  BIBLIOGRAFÍA. Domínguez-Gutú, J., Bonifaz-Solórzano, R., Trejo-Trejo, G. A., Constantino-González, F. E. & Gordillo-Espinoza, E. (2022). 4LG3BR4: Una aplicación móvil para el aprendizaje del Álgebra básica. Investigación Aplicada, Un Enfoque en la Tecnología, 7(13), 1-14. Sommerville, I. (2011). Ingeniería de Software (Novena ed.). Pearson Educación.
Solorzano Sharon, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano

ANALYZING PRODUCT RECALL MANAGEMENT USING FUZZY COGNITIVE MAPS


ANALYZING PRODUCT RECALL MANAGEMENT USING FUZZY COGNITIVE MAPS

Diaz Espinoza Maximiliano, Tecnológico de Estudios Superiores de Tianguistenco. Solorzano Sharon, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

A pesar de los esfuerzos realizados por las empresas para garantizar la calidad y seguridad de sus productos, los casos de product recall siguen siendo una preocupación constante en el mercado actual. Estas situaciones pueden surgir debido a diversos factores, como fallas en el diseño o la fabricación, problemas con los materiales utilizados, falta de cumplimiento de regulaciones o incluso cambios en las normativas que exigen estándares más estrictos. La naturaleza compleja e impredecible de estos eventos dificulta su manejo adecuado. En la actualidad, los enfoques tradicionales para el análisis de product recall se basan principalmente en métodos cuantitativos y cualitativos rígidos, que no siempre capturan la incertidumbre, ambigüedad y subjetividad asociadas con las percepciones y decisiones humanas. Esto puede llevar a una comprensión limitada de cómo los diferentes grupos de interés reaccionan ante un retiro de producto y cómo esta percepción influye en la magnitud del impacto en la empresa y la confianza del consumidor. Por lo tanto, el problema principal que se abordará en esta investigación es: ¿Cómo mejorar el análisis del product recall para comprender de manera más precisa y completa las percepciones y decisiones de los consumidores, la industria y otros actores clave, utilizando mapas cognitivos difusos como una herramienta para representar la incertidumbre y la subjetividad asociada a estas situaciones?



METODOLOGÍA

La metodología utilizada para analizar las variables de control de calidad del proceso mediante mapas cognitivos consta de cinco etapas (Fig. 2). En la primera etapa, se definen las variables del modelo, considerando las variables de proceso y variables de salida frecuentemente monitorizadas por un programa estadístico de control de calidad. En la segunda etapa, se recogen datos sobre el comportamiento de las variables del proceso y se lleva a cabo un análisis de correlación para determinar la relación causal. La matriz de correlación obtenida se convierte en las matrices de adyacencia como entradas del modelo.  En el tercer paso, se elabora el mapa cognitivo difuso de los datos recolectados en el análisis de la retirada del producto del mercado en partes diversas de motocicletas. Las variables del modelo se agrupan en un mapa y se vinculan mediante arcos con los valores de la matriz de adyacencia. En el cuarto paso, se evalúa el comportamiento dinámico real del modelo se evalúa realizando el proceso de inferencia, aplicando (1) y (2). Por último, en el quinto paso, se realiza el análisis de convergencia de FCM, clasificando las variables de proceso que afectan a la variable de respuesta según el valor final de sus vectores  


CONCLUSIONES

Para la aplicación del modelo se realizó el análisis con una base de datos obtenida en dos años y medio (29 meses) de trabajo en una empresa ensambladora de motocicletas por fallas en el ensamblaje de piezas. Las variables de proceso son el costo unitario total del carenaje (C1), el costo unitario total del chasis (C2), el costo unitario total de frenos (C3), el costo unitario total de guayas (C4), el costo unitario total del motor (C5), el costo unitario total de piezas generales (C6), el costo unitario total de las ruedas (C7), el costo unitario total del sistema eléctrico (C8) y el costo unitario total de la suspensión (C9). La variable de salida corresponde al costo total (Y). Todas las variables de proceso y la característica de calidad se miden en USD. Al retirar productos defectuosos de manera oportuna y precisa, se puede reducir el impacto negativo en los consumidores. Esto incluye posibles riesgos para la salud, insatisfacción del cliente y daño a la reputación de la marca. La utilización de mapas cognitivos difusos ayuda a identificar rápidamente los productos afectados y tomar medidas correctivas, no obstante, los mapas cognitivos difusos permiten asignar de manera eficiente los recursos disponibles para la retirada de productos defectuosos. Al comprender mejor los riesgos y la magnitud de los problemas, se puede planificar y ejecutar la retirada de manera más efectiva, minimizando costos y maximizando los resultados. La utilización de mapas cognitivos difusos en el proceso de retirada de productos defectuosos puede ofrecer beneficios significativos. Estos mapas permiten analizar y representar de manera más completa y comprensible la información subjetiva y difusa involucrada en la decisión de retirada. Así, se facilita la identificación de las áreas críticas, priorización de acciones y estimación de riesgos de una manera más efectiva, lo que contribuye a una gestión más eficiente y segura del proceso de retirada del producto defectuoso. Sin embargo, es importante destacar que el éxito de este enfoque dependerá en gran medida de la calidad de los datos y la experiencia en la construcción y el mismo análisis de los mapas cognitivos difusos aplicando correctamente la metodología. .  
Soto González Diego Armando, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. José Alexander Godoy Bautista, Colegio Integrado Nacional Oriente de Caldas

EVALUACIÓN DEL ESTADO DE LA ESTRUCTURA DEL COMPONENTE ARBÓREO DE UN RELICTO DE BOSQUE DE ALTA MONTAÑA “CUCHILLA EL TRIUNFO”, PENSILVANIA CALDAS.


EVALUACIÓN DEL ESTADO DE LA ESTRUCTURA DEL COMPONENTE ARBÓREO DE UN RELICTO DE BOSQUE DE ALTA MONTAÑA “CUCHILLA EL TRIUNFO”, PENSILVANIA CALDAS.

Soto González Diego Armando, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. José Alexander Godoy Bautista, Colegio Integrado Nacional Oriente de Caldas



PLANTEAMIENTO DEL PROBLEMA

La importancia de los bosques de niebla radica en que son reservorios de biodiversidad y fundamentales en la provisión de servicios ecosistémicos principalmente vinculados al agua, a la regulación climática regional y a la captura y almacenamiento de carbono.  Los procesos de reconversión del uso del suelo, se convierte en una amenaza en bosques en la cabecera del municipio de Pensilvania ya que esta situación atenta diversidad ecosistémica de las áreas de amortiguación de los corredores de conectividad del cinturón montañoso que conduce a la selva de Florencia en el oriente del departamento de Caldas, Colombia, porque propicia procesos de pérdida de vegetación y con ello la erosión genética de importantes grupos biológicos de fauna y flora.



METODOLOGÍA

En el presente estudio se utilizó unidades de muestreo estándar según (Melo Cruz & Vargas Ríos, 2003) que fue descrita por Brun 1976 citada por Lamprecht (1990) propuso un método de muestreo para la evaluación de la estructura del bosque y sus procesos dinámicos el cual se dispone de tres compartimentos distintos: Compartimento A: se realiza un cuadrante de 50*50 metros, se establece a partir de un levantamiento planimétrico con brújula y cinta métrica en los cuales se tiene que realizar el registro de todos los individuos con un diámetro mayor e iguales a 10 cm de DAP (fustales) dividido en cuatro cuadrantes, para un mayor orden. Compartimento B: A partir del centro del compartimiento A, se realiza una parcela circular de 15 m de radio (707 m2), en esta se debe de registrar todos los individuos mayores a 1.3 m de altura y con radios menores a 10 cm de DAP (brinzales). Compartimento C: se constituye un conjunto de 12 parcelas cuadradas de 2 m de lado (4 m2), la cual se dispone dentro del compartimento B y siguiendo las diagonales de la parcela principal. La separación entre las parcelas es de tres metros y en dicha parcela se debe de registrar todos los individuos de especies leñosas, con alturas de 0.3m de altura hasta el 1.3m de altura.


CONCLUSIONES

Las parcelas permanentes ubicadas en la cuchilla del triunfo demuestran un ecosistema vulnerable, registrando un total de 188 individuos distribuidos en 58 especies que abundan dentro del sistema de muestreo, sin embargo, una gran parte del total de la abundancia demuestra que hay solo cinco especies más representativas los cuales son: Laurel Aguacatillo (Beilschmiedia tovarensis), Laurel (Phoebes sp), Yarumo (Cecropia sp), Cabuyo (Eschweilera antioquensis) y Naranjuelo(Tapura sp), estas cinco especies ocupan un 38% del total de la  composición de los fustales, por lo cual nos indica que el bosque tiende a ser homogéneo, por lo que, el no se realizar intervenciones de manejo ordenado de las estructuras del componente arbóreo y la regeneración natural complicarían los recambios de nuevos grupos de especies y familias botánicas, esta información es soportada por  (Cruz & Ríos, 2002) ya que indica que el bosque debe de tener una condición en las clases de frecuencia de manera ascendente, lo cual se refiere a un bosque con una estructura heterogénea, sin embargo si el bosque tienen una condición de bosques descendente este hace mención a un bosque homogéneo.
Soto Herrera Miguel Angel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIóN DE LA CUENCA DEL RíO GRANDE Y COMPARACIóN DEL íNDICE DE PRECIPITACIóN DIARIA Y EL íNDICE DE HUMEDAD DEL SUELO.


CARACTERIZACIóN DE LA CUENCA DEL RíO GRANDE Y COMPARACIóN DEL íNDICE DE PRECIPITACIóN DIARIA Y EL íNDICE DE HUMEDAD DEL SUELO.

Soto Herrera Miguel Angel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Se busco en la bibliografía algo que nos pudiera proporcionar información relevante con respecto a la caracterización de la cuenca del río grande, sin embargo, la información disponible es muy poca por lo cual se espera que la realización de esta caracterización permita su futura consulta que faciliten el proceso de futuras investigaciones. Aunado a ello en los últimos años se han presentado valores extremos de precipitación los cuales han generado inundaciones, y los estudios que se han realizado se enfocan principalmente en las afectaciones que ha tenido la precipitación en la población, pero no se ha estudiado el porque ocurre, por lo cual los índices junto con la ayuda de las características geomorfológicas de las cuencas nos permitirán conocer el porque ocurren de esta manera los escurrimientos que generan las inundaciones.



METODOLOGÍA

Se realizo la caracterización de la cuenca del río grande, de la cual se obtuvo un área de 1392.92 km2, un perímetro de 232.37 km y la longitud del cauce principal de 79.71 km. Se realizaron mapas de uso y tipo de suelo, en el caso del mapa de uso de suelo se observó que la vegetación y el bosque son los principales usos que tiene, mientras que el mapa de tipo de suelo nos indicó que se cuenta con acrisoles principalmente, los cuales nos indican que no se permite la infiltración del agua y por lo tanto genera escurrimiento y esto a su vez produce que ocurran las inundaciones. Las principales características geomorfológicas de la cuenca nos indican que se trata de una cuenca alargada la cual produce que el tiempo de concentración sea lento, y se confirma con la pendiente media la cual resulto de 1.12% que es otro valor que nos indica que la cuenca tiene un tiempo de respuesta lento. Se realizo la gestión, selección y validación de estaciones climatológicas, las cuales se obtuvieron para el periodo de años de 1960 al 2017, esto con la finalidad de obtener la precipitación en la cuenca. Con el método de Tornthwaite se obtuvo la evapotranspiración potencial de cada estación y por medio de interpolación se obtuvieron los valores para la cuenca, y con los valores de precipitación y evapotranspiración potencial se obtuvo el índice de humedad del suelo. Con el índice de precipitaciones diarias obtenemos la torrencialidad de las cuencas.


CONCLUSIONES

Los valores de ambos índices indicaron que se tiene una cuenca con alta torrencialidad, lo que genera los eventos extremos causantes de las inundaciones. Durante la estancia de verano se logró adquirir conocimientos teóricos de la importancia de la caracterización de cuencas y el como afectan para que se presenten los eventos extremos causantes de las inundaciones.
Soto Higuera Flor Margarita, Instituto Tecnológico Superior de Cajeme
Asesor: Dra. Gloria Irene Téllez Rodríguez, Universidad Politécnica de Sinaloa

DISEñO DE INTERFAZ PARA APRENDIZAJE DE LENGUAJE DE SEñAS PARA LA UNIVERSIDAD POLITéCNICA DE SINALOA


DISEñO DE INTERFAZ PARA APRENDIZAJE DE LENGUAJE DE SEñAS PARA LA UNIVERSIDAD POLITéCNICA DE SINALOA

Soto Higuera Flor Margarita, Instituto Tecnológico Superior de Cajeme. Valenzuela Fraijo Ivette, Instituto Tecnológico Superior de Cajeme. Asesor: Dra. Gloria Irene Téllez Rodríguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Según datos del Instituto Nacional de Estadística y Geografía (INEGI, Censo 2020), el 20.8% de la población total de México padece sordera o tiene una discapacidad auditiva, lo que resalta la importancia del señas como una forma esencial de comunicación. El aprendizaje y uso del lenguaje de señas tiene un impacto significativo en la calidad de vida de las personas con discapacidad auditiva, ya que les permite una mejor integración social, una comunicación efectiva y el acceso a información vital para su desarrollo personal y profesional. No obstante, enseñar el lenguaje de señas a adultos en México presenta desafíos particulares, debido a la falta de recursos educativos especializados y el acceso limitado a cursos presenciales. Por fin, se hace evidente la necesidad de desarrollar una solución innovadora, como un software educativo, que permita a los adultos mexicanos aprender de manera efectiva el lenguaje de señas. Esta herramienta tiene el potencial de mejorar la accesibilidad para las personas sordas, fomentando una sociedad más inclusiva y brindando mayores oportunidades para una participación plena en la comunidad.  



METODOLOGÍA

La metodología empleada en el proyecto fue la metodología cualitativa, como estrategia de investigación nos permitió obtener una comprensión contextualizada de la problemática en un enfoque en particular en nuestra región. Se realizó una investigación mediante artículos científicos de la región de México y Latinoamérica para tener una visión clara de la problemática del lenguaje de señas mexicano. Lo cual nos permitió identificar las principales dificultades y necesidades para diseñar una página web que pudiera ser de utilidad. A través técnicas de recopilación de información como encuestas y focus group, se obtuvo retroalimentación de los estudiantes de tecnologías de información, posteriormente, se analizaron los resultados obtenidos para obtener perspectivas directas y experiencias prácticas de quienes podrían ser usuarios potenciales de la página web.  Una vez recopilados los datos, se procedió a analizar la información obtenida e identificar los patrones y aspectos que proporcionaron una visión más clara de las necesidades y expectativas de los estudiantes con relación al interés del lenguaje de señas y su empleo en la página web. Una vez realizadas las mejoras en la página web, se realizó de nuevo la fase de evaluación con las recomendaciones anteriores aplicadas y se realizaron ajustes adicionales según sus comentarios y sugerencias.  


CONCLUSIONES

El lenguaje de señas como forma esencial de comunicación para las personas con discapacidad auditiva en México. Con un 20,8% de la población afectada, es evidente la necesidad de soluciones educativas e inclusivas. La metodología cualitativa utilizada en el proyecto permitió identificar las necesidades y expectativas de los usuarios. La creación de una página web educativa busca mejorar la accesibilidad e impulsar la inclusión social, brindando oportunidades para el desarrollo personal y profesional.
Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Soto Palafox Sara Isabel, Instituto Tecnológico de Hermosillo
Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional

ROBóTICA EDUCATIVA


ROBóTICA EDUCATIVA

González Morán Yoatzin, Instituto Tecnológico de Chilpancingo. Soto Palafox Sara Isabel, Instituto Tecnológico de Hermosillo. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se realiza una investigación del estado del arte de la robótica educativa en Latinoamérica. El objetivo principal es proporcionar una visión actualizada de esta área, su impacto en la educación y en el aprendizaje del STEAM (Ciencia, Tecnología, Ingeniería, Arte y Matemáticas), y las plataformas utilizadas por los educadores. Con la creciente implementación de la robótica educativa en escuelas de nivel básico (primaria y secundaria), se han descubierto beneficios significativos, como el desarrollo de nuevas técnicas de aprendizaje interdisciplinario y la promoción del pensamiento lógico y computacional, la creatividad y el interés por las ciencias. Este estudio destaca la importancia de la robótica educativa como herramienta para fomentar habilidades clave en los estudiantes. Los resultados obtenidos ofrecen una visión panorámica valiosa para investigadores, docentes y profesionales interesados en el campo de la educación y la robótica. Asimismo, se imprimen en 3D robots Otto, los cuales se arman con diversos componentes electrónicos, se programan en el software Arduino y se realizan pruebas de funcionamiento, con el objetivo de aprender las bases de la robótica y adquirir las habilidades necesarias para enseñarla a niños. 



METODOLOGÍA

Pruebas de los movimientos a implementar en el Robot   Se realizaron la primera prueba de los movimientos del Robot con ayuda de un Joystick module 2pcs simulando un control remoto, haciendo interactuar LEDs realizando movimientos a la derecha, izquierda, adelante y atrás. Seguidamente se cambiaron los LEDs por Servos Motor (SG90) 1PCS los cuales serán los medios por los cuales las piernas, pies y/o brazos tengan movimientos. El Joystick realiza la función de simulación del control en la aplicación con el cual por medio de un patrón me movimientos este podrá moverse y se incluirá sonidos.  Selección del Robot a desarrollar   Se hizo uso de Otto DIY , el cual incluye una serie de prototipos de Robots para ser impresos y programables. Un robot modular de código abierto con una personalidad épica, un compañero para el aprendizaje de la tecnología y la creatividad. Cada uno de los participantes en la investigación eligió su prototipo a trabajar. Los modelos elegidos fueron el Otto Starter y la Humanoid Expansion, los cuales tiene características y funciones diferentes.  Impresión en 3D del Robot  Se le entregaron cada uno de los archivos STL que conforman las piezas del robot al encargado del laboratorio de impresión 3D de la Unidad Profesional Interdisciplinaria de Ingeniería Campus Hidalgo (UPIIH) para que realizara la impresión 3D de los robots utilizados. Una vez impresas, se retiraron los soportes y el sobrante de cada una de las piezas para obtener un acabado correcto.  Armado del robot   Para el modelo Otto Starter se utilizaron 4 servomotores, un sensor ultrasónico, un Arduino Nano con la Shield Expansion, un buzzer activo, una batería de 9V, un módulo bluetooth HC-06 y cables de conexión; mientras que para el modelo Humanoid Expansion se añadieron dos servomotores más y una matriz LED 8x8. Para el armado de ambos modelos se siguieron guías de instrucciones para cada respectivo modelo. Esta etapa se dificultó debido a que los servomotores contenían manecillas desiguales, unas grandes y otras finas, las cuales no encajaban en las piezas o quedaban sueltas. Sin embargo, se resolvió haciendo cambio del tipo de manecilla o cortándolas para que estas encajaran en los brazos y piernas. Cada componente se conectó al Arduino Nano dentro de la pieza que compone la cabeza, los servomotores conectados a las entradas digitales. Para el modelo Humanoid Expansion se colocó la matriz LED en la parte del pecho.   Programación del robot y diseño de app controladora  Se programó el robot en el IDE de Arduino para que realizara movimientos laterales, hacia adelante y hacia atrás, bailes, sonidos, mostrar mensajes en la pantalla LED, detenerse al detectar la proximidad de algún obstáculo, entre otras funciones. También se hicieron pruebas en la app de Otto Blockly, en donde se hace uso de la programación a bloques, lo cual facilita la enseñanza a niños o principiantes en la programación.  Se realizo una aplicación en App Inventor con botones los cuales ayudan al control de los movimientos de Robot, se incluyó un botón para la conexión de bluetooth y otro más para detener la interacción del Robot el cual es STOP esta aplicación se conecta por medio del Modulo bluetooth. 


CONCLUSIONES

Durante la estancia del verano de investigación se adquirieron conocimientos y habilidades afines a la robótica educativa, tales como: la mecánica para el armado del robot Otto; la programación con el uso de Arduino y Otto Blockly, para programar desde cero los movimientos del robot o los movimientos predeterminados, respectivamente; el diseño y programación de la app controladora del robot a través de App Inventor; además de estrategias de análisis e investigación. Este conjunto de aptitudes es de ayuda para entender el funcionamiento e importancia de cada una de las partes que conforman el proyecto, ayudando así a cumplir con los objetivos de poder transmitir conocimiento a niños. 
Soto Trapero Ana Sofia, Universidad Autónoma de Sinaloa
Asesor: Dr. Miguel Antonio Cruz Carrillo, Universidad Autónoma de Sinaloa

EVALUACIóN DEL REFORZAMIENTO DE MORTEROS Y PASTAS DE CEMENTO TIPO I, CON COMPONENTES CEMENTANTES SUPLEMENTARIOS, POLIMéRICOS Y OXIDO DE GRAFENO


EVALUACIóN DEL REFORZAMIENTO DE MORTEROS Y PASTAS DE CEMENTO TIPO I, CON COMPONENTES CEMENTANTES SUPLEMENTARIOS, POLIMéRICOS Y OXIDO DE GRAFENO

Gastelum Araujo Heidy, Universidad Autónoma de Sinaloa. Soto Trapero Ana Sofia, Universidad Autónoma de Sinaloa. Asesor: Dr. Miguel Antonio Cruz Carrillo, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En este proyecto evaluamos materiales de construcción, tales como pastas y morteros, atendiendo las necesidades del área, de obtener materiales sostenibles, resistentes y duraderos. Tanto en morteros como en pastas de cemento tipo I, logramos incrementar la resistencia a la compresión de cubos de 2”, al incorporar pequeñas proporciones de componentes cementantes suplementarios, tales como: metacaolin (MK), humo de sílice (HS) y ceniza volante (CV). Al mismo tiempo evaluamos sistemas preliminares, donde no agregamos CV. Por otro lado, en todos sistemas evaluamos el efecto de adicionar bajas proporciones de óxido de grafeno (OG) y copolímero comercial al 0.1% (CC 0.1%), debido a que en nuestro grupo de trabajo hemos encontrado que dichos componentes funcionan para reforzar la microestructura y con ello la resistencia de pastas y morteros. Este proyecto de investigación realizó aportes al proyecto “Obtención de concretos resistentes y sostenibles utilizando aditivos orgánicos”. PRO_A8_056, de la Universidad Autónoma de Sinaloa.



METODOLOGÍA

Se prepararon muestras control (solo cemento tipo I) y sistemas donde se agregaron componentes cementantes suplementarios tales como MK, HS y CV al 1 y 2 %, en morteros y pastas de cemento tipo I. Este proyecto se desarrolló en las siguientes fases: 1) Fase principal, usando ceniza volante (CV), metacaolin (MK) y humo de silice (HS), en sistemas al 1 y 2% : con solo agua, con solución de copolímero comercial al 0.1% y con OG, por separado. 1) Fase preliminar, sin CV, con metacaolin (MK), humo de silice (HS) en sistemas al 1 y 2%: con solo agua, con solución de copolímero comercial al 0.1% y con OG al 0.02%, por separado. Las muestras se elaboraron en base a la norma NMX-C-085-ONNCCE-2015, donde una vez preparadas, se pasaron a moldes de 2” o 50 mm, se vibró y compactó utilizando un pison, a las 24h los cubos se llevaron a curado a 7, 14 y 28 días, realizamos este procedimiento siguiendo las norma ASTM C-109. Luego de obtenerse las muestras se evaluó la resistencia a la compresión tanto de pasta como de mortero a través del tiempo de madurez de los especímenes a 7, 14 y 28 días de curado.


CONCLUSIONES

- En cuanto a la adición de MK, HS y CV a pastas de cemento tipo I, en bajas proporciones Observamos que con el 1%, aumentó la resistencia a la compresión desde los 7 días, sin embargo 14 aumenta un poco y se mantiene estable hasta los 28 días con un leve incremento, los resultados indican que utilizar el 1% es suficiente, además al utilizar el CC al 0.1%, logramos un leve incremento, esto se puede explicar, debido a que el copolímero funciona mejor con proporciones pequeñas. - Del estudio preliminar agregando OG a los sistemas MK, HS, y CV, en la proporción al 1% no se obtuvo un incremento, en contraste para la proporción al 2%, obtuvimos un incremento del 25% a los 28 días, esto puede atribuirse debido a que el óxido de grafeno ayudo en la estructuración los materiales cementantes suplementarios (MK, HS, CV). - Del estudio preliminar donde realizamos mezclas sin usar ceniza, obtuvimos los mejores resultados, con un incremento del 78%, probablemente porque la ceniza reacciona lentamente y no logro incorporarse en los sistemas que la incluyen. - Seguiremos analizando las propiedades físicas, químicas y microestructurales de los materiales debido a la relevancia de los resultados obtenidos.
Sotomayor Salazar Ximena, Universidad de Sonora
Asesor: Dr. Hugo Alberto Rojas Hernández, Instituto Tecnológico de Cuautla

OPTIMIZACIóN DE LOS PARáMETROS DEL PROCESO EN LA SOLDADURA TIG PARA MEJORAR LAS PROPIEDADES MECáNICAS DE LA ALEACIóN AL 6061-T6


OPTIMIZACIóN DE LOS PARáMETROS DEL PROCESO EN LA SOLDADURA TIG PARA MEJORAR LAS PROPIEDADES MECáNICAS DE LA ALEACIóN AL 6061-T6

Sotomayor Salazar Ximena, Universidad de Sonora. Asesor: Dr. Hugo Alberto Rojas Hernández, Instituto Tecnológico de Cuautla



PLANTEAMIENTO DEL PROBLEMA

Se sabe que todo material tiene su tiempo de vida y llega un punto en el que este se vuelve obsoleto, o simplemente se presentan imperfectos en las soldaduras con el constante uso y el paso del tiempo, por ello es necesario conocer y optimizar las variables del proceso, algunas de estas lo son la corriente, el voltaje, la velocidad de soldadura, los gases inertes o bien gases protectores, el caudal de estos mismos, el equipo, los productos y materiales de trabajo que se toman en cuenta al momento de realizar una soldadura TIG, buscando mejorar las propiedades mecánicas (dureza, resistencia, ductilidad, fatiga, soldabilidad) que se deben tomar en cuenta al momento de realizar la soldadura. En el presente proyecto se trabaja con una aleación de aluminio Al-6061 T6 (Al-Mg-Si) debido a sus características y a su gran uso en las industrias desde las automotrices, aeronáuticas, nucleares y alimenticias, hasta un simple utensilio de cocina. Gracias a esta investigación se pueden evitar fallas inesperadas en soldaduras de Al-6061 T6, lo que implica ahorros de perdidas tanto económicas, como humanas, este último suceso es ocasional.



METODOLOGÍA

La placa de aleación de aluminio Al 6061-T6 con medidas 30 cm x 7.6 cm x 0.6 cm se preparo con una limpieza, por medio de lijas desde la 220 hasta la 2000, esta misma se divide en 5 partes desiguales conforme las necesidades de caracterización microestructural y mecánica, estas se dividieron en microscopia óptica, microscopia electrónica de barrido, Microdureza Vickers, ensayo de tensión y ensayo de fatiga. Para todos los casos estas pruebas tienen que ser realizadas antes y después de soldar las placas. En el caso de la Microscopia óptica, Microscopia electrónica de barrido y la Microdureza Vickers se cortan cubos de 1.5 cm x 1.5 cm, estos mismos se lijan y pulen hasta obtener un acabado espejo en el caso de las dos microscopias se revela con una solución química conocida como reactivo Keller, para poder conocer su microestructura gracias a la microscopia óptica, la microscopia electrónica de barrido nos permite conocer su composición química, en el caso de la micro dureza Vickers la cual nos revela que tan resistente es el material a la penetración respecto a las diferentes fuerzas aplicadas antes de ser soldada y después de aplicar un proceso de fusión en la muestra.   Con respecto al ensayo de tensión y de fatiga se realizaron probetas, 3 para el caso de tensión y 6 para el ensayo de fatiga, las de tensión se basaron en la norma ASTM E8, con las cuales se obtiene la resistencia y si el material es dúctil o frágil según su desempeño en la prueba; en el ultimo caso de los ensayos de fatiga rotativa nos permite conocer las propiedades de resistencia por medio de flexiones.


CONCLUSIONES

En este proyecto de investigación se adquirieron las bases y conocimientos para desarrollar un trabajo de investigación, una tesis, o un informe técnico, de manera concreta, sensata, clara y precisa, adquiriendo los puntos básicos para desarrollar cada parte del trabajo. En la práctica se comprendió y analizo los pasos correctos a seguir para utilizar de manera correcta los equipos y materiales con los que se estuvo en contacto. No se obtuvieron resultados completos de las practicas debido al corto tiempo de estancia, pero lo poco que se logro fue muy gratificante.   
Suarez Gonzalez Angelica Lizeth, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Lucas Fernando Quintana Fuentes Quintana Fuentes, Universidad Nacional Abierta y a Distancia

ANáLISIS SENSORIAL DE LICOR DE CACAO MEDIANTE LA CAPACITACIóN DE UN PANEL DE JUECES


ANáLISIS SENSORIAL DE LICOR DE CACAO MEDIANTE LA CAPACITACIóN DE UN PANEL DE JUECES

Cruz Alcántara Sthefanie Rubí, Tecnológico de Estudios Superiores de San Felipe del Progreso. Suarez Gonzalez Angelica Lizeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Lucas Fernando Quintana Fuentes Quintana Fuentes, Universidad Nacional Abierta y a Distancia



PLANTEAMIENTO DEL PROBLEMA

La evaluación sensorial se ha definido como una disciplina científica utilizada para medir, analizar e interpretar respuestas a los productos percibidos a través de los sentidos ( vista, olfato,  tacto y  gusto), comprende un conjunto de técnicas para una medición precisa de las respuestas humanas a los alimentos y minimiza los efectos potencialmente sesgados de la identidad de marca y cualquier otra información que pueda tener influencia en percepción del consumidor. Existen diversos tipos de pruebas sensoriales que estudian el gusto y preferencia de los consumidores hacia los alimentos o bebidas, así mismo se obtiene información objetiva ya que existen metodologías que controlan una serie de variables para llevar a cabo las evaluaciones y se capturan en un cuestionario los resultados para realizar análisis estadísticos de los mismos. Para realizar la formación de un grupo de panelistas de evaluación sensorial se deben considerar las varias etapas como reclutamiento, selección y entrenamiento de jueces, además de un proceso de validación del panel, se basa en proporcionar los principios elementales de las técnicas utilizadas en el análisis sensorial y desarrollar su aptitud para detectar, reconocer y describir los estímulos sensoriales que se presentan en el licor de cacao.



METODOLOGÍA

La evaluación sensorial es de vital relevancia para el desarrollo de la industria de los alimentos y en el caso del cacao debe asumirse con rigor científico. Después de la percepción sensorial, el evaluador y el consumidor dan su concepto consciente de aquello que perciben en una materia prima, producto en fase de proceso o producto terminado, para luego conceptuar sobre la calidad de los atributos de acuerdo con su intensidad y calidad. Si la sensación percibida es buena, el producto será aceptado, o si por el contrario, la sensación es mala, será rechazado (Chambers, 2019). Se realiza una evaluación sensorial referente a licor o pasta de cacao, se realiza con la presentación de las muestras a un panel capacitado en la evaluación específica de este producto, que es la materia prima para la industria del chocolate y la bombonería.  Para que un panel evalúe el licor de cacao se requiere entrenamiento específico en sabores básicos del cacao como son: el sabor a cacao, la astringencia, la acidez y el amargo. También, en sabores específicos de cacaos finos de sabor y aromas como son: la nuez, el afrutado, el floral y el cítrico. Y adquiridos como: crudo, verde, ahumado, mohoso, terroso, entre otros. Esto con ayuda de bibliografía previamente revisada, se tomó en cuenta la metodología utilizada en una evaluación de licor de cacao de Colombia, para ser aplicado en México, cumpliendo con normas que se correlacionen. Primeramente, el entrenamiento de los jueces se basa en conocimientos que son propuestos por los moduladores de la evaluación sensorial, logran diferenciar entre los sentidos y sabores. Evalúan los atributos referentes a el licor/pasta de cacao; la calidad del atributo hace referencia a la relación entre rasgos de interés de un producto y cuya presencia en un momento dado le son favorables o desfavorables. Se seleccionaron 15 evaluadores previamente capacitados en el tema, y se les aplicó la evaluación sensorial, una prueba hedónica de 5 puntos, donde registran sus datos, así como respuestas. Para esta evaluación sensorial se aplicó la normatividad mexicana Se recolectaron los datos, dentro de una base de datos que permite identificar de manera más precisa, además de un análisis de resultados obtenidos. 


CONCLUSIONES

Los resultados obtenidos dentro de la evaluación sensorial plantearon significancia dentro de esta diferencia, en México y en el Tecnológico de Estudios Superiores de San Felipe del Progreso donde se llevó a cabo este análisis, el licor/pasta de cacao presentada al panel de jueces en promedio presentó una apariencia general de 3.8, indica dentro de la escala un buen nivel de aceptación. En las características sensitivas presentó resultados de color 4.4, olor 4.6 y sabor 2.6, con esto a simple vista podemos notar que al en México no ser un producto tan consumido, costo trabajo que se lograran distinguir entre los sabores generales y específicos relacionados a cacao. La estancia del programa nos permitió adquirir nuevos conocimientos teóricos sobre el cacao y su procesamiento, así como también reconocer las normas que se involucran dentro de este tipo de cultivo y cómo se diferencia el cacao de México con el de Colombia obteniendo diferentes resultados y normas para su cultivación. Se realizó la capacitación de un panel de jueces la cual nos permitió tener un mejor control al momento de realizar la evaluación ya que comprendieron los temas, la clasificación, los métodos de prueba, tipos de evaluadores y los diversos sabores, lo cual nos permitió hacer más eficaz evaluar el licor o pasta para obtener mejores resultados. Si bien es cierto tener en cuenta las normas aplicables para cada país permiten establecer un criterio más adecuado al momento de realizar e impartir incluso una evaluación sensorial, conocer cómo se diferencias los sentidos, los sabores que el propio producto nos permite conocer, al igual incorporar las sensaciones, teniendo en cuenta a un panel que debe conocer el producto, así como saber los aspectos de calidad que este puede definir para obtener resultados más favorables. La comparación que se realizó entre México y Colombia permite observar que se necesita más conocimiento y normas que se puedan establecer entre México sobre un producto que debería tener mayor relevancia.  
Suárez Rojas Santiago, Universidad Autónoma Latinoamericana
Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ANáLISIS DEL ESFUERZO AUTOMOTRIZ MEDIANTE DATOS OBD2 CON TéCNICAS DE INTELIGENCIA ARTIFICIAL


ANáLISIS DEL ESFUERZO AUTOMOTRIZ MEDIANTE DATOS OBD2 CON TéCNICAS DE INTELIGENCIA ARTIFICIAL

Alcaraz Londoño Luisa María, Universidad Autónoma Latinoamericana. Delgado Garcia Elvia Guadalupe, Instituto Tecnológico Superior de Xalapa. Suárez Rojas Santiago, Universidad Autónoma Latinoamericana. Asesor: Dr. Alejandro Medina Santiago, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el principal transporte para el ser humano es el automóvil, por muchas razones, por ejemplo, según el barómetro de seguridad Vial y Movilidad 2022 de Michelin, más del 50 porciento de la población utiliza un vehiculo para trasladarse, muchas personas se sienten con mayor confianza al tener su propio auto, aumentando la comodidad, seguridad y la capacidad de carga que pudieran tener. Asi mismo, tomando datos del INEGI, los vehículos registrados en circulación en el 2019 fueron, 49,869,688 a nivel nacional y para el 2020 fueron, 53,115,396 autos, aumentando considerablemente. Sin embargo, uno de los pricipales problemas por la alta demanda de carros, es el trafico, la vihabilidad en malas condiciones, y en especial el mantenimiento del mismo, el cual debe estar en optimas condiciones para evitar daños en su infraestructura. Dicho esto, una de las innovaciones para el sistema automotriz ha sido la incorporación de los sitemas OBD2 (On Board Diagnostic - Second Generation) el cual su objetivo principal es detectar las fallas en el sistema de inyección y contrarrestar las emisiones que se provocan en la combustión. En la búsqueda continua por mejorar la experiencia de conducción y garantizar la seguridad vial, la incorporación de tecnologías inteligentes se ha vuelto indispensable. En este contexto, los sistemas OBD2 han demostrado ser una de las innovaciones más significativas en el mundo automotriz. Sin embargo, ¿y si pudiéramos llevar esta tecnología un paso más allá? ¿Y si pudiéramos utilizar los datos recopilados por el OBD2 para medir el estrés del automóvil mientras se desplaza por las calles y carreteras?  



METODOLOGÍA

Se estableció el diseño del estudio como un enfoque experimental utilizando datos recopilados de un OBD2 instalado en un automóvil en movimiento. Asi mismo, al tener una base de datos muy extensa, en la cual se recabaron 43 trayectorias, las cuales representan 21 días, se manejarón entre 3,000 a 5,000 datos por trayecto, por lo cual este preprocesamiento incluyó la normalización de los datos y la eliminación de valores atípicos o registros incompletos que pudieran afectar la precisión de la red.  El nivel de estrés se podrá calcular con el algoritmo que se empleara en MATLAB, esté será entrenado con diferentes metodos, esto con el fin, de minimizar el grado de error, en sus resultados y comparar las salidas posibles con cada método. Ahora bien, es necesario una función de activación para la neurona, la cual se calcula el estado de actividad de una neurona; transformando la entrada global (menos el umbral) en un valor (estado) de activación, cuyo rango normalmente va de (0 a 1) o de (-1 a 1). Esto es así, porque una neurona puede estar totalmente inactiva (0 o -1) o activa (1). Despúes se pasa a definir la función de entrenamiento, hay que recordar que en total fueron catorce tipos diferentes que se establecieron, por lo cual, se intentó realizar un algoritmo general y que lo unico que variará fuera la indicación del entrenamiento, en este caso, se inicio por el modo CGF, gradiente conjugado de Fletcher - Powell y se termino en el modo GDA, gradiente descendiente con aprendizaje adaptativo, los tiempos de entrenamiento fueron:    Los modelos de entrenamiento de gradiente descendente y secante de un paso, tuvieron un tiempo estimado de aprendizaje al rededor de 40 minutos por cada uno, dando un total de 2.6 horas. Los modelos de entrenamiento de gradiente conjugado, retropropagación resiliente y BFGS quasi - Newton, tuvieron un estimado de 30 minutos por cada uno, dando un total de 3 horas. Los modelos de entrenamiento Levenberg - Marquardt y Regularización Bayesiana, tuvieron un tiempo estimado de aprendizaje al rededor de 15 minutos por cada uno, dando un total de 30 minutos. Con esto se estima que el promedio de tiempo que tomó entrenarlo con los diferentes métodos y demás, fue de 5 horas con 36 minutos. Por ejemplo con el entrenamiento gradiente descendiente con aprendizaje adaptativo (Figura 8), el mejor rendimiento de entrenamiento fue en la epoca 48,750 de 50,000 a ejecutar, con un error de 0.061913, manteniendo su promedio de error de -1 a 0. En total se obtuvo que la mayoria de los días fueron con estrés MODERADO, teniendo solo 7 días con estrés LIGERO y 3 días con estrés NULO.    


CONCLUSIONES

Con base en los resultados obtenidos en esta investigación, se ha logrado demostrar que es posible medir el nivel de estrés de un automóvil mediante el análisis de datos recopilados a través de un OBD2 instalado en el vehículo. A través del diseño y entrenamiento de una red neuronal utilizando diferentes métodos de optimización, se ha desarrollado un algoritmo que puede determinar con precisión el nivel de estrés del automóvil durante una ruta específica. La arquitectura de la red neuronal utilizada, con sus funciones de activación intercaladas y una función de activación final "purelin", ha demostrado ser eficaz para clasificar y normalizar los datos de entrada. Los entrenamientos realizados han permitido evaluar diferentes técnicas y métodos de optimización, identificando que la Regularización Bayesiana se presenta como el entrenamiento más efectivo, tanto en términos de tiempo de ejecución como de precisión en sus resultados. Estos resultados tienen implicaciones significativas en diversas áreas, como la industria automotriz y la seguridad vial. La implementación de este algoritmo podría ser utilizada para monitorear vehículos en tiempo real y brindar diagnósticos precisos durante el mantenimiento o en situaciones de garantía. Además, el sistema podría ser aplicado para detectar comportamientos peligrosos o conducción bajo influencia de alcohol, lo que contribuiría a reducir accidentes de tráfico y mejorar la seguridad vial.
Suárez Sánchez Alex Antonio, Instituto Tecnológico de Toluca
Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez

AJUSTE DE UN MODELO DE áRBOL DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LAS PRUEBAS SABER T&T


AJUSTE DE UN MODELO DE áRBOL DE DECISIóN PARA LA PREDICCIóN DEL RENDIMIENTO EN LAS PRUEBAS SABER T&T

Carriazo Julio Geraldin Paola, Universidad Tecnológica De Bolívar. Correa Rios Angely Juliana, Universidad Autónoma Latinoamericana. Jaimes Hernández Erik Rubén, Instituto Tecnológico de Toluca. Suárez Sánchez Alex Antonio, Instituto Tecnológico de Toluca. Asesor: Mg. Jairo Acosta Acosta-solano, Corporación Universitaria Rafael Núñez



PLANTEAMIENTO DEL PROBLEMA

El proyecto tiene como objetivo ajustar un modelo de árbol de decisión para predecir el rendimiento de los estudiantes en las pruebas Saber T&T en Colombia. Estas pruebas son fundamentales para medir el nivel de conocimientos y habilidades de los alumnos, y el resultado puede tener un impacto significativo en su trayectoria educativa y futuras oportunidades. La predicción precisa del rendimiento estudiantil permitirá identificar áreas de mejora, optimizar recursos educativos y apoyar la toma de decisiones en políticas educativas.



METODOLOGÍA

La metodología CRISP-DM (Cross-Industry Standard Process for Data Mining) es un enfoque estructurado y ampliamente utilizado para la realización de proyectos de minería de datos. Fue desarrollada con el objetivo de guiar a los profesionales a través de las diferentes etapas del proceso de minería de datos de manera sistemática y eficiente. A continuación, se explica brevemente cada una de las fases de CRISP-DM, con apoyo de la definición de Espinosa-Zuñiga (2020) FASE I – Comprensión del problema o del negocio • Identificación del problema: Consiste en entender y delimitar la problemática, así como identificar los requisitos, supuestos, restricciones y beneficios del proyecto. • Determinación de objetivos: Puntualiza las metas a lograr al proponer una solución basada en un modelo de minería de datos. • Evaluación de la situación actual: Especifica el estado actual antes de implementar la solución de minería de datos propuesta, a fin de tener un punto de comparación que permita medir el grado de éxito del proyecto. FASE II – Comprensión de los datos En esta fase, se realiza una exploración exhaustiva de los datos disponibles para el proyecto. Se busca familiarizarse con las fuentes de datos, evaluar su calidad y determinar qué variables pueden ser relevantes para los objetivos del proyecto. De manera más específica: • Recolección de datos: Consiste en obtener los datos a utilizar en el proyecto identificando las fuentes, las técnicas empleadas en su recolección, los problemas encontrados en su obtención y la forma como se resolvieron los mismos. • Descripción de datos: Identifica el tipo, formato, volumetría y significado de cada dato. • Exploración de datos: Radica en aplicar pruebas estadísticas básicas que permitan conocer las propiedades de los datos a fin de entenderlos lo mejor posible. FASE III – Preparación de los datos En esta etapa, se lleva a cabo la limpieza, transformación y selección de los datos relevantes para construir el conjunto de datos adecuado para el análisis. Se trata de un proceso fundamental para garantizar que los datos sean aptos para su uso en la fase de modelado. De forma puntual, así: • Limpieza de datos: Aplicación de diferentes técnicas, por ejemplo, normalización de datos, discretización de campos numéricos, tratamiento de valores ausentes, tratamiento de duplicados e imputación de datos. • Creación de indicadores: Genera indicadores que potencien la capacidad predictiva de los datos a partir de los datos existentes y ayuden a detectar comportamientos interesantes para modelar. • Transformación de datos: Cambia el formato o estructura de ciertos datos sin modificar su significado, a fin de aplicarles alguna técnica particular en la etapa de modelado. FASE IV – Modelado En esta fase, se aplican diferentes técnicas de minería de datos, como árboles de decisión, regresión, clasificación, entre otras, para crear modelos predictivos o descriptivos que resuelvan el problema planteado. Se evalúan y ajustan los modelos para obtener el mejor rendimiento posible, de la siguiente manera: • Selección de técnica de modelado: Elige la técnica apropiada de acuerdo con el problema a resolver, los datos disponibles, las herramientas de minería de datos disponibles, así como el dominio de la técnica elegida. • Selección de datos de prueba: En algunos tipos de modelos se requiere dividir la muestra en datos de entrenamiento y de validación. • Obtención del modelo: Genera el mejor modelo mediante un proceso iterativo de modificación de parámetros de este. FASE V – Evaluación del modelo En esta etapa, se evalúan los modelos creados en la fase anterior para determinar su precisión y efectividad. Se utilizan métricas de evaluación para medir el rendimiento de los modelos y asegurarse de que cumplen con los objetivos del proyecto, se comparan los resultados con resultados previos, o bien, analizando los resultados con apoyo de expertos en el dominio del problema. De acuerdo con los resultados de esta etapa se determina seguir con la última fase de la metodología, regresar a alguna de las etapas anteriores o incluso partir de cero con un nuevo proyecto. FASE VI – Implementación del modelo Esta etapa explota, mediante acciones concretas, el conocimiento adquirido mediante el modelo, los resultados y conclusiones obtenidos a partir de los modelos se presentan a los interesados y se integran en el flujo de trabajo operativo, para que puedan utilizarse en la toma de decisiones y obtener beneficios prácticos. CRISP-DM proporciona una guía clara y estructurada para llevar a cabo proyectos de minería de datos, permitiendo a los profesionales abordar complejos problemas de análisis de datos de manera efectiva y eficiente.


CONCLUSIONES

El proceso de modelado implicó ajustar el algoritmo de árbol de decisión y explorar otras técnicas de aprendizaje automático, evaluando su rendimiento y precisión en diferentes conjuntos de datos. Como resultado, se seleccionó el mejor modelo que demostró ser eficiente y preciso en la predicción del rendimiento estudiantil en las pruebas Saber T&T. En conclusión, este proyecto ha demostrado la utilidad y relevancia de los modelos de árbol de decisión en la predicción del rendimiento académico. Al contar con un modelo preciso y confiable, se pueden identificar tempranamente a aquellos estudiantes que necesiten apoyo adicional, lo que permitirá implementar estrategias educativas personalizadas y efectivas para mejorar el rendimiento estudiantil en Colombia. Los resultados obtenidos tienen el potencial de mejorar la calidad de la educación y contribuir al desarrollo académico y socioeconómico del país, brindando igualdad de oportunidades para todos los estudiantes y fomentando una educación inclusiva y equitativa.
Suasnavar Aguilar Maria Fernanda, Universidad Veracruzana
Asesor: Dra. Sara Núñez Correa, Universidad Veracruzana

VALORIZACION DE LA BORRA DE CAFé: GENERACIóN DE BIODIESEL


VALORIZACION DE LA BORRA DE CAFé: GENERACIóN DE BIODIESEL

Suasnavar Aguilar Maria Fernanda, Universidad Veracruzana. Asesor: Dra. Sara Núñez Correa, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

La actual alza de incrementos de precios, la escasez y el impacto ambiental de los combustibles fósiles ha llevado que se abran nuevas líneas de investigación para poder así contrarrestar el efecto invernadero que generan estos residuos, creando así estos nuevos biocombustibles que prometen ser más sustentables con el medio ambiente. Realizaremos una valorización y análisis de la borra del café que normalmente termina como un desecho e investigaremos que usos se le puede dar siendo el más importante el de la generación de biocombustible como sería el biodiesel.



METODOLOGÍA

Redacté un texto que respondía a las preguntas ¿Qué?, ¿Por qué?, ¿Para qué? Elaboré la justificacion y objetivos y una infografía que habla de la valorización de residuos Redacté el marco teórico que contenía los temas de: valorización de residuos, borra de cafe (origen, procesos, aplicaciones) y un cartel informativo hablando de la borra de café Escribí los antecedentes, que hablaron sobre la extraccion de aceites vegetales para la producción de bioenergéticos como lo son el bioetanol, biodiesel y los biocombustibles sólidos) y realicé dos mapas conceptuales hablando sobre la extracción del aceite de café a partir de la borra y sobre biocombustibles en general Redacté un libro de resumenes de los articulos cientificos más relevantes en mi investigación como así un resumen general de unas 300-400 palabras Realicé un poema hablando sobre la importancia de valorizar la borra como parte del seminario de "Arte y Ciencia" Preparamos una presentación final del proyecto


CONCLUSIONES

En esta estancia de verano pude adquirir conocimientos teóricos de alto valor para mi formación académica ya que pude conocer a profundidad como se produce un biocombustible, en este caso el biodiesel que proviene de los aceites vegetales y grasas animales y su diferencia con otros biocombustibles como el bioetanol, biógas, pellets y briquetas sólidas. La importancia de poder darle un segundo uso a la borra de café es fundamental ya que al contener cafeína tiene un pH ácido que puede ser perjudicial y puede favorecer la contaminación del suelo, del agua y la proliferación de microorganismos. También pude conocer que el café al ser una infusión de una masa, al final se desperdicia mucho ya que esta infusión puede representar tan solo un 9% de la masa total y lo demás resulta como desperdicio. Es necesario cambiar nuestra forma de producir industrialmente y movernos de la economía lineal a una economía circular donde los residuos pueden volver a tomar forma como insumos y poder ocupar menos materia prima del ecosistema.  
Suazo Buenas Ma del Carmen, Instituto Tecnológico de Ciudad Altamirano
Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo

ANáLISIS DE DATOS CON PYTHON PARA DETERMINAR EL PERFIL DE VíCTIMAS DE VIOLENCIA CON EL OBJETIVO DE PREVENIR EL FEMINICIDIO.


ANáLISIS DE DATOS CON PYTHON PARA DETERMINAR EL PERFIL DE VíCTIMAS DE VIOLENCIA CON EL OBJETIVO DE PREVENIR EL FEMINICIDIO.

Arévalo Hernández Mariana, Universidad de Sonora. Silva Camargo Mariana, Universidad de Sonora. Suazo Buenas Ma del Carmen, Instituto Tecnológico de Ciudad Altamirano. Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El análisis de datos y el lenguaje de programación se han convertido en herramientas fundamentales en la lucha contra la violencia de género y el feminicidio. Estas tecnologías permiten abordar el problema desde una perspectiva más informada y eficiente, identificando patrones y tendencias que ayudan a comprender mejor el perfil de las víctimas y, en última instancia, a prevenir futuros casos de feminicidio. El feminicidio, entendido como el asesinato de mujeres por razones de género, es una de las manifestaciones más extremas y preocupantes de la violencia de género. Para abordar este problema, es esencial contar con una comprensión sólida de las características comunes entre las víctimas. Aquí es donde entra en juego el análisis de datos y el lenguaje de programación.   El análisis de datos implica la recopilación, procesamiento y examen de información relevante para obtener conocimientos significativos. En el contexto de la prevención del feminicidio, esto se traduce en recabar datos sobre las víctimas, como su edad, ubicación, ocupación, estado civil, historial de violencia y otros factores relevantes.   El lenguaje de programación es una herramienta poderosa para procesar grandes cantidades de datos de manera rápida y eficiente. Con él, se pueden desarrollar algoritmos y modelos predictivos que ayuden a detectar patrones en tiempo real y a evaluar el riesgo potencial de que una mujer sea víctima de feminicidio.  



METODOLOGÍA

Preparación del entorno Se han llevado a cabo las instalaciones de los programas Anaconda, destinado para la utilización del lenguaje de programación Python, y Mysql Workbench, empleado para el manejo de datos mediante la instalación de MySQL. Recopilación y preparación de datos Se realizó un análisis en la Página de Mujer Segura, considerando las variables más específicas. Selección de campos Se consideró la base de datos; dicha información fue de gran utilidad para incrementar la certeza y precisión en nuestro análisis de datos. Modelo relacional El modelo relacional se establece con el propósito de representar la estructura y las relaciones entre los datos en una base de datos de manera lógica y coherente. Su objetivo principal es proveer una forma organizada de almacenar y gestionar datos de la violencia  para que puedan ser fácilmente accesibles y manipulados de manera eficiente y efectiva. Análisis Exploratorio de Datos Se llevó a cabo un análisis exploratorio de datos considerando una muestra de 235 mujeres. Se evaluaron variables relevantes como número de hijos, estado civil, edad, grupo étnico, entre otras. Para ello, se construyó un dataset que refleja la información obtenida de cada una de ellas respecto a las variables mencionadas. Asimismo, se realizó un proceso de limpieza de datos para eliminar valores atípicos, datos duplicados o faltantes, y se adecuaron los datos a un formato apropiado para su posterior análisis.  Creación de un Modelo Predictivo.  Utilizar algoritmos de regresión lineal para crear un modelo predictivo. Para utilizar un algoritmo de regresión lineal, es esencial que la tendencia de los datos sea lineal.  Para llevar a cabo la implementación del modelo, inicialmente se importa la librería "sklearn" con el propósito de acceder a funciones que facilitarán la aplicación del modelo.    A continuación, es necesario proceder a la división de los datos, utilizando la regla del 70/30, donde el 70% de los datos serán destinados al conjunto de entrenamiento y el 30% restante al conjunto de prueba. Los datos estaban guardados en un objeto tipo *Series* y se cambia el objeto a uno tipo *Array*. También es necesario redimensionar el arreglo, de 1 dimensión a 2 dimensiones. El modelo de regresión se inicia mediante la asignación de la función "LinearRegression()" proporcionada por la librería Sklearn. Para llevar a cabo el entrenamiento del modelo, se emplea la función "fit", a la cual se le pasan los datos de entrenamiento, tanto los valores de entrada "x" como los valores objetivo "y", como parámetros.  En la etapa de prueba o testeo, utilizaremos la función "predict", en la cual pasaremos como parámetro los datos de prueba "x". Esta función nos proporcionará las predicciones para "y", las cuales serán almacenadas en la variable "y_predict"  


CONCLUSIONES

El "Mean Squared Error" (MSE) es útil para evaluar la precisión de un modelo de regresión. Un 23% de error sugiere relación entre Edad y Estado Civil. Sin embargo, para abordar violencia de género y feminicidio, el análisis de datos y programación son herramientas, pero insuficientes. Es crucial un compromiso activo de toda la sociedad y enfoque multidisciplinario que incluya educación, justicia y salud. El análisis de datos ayuda a entender a las víctimas y factores, pero la erradicación requiere colaboración y políticas efectivas para lograr una sociedad segura e igualitaria. La transformación social precisa esfuerzo conjunto en todos los niveles. Tecnología y enfoque holístico pueden proteger los derechos de las mujeres y promover respeto, igualdad y seguridad.
Talavera Rivera Luis Fernando, Instituto Tecnológico de Querétaro
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

DESARROLLO DE MODELO PREDICTIVO APLICANDO MACHINE LEARNING PARA DETERMINACIóN DE DIAGRAMAS TTT


DESARROLLO DE MODELO PREDICTIVO APLICANDO MACHINE LEARNING PARA DETERMINACIóN DE DIAGRAMAS TTT

Talavera Rivera Luis Fernando, Instituto Tecnológico de Querétaro. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La técnica de manufactura aditiva conocida como Laser Metal Deposition (LMD) ofrece grandes ventajas en la producción de piezas metálicas complejas y personalizadas. Sin embargo para ciertas aplicaciones, como la aeronáutica o la generación de energía, uno de los principales desafíos es la determinación precisa de los tratamientos térmicos requeridos para obtener las propiedades mecánicas y metalúrgicas deseadas en las piezas fabricadas por LMD.   La simulación computacional de los diagramas de temperatura, tiempo y transformación (TTT), es una herramienta valiosa para predecir el comportamiento de los materiales bajo diferentes condiciones térmicas. Sin embargo, estas simulaciones son computacionalmente costosas y requieren un alto consumo de recursos.   Por otro lado, realizar experimentos reales para determinar los diagramas TTT es igualmente costoso y consume tiempo, lo que limita la eficiencia de la optimización de tratamientos térmicos en la técnica LMD.   Ante esta problemática, se propone desarrollar un modelo predictivo aplicando técnicas de machine learning que permita optimizar los tratamientos térmicos en piezas fabricadas por LMD. Este modelo se diseñará para reducir significativamente el número de simulaciones computacionales y experimentos necesarios para obtener los diagramas TTT.  



METODOLOGÍA

La metodología utilizada consistió en una serie de pasos para la creación del modelo predictivo, desde la recolección y análisis de datos hasta la evaluación y selección del modelo.   1. Revisión del estado del arte: Se llevó a cabo una exhaustiva revisión bibliográfica para analizar y comprender los enfoques y avances previos en el desarrollo de modelos predictivos para determinar diagramas TTT utilizando técnicas de machine learning.    2. Recopilación de datos: Se me proporcionó una base de datos que incluía datos experimentales sobre la transformación isotérmica del Inconel 718. Estos datos fueron obtenidos tanto de la literatura como de experimentación en el centro de investigación. 3. División y preprocesamiento de datos: Los datos recopilados se dividieron en conjuntos de entrenamiento, validación y prueba. Posteriormente, se aplicó la normalización a los datos para asegurar que todas las variables tuvieran la misma escala y evitar que alguna tuviera un peso desproporcionado en el entrenamiento de los modelos.   4. Entrenamiento de modelos: Se consideraron varios algoritmos de machine learning, incluyendo Random Forest, Gradient Boost, XGBoost, Multi-layer Perceptron (MLP) y FT-Transformer. Cada modelo fue entrenado utilizando los datos de entrenamiento y se realizaron ajustes en sus hiperparámetros utilizando los datos de validación para mejorar su desempeño y capacidad predictiva.   5. Evaluación y selección de modelos: Los modelos entrenados se evaluaron utilizando los datos de prueba y se calculó el coeficiente de determinación R2 para cada uno. El modelo que obtuvo el mayor valor de R2 fue seleccionado como el mejor modelo predictivo para determinar diagramas TTT del Inconel 718.  


CONCLUSIONES

Durante la estancia, adquirí conocimientos teóricos y experiencia práctica en el desarrollo y evaluación de modelos predictivos mediante técnicas de machine learning para optimizar procesos de manufactura avanzada (Manufactura Aditiva). Aunque el modelo aún está incompleto, los resultados preliminares son prometedores debido a que los diagramas TTT generados por el modelo tienen un coeficiente de determinación R2 de 0.8, el objetivo es llegar a un valor de R2 de 0.95. Queda pendiente su integración en una interfaz gráfica amigable para mejorar su accesibilidad.
Tapia Alonso Alejandro Jair, Instituto Tecnológico de Chilpancingo
Asesor: M.C. Yanet Evangelista Alcocer, Instituto Tecnológico de Chilpancingo

TRADUCTOR DE LENGUA DE SEÑAS MEXICANA UTILIZANDO PYTHON


TRADUCTOR DE LENGUA DE SEÑAS MEXICANA UTILIZANDO PYTHON

Tapia Alonso Alejandro Jair, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Yanet Evangelista Alcocer, Instituto Tecnológico de Chilpancingo



PLANTEAMIENTO DEL PROBLEMA

I. PLANTEAMIENTO DEL PROBLEMA La lengua de señas presenta dificultades para su traducción al español debido a que los movimientos manuales y corporales que hacen las personas sordas no son gestos, sino señas que conforman una gramática. Las señas utilizadas, a veces se pueden interpretar por una sola palabra, a veces por más de una y en algunos casos son muy difíciles de traducir porque son de uso coloquial para situaciones particulares. Otra dificultad de esta lengua, es su característica multimodal, toda vez que no se emplea un solo canal como la voz, sino que intervienen otros factores como las manos, el rostro y el cuerpo. Aun lado a lo anteriormente expuesto, otra más de su complejidad tiene que ver con la adición de más señas que pueden representar el mismo significado y dependiendo de la región, ciudad o país, cambia la manera de realizar la seña. II. OBJETIVO GENERAL Desarrollar un traductor para la Lengua de Señas Mexicano, utilizando Python que permita la comunicación efectiva entre personas sordas o con problemas auditivos y personas que no conocen la lengua de señas, a través de la captura de gestos y su traducción en tiempo real a texto, facilitando la inclusión y la interacción social. III. PROPUESTA DE SOLUCIÓN Para desarrollar un traductor de lengua de señas efectivo y accesible, se planea utilizar Python en combinación con la tecnología de procesamiento de imágenes. El objetivo es facilitar la comunicación entre personas sordas o con problemas auditivos y aquellas que no conocen la lengua de señas. Los principales enfoques son los siguientes: Captura de gestos. Procesamiento de datos. Traducción y presentación.



METODOLOGÍA

IV. METODOLOGÍA 1. Análisis del LMS Investigar sobre las señas que componen el Lenguaje de Señas Mexicano (LMS) y seleccionar una muestra representativa de ellas para las pruebas a considerar en la implementación del traductor. 2. Selección de herramientas a utilizar. Implementación de las siguientes librerías para el reconocimiento del rostro y de las manos con el lenguaje de programación Python: Mediapipe. Biblioteca multiplataforma desarrollada por Google que proporciona soluciones de aprendizaje automático para visión artificial. OpenCV. Biblioteca de visión por computadora para el análisis de imágenes, el procesamiento de imágenes, la detección, y reconocimiento de patrones, entre otros. 3. Desarrollo del proyecto. Se realizó la detección de las manos y rostro para la identificación de una seña, asimismo se almacenaron las imágenes correspondientes a la identificación gestual del reconocimiento y traducción, agrupándolas por categorías. Se implemento un sistema en tiempo real que capturará los gestos, los interpretará utilizando el modelo y proporcionará traducciones textuales. 4. Pruebas. Se seleccionaron 27 señas del LMS y se obtuvieron resultados satisfactorios de reconocimiento y traducción textual en tiempo real.


CONCLUSIONES

V. RESULTADOS Y CONCLUSIONES Durante la estancia del verano logré obtener conocimientos teóricos respecto al uso de herramientas de Python y librerias las cuales posteriormente pude poner en práctica con las distintas pruebas realizadas a lo largo de la estancia. Fue muy interesante y desafiante la creación de un traductor de la Lengua de Señas Mexicana, a través del procesamiento de imágenes y reconocimiento de patrones en tiempo real. Esta propuesta no solo tiene el potencial de facilitar la comunicación cotidiana para personas sordas, sino que también puede abrir nuevas oportunidades de interacción en entornos educativos, profesionales y sociales para una mejor comunicación con la sociedad con discapacidad auditiva. VI. REFERENCIAS Massone, M. I. (10 de agosto de 2012). CONICET. Obtenido de Consejo Nacional de Investigaciones Científicas y Técnicas: https://www.conicet.gov.ar/lenguas-de-senas-cada-comunidad-desarrollo-la-propia-por-necesidad/ Tlacaelel, A. (16 de junio de 2017). UNIVERSO. Obtenido de Sistema de noticias de la UV: https://www.uv.mx/prensa/general/complejidad-de-la-lengua-de-senas-dificulta-su-traduccion-automatica-arturo-tlacaelel/ venugopalkadamba. (05 de julio de 2022). Barcelona Geeks. Obtenido de https://barcelonageeks.com/deteccion-de-marcas-de-rostro-y-mano-usando-python-mediapipe-opencv/
Tapia Juárez Emily Dalay, Universidad Tecnológica Paso del Norte
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

APLICACIóN DE METODOLOGíA SIX SIGMA EN CASO DE ATENCIóN AL CLIENTE


APLICACIóN DE METODOLOGíA SIX SIGMA EN CASO DE ATENCIóN AL CLIENTE

Tapia Juárez Emily Dalay, Universidad Tecnológica Paso del Norte. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Las empresas que ofrecen un bien o servicio están dedicadas a enfocarse total y parcialmente en la atención al cliente. Son las encargadas de asegurarse en cumplir con las expectativas y requisitos propuestos por el cliente, por lo cual, es necesario para estas empresas llevar un total control sobre los servicios que se ejecutan y los bienes que se producen, para asegurarse que el trabajo se este realizando adecuadamente por parte de los trabajadores. La empresa TELESOLUCIONA tiene un sistema de atención de llamadas en donde reciben la valoración de los clientes una vez que el servicio ha terminado (Voice of the Customer - VOC). Se ha registrado que, en los últimos dos meses del año 2021, el indicador de valoración ha caído a mínimos históricos de 80% cuando en los indicadores del 2020 el indicador mostraba un comportamiento entre 89% y 92%. Según una encuesta realizada por el equipo de Green Belt lo que más les importa a los clientes durante la interacción con los agentes es el tiempo en llamada 50%, la solución al requerimiento 30%, amabilidad y empatía 20%. También, se les pregunto cuales son los factores que mas afectan el tiempo en llamada, mencionando que demore en mostrar alternativas o servicios disponibles con el precio estimado 50%, que demore en capturar los datos iniciales 30%, que demore en procesar la cita del servicio 20%.



METODOLOGÍA

Se definió el proyecto elaborando una breve introducción sobre la empresa, se elaboró un enunciado problema, se creo un DMAIC (con fechas de avances) del programa del proyecto, se mapeo el proceso del proyecto en un diagrama de flujo y en un SIPOC para identificar el proceso a mejorar, se definió la Y variable de respuesta si es continua o discreta, se definió las X variables de entrada del proceso, se definieron las relaciones entre las Y y las X en una matriz de Causa y Efecto (C&E), por último, se realizó una estadística descriptiva para la variable Y en Minitab para identificar el comportamiento de la variable de respuesta en promedio, desviación estándar. Se evaluó el proceso estableciendo el desempeño para todas las X y Y, además se desarrolló un análisis de causa raíz seleccionando la herramienta del diagrama de Causa y Efecto, y los 5 Por qué. Se realizo un análisis estadístico y grafico para identificar la distribución que aplica el proceso actual analizando e identificando aquellos parámetros que representan el comportamiento del problema (media, desviación estándar, etc.). Se realizo un análisis de correlación con la finalidad de evaluar el grado de relación entre las variables del proceso y cuales están ligadas con las variables de salida. Para descartar todas aquellas variables que no intervienen dentro del proceso y solamente identificar aquellas que presenten una relación con las variables de salida y los requerimientos del cliente. Se realizo un plan de acción de mejora para las variables que intervienen en el proceso, se generaron posibles soluciones, se evaluaron las soluciones, se diseñó un plan de implementación que garantice el cumplimiento de los objetivos trazados, se calculó la estadística, capacidad del proceso y el beneficio económico logrado una vez implementadas las mejoras que se realizaron, Se desarrollo un plan de control del proceso donde se incluyen diversas graficas de control, además se definió un plan para mantener las ganancias.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la metodología Six Sigma Green Belt, para ponerlos en práctica con las técnicas de análisis que contiene esta metodología para tener un análisis complejo del proceso, para atacar todas aquellas variables que intervenían en el proceso con la finalidad de eliminarlas para agregarle valor al proceso y así no tener perdidas. 
Tapia Salas Ariana Rossell, Instituto Politécnico Nacional
Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California

ANáLISIS DE MATERIALES COMPUESTOS EN UN CONO-NARIZ DE UN AVIóN MFI-17


ANáLISIS DE MATERIALES COMPUESTOS EN UN CONO-NARIZ DE UN AVIóN MFI-17

Pantoja Gavidia María Paulina, Instituto Politécnico Nacional. Tapia Salas Ariana Rossell, Instituto Politécnico Nacional. Asesor: Dr. Enrique Alcudia Zacarias, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Durante mucho tiempo, las empresas de aviación han llevado a cabo diversas investigaciones sobre la aplicación de materiales compuestos en las estructuras de vehículos voladores. Estos han sido una alternativa sustituta de los materiales metálicos en la fabricación de diversos componentes de aeronaves, incluyendo aquellos que son no estructurales, semi-estructurales y estructurales. En la actualidad, los materiales compuestos desempeñan un papel fundamental debido a su ventaja única de permitir cambios dirigidos en sus propiedades para adaptarse a las necesidades estructurales específicas. Su adopción ha demostrado ventajas significativas en términos de peso, rendimiento y durabilidad, impulsando así una notable evolución en la industria aeronáutica y un papel destacado en la construcción de modernas aeronaves eficientes y seguras.



METODOLOGÍA

A partir del modelo del avión MIF-17, se procedió a diseñar el cono-nariz utilizando dos métodos principales en el software CAD SolidWorks: sólido revolución y superficie. En el primer método, se creó un modelo sólido del cono-nariz y se realizó un análisis estático utilizando Aluminio 6061 como material, debido a su amplio uso en la industria aeronáutica. Este análisis permitió evaluar la resistencia y la integridad estructural de la pieza. Por otro lado, se generó una superficie del cono-nariz y se llevó a cabo un análisis estático utilizando materiales compuestos. Se realizaron dos análisis con distintos materiales: primero con fibra de vidrio y posteriormente con fibra de carbono. Ambos materiales compuestos son ampliamente utilizados en la fabricación de componentes aeronáuticos debido a su alta resistencia y ligereza. En cada caso, se emplearon 8 capas con variación de ángulos (0°, 45°, 90° y -45°) para conformar la estructura laminada. El análisis estático realizado para cada configuración permitió determinar la resistencia, rigidez y estabilidad del cono-nariz en diversas situaciones operativas. Los resultados obtenidos de ambos métodos se compararon y analizaron para identificar la configuración óptima en términos de rendimiento y eficiencia estructural. En cuanto al análisis finito, se consideraron dos condiciones importantes. En primer lugar, se aplicó una fuerza externa en dirección hacia la nariz del cono, con una magnitud de 99.5143N. Esta fuerza representa el arrastre calculado bajo condiciones estándar de vuelo. En segundo lugar, se modeló una sujeción fija en la base del cono, simulando así su conexión con el resto del avión. Mediante el análisis de estas condiciones, se pudo evaluar el comportamiento estructural del cono-nariz bajo cargas realistas de vuelo, lo que permitió determinar la viabilidad y la eficiencia del diseño en ambas configuraciones (sólido y superficie) y con los diferentes materiales compuestos utilizados.


CONCLUSIONES

El diseño y análisis del cono-nariz del avión MIF-17 ha proporcionado una perspectiva esclarecedora sobre su comportamiento estructural bajo condiciones operativas representativas. La utilización de métodos de análisis finito ha permitido evaluar con precisión las respuestas del cono-nariz ante cargas aerodinámicas y restricciones de sujeción, brindando información esencial para la optimización de su diseño. La comparación entre diferentes configuraciones y materiales ha arrojado resultados significativos. En cuanto a los desplazamientos máximos, la fibra de carbono exhibió una mayor rigidez en comparación con la fibra de vidrio y el Aluminio 6061. Esta característica es valiosa en términos de estabilidad y rendimiento durante el vuelo, ya que los desplazamientos excesivos podrían afectar la aerodinámica y la funcionalidad del cono-nariz. En términos de seguridad, la fibra de carbono demostró ser el material más resistente, con el mayor factor de seguridad entre las opciones evaluadas. Este hallazgo sugiere que la fibra de carbono podría ser preferible en escenarios donde la resistencia a la carga es una prioridad clave. Se puede concluir que la integración de materiales compuestos reforzados con fibras en el diseño del cono-nariz resulta en una notable mejora de sus capacidades técnicas. Esta alternativa se muestra más viable en comparación con el empleo de materiales tradicionales como el Aluminio 6061.
Tavizón Aldama Jonathan Daniel, Universidad de Guadalajara
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

OBSERVACIóN EXPERIMENTAL DE ATRACTORES CAóTICOS IMPLEMENTADOS EN FPGA


OBSERVACIóN EXPERIMENTAL DE ATRACTORES CAóTICOS IMPLEMENTADOS EN FPGA

Tavizón Aldama Jonathan Daniel, Universidad de Guadalajara. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La teoría del caos es una rama de la ciencia que se ocupa del estudio de sistemas complejos y dinámicos que exhiben un comportamiento aparentemente aleatorio pero determinista. Estos sistemas se caracterizan por ser altamente sensibles a las condiciones iniciales, lo que significa que pequeñas variaciones en las condiciones iniciales pueden llevar a resultados drásticamente diferentes a lo largo del tiempo. La teoría del caos ha demostrado su relevancia en una amplia gama de disciplinas, como la física, la biología, la economía y la ingeniería. Los atractores caóticos son una manifestación interesante de la teoría del caos. Un atractor es un conjunto de valores o estados hacia los cuales un sistema dinámico tiende a evolucionar con el tiempo. En los sistemas caóticos, los atractores son fractales y exhiben comportamientos complejos y no periódicos. La verificación experimental de los atractores auto-excitados o caóticos en electrónica, se han enfocado en la implementación usando arreglos de compuertas programables en el campo (FPGA por sus siglas en inglés). Las aplicaciones de sistemas caóticos implementados en FPGA incluyen: generación de señales caóticas, criptografía, comunicaciones seguras, procesamiento de señales débiles, sistemas de control y sincronización. La implementación en FPGA ofrece ventajas de velocidad y eficiencia, pero se deben considerar la precisión numérica y la complejidad del diseño.



METODOLOGÍA

Para implementar sistemas caóticos en FPGA y observar los atractores en un osciloscopio, primero se realizó una investigación bibliográfica respecto a sistemas caóticos, así como sus aplicaciones en el ámbito de la electrónica. Posteriormente, se estudió el modelado y simulación de sistemas caóticos utilizando métodos numéricos, consiguiendo las ecuaciones discretizadas de los sistemas para realizar la observación de los atractores empleando el software MATLAB™. Se observó el comportamiento de los sistemas ante variaciones de sus parámetros como el tamaño de paso de integración, el número de iteraciones, las condiciones iniciales y el valor de las constantes en las ecuaciones de los sistemas caóticos. Posteriormente se diseñó y sintetizo las ecuaciones discretizadas de los sistemas caóticos como sistemas digitales utilizando Verilog que es un Hardware Description Language (HDL), empleando la programación jerárquica a través de módulos utilizando el software Active-HDL™ Student Edition.  Finalmente, se comprobaron los atractores de tres sistemas caóticos diferentes, así como sus series temporales, extrayendo los datos para su procesamiento en el software MATLAB™ con efectos de verificar que la programación en Verilog HDL es correcta. Una vez que se comprobó la correcta generación de los atractores y las series temporales, se realizó la implementación en la tarjeta Altera Cyclone® II EP2C35F672C6N utilizando el software Intel® Quartus® II Web Edition Design Software para poder observar los atractores de manera física, se utilizó un osciloscopio de alta definición.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de sistemas caóticos con atractores auto-excitados, y se realizó la discretización de sistemas de ecuaciones diferenciales ordinarias con el método numérico de forward-euler para realizar su implementación en FPGA utilizando el lenguaje de descripción de hardware, Verilog HDL. Se logró el diseño y la síntesis de tres sistemas caóticos en la tarjeta Altera Cyclone® II EP2C35F672C6N, así como la observación de los atractores caóticos en osciloscopio empleando un Digital Analog Converter (DAC)  de 16 bits para convertir los datos digitales del FPGA a datos analógicos que el osciloscopio permite muestrear para ser visualizados. Los resultados se enviaran para su publicación a una revista internacional, con título de trabajo: Experimental observation of chaotic attractors from the FPGA implementation of 3D chaotic systems. La revista tiene su sitio web aquí: https://www.tandfonline.com/journals/tije20
Telles Rodríguez Miguel Ángel, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

SISTEMA DE REALIDAD VIRTUAL PARA ESTIMULAR EL SISTEMA VESTIBULAR, MEJORAR EL EQUILIBRIO Y FORTALECER LOS MÚSCULOS EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD


SISTEMA DE REALIDAD VIRTUAL PARA ESTIMULAR EL SISTEMA VESTIBULAR, MEJORAR EL EQUILIBRIO Y FORTALECER LOS MÚSCULOS EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD

González Herrera Cristian, Instituto Tecnológico de Estudios Superiores de Zamora. Telles Rodríguez Miguel Ángel, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

La rehabilitación mediante el uso de la Realidad Virtual (VR) se presenta como una estrategia para mejorar la experiencia y a las actividades que han perdido relevancia o interés con el tiempo para las personas que están realizando su rehabilitación. La Realidad Virtual ofrece la posibilidad de crear ambientes inmersivos y realistas que pueden aumentar el interés de las personas y renovar áreas para la fisio terapia. La Realidad Virtual ofrece la oportunidad de transformar y mejorar espacios y actividades al brindar experiencias inmersivas y envolventes a través de dispositivos de VR. Al recrear estos lugares virtualmente y permitir que las personas experimenten en un entorno virtual y se pueda generar un interés renovado y una mayor atracción hacia estas actividades, uno de los retos más grandes que se nos plantea es hacer que el sistema sea lo más versátil posible ya que no sabemos en qué condiciones se encuentre el paciente, así que debemos adaptarnos y dar solución.



METODOLOGÍA

El proyecto se dividió en siete semanas. La primera semana se destinó a tomar una capacitación para familiarizarnos con el desarrollo en Unity, utilizando la versión 2019 y el lenguaje de programación C#. Aunque algunos miembros del equipo no estaban familiarizados con este entorno de desarrollo, se logró avanzar después de invertir algo más de tiempo del esperado. En la segunda semana, se procedió con la asignación del ejercicio que consiste en levantarse de una silla, dar algunos pasos hacia adelante y luego regresar a sentarse, es una parte fundamental del juego y tiene beneficios importantes para la rehabilitación y mejora física. Se decidió crear un escenario de una tienda donde el usuario asume el papel del despachador, y cada vez que se sentara, llegaría un cliente a pedir un objeto. La propuesta debe cumplir con ciertos requisitos, basados en el ejercicio asignado, como que el usuario debe levantarse, ir por el objeto, entregarlo al cliente y finalmente sentarse de nuevo. Este ejercicio es importante para el proceso de rehabilitación porque consiste en desafiar el equilibrio y la estabilidad, estimulando el sistema vestibular y mejorando la percepción espacial y la coordinación de movimientos, lo que ayuda a reducir el riesgo de caídas y mejora la función del sistema vestibular. Además, este ejercicio trabaja los músculos del núcleo y la columna vertebral, lo que contribuye a mantener una postura adecuada durante el movimiento. Fortalece los músculos de las piernas, mejorando la confianza y capacidad para levantarse y caminar, lo que es esencial para realizar actividades diarias de manera independiente. El entorno del jugador consta de una silla que servirá para cumplir con la mecánica de que el jugador se siente, una mesa grande frente a él que servirá para soltar los objetos que deben entregarse y otras dos mesas a los lados en las que estarán posados los objetos interactuables que son los que se deben entregar para facilitar el acceso a estos. La ambientación del juego tiene un estilo medieval. Una vez que se obtuvieron todos los recursos recopilados, comenzamos con el desarrollo del juego. El ejercicio asignado involucra un sujeto que debe partir de estar sentado en una silla, levantarse, caminar, avanzar unos pasos, tomar un objeto y volver a sentarse. Se decidió crear un escenario de una tienda donde el usuario asume el papel del despachador, y cada vez que se sentara, llegaría un cliente a pedir un objeto. La propuesta debe cumplir con ciertos requisitos, basados en el ejercicio asignado, como que el usuario debe levantarse, ir por el objeto, entregarlo al cliente y finalmente sentarse de nuevo. El entorno del jugador consta de una silla que servirá para cumplir con la mecánica de que el jugador se siente, una mesa grande frente a él que servirá para soltar los objetos que deben entregarse y otras dos mesas a los lados en las que estarán posados los objetos interactuables que son los que se deben entregar para facilitar el acceso a estos. La ambientación del juego tiene un estilo medieval. Una vez elaborado, diseñado y desarrollado el escenario, procedimos con la programación, la parte más retadora del proyecto. Se implementaron varias funcionalidades, incluyendo la capacidad de que los objetos fueran tomados por el usuario utilizando una librería de Steam que proporciona soporte para VR. Luego se agregaron una variedad de frutas que el usuario debe entregar al NPC y se les dio funcionalidad con scripts para estimar la velocidad de lanzamiento y aplicar físicas realistas. Además, creamos un NPC con animaciones de caminar y detenerse, programamos su comportamiento utilizando un subproceso para que llegue a la mesa grande que está frente al usuario a pedir un objeto y después se irá luego de recibirlo o al pasar cierta cantidad de tiempo, lo que le da al juego una mecánica de contrarreloj y lo hace más desafiante. Finalmente, se agregaron colliders en el piso para que, si la fruta caía al suelo, volviera a su posición original y el usuario no tuviera que realizar movimientos bruscos que pudieran lastimarlo.


CONCLUSIONES

El proyecto de rehabilitación mediante el uso de Realidad Virtual (VR) ha demostrado ser una estrategia exitosa para mejorar la experiencia y el interés de los pacientes en las actividades de fisioterapia. La integración de la VR con este ejercicio proporciona una alternativa atractiva y prometedora para potenciar la función física y la calidad de vida de los pacientes en proceso de rehabilitación. Es fundamental continuar investigando y adaptando estas tecnologías para maximizar sus beneficios y personalizar su aplicación según las necesidades y condiciones individuales de cada paciente. Asimismo, se abre un horizonte de posibilidades para seguir transformando y enriqueciendo la experiencia de rehabilitación mediante el uso de la Realidad Virtual, lo que contribuirá a impulsar la recuperación y el bienestar de los pacientes de manera más elegante y profesional.
Téllez Gómez José Luis, Instituto Tecnológico de Pachuca
Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco

TRANSFORMACIÓN DEL SISTEMA INTEGRADO DE TRANSPORTE MASIVO DE PACHUCA, HIDALGO A ENERGÍAS RENOVABLES


TRANSFORMACIÓN DEL SISTEMA INTEGRADO DE TRANSPORTE MASIVO DE PACHUCA, HIDALGO A ENERGÍAS RENOVABLES

Jimenez Bautista Yessica, Instituto Tecnológico de Pachuca. Téllez Gómez José Luis, Instituto Tecnológico de Pachuca. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco



PLANTEAMIENTO DEL PROBLEMA

En las últimas décadas, se ha propiciado un acelerado crecimiento de contaminación ambiental por la fabricación, consumo y desecho de energías no renovables, por la gran cantidad de beneficios y facilidades que ha dado al desarrollo de la humanidad. (Hidalgo Aguilera, L. 2010). Una de las problemáticas que enfrenta este proyecto es la falta de implementación de tecnologías limpias en el estado, que tienen como objetivo principal reducir las emisiones antes de ser producidas por origen o por la implementación de menor cantidad de recursos ambientales. El presente trabajo tiene por objeto El impulsar a proyectos de desarrollo sustentable, sostenible y funcional, emerge de la necesidad de concientizar y fomentar el interés hacia la preservación del medio ambiente, así como en las instalaciones de la Red Integrada de Transporte del Corredor 1 de la Zona Metropolitana  de Pachuca (RICT1ZMP), del Sistema Integrado de Transporte Masivo de Hidalgo (SITMAH); Mismo que en promedio opera 16 horas al día, los 365 días del año; en consecuencia el costo de energía eléctrica altamente elevado, difícil para la gestión del recurso y mantenimiento en la infraestructura.



METODOLOGÍA

Constituye acciones a mediano plazo, de carácter temporal, en aproximadamente 5 meses que van desde la elaboración de un expediente técnico, hasta la comprobación de gastos con cierre de presupuesto asignado, con un impacto altamente perceptible, considerando que el recurso destinado se pueda ejercer durante el ejercicio fiscal 2023. *Elaboración de expediente técnico. *Cotizaciones de suministros con proveedores. *Proceso de validación del expediente técnico. *Convenio de colaboración con la Secretaria de Infraestructura Pública y Desarrollo Urbano Sostenible (SIPDUS). *Licitación del proyecto. *Implementación y supervisión de la instalación de paneles solares. *Comprobación de gastos (Cliente de presupuesto asignado). ANALISIS FODA FORTALEZAS 1. La fuente de alimentación almacena gran cantidad de energía durante largos periodos de tiempo. 2. Favorecen un mayor ahorro económico y energético. 3. Absorben cualquier tipo de luz luminosa, aunque el día está muy nublado. 4. No requieren de ningún tipo de mantenimiento especial. 5. La energía que emplean es renovable, por lo que cuidan el medio ambiente y contribuyen al rendimiento energético. AMENAZAS 1. Incertidumbre con respecto a su eficiencia. 2. Adaptadores eléctricos. 3. Cambio climático. 4. Al encontrarse en lugares públicos está expuesta a desastres naturales, robos o vandalismo. OPORTUNIDADES 1. Mayor demanda de energías renovables. 2. Mayor interés y conocimiento sobre la energía solar y sus aplicaciones.  3. Nuevas tecnologías y materiales más resistentes.  4. Generar interés con la población usuaria de energías renovables. DEBILIDADES 1. El panel solar que utiliza debe de ser muy grande porque su capacidad de aprovechar la energía solar es muy reducida.  2. La inversión inicial es costosa. 3. La energía está limitada a la capacidad del panel solar. 4. La eficiencia en los tiempos de carga puede variar dependiendo de las condiciones climatológicas.


CONCLUSIONES

A lo largo de la estancia de verano se logró adquirir conocimientos teóricos y prácticos a cerca del uso de energías renovables y se llegó a la conclusión que la propuesta para la implementación es viable, sin embargo, al ser un extenso trabajo y tener poco apoyo económico gubernamental, aún se encuentra en la fase de aprobación y no se pueden mostrar los resultados finales a cerca del ahorro que podría llegar a tener en el (RICT1ZMP). Se espera que los paneles solares fotovoltaicos continúen aumentando su eficiencia y vida útil al tiempo que reducen su costo para poder implementarlo a lo largo del país.
Téllez González Leonardo Jesús, Universidad de Guadalajara
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

BIOPLáSTICO DE MUCíLAGO DE NOPAL: BACTERIAS CELULOSAS CON MUCíLAGO DE NOPAL COMO SUSTITUTO DEL PLáSTICO EN APLICACIONES ARQUITECTóNICAS Y SU USO DIARIO


BIOPLáSTICO DE MUCíLAGO DE NOPAL: BACTERIAS CELULOSAS CON MUCíLAGO DE NOPAL COMO SUSTITUTO DEL PLáSTICO EN APLICACIONES ARQUITECTóNICAS Y SU USO DIARIO

Leon Bernal Mariana, Universidad de Guadalajara. López López Abraham Baruch, Instituto Politécnico Nacional. Téllez González Leonardo Jesús, Universidad de Guadalajara. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El uso generalizado de plásticos en la industria de la arquitectura y en productos de uso diario ha llevado a una creciente acumulación de residuos plásticos en el medio ambiente, lo que ha provocado problemas ambientales graves, como la contaminación de los océanos y la degradación de los ecosistemas. Estos plásticos pueden tardar cientos de años en descomponerse, lo que agrava aún más la crisis ambiental. Además, los materiales plásticos tradicionales utilizados en la arquitectura, como ventanas y laminados, no son biodegradables y su producción a menudo implica el uso de recursos no renovables, como el petróleo, lo que contribuye al agotamiento de recursos naturales. El uso excesivo de plásticos ha generado una crisis ambiental global, ya que estos materiales son altamente contaminantes y degradan el medio ambiente de manera significativa. La industria de la arquitectura y el diseño, así como muchos sectores de la vida cotidiana, dependen en gran medida del plástico para crear productos como bolsas, acabados, y láminas que simulen cristales. Con el fin de mitigar los efectos negativos del plástico y avanzar hacia una economía más sostenible y amigable con el medio ambiente, surge la necesidad de buscar alternativas biodegradables y eco amigables. El objetivo principal de este proyecto es desarrollar un material biodegradable basado en bacterias celulosas y mucílago de nopal, que pueda ser utilizado como sustituto del plástico en aplicaciones arquitectónicas y de uso diario. La utilización de bacterias celulosas con mucílago de nopal como sustituto del plástico presenta múltiples ventajas ambientales y económicas. En primer lugar, este material es biodegradable, lo que significa que se descompondrá naturalmente en el medio ambiente sin dejar residuos tóxicos ni dañinos. Además, las bacterias celulosas son una opción sostenible, ya que se pueden cultivar a partir de fuentes renovables y requieren menos energía para producirse en comparación con el plástico convencional. El mucílago de nopal, abundante en diversas regiones de México, aporta propiedades de resistencia y flexibilidad al material, haciéndolo adecuado para aplicaciones arquitectónicas como ventanas y láminas grandes, así como para bolsas biodegradables y otros productos de uso diario.



METODOLOGÍA

Para lograr el desarrollo de este material, se llevó a cabo diversas etapas de investigación y experimentación. Se aislaron bacterias celulosas y se cultivaron en medios improvisados pero adecuados, higiénicos y esterilizados para obtener una producción óptima. Se estudió las posibles aplicaciones arquitectónicas y de uso diario para determinar la viabilidad y la factibilidad comercial de esta alternativa. Se adquirió la cambucha con materias madres para su reproducción, se recolectaron recipientes de plástico y demás materiales e ingredientes como el azúcar, el nopal, servitoallas, alcohol etílico, atomizador, guantes de látex y cubra bocas. Para su reproducción se extrajo el mucilago de los nopales, en diversos recipientes se colocó agua, scooby (bacteria celulosa), azúcar disuelta en agua caliente y el mucilago de nopal apara alimentar a la bacteria, se cubrieron los contenedores para evitar contacto con insectos y cualquier tipo de luz. Después de unas semanas se pudo observar su crecimiento, se recolectaron las bacterias, se extrajeron del liquido y se dejaron secar. Al finalizar su secado se observan los resultados en color, dimensión, forma, consistencia y grosor.


CONCLUSIONES

Se espera que el material desarrollado a partir de bacterias celulosas con mucílago de nopal presente resultados prometedores como sustituto del plástico en aplicaciones arquitectónicas y de uso diario. Su biodegradabilidad y menor impacto ambiental podrían contribuir significativamente a la reducción de residuos plásticos y a la conservación de recursos naturales. Esta investigación podría ser el punto de partida para soluciones más sostenibles en la industria de la arquitectura y en otros sectores. Respecto a los experimento realizados se observo que las bacterias celulosas crecen de una mejor forma alimentándolas con mucilago hervido que crudo.
Tellez Navarrete Juan Karlo, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtra. Nadia Ibeth Gutiérrez Hernández, Instituto Tecnológico Superior de Tacámbaro

SISTEMA WEB TURíSTICO


SISTEMA WEB TURíSTICO

Tellez Navarrete Juan Karlo, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Nadia Ibeth Gutiérrez Hernández, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El municipio de Ciudad Hidalgo Michoacán cuenta con una amplia oferta turística, con hermosos paisajes, lugares de visita con actividades emocionantes y una rica historia cultural sim embargo el municipio no cuenta con un sitio web turístico que muestre con exactitud sus atractivos y lugares de visita, comercio o recreación con información actualizada y la ubicación exacta de estos. El objetivo es crear un sitio web turístico moderno y atractivo que ofrezca una experiencia satisfactoria y enriquecedora para los visitantes, alentándolos a explorar y disfrutar todas las maravillas que Ciudad Hidalgo tiene para ofrecer. Con esta mejora en la experiencia del usuario, se espera aumentar el turismo en el municipio y fortalecer la reputación del destino como un lugar imperdible para los viajeros.



METODOLOGÍA

Análisis y requerimientos. Primeramente, fue la realización de un análisis de las necesidades y objetivos que debería tener el sitio web turístico características, funcionalidades que podría tener, secciones y apartados con información turística, reseñas y calificaciones por parte de las personas que hayan tenido una experiencia en estos lugares. Investigación y recopilación del contenido. Una segunda actividad fue el investigar sobre sitios web turísticos ya existentes de pueblos mágicos y municipios cercanos y sacar algunas ideas sore el diseño común que se sigue en sitios web en este caso turísticos. También investigar restaurantes, hoteles y lugares de recreación más comunes en mi municipio para agregarlos al sitio web de igual forma obtener imágenes de buena calidad para enriquecer el contenido del sitio. Diseño y wireframe. Cree un diseño de bajo nivel (wireframe) para definir la estructura de sitio web antes de iniciar con la maquetación para tener un diseño de referencia Desarrollo. Con HTML y CSS como lenguajes de maquetado fui implementando el diseño y la estructura del sitio con un header con una imagen de fondo, logo del municipio y un menú con opciones que nos llevan a las secciones de la página las cuales son historia donde se muestra una imagen antigua del municipio y un texto con datos relevantes, atractivos la cual es una galería de nueve imágenes de los lugares que se pueden visitar en el municipio, tres secciones más donde se muestran tarjetas donde se muestran restaurantes, hoteles y la festividad más sobresaliente que tiene el municipio y por ultimo un mapa que muestra la ubicación exacta del municipio e iconos con las redes sociales oficiales.


CONCLUSIONES

Durante la estancia de verano se logró desarrollar a cabo el inicio del proyecto primeramente con la página principal del sitio web turístico y se alcanzó el objetivo de tener una primera fase de un prototipo funcional con cada uno de los apartados propuestos en la etapa de diseño, el sitio quedo con una sola página que es la principal pero se espera que en una próxima estancia se pueda trabajar con subpáginas y con un sitio web más interactivo así como responsivo y brindar una experiencia única y memorable a los turistas que la visiten y así incrementar el turismo en nuestro municipio.
Téllez Vázquez Ana Carolina, Instituto Tecnológico de Morelia
Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú

ANáLISIS MULTIVARIABLE DE LAS COMPETENCIAS ACADéMICAS DEL PROGRAMA DE INGENIERíA EN ALIMENTOS


ANáLISIS MULTIVARIABLE DE LAS COMPETENCIAS ACADéMICAS DEL PROGRAMA DE INGENIERíA EN ALIMENTOS

Barriga Villagómez Regina, Instituto Tecnológico de Morelia. Téllez Vázquez Ana Carolina, Instituto Tecnológico de Morelia. Asesor: Mg. Rohemi Alfredo Zuluaga Ortiz, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

Actualmente en el país de Colombia existe una alta inseguridad alimentaria, de acuerdo con estudios de la asociación de Bancos de alimentos un 54.2% de los hogares del país viven de inseguridad alimentaria. Este evento surge por diversos motivos entre ellos la falta de tecnología, el almacenamiento y procesamiento industrial y una vida útil limitada de los alimentos. (Capítulo de Ingeniería de Alimentos de la Asociación Colombiana de Facultades de Ingeniería, 2019). Este suceso genera que la población corra un mayor riesgo de desnutrición, contraer enfermedades y un mal desarrollo cognitivo y físico. Por otro lado, también se incrementan la morbilidad y mortalidad ocasionando un pobre desarrollo nacional y bienestar del planeta.(Jaramillo, 2020)  Por tal motivo, para mejorar la conservación, composición nutricional, calidad, accesibilidad y disponibilidad de los alimentos en el país es necesario desarrollar profesionistas en la rama de la ingeniería en alimentos competentes. Está profesión tiene un fuerte compromiso con la población en cuanto a los alimentos. Ellos deben ser capaces de innovar los procesos y tecnologías dentro del sector con la finalidad de prolongar la vida útil de los alimentos, de igual manera deben desarrollar procesos de transformación de alimentos que sean más eficaces y qué permitan producir alimentos a bajos costos y que estos sean accesibles para la población.(Capítulo de Ingeniería de Alimentos de la Asociación Colombiana de Facultades de Ingeniería, 2019) Se percibe que existe una relación entre la inseguridad alimentaria y la formación adecuada de ingenieros en alimentos. Por ejemplo, el país de China destaca en cuanto al número de programas educativos de ingeniería de alimentos en el mundo. Es el único país que no sufre de esta crisis mundial dado que cuentan un alto nivel de reservas de alimentos cercano al 70%. (Vargas Cuellar, 2022) De acuerdo a los planes estratégicos de China, ellos priorizan la inversión de tecnologías modernas, procesos de mecanización, sistemas de riesgos y aumento de inocuidad de los alimentos.(Samkange, 2022) Siendo estas las competencias que se relacionan directamente con la formación adecuada del programa educativo antes mencionado. En cambio, en Colombia la participación de la sociedad en cuanto a la resolución de problemáticas es escaza y se ve una alta necesidad de la implementación de políticas que permitan el abastecimiento de alimentos a escala territorial y regional que generen condiciones que permitan avanzar hacia la solución del hambre y un incremento en la seguridad alimentaria. Por otro lado, la tecnología e innovación del país ha adoptado modelos verticales de intervención, lo cual ha generado que los conocimientos locales no se toman en cuenta o se les da poca importancia. (Organización de las Naciones Unidas para la Alimentación y la Agricultura, 2019) Se percibe una alta necesidad de medir la eficiencia de los programas educativos de ingeniería en alimentos en el país de Colombia, sin embargo, no hay herramientas suficientes para analizar a fondo las competencias académicas o los procesos educativos del este programa de formación.



METODOLOGÍA

La presente investigación propone una metodología que se fundamenta en dos partes, ambas partes contemplan técnicas de aprendizaje automático no supervisado: un análisis de clúster y un análisis de componentes principales. En la primera parte, a partir de una base de datos se realiza un agrupamiento de carácter jerárquico y no jerárquico mediante el algoritmo de K-means. La segunda parte comprende un análisis de componentes principales (PCA) en esta etapa se pretende reducir la complejidad de los datos analizados tomando en cuenta un menor número de variables en comparación con los datos originales. La información fue obtenida a través de una base de datos que se constituye por un total de 2,582 observaciones, cada una de estas observaciones representa a un estudiante y a sus promedios resultantes de la aplicación de pruebas estatales Saber Pro y Saber 11 aplicadas por el instituto colombiano para la evaluación de la Educación (ICFES) del país de Colombia.(Delahoz-Dominguez et al., 2020) La prueba Saber 11 representa una examinación estandarizada que mide la calidad de la educación impartida, esta prueba se aplica al concluir la preparatoria y consta de cinco competencias con la intención de evaluar las aptitudes de los estuantes. La prueba Saber Pro evalúa la calidad de la educación superior. En este caso, la prueba evalúa diversas competencias. Mediante esta prueba se examina el desarrollo de conocimientos y habilidades de los estudiantes en el ámbito profesional de su programa académico.


CONCLUSIONES

El análisis clúster por departamentos ha permitido identificar grupos con características similares en relación a las pruebas Saber 11 y Saber Pro. Esto brinda la oportunidad de identificar competencias que necesitan mejoras específicas en cada conjunto de departamentos y aquellas en las que tienen un mejor desempeño. Estos resultados son fundamentales para diseñar estrategias de mejora en el sistema educativo a nivel departamental y tomar decisiones informadas en el ámbito educativo a nivel nacional y regional. En cuanto al análisis clúster por universidades, se han identificado dos clústeres que agrupan a las universidades según sus promedios en las pruebas académicas. La información proporcionada es relevante para comprender el rendimiento y desempeño de las universidades evaluadas, lo que facilita la toma de decisiones para mejorar la calidad académica en el país. Por otro lado, el análisis de componentes principales ha permitido ubicar a las universidades en cuatro cuadrantes distintos según sus promedios en las pruebas académicas. Los cuadrantes uno y tres muestran promedios más bajos, mientras que los cuadrantes dos y cuatro presentan una relación mayor en sus resultados. Esta información es valiosa para identificar patrones y tendencias en el rendimiento de las universidades y, así, implementar estrategias para mejorar en áreas específicas.  
Tello Gómez Lilia Anayeli, Instituto Politécnico Nacional
Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara

FRAMEWORK EVOLOPY MEJORADO.


FRAMEWORK EVOLOPY MEJORADO.

Cisneros Alejos Maria Cristina, Universidad Autónoma de Sinaloa. Tello Gómez Lilia Anayeli, Instituto Politécnico Nacional. Asesor: M.C. Arturo Valdivia González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El proceso de optimización es un tema crítico que tiene aplicaciones en varias disciplinas y campos de estudio, que van desde las ciencias de la computación y la ingeniería hasta la economía y las ciencias de la vida. En este contexto, la optimización basada en metaheurísticas bioinspiradas se ha convertido en un enfoque popular debido a su eficiencia y capacidad para abordar una amplia gama de problemas. Evolopy es una herramienta que ofrece metaheurísticas clásicas y recientes inspiradas en la naturaleza para la optimización global, incluyendo el Optimizador de Enjambre de Partículas (PSO), el Optimizador Multiverso (MVO), el Optimizador de Lobo Gris (GWO) y la Optimización de Llama de Polilla (MFO). Sin embargo, a pesar de su utilidad y eficacia, existen varios desafíos que limitan su aplicación y eficiencia general. Uno de los principales desafíos es la falta de flexibilidad para adaptarse a una amplia gama de problemas de optimización. Cada algoritmo de metaheurística tiene su propia eficacia y eficiencia para resolver tipos específicos de problemas de optimización. Como tal, la elección de un algoritmo de optimización sobre otro puede no resultar en la mejor solución para un problema dado. Otro desafío es el equilibrio entre la exploración y la explotación. En términos de optimización, la exploración se refiere a la capacidad de un algoritmo para explorar un espacio de búsqueda amplio, mientras que la explotación se refiere a la capacidad de un algoritmo para profundizar en un espacio de búsqueda local. Muchos de los algoritmos implementados en Evolopy tienden a tener dificultades para mantener este equilibrio, lo que puede resultar en una convergencia prematura hacia soluciones subóptimas. Además, el rendimiento computacional de Evolopy puede ser limitado en aplicaciones a gran escala. El uso de metaheurísticas para problemas de optimización a gran escala puede ser computacionalmente costoso debido a su naturaleza iterativa y al hecho de que a menudo requieren un gran número de evaluaciones de la función objetivo. Por lo tanto, es necesario mejorar el marco Evolopy para abordar estos desafíos. Este proyecto se centrará en el desarrollo de un Framework EvoloPy mejorado, con el objetivo de aumentar su flexibilidad, mejorar el equilibrio entre exploración y explotación, y optimizar su rendimiento computacional para aplicaciones a gran escala.



METODOLOGÍA

El proyecto para el desarrollo de un Framework EvoloPy mejorado se llevó a cabo en dos fases principales: Fase 1: Modificación del archivo .csv Esta fase implicó el análisis detallado del código existente para comprender su estructura y funcionalidad. Posteriormente, se modificó el archivo .csv que ya existía para agregar datos importantes que faltaban. Esta acción fue necesaria para mejorar la funcionalidad y eficiencia del framework, permitiéndonos manejar y procesar un conjunto más amplio y completo de datos. Fase 2: Integración de un nuevo algoritmo (En curso) En esta fase en curso, se está trabajando en la integración de un nuevo algoritmo a la lista de algoritmos disponibles en EvoloPy. El proceso comenzó con la selección de un algoritmo que se consideró valioso para el propósito de optimización global y que se ajusta a las capacidades del framework. Actualmente, se está adaptando este algoritmo para integrarse correctamente en EvoloPy. Esto implica la creación de funciones que permitan la correcta interacción del algoritmo con las características ya existentes en EvoloPy. También se está asegurando que el algoritmo pueda utilizar las funciones ya existentes en EvoloPy. Una vez que se complete la integración del algoritmo, se procederá a realizar pruebas exhaustivas para asegurar su correcto funcionamiento y para evaluar su impacto en la eficacia general del framework. Por lo tanto, la metodología adoptada para este proyecto se centra en mejorar la funcionalidad existente y expandir las capacidades de EvoloPy a través de la integración de un nuevo algoritmo. Todo ello se realiza garantizando la compatibilidad y coherencia con las funciones y estructuras existentes en el framework.


CONCLUSIONES

Mejora de la funcionalidad de datos: La modificación del archivo .csv existente ha permitido una mejora significativa en la capacidad de manejar y procesar un conjunto de datos más amplio y completo. Este avance es un paso crucial para mejorar la funcionalidad general del framework EvoloPy. Ampliación de las capacidades de EvoloPy: El proyecto ha demostrado que es posible expandir las capacidades de EvoloPy a través de la integración de nuevos algoritmos. Este hallazgo sienta las bases para futuras mejoras y expansiones del framework. Consistencia y coherencia del framework: A través de la adaptación del nuevo algoritmo, hemos confirmado la importancia de mantener la consistencia y coherencia con las funciones y estructuras existentes en EvoloPy. Esto ha permitido preservar la eficiencia y eficacia del framework durante el proceso de mejora. Próximos pasos: En la siguiente fase del proyecto, nos enfocaremos en la integración final del nuevo algoritmo y en la realización de pruebas exhaustivas. El objetivo es garantizar el correcto funcionamiento del algoritmo y evaluar su impacto en la eficacia general del framework. Las conclusiones finales y las recomendaciones se basarán en los resultados de estas pruebas. Estas conclusiones preliminares muestran el progreso significativo que se ha hecho en la mejora del framework EvoloPy. Sin embargo, es importante recordar que estos hallazgos son preliminares por lo que aún se deben presentar los resultados del algoritmo totalmente integrado.
Tenorio Camacho Javier, Instituto Politécnico Nacional
Asesor: Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey

UN ESTUDIO DE NUEVAS FUNCIONES DE POTENCIAL POR PARES Y SU EFECTO EN LA SELECCIóN óPTIMA DE SUBCONJUNTOS


UN ESTUDIO DE NUEVAS FUNCIONES DE POTENCIAL POR PARES Y SU EFECTO EN LA SELECCIóN óPTIMA DE SUBCONJUNTOS

Tenorio Camacho Javier, Instituto Politécnico Nacional. Asesor: Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Dentro del contexto de la optimización evolutiva multi-objetivo (OEMO), las funciones de potencial por pares han sido empleadas para desarrollar mecanismos de preservación de diversidad. Estos mecanismos se basan en la adición de conceptos relacionados con el potencial de un sistema de N partículas, utilizando funciones de energía potencial conocidas en otros campos de la ciencia, como Coulomb y Kratzer, entre otras. El problema de selección óptima de subconjuntos basada en energía potencial (PSOSEP) es un desafío de optimización combinatoria que busca encontrar un subconjunto A de tamaño N que optimice una función dada. En este proyecto, se analizan varias funciones potenciales, incluyendo el Potencial de Lennard-Jones, el Potencial de Buckingham, el Potencial de Morse, el Potencial de Born-Mayer-Huggins, el Potencial de Yukawa y el Potencial de Tersoff. El objetivo es comparar las distribuciones que cada una de estas funciones genera en los subconjuntos resultantes. Con esta comparativa, se busca determinar su idoneidad para ser utilizadas como alternativas en mecanismos de preservación de diversidad que puedan acoplarse en AEMOs (Algoritmos Evolutivos Multi-Objetivo).



METODOLOGÍA

La metodología de este trabajo consiste en un proceso sistemático que se divide en varias etapas para investigar y analizar las funciones de potencial propuestas. A continuación, se describe cada paso: Investigación de funciones de potencial: En esta etapa, se llevará a cabo una revisión exhaustiva de la literatura científica para identificar y comprender las funciones de potencial propuestas. Se buscarán tanto las funciones de potencial ya conocidas en la literatura como posibles nuevas funciones que puedan ser relevantes para el estudio. Identificación de parámetros reportados: Una vez identificadas las funciones de potencial, se procederá a recopilar los parámetros que están reportados en la literatura para cada función. Estos parámetros son valores numéricos que influyen en la forma y características de la función de potencial. Graficación de la energía K con los parámetros encontrados: Se realizarán gráficas de la energía K para cada función de potencial utilizando los parámetros encontrados en la etapa anterior. Estas gráficas permitirán visualizar cómo varía la energía K con los diferentes valores de los parámetros y ayudarán a comprender mejor el comportamiento de cada función. Selección de parámetros para experimentos: Con base en los resultados de las gráficas y el análisis de la literatura, se seleccionarán los parámetros más adecuados para la realización de los experimentos. Estos parámetros serán utilizados en la implementación de las funciones de potencial en C++. Programación de las funciones en C++: En esta etapa, se programarán cada una de las funciones de potencial en lenguaje C++. Se implementarán las fórmulas y ecuaciones correspondientes, utilizando los parámetros seleccionados en la etapa anterior. Comparación de las distribuciones resultantes: Finalmente, se compararán las distribuciones resultantes de cada función de potencial. Se analizarán los subconjuntos generados por cada función y se evaluará cómo afectan los diferentes parámetros en la preservación de la diversidad. Se realizarán comparativas para identificar cuál función de potencial es más adecuada para ser utilizada como mecanismo de preservación de diversidad en algoritmos evolutivos multi-objetivo (AEMOs). Esta metodología permitirá obtener un análisis detallado de las funciones de potencial, seleccionar parámetros significativos y realizar experimentos que contribuyan a la comprensión de su comportamiento y utilidad en el contexto de la optimización evolutiva multi-objetivo.


CONCLUSIONES

Análisis del comportamiento general de la energía K: A través de las gráficas de energía K con diferentes valores de parámetros, se observará y analizará el comportamiento de cada función de potencial. Identificando si la energía K presenta una monotonía creciente o decreciente. Influencia de los parámetros en la distribución resultante: Se observaŕa cómo varía la distribución resultante de los diagramas de Pareto a medida que se modifican los parámetros de cada función de potencial.
Tenorio Islas Delsy, Instituto Tecnológico de Pachuca
Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional

EFECTO DEL PROCESO DE LIOFILIZACIóN EN LAS PROPIEDADES ESTRUCTURALES DE FRESAS (FRAGARIA ANANASSA)


EFECTO DEL PROCESO DE LIOFILIZACIóN EN LAS PROPIEDADES ESTRUCTURALES DE FRESAS (FRAGARIA ANANASSA)

Tenorio Islas Delsy, Instituto Tecnológico de Pachuca. Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La conservación de productos agroalimenticios es una problemática de difícil resolución debido al gran porcentaje de agua presente en los mismos. La fresa es un fruto altamente perecedero debido principalmente a su contenido alto de humedad, lo cual promueve el ataque de microorganismos, además, la falta de una cubierta protectora contra daños físicos facilita la pérdida de agua y magulladuras, lo cual limita su comercialización y consumo (Li et al., 2017; Dhital et al., 2018). La vida comercial útil para este fruto se establece en 5 - 7 días. El rápido deterioro comercial de la fresa es debido a la pérdida de agua por transpiración, pulpa blanda y una cubierta fina.



METODOLOGÍA

Las fresas (Fragaria ananassa) fueron adquiridas en el mercado local. Se limpiaron, lavaron y desinfectaron antes de realizar los tratamientos correspondientes. Se utilizaron 3 pretratamientos: hidróxido de calcio (HC), azúcar (A) y D-glucosa monohidratada (GM). Las soluciones a utilizar se prepararon de la siguiente manera: (HC) 1.5g de hidróxido de calcio/100mL de agua, (A) 40g de azúcar/100mL de agua y (GM) 40g de glucosa/100 mL de agua. La relación de la fruta/solución en todos los tratamientos fue de 1:5 (p/v). Las fresas se cortaron en cubos de 1.5 cm por lado y se colocaron en las diferentes soluciones durante diferentes tiempos: (HC) 5 min, (A) 60 min y (GM) 60 min. Las muestras se congelaron a -10°C durante 24 h y posteriormente fueron colocadas en la charola del liofilizador (SP VirTis Advantage Pro con controlador Intellitronics) para alcanzar una temperatura de -40°C durante 340 min. Las siguientes etapas consistieron en llevar las muestras a 10°C por 126 min a una presión de 26Pa, a -10°C por 495 min y finalmente se pasó a una temperatura de 40 °C durante 590 min a una presión de 10 Pa. La densidad real se calculó utilizando la masa y el volumen real de las muestras cúbicas de fresa. El volumen real se medió con un estereopicnómetro (SPY-5DC, Quantachrome, U.S.A.) con la presión de nitrógeno (N2) dentro del equipo fijada en 1.195 ± 0.001 kgf/cm2, un volumen de celda y un volumen añadido . Previo a presurizar el sistema, el flujo N2 para purga fue de 0.012 kgf/cm2 ± 0.001. Las determinaciones se realizaron por triplicado considerando 12 g de muestra (3 cubos).   Donde  es la densidad real (g/cm3), m es la masa de las muestras (g),  es el volumen real (cm3),  es el volumen de la celda (cm3),  es el volumen añadido (cm3),  es la presión antes de introducir el volumen añadido (kgf/cm2) y  es la presión después de introducir el volumen añadido (kgf/cm2). La densidad aparente se medió considerando 4.00 ± 0.10 g (1 cubo) de una muestra utilizando el método de desplazamiento de volumen con n-hexano y un kit de densidad (YDK 01-OD, Sartorius). Las mediciones se llevaron a cabo dentro de ≈10 s para evitar que la muestra absorba el líquido de inmersión. Los valores de la densidad aparente se determinaron a partir del principio de fuerza boyante. Porosidad aparente La porosidad aparente se calculó utilizando los datos de densidad real y aparente  


CONCLUSIONES

Durante la estancia de verano logre adquirir conocimientos del proceso de liofilización, así como ponerlo en práctica. El proceso de liofilización de la fresa ayuda a conservar el producto por más tiempo, evitando la descomposición del producto fresco. La fresa liofilizada puede utilizarse como ingrediente en la elaboración de varios productos alimenticios, así como también para el consumo directo, ofreciendo un producto libre de aditivos y rico en compuestos bioactivos. La medición de las propiedades estructurales de los productos liofilizados es importante para el desarrollo de nuevos productos industriales con propiedades específicas deseadas.
Tenorio Mendoza Jonathan Yael, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

OPTIMIZACIóN Y CREACIóN DE RUTAS PARA REDUCIR LA DISTANCIA Y EL TIEMPO EN TRáNSITO


OPTIMIZACIóN Y CREACIóN DE RUTAS PARA REDUCIR LA DISTANCIA Y EL TIEMPO EN TRáNSITO

Razo Rangel Diego Alejandro, Instituto Tecnológico Superior de Irapuato. Tenorio Mendoza Jonathan Yael, Instituto Tecnológico Superior de Irapuato. Velez Parra Irwin Jared, Instituto Tecnológico Superior de Irapuato. Zúñiga Páramo Karen Fernanda, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La creación de rutas eficientes y bien planificadas en logística es esencial para minimizar costos. Reducir el tiempo de tránsito y la distancia, optimizar la cantidad de carga en el transporte y seleccionar rutas seguras ayuda a mejorar el stock y la seguridad. Una adecuada planificación también permite la trazabilidad de los envíos para un seguimiento y control efectivo durante todo el proceso logístico. En la investigación, se propone centrarse en modelos TTRP (problema de rutas para camiones y remolques), donde se consideran vehículos compuestos por un camión y un remolque, y diferentes tipos de clientes que pueden ser atendidos por el camión solo o la unidad completa. El objetivo del TTRP es encontrar un conjunto de rutas con distancia total mínima, asegurando que cada cliente sea visitado por un vehículo compatible con su demanda y capacidad, sin superar el número limitado de camiones y remolques disponibles. Una particularidad del TTRP es que tanto el camión como el remolque tienen cierta capacidad de carga, y las mercancías pueden transferirse entre ellos durante la ruta en las plazas de aparcamiento del remolque.



METODOLOGÍA

La identificación y análisis de los procesos internos son fundamentales para construir rutas eficientes que minimicen costos y tiempos de transporte. Para ello, se consideran datos como la cantidad de clientes, sus coordenadas, las capacidades de los vehículos y las restricciones operativas. Se utilizará el método PLEB (Programación Lineal Entera Binaria) para la construcción de rutas, que es un algoritmo matemático para resolver problemas de optimización con variables de decisión enteras binarias. Factores importantes para la planeación de rutas incluyen determinar qué tipo de vehículo (tracto, tráiler o mixto) utilizar, la cantidad y tipo de clientes a atender, la secuencia de los destinos y el uso de softwares como el Lenguaje R para saber las rutas optimas y Veusz para graficar las rutas obtenidas. La planeación de rutas es esencial para garantizar entregas rápidas y puntuales, y se realiza trazando las rutas de distribución en un mapa, identificando los puntos de entrega y las mejores vías para cada zona, considerando la disponibilidad de vehículos para cubrir las entregas. En este trabajo, se utilizaron dos métodos para crear rutas eficientes: El método del vecino más cercano para la creación de rutas a partir de una secuencia de ubicaciones. Este algoritmo heurístico busca encontrar una solución aproximada al problema del viajante de comercio, minimizando la distancia o tiempo total recorrido. Aunque no garantiza la solución óptima, es eficiente y proporciona resultados rápidos. El método de clusters es otra estrategia empleada en la creación de rutas eficientes. Consiste en agrupar puntos de interés en clústeres según su proximidad espacial y luego generar rutas para visitar estos clústeres en un orden específico. Este enfoque busca optimizar la planificación de rutas al considerar la agrupación de ubicaciones cercanas.


CONCLUSIONES

La construcción de rutas es una práctica clave en diversos sectores para optimizar el movimiento de personas, vehículos o mercancías, mejorando la eficiencia y reduciendo costos y tiempos de viaje. El problema del enrutamiento de camiones y remolques (TTRP) es un desafío logístico que busca determinar la ruta óptima para una flota de camiones y sus remolques, cumpliendo con demandas de entrega y restricciones operativas. Se utilizan técnicas de optimización combinatoria y algoritmos heurísticos, como el método de Programación Lineal Entera Binaria, para encontrar soluciones óptimas o aproximadas. El lenguaje de programación R se utiliza para aplicar el modelo matemático y generar la ruta óptima, gracias a sus capacidades en estadísticas y análisis de datos. Veusz, una herramienta de visualización de datos científicos se emplea para representar gráficamente las rutas seleccionadas por R, facilitando la visualización y comprensión de la ruta óptima.
Terán Cuevas Edgar Román, Instituto Politécnico Nacional
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología

DESARROLLO DE SISTEMA DE LOCALIZACIóN EN ENTORNOS CERRADOS EMPLEANDO TECNOLOGíAS BLUETOOTH DE BAJO CONSUMO ENERGéTICO


DESARROLLO DE SISTEMA DE LOCALIZACIóN EN ENTORNOS CERRADOS EMPLEANDO TECNOLOGíAS BLUETOOTH DE BAJO CONSUMO ENERGéTICO

Mendoza Cardenas Raymundo, Instituto Politécnico Nacional. Ramos Sánchez Marcel Alexander, Universidad Tecnológica de Nayarit. Terán Cuevas Edgar Román, Instituto Politécnico Nacional. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La creciente necesidad de sistemas de localización en entornos interiores precisos y eficientes es evidente en la actualidad. Estos sistemas son vitales en aplicaciones industriales para optimizar procesos, rastrear activos y mejorar la gestión de inventarios, lo que reduce costos y aumenta la productividad. En el aspecto de seguridad, la tecnología de posicionamiento en interiores mejora la protección en edificios, permitiendo el monitoreo continuo y una rápida respuesta en situaciones de emergencia. En espacios públicos como centros comerciales y hospitales, la experiencia del usuario se enriquece mediante guías de navegación y servicios personalizados. Aunque los avances tecnológicos y el GPS en exteriores son ampliamente disponibles, la localización en interiores enfrenta desafíos únicos. La señal GPS no es confiable debido a obstáculos físicos y la interferencia de señales inalámbricas que afecta la precisión. Es necesario buscar enfoques alternativos, como redes de sensores inalámbricos con tecnología Bluetooth de bajo consumo de energía (BLE) y algoritmos de multilateración (MLAT), que han demostrado su eficacia en la localización de objetos en interiores.



METODOLOGÍA

En el presente proyecto se emplearon seis nodos Bluetooth Low Energy (BLE) para llevar a cabo la recolección de datos. Estos nodos se dividieron en dos tipos: tres BC037S BlueCharm y tres ESP32 EXPRESSIF. La elección de nodos de diferentes modelos permitió evaluar y comparar su desempeño en el contexto específico de este proyecto. Cada uno de los nodos utilizados, BC037S BlueCharm o ESP32 EXPRESSIF, funcionó como un emisor de señales Bluetooth y tuvo la capacidad de transmitir información relevante. Estos nodos fueron ubicados estratégicamente en el área de interés para asegurar una cobertura óptima y recopilar datos representativos de distintas ubicaciones dentro del espacio bajo estudio.  Para lograr una implementación efectiva de algoritmos de localización, se llevó a cabo una caracterización detallada de los sensores BLE utilizados. Este proceso consistió en realizar mediciones del indicador de fuerza de la señal recibida (RSSI, por sus siglas en inglés, Received Signal Strength Indicator) a diferentes distancias de los nodos. Mediante estas mediciones, se obtuvo una relación entre la distancia y el valor de RSSI, que permitió establecer una expresión matemática que relaciona ambos parámetros.  Durante todo el proceso de caracterización, se prestó especial atención a factores que pudieran afectar la precisión de las mediciones, como la presencia de interferencia de señales y la geometría de los espacios de prueba, que incluyen el Laboratorio de Redes y Comunicaciones (NETCOM Laboratory) y el Lobby del edificio de la División de Ciencias, Ingenierías y Tecnología (DCIT) de la Universidad Autónoma del Estado de Quintana Roo (UQROO). Se observó que el valor del RSSI puede experimentar variaciones significativas en cada iteración debido a estas influencias externas.  Para abordar este desafío y mejorar la confiabilidad de las mediciones, se implementaron filtros de Kalman. El uso de este tipo de filtros en el proceso de localización resultó positivo para mitigar los efectos de la interferencia y otros factores que afectan el RSSI en aproximadamente un 6%.    Para el procesamiento y presentación de los datos recopilados, se utilizó una tarjeta Raspberry Pi 400, una microcomputadora potente y versátil. Está Raspberry Pi 400 actuó como centro de control, recibiendo las señales emitidas por los nodos BLE y aplicando algoritmos específicos de localización, como multilateración, trilateración y ponderación inversa.  La multilateración permitió calcular la ubicación precisa de la estación base a partir de la distancia medida desde múltiples nodos emisores. La trilateración, por su parte, utilizó la distancia desde al menos tres nodos para calcular la posición relativa del receptor en el plano cartesiano. La ponderación inversa se utilizó para asignar pesos a las mediciones en función de su confiabilidad, mejorando la precisión de las estimaciones de distancia.  Finalmente, los resultados se presentaron de manera visual y accesible mediante una página web desarrollada utilizando el framework Flask, HTML, CSS y la biblioteca Plotly para la visualización de datos. Esta interfaz gráfica permitió a los usuarios interpretar fácilmente la ubicación de los nodos y la estación base, lo que resultó en un análisis más completo y una comprensión clara de los datos recopilados.


CONCLUSIONES

Durante la estancia de verano, se lograron adquirir valiosos conocimientos teóricos sobre los sistemas de localización en espacios interiores y se pusieron en práctica mediante la implementación de un sistema de localización. Para esto, se emplearon nodos BLE y una Raspberry Pi 400 como estación base. Los resultados obtenidos a través de los algoritmos de localización y filtros de Kalman demostraron la obtención de mediciones precisas y confiables.  Además, se diseñó una interfaz web para la presentación de los datos, lo que facilitó el análisis y la interpretación de los resultados. Si bien el proyecto aún se encuentra en desarrollo debido a su complejidad, se han sentado las bases para futuros desarrollos y aplicaciones en escenarios similares.  Es importante mencionar que, debido a la etapa actual de desarrollo, no es posible mostrar un plan de pruebas, pero se espera que con mejoras continuas, el sistema alcance una mayor precisión y se optimicen los costos de implementación. De esta manera, se abrirán nuevas posibilidades de aplicación en diversos ámbitos, aumentando la utilidad y el alcance de este innovador sistema de localización en entornos interiores.
Tijerina Cavazos Priscila, Instituto Tecnológico de Reynosa
Asesor: M.C. Alba Maribel Sánchez Galvez, Benemérita Universidad Autónoma de Puebla

ESTUDIO DEMOGRáFICO DEL MUNICIPIO DE REYNOSA PARA ATENCIóN DE POLíTICAS PúBLICAS


ESTUDIO DEMOGRáFICO DEL MUNICIPIO DE REYNOSA PARA ATENCIóN DE POLíTICAS PúBLICAS

Tijerina Cavazos Priscila, Instituto Tecnológico de Reynosa. Asesor: M.C. Alba Maribel Sánchez Galvez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La demografía es un estudio estadístico de las poblaciones humanas según su estado y distribución en un momento determinado o según su evolución histórica. Su importancia radica en la toma de decisiones políticas y de planificación puesto a que los datos demográficos permiten a los gobiernos y autoridades locales tomar decisiones informadas sobre políticas públicas, desarrollo urbano, públicos, infraestructuras y programas sociales. Al conocer la distribución de la población por edad, género, nivel educativo, ocupación y otras características, se pueden diseñar estrategias más efectivas y adaptadas a las necesidades específicas de la comunidad. Tratando de atender a estas problemáticas este trabajo hace un estudio y un análisis basado en las edades de los habitantes del municipio de Reynosa del estado de Tamaulipas con los datos de población proporcionado por INEGI en el año 2020 con el objetivo de conocer a fondo la demografía del municipio y esto pueda apoyar con las propuestas de programas sociales y políticas públicas en el estado. 



METODOLOGÍA

La metodología utilizada se dividió en: Extracción del data set Análisis de los datos Resultados Análisis de los resultados


CONCLUSIONES

La distribución de la población por edad, género, nivel educativo, ocupación y otras características es un factor crucial para diseñar estrategias efectivas y adaptadas a las necesidades específicas de una comunidad. Existen algunas incógnitas en la información proporcionada por el INEGI, el data set contaba con asteriscos en sustitución de ciertos valores, se cuestionó esta información y no se obtuvieron respuestas concretas respecto a esos valores, se continuo con el desarrollo y se establecieron los puntos escenciales para incorporar los programas sociales.
Toledo Magaña Maria Valeria, Instituto Tecnológico Superior de Puruándiro
Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo

PROPUESTA DE MEJORA PARA LA DISMINUCIóN DE LA CONTAMINACIóN EN LAS INDUSTRIAS TEXTILES EN MICHOACáN, MéXICO.


PROPUESTA DE MEJORA PARA LA DISMINUCIóN DE LA CONTAMINACIóN EN LAS INDUSTRIAS TEXTILES EN MICHOACáN, MéXICO.

Toledo Magaña Maria Valeria, Instituto Tecnológico Superior de Puruándiro. Asesor: Mg. Ivan Dario Rojas Arenas, Institución Universitaria Pascual Bravo



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto se enfocará en describir el impacto ambiental que genera la industria textil para proponer diferentes alternativas para brindar una conciencia en la fabricación de prendas de vestir. La industria textil es después de la industria del petróleo, la segunda industria más contaminante del medio ambiente. Dentro de los contaminantes del agua residual de la industria textil se encuentran los fenoles, sulfuros, cromo y colorantes. De acuerdo con datos de Naciones Unidas (2019), confeccionar unos   jeans (pantalones   de   mezclilla) requiere 7,500 litros de agua.  Se fabrican 1000 millones de jeans en el mundo (La República, 2018). Entre las tecnologías de remediación de efluentes industriales, las más comunes son coagulación-floculación, coagulación con extractos de plantas, electrocoagulación, adsorción y tratamientos biológicos. En México se estima un volumen de descarga de aguas residuales que afecta el río Atoyac el cual pasa por diferentes estados entre ellos Michoacán esto es preocupante ya que la agricultura es la actividad de mayor consumo de agua con 63 600 x 106 m3 año 1, que representa el 76.3% del volumen total extraído en México (CONAGUA 2017), sin embargo, el efluente textil tratado (ETT) tiene uso potencial como agua de riego. Existen múltiples opciones para el reciclaje del Fast Fashion, todo depende de nuestra imaginación. El Slow Fashion es una corriente que viene haciéndose eco hace unos años e implica una forma de consumo más consciente. Donde el consumidor busca consumir menos cantidad y prendas más sustentables.



METODOLOGÍA

Análisis de tipo cualitativo en su primera fase, con enfoque descriptivo, empleando como técnica la revisión sistemática de literatura, y como herramienta la matriz de meta análisis. Con la información obtenida de repositorios, revistas científicas, entre otras se espera construir una matriz DOFA como herramienta diagnostica, así como los árboles de problemas y de medios y fines respectivos. El estudio consta de dos fases principales; en la primera fase, se procede a hacer el diagnóstico situacional, mientras que en la segunda se procede a construir una estrategia de mejoramiento de los procesos.


CONCLUSIONES

Se encuentra que, dentro de la revisión sistemática de literatura que corresponde a esta primera etapa del proyecto, se ha evidenciado un vacío de conocimiento frente al objeto de estudio aplicado en el estado de Michoacán, por tanto, se considera pertinente realizar una investigación rigurosa que permita un análisis detallado de la cadena de valor y los procesos logísticos y de intermediación analizados. El agua residual generada por los diversos procesos textiles tiene que ser limpia de grasas, aceites, colorantes y otros productos químicos antes de su descarga al alcantarillado.      Es así que para tener procesos tex-tiles sustentables necesitamos: Minimizar la contaminación: aire, agua y suelo. Los sistemas de tratamiento de efluentes permiten disminuir el nivel de contaminantes fuera del proceso y antes de descargarlos al sistema de alcantarillado o a algún río. El tipo de sistema a utilizar dependerá de las condiciones locales y de una serie de criterios de selección, como costos de inversión, operación y mantenimiento, eficiencia de remoción y rentabilidad, espacio disponible, personal especializado y de los estándares de valores máximos admisibles (VMA) de los efluentes que son vertidos a la red de alcantarillado.  El fast fashion o moda rápida ofrece a los consumidores cambios constantes de prendas textiles a precios muy bajos, con lo cual se alienta al consumidor a realizar compras más frecuentes y desecharlas muy rápido, en ocasiones debido a la mala calidad que presenta la ropa, por lo que el ritmo de explotación de recursos que involucra su proceso productivo es muy alto. En cuanto a las personas deben concientizarse con la problemática de la contaminación que genera el consumo excesivo de jeans, porque el compromiso no solo es de las empresas sino también de cada individuo. Los mayores consumidores son Millennials nacidos con las redes sociales, por lo tanto, es importante responder y llegar a ellos a través de las mismas redes y tecnologías. Las marcas de Slow fashion y sustentables se ven favorecidas en este proceso ya que a través de las redes pueden mostrar sus valores, procesos y formas ecológicas de trabajar.
Torres Arano Aileen Alitzel, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.


RCD: APROVECHAMIENTO Y ELABORACIÓN DE PRODUCTOS PARA LOS USUARIOS DE LA CIUDAD DE MANIZALES, CALDAS, 2023.

Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan. López Hernández Erick Paul, Universidad Vizcaya de las Américas. Rodriguez Linares Maria Lizbeydi, Universidad Autónoma de Guerrero. Torres Arano Aileen Alitzel, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Según el COSPES 3874 la disponibilidad de suelos para efectuar la disposición final no está acorde con la creciente generación de residuos. El 83% de los residuos sólidos domiciliarios que se generan van a los rellenos sanitarios y solo el 17% es recuperado por recicladores para su reincorporación al ciclo productivo (DNP y BM, 2015, como se citó en (Manuel Santos Calderón et al., 2016) ). Si se continúa con la misma dinámica de generación de residuos, sin adecuadas medidas para mejorar su aprovechamiento o tratamiento, y con patrones de producción y consumo insostenibles, en el año 2030 tendremos emergencias sanitarias en la mayoría de las ciudades del país y una alta generación de emisiones de GEI.  Dada la escasez de información Nacional del aprovechamiento de materias primas a partir de residuos de construcción y demolición. Esta investigación pretende abordar los objetivos específicos del Plan Integral de gestión de Residuos Sólidos PGIRS 2015-2027 Manizales, en su apartado de la gestión de Residuos de Construcción y Demolición , en lo que refiere a  realizar la caracterización de los RCD, a fin de conocer sus cualidades químicas y físicas que permitan adoptar estrategias para disminuir la disposición final en escombreras, al igual que  el objetivo de maximizar y  fomentar el procesos de recuperación y reutilización  de los RCD fortaleciendo aspectos de orden técnico, administrativo, ambiental, económico, cultural y social. Principalmente, el enfoque se da en la ciudad de Manizales por las metas establecidas en su plan de desarrollo de 2020-2023 como una ciudad sostenible y resiliente, que actualmente lleva un 70,9 % de cumplimiento en avances, según datos del mes de julio. Para ello la investigación plantea ¿Es viable la recuperación de residuos de construcción y demolición para la fabricación de productos arquitectónicos?  con la cual se busca contribuir a los siguientes objetivos de desarrollo sostenible y a las metas del plan de desarrollo sostenible Manizales 2020-2023:



METODOLOGÍA

1.- CARACTERIZACIÓN 1.1 Prueba geométrica  ASTM C136: Método de prueba estándar para análisis granulométrico de agregados finos y gruesos.(ASTM, 2019a) Pruebas físicas  ASTM C127:  Método de prueba estándar para la densidad relativa y la absorción del agregado grueso.(ASTM, 2015) ASTM C131:  Método de prueba estándar para determinar la resistencia a la degradación de agregados gruesos de tamaño pequeño por abrasión e impacto en la Máquina de los Ángeles. (ASTM, 2020a) ASTM D4791: Método de prueba estándar para partículas planas, partículas alargadas o partículas planas y alargadas en agregados gruesos.(ASTM, 2019c) Microscopía Electrónica de barrido y Fluorescencia de rayos X por energía dispersiva: Método para determinar la composición química superficial del RCD y su apariencia superficial a nivel microscópico para comprender las anteriores pruebas físicas como densidad especifica y absorción de agua. ASTM C39/C39M-20: Método de prueba estándar para determinar la resistencia a la comprensión de cilindros de concreto. (ASTM, 2020b). 2.- FABRICACIÓN 2.1 Diseño de producto Para el diseño de estos productos se parte de un estudio de la normatividad técnica colombiana, dadas por el Instituto Colombiana de Normas Técnicas y Certificación (ICONTEC) esto con el fin de que el diseño cumpla con los lineamientos geométricos y de resistencia establecidos para lograr su comercialización.   . Adoquin Fachaleta 2.2 Prototipado 3D de los moldes de Adoquín y fachaleta El prototipado es una técnica utilizada en la fabricación de productos o moldes, debido a las prestaciones económicas y de modelo real o a escala que se obtiene, permitiendo una acercamiento visual y comercial del producto. 2.3 Diseño de mezcla de concreto con RCD El diseño de mezcla de concreto para los productos de adoquín, fachaleta y los cilindros de testeo para el ensayo de compresión, los Ingenieros Civiles trabajaron bajo el Método ACI 211.1. 2.4 Desencofrado El desencofrado es una etapa que se realiza con el concreto húmedo con el objetivo de empezar el proceso de curado, dado que en el proceso de curado se garantiza que el concreto conserve la humedad y se eviten fisuraciones en el producto. 2.5 Ensayo de resistencia a la compresión El ensayo de resistencia a la comprensión permite evaluar la resistencia mecánica de un material cuando es sometido a una carga axial de aplastamiento, para este caso permite evaluar como se comportará el concreto y específicamente los adoquines en sus aplicaciones de pavimentación, bancas, etc.


CONCLUSIONES

Los resultados obtenidos en esta investigación, de acuerdo a las pruebas realizadas al material proveído arrojaron que el tamaño de partícula a incorporar a la mezcla es de 3/8, debido a que en la prueba de análisis granulométrico se encontró que es una de las partículas con mayor cantidad. Diseñando una mezcla considerado para elementos de una resistencia de 40 MPa se realizaron productos de ensayo para la evaluación, los resultados obtenidos de las pruebas de compresión describen una capacidad de 25 MPa, siendo un 62.5% de lo considerado en el diseño. Esto se debe a las cualidades de desgaste, absorción y humedad de los materiales. El RCD cumple como agregado para la elaboración de elementos de construcción no estructurales como lo son los adoquines y fachaletas, siempre y cuando se evalúe la calidad química y mecánica, además de realizar un diseño factible de mezcla de concreto para la optimización del desempeño, considerando los factores de absorción, desgaste y por ende relación agua y cemento como los principales puntos críticos del material. El aprovechamiento de los residuos de demolición y construcción se han vuelto un factor importante para el crecimiento de las ciudades sostenibles, en éste caso para la ciudad de Manizales, es una respuesta ante el programa de desarrollo en beneficio del medio ambiente y hacia la convergencia de una ciudad inteligente.
Torres Avalos Denise, Instituto Tecnológico de Morelia
Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE NANOPARTICULAS DE ORO PARA SU EVALUACIóN COMO AGENTES ANTIBIOFILM DE BACTERIA STRAPHYLOCOCUS AUREUS.


SíNTESIS DE NANOPARTICULAS DE ORO PARA SU EVALUACIóN COMO AGENTES ANTIBIOFILM DE BACTERIA STRAPHYLOCOCUS AUREUS.

Torres Avalos Denise, Instituto Tecnológico de Morelia. Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El estudio de nanomateriales, específicamente de nanopartículas de oro, es de gran importancia debido a su potencial para prevenir la formación de biofilm de la bacteria Staphylococcus aureus, un patógeno comúnmente asociado con infecciones hospitalarias y resistentes a antibióticos. Las nanopartículas de oro pueden ofrecer propiedades antimicrobianas y antiadhesivas que interfieren con la capacidad de la bacteria para formar una película protectora en superficies, evitando así su propagación y aumentando la eficacia de las estrategias de control de infecciones. Este enfoque de investigación puede tener implicaciones significativas en la mejora de la salud pública y en la lucha contra las infecciones bacterianas resistentes a los tratamientos convencionales.



METODOLOGÍA

Se llevaron a cabo tres experimentos:  Experimento 1: Síntesis de nanopartículas de oro con una sal de oro y extracto de hueso de aguacate. En un falcon, se mezclará el extracto de hueso de aguacate con una solución de una sal de oro. Las muestras obtenidas se analizarán mediante técnicas como espectroscopía UV-Vis, SEM y difracción de rayos X (XRD) para determinar el tamaño y morfología. Experimento 2: Estudio de cinética de crecimiento de bacterias Staphylococcus aureus, medición cada dos horas por 16 horas. Se preparará un medio de cultivo adecuado para el crecimiento de la bacteria. El cultivo se mantendrá en una incubadora a 36.5 •C y se tomarán muestras cada dos horas durante un período de 16 horas. Se realizará un análisis estadístico de los resultados para obtener una curva de crecimiento y determinar la velocidad de crecimiento. Experimento 3: Experimento de formación de biofilm con medición después de 24 y 48 horas, utilizando cristal violeta. Se preparará un cultivo de Staphylococcus aureus, que se utilizará para la formación del biofilm. Se inoculará en placas de cultivo específicas para promover la formación del biofilm. Las placas se incubarán bajo condiciones controladas. Durante un período de 24 y 48 horas, las bacterias se adherirán a la superficie de las placas y formarán el biofilm. Luego de los períodos de incubación, se eliminará suavemente el exceso de cultivo no adherido y se teñirá el biofilm con cristal violeta. 5. Cuantificación del biofilm: Se medirá la cantidad de cristal violeta absorbido por el biofilm, lo que proporcionará una estimación de la cantidad de biofilm formado. Se analizarán los datos obtenidos para comparar la cantidad de biofilm formado a las 24 y 48 horas.


CONCLUSIONES

En conclusión, este proyecto ha sido exitoso en la síntesis de nanopartículas de oro con un diámetro de hasta 8 nanómetros, las cuales demostraron poseer propiedades anti formación de biofilm frente a la bacteria Straphylococcus aureus. Estas nanopartículas fueron minuciosamente caracterizadas utilizando técnicas como DRX y TEM, lo que permitió comprender mejor su estructura y tamaño. Los resultados obtenidos sugieren un gran potencial para aplicaciones en el campo de la biomedicina y la lucha contra infecciones bacterianas.
Torres Chagolla Lilia, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)

SISTEMA ROBóTICO CARTESIANO PARA EL CULTIVO DE SEMILLAS


SISTEMA ROBóTICO CARTESIANO PARA EL CULTIVO DE SEMILLAS

Juarez Falcon Alberto Daniel, Instituto Politécnico Nacional. Torres Chagolla Lilia, Universidad Michoacana de San Nicolás de Hidalgo. Tovar Romero Kevin Iván, Instituto Politécnico Nacional. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Debido a la riqueza de recursos naturales y la biodiversidad en México, este país destaca como productor de una amplia variedad de cultivos. En este contexto, el presente proyecto se enfoca en el diseño y simulación de un sistema robótico cartesiano para el cultivo de semillas con fines prácticos para el Centro de Investigaciones Biológicas del Noroeste. La implementación del sistema robótico propuesto busca mejorar la eficiencia del proceso de cultivo de albahaca mediante la automatización de tareas específicas, lo que permitirá un uso más preciso y efectivo de los recursos agrícolas. El objetivo general es el diseño de un sistema robótico automatizado que, con su implementación, simplifique la tarea del agricultor al sembrar semillas en charolas comerciales de 50 cavidades, reduciendo los riesgos asociados con el trabajo manual y optimizando la producción al utilizar de manera eficiente las semillas que son sembradas, mejorando la productividad en los cultivos al reducir el tiempo invertido en la tarea. La implementación de un robot cartesiano diseñado para automatizar la siembra logra optimizar el proceso el cultivo y se liberan recursos humanos, brindándoles la oportunidad de emplear sus esfuerzos en diferentes actividades que los hagan aumentar su ingreso económico. Promueve la innovación al introducir un enfoque automatizado en un proceso tradicionalmente realizado manualmente, representando un cambio tecnológico que puede mejorar la eficiencia y precisión en la producción de los cultivos. Al sembrar las semillas de manera responsable y mantener las plantas germinadas en condiciones apropiadas, se fomenta el crecimiento saludable de la vegetación. El prototipo del sistema robótico se diseña específicamente para las semillas de albahaca. El proceso para la plantación de semillas en charolas comerciales de plástico para cultivo consiste de las acciones mencionadas. Debido a esto, surge la necesidad del diseño de un sistema robótico automatizado que simplifique y agilice las tareas del agricultor al sembrar las semillas en las charolas comerciales. 



METODOLOGÍA

Para el diseño integral del sistema robótico debe abarcar tres puntos fundamentales: la simulación, la interconexión electrónica de los componentes y la programación del sistema encargado de ejecutar las actividades requeridas. Cada uno de estos aspectos es esencial para lograr un sistema funcional y eficiente que automatice la tarea de una manera precisa y confiable, logrando nuestros objetivos de realizar el cultivo de la albahaca. El proceso para la siembra manual de semillas de albahaca consiste de una serie de pasos laboriosos que requieren mucho tiempo para llevar a cabo, tales como la selección manual de semillas y la colocación en los orificios de cada cavidad de la charola conllevan a una alta dedicación de los agricultores y la posibilidad de cometer errores que ponen en riesgo la tasa de germinación, impactando directamente con la productividad del cultivo. Con este sistema garantizamos la distribución uniforme y precisa de las semillas en el proceso de siembra, reduciendo la intervención manual, lo que también minimiza los riesgos asociados con el trabajo en condiciones de calor extremo, trayendo consigo beneficios mayores, como lo son una mayor productividad y rentabilidad en el cultivo de semillas. El sistema robótico propuesto es de tipo cartesiano, que cuenta con 3 ejes de control primario, los cuales son todos lineales. Cuenta con tres articulaciones deslizantes que permiten el movimiento de una herramienta hacia dentro, hacia afuera, hacia arriba y hacia abajo. Este tipo de robots suelen ser utilizados para la manipulación de materiales, es posible debido a la alta precisión que tienen para moverse. Debido a las ventajas que este tipo de robot nos presenta, será utilizado en conjunto con una herramienta diseñada específicamente para realizar el proceso de la siembra de las semillas en una acción simplificada. Para el presente proyecto, se procedió a crear el diseño funcional del sistema robótico cartesiano,  la representación simulada de la propuesta generada, en la que se pueden observar los tres ejes de transmisión del robot, husillos y motores a pasos para cada uno de los mismos. La conexión electrónica asegura la comunicación efectiva entre los distintos elementos del sistema, para permitirnos un control coordinado y preciso del robot


CONCLUSIONES

El diseño y simulación de este sistema robótico es de gran ayuda para automatizar los cultivos de semillas, en este caso, de la albahaca. En la localidad seleccionada, es de gran ayuda por las condiciones climatológicas y debido al costo elevado de cada semilla. Con este sistema, se optimiza el cultivo y la producción de esta planta, y también puede ser adaptado a otros tipos de plantas que pueden ayudar a mejorar las formas en las que la agricultura se desarrolla, mejorando tiempos, reduciendo costos y disminuyendo la probabilidad de cometer errores al realizar esta actividad. El diseño del robot cartesiano conjuga una cantidad de ramas de la ingeniería como lo es la mecánica, programación, electrónica, entre otros, por lo que este proyecto integra diversos conocimientos. La utilización de diversos softwares para la simulación del sistema nos permite saber cómo será su construcción en el momento que se decida llevarlo a cano físicamente, aprovechando que los materiales con los que se trabaja en la etapa de simulación del sistema físico e interconexión electrónica son los que se eligieron para este proyecto por cumplir las necesidades observadas durante la etapa de diseño. Los actuadores, los drivers y la tarjeta utilizada son materiales comerciales comunes, lo que hace que su construcción se facilite debido a que pueden conseguirse de una forma relativamente sencilla. En resumen, el diseño y simulación de este sistema robótico representa una solución valiosa para la automatización de los cultivos, mejorando la eficiencia, reduciendo costos y promoviendo una agricultura más sustentable y segura para todos los involucrados.
Torres Cornelio Berenice, Universidad Autónoma del Estado de México
Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas

PRODUCCIÓN DE HIDRÓGENO A PARTIR DE AGUA POR FOTOCATÁLISIS HETEROGÉNEA CON COMPUESTOS HÍBRIDOS RGO/TIO2 MODIFICADO CON POLIANILINA


PRODUCCIÓN DE HIDRÓGENO A PARTIR DE AGUA POR FOTOCATÁLISIS HETEROGÉNEA CON COMPUESTOS HÍBRIDOS RGO/TIO2 MODIFICADO CON POLIANILINA

Torres Cornelio Berenice, Universidad Autónoma del Estado de México. Asesor: Dr. Alfonso Talavera López, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Es importante la obtención del hidrógeno por vías favorables ya que éste va a sustituir las formas actuales de producir energía, gracias a que esta molécula no genera subproductos y el valor calorífico es muy alto. El gran potencial del hidrógeno como alternativa energética a los combustibles fósiles hace necesario el desarrollo de nuevas tecnologías sostenibles de obtención del mismo. En este sentido, la producción de hidrógeno mediante descomposición fotocatalítica de agua está adquiriendo especial interés debido a su mínimo impacto ambiental. Sin embargo, esta tecnología aún no se ha podido implementar a nivel industrial, esto se debe principalmente a la necesidad de desarrollar un fotocatalizador eficiente y estable bajo las condiciones de operación. El dióxido de titanio (TiO2) está considerado como uno de los fotocatalizadores más prometedores para la producción de hidrógeno debido, en gran parte, a su alta actividad, gran resistencia a la corrosión en medios acuosos y a su bajo costo. A pesar de esto, todavía es necesario mejorar la eficiencia de TiO2, además de ampliar su uso a la región de luz visible. Para lograr lo anterior, el TiO2 debe ser dopado con metales de transición y no metales. Recientemente, se encontró que combinar el TiO2 con óxido de grafeno reducido (rGO) mejoraba la eficiencia del fotocalizador con propiedades superiores al TiO2. En esta investigación se pretende obtener hidrógeno por medio de la fotocatálisis heterogénea para así sustituir las formas actuales de obtención de energía y poder reducir las emisiones de gases de efecto invernadero.



METODOLOGÍA

Síntesis del compuesto de óxido de grafeno (GO) Método Tour (Hummers & Offeman 1958; Tour et al. 2010). Para esto, 1 g de grafito fue sometido a un pretratamiento de microondas (Liu et al. 2014a) durante 15s inmediatamente después del tratamiento con microondas, se agregó a solución concentrada con una relación 9:1 de H2SO4 y H3PO4 (43.2 mL y 4.8 mL respectivamente), dicha mezcla se mantuvo en agitación magnética y baño frio (4 °C) durante 3 h, pasado ese tiempo se agregaron 6 g de KMnO4 durante 2 h, finalmente una solución de H2O2 (12 mL) y HCl al 10% (13 mL) fue agregada, por goteo; a la mezcla con agitación durante 0.5 h; aun en hielo debido a la naturaleza exotérmica de la reacción, posteriormente se procede al lavado y filtrado del GO con agua desionizada, actividad auxiliada por una bomba de vacío hasta haber retirado los restos de ácido y permanganato presentes en la mezcla, una vez concluido este paso el GO es llevado a sequedad en una mufla a 65°C durante 12 h. Síntesis de los compuestos de TiO2/rGO El TiO2/rGO se preparó mediante un método sencillo a través de un tratamiento hidrotérmico de un solo paso. La figura 10 muestra la ilustración esquemática del proceso de síntesis. En un proceso de preparación típico, se disolvieron 5 mg de GO en una mezcla de 10 mL de etanol y 20 mL de agua desionizada bajo sonicación durante 1 h para reexfoliar el GO. A continuación, se añadió la cantidad deseada de tetrabutiltitanato (TBOT) a la suspensión de GO gota a gota y se agitó. Tras agitar durante 2 h, la solución obtenida se transfirió a una autoclave de 50 mL sellado con teflón y se mantuvo a 180 °C durante 8 h, tiempo durante el cual el GO se redujo a rGO directamente y el TiO2 se depositó sobre la superficie del rGO. Tras el enfriamiento, los productos resultantes se recogieron por filtración, se lavaron varias veces con etanol y agua desionizada y se secaron a temperatura ambiente para obtener el compuesto TiO2/rGO. Fabricación del material compuesto PANI-TiO2/rGO Se sometieron 0,3 g de TiO2/rGO a ultrasonidos en 60 mL de mezcla de isopropanol/ HCl, tras lo cual se añadió anilina, y la mezcla se sonicó durante 10 minutos para dispersar completamente los monómeros. A continuación, otros 3 mL de HCl 1.21 M que contienen 0,3 g de APS se añadieron, y la solución resultante se dejó polimerizar a 5 °C con agitación constante durante 24 horas en un baño de agua helada. El compuesto PANI-TiO2/rGO resultante, de color verde oscuro, se separó de la solución madre y se enjuagó con etanol y agua varias veces.


CONCLUSIONES

En la realización de esta investigación se estudiaron distintos métodos para sintetizar los compuestos de interés, al final se eligieron los métodos con mejores resultados reportados en la literatura para realizarlos, por lo que se obtuvieron buenos resultados. Se espera que posteriormente se hagan las reacciones correspondientes con los compuestos ya sintetizados, y al final se realice la caracterización de todos los compuestos obtenidos.
Torres Denogean Juan Daniel, Instituto Tecnológico Superior de Cananea
Asesor: Dr. Luis Arturo Garcia Delgado, Universidad de Sonora

CONTROL DE ROBOT MANIPULADOR CODO PLANO CON SERVOMOTORES DYNAMIXEL MX-64 UTILIZANDO MATLAB Y ECUACIONES DE CINEMáTICA INVERSA


CONTROL DE ROBOT MANIPULADOR CODO PLANO CON SERVOMOTORES DYNAMIXEL MX-64 UTILIZANDO MATLAB Y ECUACIONES DE CINEMáTICA INVERSA

Torres Denogean Juan Daniel, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Luis Arturo Garcia Delgado, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Los robots manipuladores son sistemas electromecánicos con cierto grado de complejidad que normalmente son operados por medio de control computacional. Estos son utilizados para diversas tareas como mover material, partes, herramientas, desempeñar trabajos de soldadura o ensamble, etc. Una parte inicial del proceso de diseño de un robot manipulador, es lo que se conoce como el modelado matemático. El propósito del modelado matemático es desarrollar técnicas para planificar trayectorias y controlar movimientos de los robots manipuladores, permitiendo así que estos puedan realizar tareas específicas. El objetivo de esta estancia fue establecer una técnica funcional para controlar la posición de un robot manipulador codo plano construido con dos servomotores Dynamixel MX-64 (Fig. 1), basándose en la teoría del modelado matemático y control de robots manipuladores. La herramienta computacional utilizada para programar el robot fue MATLAB. Uno de los retos iniciales fue lograr establecer la comunicación entre los servomotores del robot y el laboratorio de MATLAB. Este reto fue superado y se plasmo en un pequeño manual en donde se encuentran los procedimientos para comandar el robot, así como los programas para controlar la posición por medio de ecuaciones de cinemática.



METODOLOGÍA

Debido a que el modelado matemático de robots es un procedimiento complejo fue necesaria una introducción detallada. Durante las primeras cuatro semanas de la estancia se estudiaron diferentes temas referentes al control de robots manipuladores, como los son los principios de movimientos rígidos, cinemática directa, cinemática inversa, dinámica y planificación de rutas por medio de campos potenciales artificiales. Al mismo tiempo que se estudiaban dichos temas con la ayuda del asesor, se realizaba la investigación acerca de como operar los motores Dynamixel MX-64 por medio de MATLAB. Se consiguió dicho objetivo y se plasmo en un manual practico que incluye los procedimientos básicos para enviar consignas de movimiento hacia los servomotores y así lograr controlar el robot codo plano que se tenia en el laboratorio. Como era la primera vez que se utilizaba MATLAB y sus herramientas secundarias como Simulink, también se realizaron diversas practicas propuestas por el asesor con el fin de obtener un mejor manejo de estos programas y poder aplicarlos para controlar un robot real. Se llego al grado de poder utilizar los programas para realizar simulaciones de un modelo virtual del robot codo plano real. Dicho modelo virtual fue creado en SolidWorks y exportado hacia Simulink. En Simulink dicho robot virtual podía ser programado por medio de bloques que contenían diferentes etapas, como las ecuaciones de cinemática inversa y un controlador PID. La simulación consiste en que se le ordena al robot cumplir cierta trayectoria en base a coordenadas (x,y). Al correr la simulación se abre el modelo virtual del robot y se visualiza como este cumple la trayectoria deseada, además esta es graficada para su visualización. Una actividad extra que se realizó fue la participación en un curso de Tópicos de Control organizado por los maestros del departamento de Ingeniería en Tecnología Electrónico de la Universidad de Sonora. Este curso sirvió para fortalecer ciertos conceptos básicos utilizados en el control automático. Tras haber estudiado los temas mas importantes para el control de robots, se busco crear un control a partir de las ecuaciones de cinemática inversa para el robot manipulador codo plano que se tenía en disposición. El objetivo era que el robot físico se colocara en un punto del espacio deseado, dándole simplemente unas coordenadas (x, y). La variable de control que se utilizo para mover los motores fue el torque deseado. Esto quiere decir que el programa de control calculaba los torques requeridos para llegar la posición x y indicada, y a su vez estos torques eran enviados hacia los servomotores. El resultado fue satisfactorio, ya que se consiguió que el robot manipulador se colocara en las posiciones que se le indicaba con una repetibilidad y precisión aceptable.


CONCLUSIONES

La estancia de verano fue un proceso de grandes retos y aprendizajes. Nunca se habían estudiado los tópicos de control de robots a detalle y mucho menos sus respectivos modelados matemáticos. A pesar de ello, con la ayuda del asesor se logro obtener un resultado tangible, ya que el robot manipulador codo plano pudo ser controlado por medio de las ecuaciones de cinemática inversa y un control proporcional donde la variable de control era el torque de cada motor. El programa de control de posición se adjunto al manual de operación antes mencionado, por lo que el trabajo de esta estancia quedo documentado y servira como base para el posterior desarrollo del robot manipulador.
Torres Díaz Pablo Arath, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. David Torres Torres, Centro de Investigación en Materiales Avanzados (CONACYT)

CARACTERIZACIÓN MECÁNICA EXPERIMENTAL DE MUESTRAS DE HOJAS DE MAÍZ, Y SU SIMULACIÓN POR ELEMENTOS FINITOS


CARACTERIZACIÓN MECÁNICA EXPERIMENTAL DE MUESTRAS DE HOJAS DE MAÍZ, Y SU SIMULACIÓN POR ELEMENTOS FINITOS

Torres Díaz Pablo Arath, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. David Torres Torres, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

A nivel mundial, el problema que genera el aumento de residuos de envases plásticos ha crecido vertiginosamente debido a su mala disposición final. Los desechos de plásticos contaminan calles, vías fluviales, de la misma manera que contaminan océanos, matan a vida silvestre y se filtran en la cadena alimenticia. De continuar las tendencias actuales, se estima que para 2050 los vertederos contendrán un aproximado de doce mil millones de toneladas de desechos de esta naturaleza, equivalentes a casi ochenta millones de ballenas azules (TheNatureConservancy, 2021). En México, el agobiante problema de la contaminación por polímeros no biodegradables, es consecuencia directa de su falta de reintegración en la línea productiva y la deficiencia por parte de las autoridades correspondientes para poner en rigor las normas nacionales oportunas para el manejo de sólidos, como lo es la NOM-161-SEMARNAT-2011. En la actualidad, el estudio y uso de fibras orgánicas, así como de biopolímeros para la generación de recipientes, se ha popularizado; sin embargo, para el consumidor común siguen representando un gasto sustancialmente más alto respecto a los convencionales no biodegradables, por lo que la búsqueda de soluciones más baratas y eficientes, sigue en pie.  El maíz, como uno de los granos más consumidos a nivel mundial y siendo México uno de los seis principales productores a nivel mundial (GCMA, 2023), es uno de los principales pilares económicos, siendo primordialmente materia prima para la elaboración de una gran cantidad de productos alimenticios, que al mismo tiempo tiene como consecuencia la generación de residuos que son en gran parte aprovechados por la industria. Dentro de los residuos del maíz, están sus hojas, que de manera tradicional, son usadas como herramienta de elaboración de alimentos o para contenerlos de manera momentánea. No obstante, se carece de suficientes estudios que exploren sus propiedades mecánicas para diversas posibles aplicaciones, dentro de las que se encuentra, la generación de envases con un tiempo de degradación inferior a los polímeros tradicionales más contaminantes.



METODOLOGÍA

Para el desarrollo de la investigación, se llevó a cabo una revisión bibliográfica de distintos trabajos de caracterización de propiedades mecánicas de materiales orgánicos, fibras naturales y artificiales, para contar con una serie de precedentes sobre las técnicas empleadas, dentro de las que resalta la nanoindentación. Se utilizaron muestras de un conglomerado de siete hojas de maíz en porciones rectangulares, que fueron recortadas y adheridas a un sustrato magnético mediante pegamento epóxico. Posteriormente se realizaron micrografías con la ayuda de un microscopio óptico metalográfico invertido, con el objetivo de realizar un análisis morfológico preliminar. La muestra con mejores características a nivel visual, fue sometida a pruebas de nanoindentación utilizando un indentador Berkovich. Los ensayos se realizaron en cinco zonas de la muestra, buscando regiones con baja rugosidad, así como características representativas, como fibras, regiones con y sin recubrimiento superficial, así como el espacio entre fibras; lo anterior, con ayuda del óptico del equipo de nanoindentación. En cada una de las zonas, se aplicaron condiciones de cargas distintas, con la finalidad de observar el comportamiento del material, así entonces, se varió la magnitud de la carga, el tiempo de penetración, el tiempo de carga y el tiempo de descarga. En análisis de las curvas carga vs desplazamiento se realizó de manera posterior, con ayuda del software OriginLab, además se aplicó el método de Oliver y Pharr para determinar el modulo de Young y la dureza, ambas propiedades en GPa, para posteriormente realizar un análisis estadístico de los resultados obtenidos. Una vez logrados los datos preliminares del material, se usaron las imágenes obtenidas por el óptico del equipo de nanoindentación, junto con las micrografías y el software ImageJ, para el análisis de las longitudes de fibras y el espacio entre estas. Las mediciones de las distintas imágenes fueron registradas y se aplicaron métodos de estadística descriptiva para obtener una sola longitud característica a utilizar, con el objetivo de crear un modelo representativo de la morfología de la hoja de maíz. Mediante el software para la simulación por elementos finitos, Ansys Mechanical APDL, se realizó un modelo tridimensional de cuatro fibras separadas. Posteriormente se insertaron las propiedades del material, obtenidas preliminarmente, así como el mallado, utilizado el elemento SOLID187 debido a su mayor adaptabilidad al modelado, para después fijar un extremo del modelo en todas las direcciones y aplicar una deformación en el otro en dirección normal al área transversal, con el objetivo de observar su comportamiento al generar la solución y su la representación visual, así como el listado de soluciones de los esfuerzos, su deformación y el comportamiento elástico del modelo. 


CONCLUSIONES

Este periodo de aprendizaje intensivo logró proporcionar una visión profunda y enriquecedora sobre la importancia de comprender las propiedades mecánicas de los materiales y cómo pueden ser modeladas y analizadas mediante herramientas avanzadas como la nanoindentación y su simulación por medio de software de simulación por elementos finitos, como lo es ANSYS Mechanical APDL. Los resultados obtenidos, a pesar de encontrarse en un estado inicial al ser consecuencia del estudio de múltiples regiones de una sola muestra, son un parteaguas para continuar con el estudio de este material de naturaleza orgánica, esperando propiedades elásticas y de dureza similares al de los materiales de un solo uso ya empleados en el mercado, para su aplicación en recipientes alimenticios que permitan su uso como una alternativa más amigable con el medio ambiente.
Torres Estrada Daniela Yamilet, Instituto Tecnológico de Tlalnepantla
Asesor: Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango

SISTEMA DE STOCK PARA CONTROL DE PRODUCTO TERMINADO DE HONGO SETA


SISTEMA DE STOCK PARA CONTROL DE PRODUCTO TERMINADO DE HONGO SETA

Torres Estrada Daniela Yamilet, Instituto Tecnológico de Tlalnepantla. Asesor: Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la ciudad de Huauchinango Puebla, se encuentra el Instituto Tecnológico Superior del mismo nombre, esta institución lleva 22 años de vida y en este trayecto ha desarrollado diferentes proyectos, necesarios para poder demostrar cómo los conocimientos teóricos influyen en todo proceso práctico y viceversa, lo cual genera una retroalimentación de conocimientos, manteniendo actualizada a la tecnología. En este momento, se están desarrollando proyectos, dentro de los cuales uno es el de nuestro interés, dejando a una servidora en el proyecto de almacenamiento. Hasta el momento, se carece de conocimiento del proceso de almacenaje, es decir, desconocemos cómo se almacena, el que se necesita, el cuándo ejecutarlo, con qué hacerlo, entre otros. De tal modo que nace la necesidad de investigar, en diferentes fuentes, la teoría necesaria que satisfaga dichos conocimientos. Con ello, adquirir un proceso ideal para el almacenamiento del hongo seta que se cultiva dentro del invernadero del instituto.



METODOLOGÍA

Después de haber analizado las lecturas del marco teórico y conocer el estado del arte del proceso de almacenamiento del hongo seta, o alimentos vegetales perecederos, determinamos que nuestra investigación es de tipo descriptiva. De igual manera, al ser únicamente una propuesta teórica, la cual no sabemos si nos dará tiempo de implementarla y poder experimentar sus resultados, hemos decidido que su diseño será no experimental. Analizamos información de distintas fuentes de información, diferentes autores, empresas distribuidoras, especializadas en cosecha y almacenamiento de los hongos, e incluso, realizamos una visita al municipio de Xicotepec Puebla, con el agrónomo especializado en la producción y venta de la seta. Recopilamos lo más importante y por medio de una matriz de comparación de datos, agrupamos la información de la misma categoría, donde comparamos las características de las distintas teorías y métodos aplicados por los expertos en el área de almacén, para aplicarlos en nuestro proyecto. Pusimos manos a la obra realizando tablas con los materiales para construcción, mobiliario, mesas de trabajo, equipo desinfectante para el personal, materiales de empaque y costos totales que se necesitaban para el almacén. Después procedimos a realizar la estructura de nuestro almacén en boceto burdo para modelarlo en 3D por medio del programa Sketchup. Se simuló el interior de la instalación con todos los elementos, para presentarlo más realista y con una mejor vista.   Basándonos en la información y en la matriz de comparación, realizamos nuestro sistema de almacenamiento y stock, que va desde la cosecha que realizan estudiantes del ITSH, para pasar a la refrigeración a una temperatura de 4º C en la nevera para detener el crecimiento del hongo. Saliendo de la refrigeración, posteriormente se depositan las rejillas en la mesa de trabajo con el hongo fresco donde se corta el tallo y sus láminas se clasifican dentro de las rejillas de plástico siguiendo simplemente las especificaciones de tamaño chico, mediano y grande para su venta minorista en charolas o mayorista en rejilla, dependiendo el cliente. Una vez realizado el proceso anterior se procede a realizar el pesaje en nuestra báscula para acomodar el producto en las charolas con presentaciones de 250 g y 1 kg, siguiendo estrictamente las especificaciones que debe tener nuestra seta para cubrir los requerimientos del cliente y ofrecer un buen producto fresco listo para su venta.


CONCLUSIONES

Los resultados por obtener con este proyecto es tener buenas bases de información y de diseño para el desarrollo de un almacén, desde su estructura interna y externa hasta las actividades que se realizan dentro de él, permitiéndonos el almacenar, acomodar y manipular los hongos seta para su distribución y comercialización al cliente y a su vez en un futuro podrá beneficiar a jóvenes que estén interesados en aprender, conocer y participar en cultivo y venta de setas para así crear su propio negocio.
Torres Gonsalez Acela Guadalupe, Universidad Tecnologica de León
Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León

SISTEMA OPTÓ MECATRÓNICO DE DETECCIÓN DE FALLAS EN PIEZAS MECÁNICAS PARA EQUIPO DE CARGA IMPLEMENTANDO ALGORITMO DE INTELIGENCIA ARTIFICIAL


SISTEMA OPTÓ MECATRÓNICO DE DETECCIÓN DE FALLAS EN PIEZAS MECÁNICAS PARA EQUIPO DE CARGA IMPLEMENTANDO ALGORITMO DE INTELIGENCIA ARTIFICIAL

Rodríguez Ruiz Daniel de Jesús, Universidad Tecnologica de León. Torres Gonsalez Acela Guadalupe, Universidad Tecnologica de León. Asesor: Dr. Alan David Blanco Miranda, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

El proceso de corte de aluminio de la empresa, se producen piezas circulares. Estas pasan por una inspección de calidad para verificar que no tengan rebabas y que su redondez sea precisa. Actualmente, la inspección se hace visualmente, lo que es ineficiente y propenso a errores. Se ha propuesto medir el diámetro de las piezas en diferentes puntos de su circunferencia, pero se descartó debido a su lentitud y posibles cuellos de botella. La solución ideal es crear un sistema optomecatrónico de inspección por visión artificial que permita revisar la producción rápidamente y detectar piezas no conformes. Se plantea inicialmente que este sistema se limite a inspeccionar piezas circulares, pero su desarrollo flexible permitirá añadir funciones para controlar la calidad de nuevos productos. Mejorar la calidad de producción puede aumentar el prestigio de la empresa y abrir la posibilidad de cumplir con estándares más exigentes, como la norma automotriz IATF16949:2016.



METODOLOGÍA

La programación de un sistema que realiza el procesamiento de imágenes en tiempo real para inspeccionar la redondez de piezas circulares. Se utilizan varios módulos, incluyendo uno para el procesamiento de imágenes, otro para la interfaz gráfica y uno más para el control del sistema de movimiento. Se emplean librerías como cv2 (OpenCv), PyQt5, json y RPi. La interfaz gráfica se crea con QtDesigner y muestra imágenes en vivo con opciones para filtrar y procesar la captura, lo que permite detectar los contornos y obtener un índice de redondez. Los filtros incluyen eliminar ruido, ajustar el color y aplicar desenfoque Gaussiano y binarización. La precisión del procesamiento depende de la iluminación, la posición de la cámara y la correcta aplicación de los filtros.


CONCLUSIONES

En este proyecto de innovación de visión artificial, se utilizó la librería OpenCV para desarrollar un programa que inspecciona figuras geométricas en tiempo real. Se implementaron algoritmos de comparación de forma, como los momentos de Hu. Durante la prueba, diferentes figuras fueron colocadas en una banda transportadora y el programa clasificó correctamente cuadrados como "NO OK" y círculos como "OK". Aunque los resultados fueron satisfactorios, existen oportunidades de mejora, como añadir mejores técnicas de filtrado y procesamiento de imágenes, implementar un sistema de movimiento de cámara y crear una base de datos para el control de calidad.
Torres González Karen Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Edgar Fernando Peña Torres, Consejo Quintanarroense de Ciencia y Tecnología

USO DE B-AGONISTAS EN CONDICIONES DE ESTRéS POR CALOR EN RUMIANTES Y SU IMPACTO EN PARáMETRO PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIóN


USO DE B-AGONISTAS EN CONDICIONES DE ESTRéS POR CALOR EN RUMIANTES Y SU IMPACTO EN PARáMETRO PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIóN

Méndez Zamudio María Isabel, Instituto Tecnológico de Estudios Superiores de Zamora. Rodríguez Jiménez Yadira Citlali, Instituto Tecnológico de Estudios Superiores de Zamora. Salazar Peralta Ana Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Torres González Karen Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Edgar Fernando Peña Torres, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

USO DE B-AGONISTAS EN CONDICIONES DE ESTRES POR CALOR EN RUMIANTES Y PARAMETROS EN PRODUCTIVOS Y CALIDAD DE LA CARNE: UNA REVISIÓN



METODOLOGÍA

Durante nuestro verano de investigación hemos estado realizando un proyecto con el fin de publicar un artículo que trate sobre el efecto de agonistas β-adrenérgicos en animales de engorda (bovinos y ovinos) bajo condiciones de estrés por calor, durante este proyecto tomamos en cuenta múltiples investigaciones sobre proyectos enfocados al tema los cuales nos ayudaran a cubrir diferentes puntos importantes; desde que son estos tipos de suplementos, su mecanismo de acción, el efecto que tiene durante su etapa de implementación y las características tanto físicas y químicas que tiene la carne una vez llegada la etapa del sacrificio. Los B- antagonistas son moléculas sintéticas análogas a las catecolaminas (epinefrina y norepinefrina). La finalidad de estas es incrementar el anabolismo hacia la síntesis de masa muscular mediante el aprovechamiento de nutrientes y energía obtenido del tejido adiposo. Estos compuestos provocan mayor rendimiento en corral para la carne, favoreciendo el nivel económico y productivo. Su modo de acción se lleva a cabo a nivel celular, la molécula pasa intacta las paredes del rumen y es absorbida por el sistema portal llegando a las células blanco, logrando así unirse a los receptores que están en la membrana celular; lo que genera una activación y fosforilación de los distintos mecanismos incrementando la perfusión sanguínea hacia el músculo y una mejor disponibilidad de energía y aminoácidos, por lo tanto, aumenta la síntesis y retención de proteína que favorecen la hipertrofia muscular y a su vez a la degradación de grasa del animal. Dentro de este tipo de suplementos se encuentran el clorhidrato de clembuterol, cimaterol, clorhidrato de zilpaterol y clorhidrato de ractopamina con un mecanismo de tipo hormonal y solo estos dos últimos se permite su uso en etapas de finalización en animales de engorda. Se ha demostrado tener resultados favorables para la implementación de Zilpaterol en ovinos y bovinos en condiciones de estrés por calor, pero a su vez el rendimiento del mismo bajo temperaturas elevadas disminuye, dando un resultado variable al caso de estudio. La calidad de la carne está relacionada con sus características organolépticas, es decir, suavidad, jugosidad, color, olor y sabor. Algunos factores que influyen en que dicha calidad sea aceptable son la genética, la raza del animal, los días de engorda, el sexo y la edad. Mediante evaluación el Clorhidrato de Zilpaterol como suplemento alimenticio de ovinos y bovinos influyó sobre las características de la calidad de la carne, se reporta que realizaron varios tratamientos y evaluaciones las cuales arrojaron diversos resultados, entre ellos se veía comprometida la calidad de la carne, mientras las características físico- químicas de algunas cabezas aumentaban en peso y musculo incluyendo el descenso de la cantidad de grasa en el animal, también se detectó que era por el aumento en la síntesis de proteínas, otros puntos comprometidos durante el estudio fueron la terneza y el color de la carne, en comparación con otros “aditivos o suplementos” en carne cruda y cocida. Se sabe que la teoría del color en la carne por el CZ no ha sido específicamente reportada, al igual que el mal uso del CZ causa intoxicación dependiendo la sobreexposición y dosis usadas en animales, sin embargo, esto podría generar pérdidas económicas para la industria.


CONCLUSIONES

Las b-agonistas son moléculas que ayudan a incrementar la masa muscular mediante síntesis, en tal caso las condiciones de estrés por calor en animales generar malas características en el animal y la carne, las b- Agonistas nos ayuda a tener mejores características físicas, químicas y sensoriales, sin embargo,en un mal uso de las b-agonistas o mala sobre exposición del animal pueden generar daños al consumidor.
Torres Loya Olga Christelle, Instituto Tecnológico Superior de Uruapan
Asesor: Mtra. María del Pilar Beristain Colorado, Universidad Autónoma Benito Juárez de Oaxaca

CREACIóN DE UN JUEGO SERIO CON ENFOQUE EDUCATIVO LLAMADO ART GALLERY QUE CONJUGA ELEMENTOS DE GAMIFICACIóN PARA EL APRENDIZAJE DE HISTORIA DEL ARTE.


CREACIóN DE UN JUEGO SERIO CON ENFOQUE EDUCATIVO LLAMADO ART GALLERY QUE CONJUGA ELEMENTOS DE GAMIFICACIóN PARA EL APRENDIZAJE DE HISTORIA DEL ARTE.

Torres Loya Olga Christelle, Instituto Tecnológico Superior de Uruapan. Asesor: Mtra. María del Pilar Beristain Colorado, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

En el aprendizaje de la historia del arte, los obstáculos que dificultan su proceso no solo se limitan a la complejidad de los movimientos artísticos y la gran cantidad de información histórica y artística que abarca, sino que también se extienden a la metodología tradicional de enseñanza que se enfoca principalmente en la memorización de datos superficiales. A su vez, la falta de enfoques educativos innovadores y atractivos, que aborden de manera interactiva y estimulante la historia del arte, dificulta aún más el mantenimiento de la motivación y el genuino interés de los estudiantes por sumergirse en este apasionante campo del conocimiento.



METODOLOGÍA

Con el fin de abordar la problemática anteriormente mencionada, se propone desarrollar un juego serio de historia del arte especialmente diseñado para estudiantes o entusiastas del arte que deseen practicar y ampliar sus conocimientos en esta área. El primer prototipo del juego se desarrolló con el motor de videojuegos Unity, en el mismo se implementan diferentes elementos de gamificación, brindando una experiencia interactiva y divertida que promueva el aprendizaje en este campo. Para este proyecto se utilizó el framework  The Serious Game Design Assessment Framework o  Marco de Evaluación del Diseño de Juegos Serios, el cual es una estructura que se utiliza para estudiar y analizar el diseño conceptual de juegos serios en relación con sus objetivos explícitos e implícitos.[1] Este Framework permite analizar y comprender mejor cómo los componentes del juego interactúan para brindar una experiencia educativa significativa.   Este framework aborda seis componentes esenciales de la estructura de un juego serio. Toma al propósito del juego como la influencia central que gobierna sobre los demás elementos. Para el primer prototipo del juego serio Art Gallery estos seis elementos se desarrollaron de la siguiente forma:   Propósito: El objetivo central de este juego es proporcionar a estudiantes y entusiastas del arte una experiencia educativa entretenida y motivante para aprender historia del arte de manera efectiva. A través de una propuesta interactiva y dinámica, se busca fomentar la comprensión profunda de los movimientos artísticos, las épocas históricas y las obras icónicas.   Contenido: El contenido se enfocará en la historia del arte, presentando a los jugadores movimientos artísticos emblemáticos, artistas destacados y temas relevantes en exposiciones temáticas. Cada exposición ofrecerá una introducción concisa a los temas que la componen, brindando información esencial sobre el contexto histórico y estilos artísticos asociados. Mecánica: La mecánica de Art Gallery se centra en la exploración y desbloqueo de obras maestras a través de desafíos únicos. Los jugadores asumen el papel de un curador virtual enfrentándose a desafíos relacionados con el arte para desbloquear obras y expandir sus conocimientos en el campo artístico. Al superar estos desafíos, los jugadores ganan puntos para adquirir  obras de arte y construir su propia colección personal en el juego. Ficción y narrativa: "Art Gallery" presenta una ficción y narrativa donde los jugadores asumen el papel de un curador de arte. Desde el inicio, pueden elegir como avatar entre un perro, un gato o un zorro, cada uno con habilidades artísticas únicas para acompañarlos en los desafíos. El juego se enfoca en completar exposiciones temáticas basadas en movimientos artísticos, artistas destacados o temas específicos, lo que brinda una narrativa educativa y enriquecedora relacionada con el contenido artístico. Al enfrentar desafíos artísticos, los jugadores desbloquean obras y amplían sus conocimientos. Además, al obtener puntos con cada desafío superado, pueden construir una colección personal dentro del juego. Estética y gráficos: estos se han desarrollado cuidadosamente para brindar una experiencia visual atractiva y llamativa. Las imágenes de las galerías y los personajes están caricaturizados y estilizados, lo que les confiere un aspecto encantador y distintivo. La elección de avatares como adorables animalitos con estilo de pixel art agrega un toque lúdico y atractivo al juego, permitiendo a los jugadores sumergirse en un ambiente amigable y juvenil. Framing: El público objetivo de Art Gallery son estudiantes y entusiastas del tema, se buscar proporcionar una experiencia de juego adaptada a los conocimientos y comprensión previa del tema de dicho público. Además, se busca asegurar que los controles e interfaz del juego sean accesibles y fáciles de utilizar, de modo que los jugadores puedan concentrarse en el contenido educativo y los desafíos.


CONCLUSIONES

Durante esta estancia de investigación tuve la oportunidad de aprender sobre juegos serios, elementos de gamificación y el motor de videojuegos Unity para la creación del proyecto aquí presentado, lo cual ha sido una experiencia verdaderamente enriquecedora y significativa. Durante este período se desarrolló el primer prototipo para el juego serio llamado Art Gallery, gracias a esto adquirí conocimientos sólidos sobre el potencial educativo y motivador de los juegos serios, así como las estrategias de gamificación que pueden ser implementadas para mejorar el proceso de aprendizaje. El desarrollo de este primer prototipo fue un emocionante desafío que me permitió iniciar mi camino en la investigación y creación de juegos serios. Además, este proyecto me permitió fusionar mi pasión por el arte con la tecnología y la educación. Se plantea continuar desarrollando este proyecto integrando nuevas mecánicas para desbloquear las obras de arte, aplicar diferentes herramientas de evaluación, además de integrar elementos de inteligencia artificial que permitan que el juego se adapte al estado de ánimo del estudiante. Esta investigación ha reforzado mi convicción en el potencial transformador de la tecnología educativa, y me ha inspirado a seguir explorando y desarrollando nuevas formas de aprendizaje innovadoras y atractivas.
Torres Méndez Brenda Monserrath, Instituto Tecnológico de Toluca
Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara

DISEñO Y DESARROLLO DE UNA PRóTESIS BIóNICA - CASO DE ESTUDIO EN NIñOS


DISEñO Y DESARROLLO DE UNA PRóTESIS BIóNICA - CASO DE ESTUDIO EN NIñOS

Torres Méndez Brenda Monserrath, Instituto Tecnológico de Toluca. Asesor: Dr. Brhayllan Mora Ventura, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Desde un punto de vista epidemiológico, la ausencia de algún miembro corporal (según sea la razón), en niños y adolescentes tiene mayor incidencia en miembros superiores. Un caso en particular es sobre un infante de 3 años que sufrió un accidente al ingresar su brazo en un molino de carne, tal amputación se describe como amputación transversal, siendo un caso de estudio en el Estado de Jalisco, en la Universidad de Guadalajara. Entre las mayores problemáticas que se presentan, son los costos de las prótesis, la incomodidad de uso, así como la poca funcionalidad de estas, por lo que durante el verano de investigación se busca el desarrollo de prototipos que funcionen a través de la obtención de señales mioeléctricas, así como un bajo coste de producción de tales prototipos.



METODOLOGÍA

Caso de Estudio. Se realizo un acercamiento al área de fisioterapia, trbajando con un infante de tres años, con amputación transversal. Debido a su edad, la prótesis no se pudo desarrollar en base a sus necesidades, pero aportó la base para la investigación y un futuro desarrollo de prótesis enfocadas a niños en etapa de crecimiento, funcionales y resistentes a actividades acordes a su edad. 2. Señales mioeléctricas. Para la obtención de las señales mioeléctricas, primero se impartió una clase sobre lo que es la Electrofisiología. 3. Prótesis existentes. Los elementos generales de una prótesis son: Elementos de suspensión. Elementos de control. Conos de enchufe o socket. Articulaciones. Dispositivos terminales. Debido al acelerado crecimiento de los infantes los conos de enchufe o socket llega a generar una gran compresión en el musculo, causando que la prótesis tenga que ser cambiada alrededor de dos o tres veces al año. Otro elemento destacable son los dispositivos terminales, estos suelen ser para uso adulto, siendo de dimensiones y peso más altos, generando dificultad de movimiento, falta de equilibrio, causando una perdida de centro de gravedad. 4. Diseño, modelado e impresión en 3D En base a las necesidades identificadas se logró desarrollar el diseño de la prótesis, tal diseño se realizó en el software Autodesk Fusion 360. El principal objetivo del diseño es buscar optimización de espacio y reducir el peso de la prótesis. El prototipo fue impreso, con ayuda de una impresora 3D usando filamento PLA. Uno de los enfoques de este verano, es buscar una alternativa de material de grado médico que sea resistente, pero a su vez tenga un bajo costo de producción. Una vez teniendo el prototipo de manera física, se comenzó con la realización de pruebas, primero se buscó captar y caracterizar las señales generadas en el músculo con ayuda de electrodos, para esto se usó un sensor EMG AD8232, siendo el sensor que nos lanzó mejores resultados en la serie de pruebas realizadas. 5. Adaptación del prototipo a un niño en etapa de desarrollo. Entre los retos para el desarrollo de prótesis en infantes se encuentra el rápido crecimiento, derivando así problemas como la incomodidad. Una de las soluciones ha sido el desarrollo de prototipos a través de la impresión 3D, pero debido a que no es un material que presente una gran resistencia, en este verano se decidió que solo se usaría para la fabricación de prototipos y realización de pruebas, sin embargo, es una limitante al desarrollo de prótesis en infantes. Una de las posibles soluciones planteadas es realizar el diseño de una prótesis separada del socket, buscando la forma de que lo único que se reemplace de forma periódica, sea el socket, conservando el resto de la prótesis el mayor tiempo posible según el crecimiento del paciente respecto a la proporcionalidad de la prótesis.


CONCLUSIONES

Durante la estancia de verano de investigación se logró: Acercamiento al área de fisioterapia. Adquirir conocimientos sobre las señales que generan los músculos. Dentro de la parte electrónica, se trabajó con diferentes tarjetas, se uso la tarjeta Arduino Uno, el sensor EMG AD8232, y servomotores MG90S. Finalmente, el desarrollo de un prototipo acorde a las necesidades previamente identificadas. Teniendo en cuenta que el periodo de tiempo es corto, se busca seguir trabajando en la realización de un código que filtré mejor tales señales y logré el funcionamiento total de la mano según el diseño planeado. Se da pie para involucrase en el proyecto a largo plazo, dándole una siguiente fase posterior al término de la estancia de investigación con la publicación de un artículo.
Torres Ochoa Eduardo Rafael, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE SENTIMIENTOS EN TWITTER PARA LAS CAMPAñAS DE LOS PRECANDIDATOS PRESIDENCIALES DE MéXICO: EVALUACIóN DEL POSICIONAMIENTO PARA LAS ELECCIONES PRESIDENCIALES DE 2024


ANáLISIS DE SENTIMIENTOS EN TWITTER PARA LAS CAMPAñAS DE LOS PRECANDIDATOS PRESIDENCIALES DE MéXICO: EVALUACIóN DEL POSICIONAMIENTO PARA LAS ELECCIONES PRESIDENCIALES DE 2024

de Dios Garcia Victoria del Alba, Instituto Tecnológico Superior de Las Choapas. Torres Ochoa Eduardo Rafael, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el contexto de las elecciones presidenciales de México en 2024 y considerando que el partido MORENA (Movimiento Regeneración Nacional), es uno de los principales actores políticos en México, se realizó un análisis de sentimientos para evaluar la posición de los cuatro precandidatos presidenciales del partido a través de un proceso de minería de datos. Los precandidatos en cuestión son: Marcelo Ebrard (ex Canciller de México), Claudia Sheinbaum (ex Jefa de Gobierno de la Ciudad de México), Adán Augusto López (ex Secretario de Gobernación de México) y Ricardo Monreal (ex Senador Coordinador de MORENA en el Congreso). Para llevar a cabo este análisis, se ha implementado un sistema de análisis de sentimiento basado en miles de tweets relacionados con los candidatos y recopilados durante el inicio de sus campañas para la elección interna del candidato de MORENA.  El objetivo principal de este análisis de sentimientos es comprender la percepción pública y la aceptación de cada precandidato en el ciberespacio, específicamente en la red social Twitter, la cual la cual concentra las opiniones de millones de personas que publican mensajes cortos (conocidos como tuits). Con el crecimiento exponencial de la participación de los usuarios se genera una gran cantidad de datos para analizar y obtener una muestra representativa de opiniones y sentimientos, en donde los usuarios expresan sus opiniones, apoyos y críticas. En el análisis de sentimientos realizado se tomo en cuenta la polaridad de las opiniones de cada tuit, es decir, los tweets positivos, negativos y neutros, así como otras características de interés, por ejemplo, los re-tweets para determinar qué precandidato ha generado un mayor impacto y atracción en la audiencia, además de cómo influye en las decisiones de los votantes.  El análisis de sentimientos permitió identificar tendencias y patrones en la opinión pública hacia cada precandidato, lo que puede reflejar su nivel de popularidad y aceptación en el electorado. Asimismo, se buscó comprender las razones detrás de los sentimientos positivos o negativos hacia cada candidato, lo que puede revelar las percepciones de los votantes sobre su capacidad, liderazgo, propuestas y trayectoria política. Este análisis puede ser de utilidad en la toma de decisiones de los votantes. 



METODOLOGÍA

Twitter es considerada como la herramienta de facto para la comunicación política, así lo manifiesta Campos Domínguez en su trabajo de investigación Twitter y la comunicación política, en la cual afirma que, Twitter se ha convertido en un medio consolidado en la comunicación política. Recopilamos 1,000 tuits por cada día y por cada candidato del partido MORENA de México para realizar el análisis de sentimientos durante 7 días.   Después de la recapitulación de los tuits, se llevó a cabo un análisis de sentimiento directo, empleando el atributo de texto y usuario como base para recopilar datos relevantes, por medio de la aplicación RapidMiner. En esta etapa inicial del análisis, se consideraron todos los tweets sin duplicados para obtener una visión general de los sentimientos expresados.   A partir de ahí se hicieron 5 experimentos, que consisten en hacer nuevamente el análisis de sentimientos pero está vez aplicando filtros, primero con el atributo de re-twitteao, es decir, solamente se toman los tweets que han sido  retwitteados  Se aplicaron otros filtrados, donde se toman Tweets twitteados en dispositivos móviles, tweets retwitteados recientemente, tweets twitteados recientemente en dispositivos móviles y tweets tweteados recientemente.  A partir del resultado de estos experimentos se creó un artículo, el cualserá enviado a la revista de divulgación científica llamada Revista Científica de Sistemas e Informática, en donde se capturaron todos los resultados que obtuvimos de una manera más detallada y profesional. 


CONCLUSIONES

  Tras analizar  resultados obtenidos, se pudo observar lo siguiente lo siguiente:    En cuanto a la cantidad de tweets positivos, el candidato con la mayor cantidad es Marcelo Luis Ebrard Casaubón, seguido de Claudia Sheinbaum Pardo, Ricardo Monreal Ávila y Adán Augusto López.   En términos de tweets negativos, nuevamente Marcelo Luis Ebrard Casaubón lidera, seguido de Claudia Sheinbaum Pardo, Ricardo Monreal Ávila y Adán Augusto López.   En relación a los tweets neutros, el candidato con la mayor cantidad es Adán Augusto López, seguido de Marcelo Luis Ebrard Casaubón, Claudia Sheinbaum Pardo y Ricardo Monreal Ávila.   Respecto a los tweets sin clasificar, Adán Augusto López presenta la cifra más alta, seguido de Marcelo Luis Ebrard Casaubón, Claudia Sheinbaum Pardo y Ricardo Monreal Ávila.   En términos de los tweets positivos + con retweets, Adán Augusto López lidera, seguido por Marcelo Luis Ebrard Casaubón, Claudia Sheinbaum Pardo y Ricardo Monreal Ávila.   En cuanto a los tweets negativos + con retweets, Adán Augusto López también lidera, seguido por Marcelo Luis Ebrard Casaubón, Claudia Sheinbaum Pardo y Ricardo Monreal Ávila.   Considerando estos resultados, podemos inferir que Marcelo Luis Ebrard Casaubón se destaca por tener la mayor cantidad de tweets positivos y negativos en general. Sin embargo, es importante tener en cuenta que Adán Augusto López obtiene una cantidad significativa de tweets positivos con retweets, lo que podría indicar un mayor nivel de apoyo y respaldo activo por parte de los usuarios de Twitter.
Torres Quintana Astrid Itzel, Instituto Politécnico Nacional
Asesor: Dra. Ana Beatriz Carrera Aguilar, Universidad Nacional Autónoma de México

INFRAESTRUCTURA Y COMUNIDAD: UN ANÁLISIS EN LA EX HACIENDA, EL HOSPITAL CUAUTLA, MORELOS.


INFRAESTRUCTURA Y COMUNIDAD: UN ANÁLISIS EN LA EX HACIENDA, EL HOSPITAL CUAUTLA, MORELOS.

Torres Quintana Astrid Itzel, Instituto Politécnico Nacional. Vázquez Castrejón Flor Natividad, Universidad Autónoma de Guerrero. Zamorano Nuñez Herandy Jacqueline, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Ana Beatriz Carrera Aguilar, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La Ex Hacienda El Hospital, es una comunidad ubicada a 5 kilómetros al suroeste del centro del municipio de Cuautla, Morelos, tiene una larga historia como lugar dedicado a la producción de caña de azúcar, cuya importancia ha perdurado a lo largo del tiempo. Sin embargo, en las últimas décadas, esta localidad ha enfrentado desafíos significativos en cuanto a su infraestructura debido al crecimiento demográfico experimentado en la zona. El crecimiento demográfico sin planificación ha generado problemas en el entorno urbano y el medio ambiente, que requieren atención inmediata.  



METODOLOGÍA

  Definición de objetivos  Diseño de instrumento para la  recolección de datos  Análisis de sitio - reconocimiento del lugar  Recopilación de datos  Análisis de datos  Resultados Evaluación del estado actual  Identificación de necesidades y deficiencias Propuesta de mejoramiento  Conclusiones 


CONCLUSIONES

  Tras realizar una evaluación de infraestructura y entorno urbano en la localidad de Ex Hacienda El Hospital, mediante un acercamiento directo a la comunidad a través de encuestas y entrevistas con los residentes locales, hemos obtenido resultados que nos permitieron proponer intervenciones futuras en diferentes áreas clave, como movilidad y transporte, servicios públicos, medio ambiente y equipamiento urbano. Estas intervenciones buscan transformar la Ex Hacienda El Hospital en una localidad más sostenible, funcional y con una mejor calidad de vida para sus habitantes.
Torres Rangel Mayra, Instituto Tecnológico Superior de Los Reyes
Asesor: Dr. Cruz Ernesto Aguilar Rodríguez, Instituto Tecnológico Superior de Los Reyes

GESTIóN Y OPTIMIZACIóN DEL AMBIENTE DE INVERNADEROS DE BAJA Y MEDIA TECNOLOGíA MEDIANTE CFD


GESTIóN Y OPTIMIZACIóN DEL AMBIENTE DE INVERNADEROS DE BAJA Y MEDIA TECNOLOGíA MEDIANTE CFD

Dominguez Aceves Diego, Universidad Mexiquense del Bicentenario. Torres Rangel Mayra, Instituto Tecnológico Superior de Los Reyes. Asesor: Dr. Cruz Ernesto Aguilar Rodríguez, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

En el Instituto Tecnológico Superior de Los Reyes, se encuentran dos invernaderos ubicados en una zona baja, cercana a una cama de lombricomposta y una casa de hongos. Además, en la parte superior de la ladera se encuentran los cubículos de los docentes y un laboratorio de agrobiotecnología. El viento y la temperatura son factores ambientales críticos en el desarrollo de las plantas dentro de los invernaderos, ya que afectan directamente al crecimiento, la salud y la producción de los cultivos. Sin embargo, la presencia de estructuras como la cama de lombricomposta y la casa de hongos puede alterar las condiciones microclimáticas en la zona, generando efectos que podrían ser beneficiosos o perjudiciales para las plantas. Por tal motivo, el objetivo de este estudio es analizar la influencia de la ubicación geográfica y la presencia de la cama de lombricomposta y la casa de hongos en la velocidad del viento y la temperatura en ambos invernaderos mediante CFD.  



METODOLOGÍA

Como primer paso se procedió a instalar sensores de temperatura, humedad relativa al interior del invernadero y al exterior una estación meteorológica que registra datos de velocidad del viento, temperatura, humedad relativa y precipitación. Los sensores registraron información cada 5. Posteriormente, se llevó a cabo la recopilación de datos mediante la medición y registro de las variables ambientales durante un periodo significativo, con el propósito de obtener una muestra representativa de las condiciones ambientales en los invernaderos, misma que sería utilizada como condición de entrada de mi modelo computacional. La simulación mediante CFD consistió en la creación de un modelo que representara los invernaderos las condiciones ambientales de los invernaderos analizados. Se definieron las condiciones iniciales y límites del modelo, incluyendo las características de los cultivos, las fuentes de calor, las ventilaciones y los materiales de construcción del invernadero. Posteriormente, se ejecutó la simulación CFD para analizar la distribución del flujo de aire y la temperatura dentro de los invernaderos. Se evaluaron los datos simulados para identificar áreas de mejora en la gestión del ambiente dentro de los invernaderos. Basándose en los resultados obtenidos, se propusieron medidas y ajustes para mejorar el ambiente y optimizar el rendimiento de los cultivos.


CONCLUSIONES

Los resultados presentados reflejan las condiciones actuales de los invernaderos . En cuanto a la temperatura, se observa un aumento moderado debido a la presencia de una ladera cercana que actúa como una barrera natural, limitando la tasa de ventilación y ocasionando un aumento en la temperatura en el interior de los invernaderos. Además, se ha notado una significativa reducción en la velocidad del viento en determinadas áreas. Este fenómeno se ve favorecido por la ubicación del sitio, que se caracteriza por una menor velocidad promedio del viento. Estos hallazgos respaldan la información obtenida por los sensores, demostrando la importancia de la simulación CFD dado que representan de manera visual en 3D el problema que se tiene actualmente en los invernaderos por su ubicación y posición, generando oportunidades para la y su contribución en el análisis de la optimización de los invernaderos y para lograr un rendimiento óptimo de los cultivos. por tal motivo, es importante considerar estos resultados en el diseño y operación de los invernaderos, ya que una adecuada circulación del aire y la regulación térmica son aspectos cruciales para el crecimiento y desarrollo óptimo de las plantas cultivadas.  
Torres Rizo Natalia, Instituto Tecnológico de Morelia
Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DE LA VIABILIDAD DE UTILIZAR CáSCARA DE HIGUERILLA Y ALCOHOL POLIVINíLICO COMO MATERIAL PARA LA FABRICACIóN DE PIEZAS DE INTERIORES EN AUTOMóVILES.


EVALUACIóN DE LA VIABILIDAD DE UTILIZAR CáSCARA DE HIGUERILLA Y ALCOHOL POLIVINíLICO COMO MATERIAL PARA LA FABRICACIóN DE PIEZAS DE INTERIORES EN AUTOMóVILES.

Torres Rizo Natalia, Instituto Tecnológico de Morelia. Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Evaluar la viabilidad técnica y económica de utilizar cáscara de higuerilla como material para la fabricación de piezas de interiores en automóviles es de interés actual. Por lo anterior se plantean las siguientes preguntas de investigación: ¿Cuáles son las propiedades físicas y mecánicas de la cáscara de higuerilla y del alcohol polivinílico? y ¿Cómo se comparan con los materiales tradicionalmente utilizados en piezas de interiores de automóviles? ¿Es posible desarrollar un proceso de extracción y purificación de la cáscara de higuerilla para obtener un material utilizable en la industria automotriz? ¿Cuál es el comportamiento del material a base de cáscara de higuerilla y alcohol polivinílico frente a factores ambientales como la humedad, la temperatura y la exposición a la luz solar, y cómo afectaría esto a su durabilidad y rendimiento en piezas de interiores? ¿Cuál es el impacto ambiental comparativo de utilizar cáscara de higuerilla y alcohol polivinílico en comparación con los materiales sintéticos tradicionales, considerando aspectos como la huella de carbono, la degradabilidad y el proceso de fabricación? ¿Cuál sería el costo estimado de producción de piezas de interiores utilizando cáscara de higuerilla y alcohol polivinílico en comparación con los materiales convencionales, y cómo afectaría esto al precio final del vehículo?  



METODOLOGÍA

La investigación se llevará a cabo mediante una combinación de métodos experimentales y análisis teóricos. Se realizarán pruebas de laboratorio para caracterizar las propiedades físicas y mecánicas de la cáscara de higuerilla y el alcohol polivinílico. Como primer paso se consiguió secar la cascara de higuerilla en un ambiente libre para conseguir un nivel de humedad correcto para poder desprender la cascara y la semilla, ambas partes fueron almacenadas, seguido de este paso la cascara se llevó a un molino para conseguir un tamaño de partícula apto para tamizar en distintos tamaños de partícula. Así mismo con aproximadamente 100 g de papel reciclado lo cortamos, molimos y humedecimos para poder usarlo más adelante para crear nuestra hojas de PVA con higuerilla. Posteriormente se pesó a partes iguales el alcohol polivinílico, la cascara de higuerilla con tamaño de partícula de 60, y el papel reciclado, todo fue pesado a partes iguales siguiendo el 1,1,1, así que fueron 20 g de cada elemento y para mezclar el PVA se usó una cantidad de 180 ml de agua. Se procedió a mezclar todo hasta que quedara homogéneamente y se extendió la mezcla en una malla para darle forma de hoja tamaño carta y con espesor delgado, se dejaron secar 1 día completo para desprender. Se espera que los resultados de este estudio proporcionen información valiosa para la industria automotriz y contribuyan a la búsqueda de alternativas más sostenibles y respetuosas con el medio ambiente en la fabricación de vehículos.


CONCLUSIONES

Se obtuvieron biopeliculas resistentes a la deformación con medidas de 21 cm x 20 cm con un espesor de 0.2 mm parcialmente homogéneas donde la cascara de higuerilla, el PVA y el papel reciclado estaban uniformes y como resultado se podrán usar para realizarles pruebas mecánicas y conocer sus propiedades para usarse como pieza de interiores en automóviles.
Torres Rocha Raúl Alejandro, Universidad Autónoma de Zacatecas
Asesor: Dr. Uziel Jaramillo Avila, Centro de Investigación en Matemáticas (CONACYT)

DISEñO DE UN SENSOR HáPTICO DE BAJO COSTO


DISEñO DE UN SENSOR HáPTICO DE BAJO COSTO

Torres Rocha Raúl Alejandro, Universidad Autónoma de Zacatecas. Asesor: Dr. Uziel Jaramillo Avila, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Corpúsculo de Pacini es la terminación nerviosa táctil más profunda y más grande, y a la que más se le atribuye la sensación de vibración. Esto ha inspirado muchos diseños de sensores táctiles que exploran las vibraciones creadas por distintas texturas, propiedades de fricción de las superficies y en la detección de objetos.  Por su parte, los Corpúsculos de Meissner son terminaciones nerviosas con sensibilidad a las vibraciones. Debido a su ubicación cerca de la superficie de los dedos, se creía que eran un receptor de toque ligero a la vibración. Teorias recientes dicen que, por su ubicación junto  con las papilas, codifican fuerzas de deformación detectando deformaciones horizontales. 



METODOLOGÍA

Los corpúsculos de Meissner, ubicados dentro de los canales de las papilas de Derman, son sensibles a la tensión lateral como resultado de una fuerza normal que provoca el movimiento de las papilas. Este movimiento de las papilas se produce sólo cuando hay un cambio en el gradiente de la desviación de la superficie de la piel. Este movimiento y, por lo tanto, la tensión lateral que detectan los corpúsculos de Meissner, es en realidad proporcional al cambio en el gradiente de la desviación, no simplemente una fuerza normal. Por lo tanto, se podría diseñarse un sensor para imitar las características de las papilas en una piel de caucho flexible, inelástica, delgada y fuerte, y usarse para detectar las desviaciones de la superficie, con una sensibilidad particular a los bordes, mediante la detección del movimiento relativo de estas superficies artificiales.  Con el uso de marcadores en los extremos del sensor, se puede usar una cámara para rastrear toda la piel de forma remota. Esto significaría que la superficie de detección y el área de contacto de la piel se eliminan por completo de cables o componentes electrónicos, manteniendo las propiedades mecánicas y la solidez deseables. Como parte inicial, se tuvo que diseñar un código en Python capaz de poder detectar círculos y su movimiento, ya que así se podrían rastrear los marcadores y el movimiento que estos tienen en la superficie del sensor. A este algoritmo se le tuvo que implementar un algoritmo watershed, que es el encargado de hacer que el código pueda detectar los marcadores de una manera individual, sin tener que sobreponerlos o juntarlos. Los distintos puntos o marcadores son detectados por medio de una cámara que procesa los marcadores dependiendo del color. En este caso, se utilizó el modelo de color HSL, ya que nos permite tener una cierta tonalidad en la detección de los puntos de interés de la superficie del sensor. Una vez se tiene la modelación e interpretación de deformaciones en distintos puntos de la rejilla, se pasa al diseño de la estructura, que consta en implementar una una tira de luces led en la estructura del sensor para que el sensor háptico tenga un entorno controlado, y la detección de deformaciones resulte más fácil. Al igual, se planea diseñar una estructura 3D que permita tener todos los componentes distribuidos de una manera óptima y que puedan detectar los marcadores de una manera más precisa. Esto da como resultado un diseño de sensor muy capaz y confiable con potencial para una fabricación económica.


CONCLUSIONES

Durante la estancia de verano, se lograron adquirir nuevos conocimientos en programación en Python y el uso de diversas librerías. Además, se tuvo la oportunidad de poner en práctica la investigación y desarrollo de un sensor que podría ser implementado en la industria. Aunque no se pudo materializar el diseño de la estructura física, quedando solo en una fase teórica, se tiene la expectativa de continuar con la investigación para imprimir e implementar el sensor táctil y evaluar su precisión.
Torres Sierra German, Instituto Tecnológico de Morelia
Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas

RECONOCIMIENTO DE PAPAYAS A TRAVéS DE VISIóN POR COMPUTADOR


RECONOCIMIENTO DE PAPAYAS A TRAVéS DE VISIóN POR COMPUTADOR

Torres Sierra German, Instituto Tecnológico de Morelia. Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La papaya es una fruta tropical de alta demanda en el marcado, el proceso de recolección de dicha fruta se basa en su estado de madurez y volumen, tomando dichas características se puede determinar una ganancia aproximada para el productor de papayas. El principal problema radica en el proceso de selección y recolección de la papaya basado en la percepción humana, lo cual inevitablemente da cabida a errores de selección que se pueden traducir como desperdicio de tiempo, esfuerzo y recursos, ya que se puede dar el caso de cortar papayas que aún no están en su estado óptimo de recolección haciendo que se lleguen a desperdiciar. Para evitar esto se plantea la creación y utilización de un software de reconocimiento de papayas, que lleve a cabo la selección de corte de la fruta en base a su color, largo y ancho, para que así el productor solo recolecte las que se encuentren en un estado óptimo, logrando volver el proceso más eficiente.



METODOLOGÍA

El primer paso es la búsqueda de algoritmos y métodos que nos permitan lograr dichas tareas, esto se logra empapándonos de información acerca del estado del arte de reconocimiento de papayas. Luego de una exhausta investigación a través de artículos y diferentes fuentes de información, es evidente que para lograr los objetivos se ocupan utilizar métodos de visión por computador y algoritmos de clasificación. La visión por computador o también denominada visión artificial se refiere a una serie de fases que permiten dotar a un software de la capacidad de comprender una imagen e imitar los procesos que los humanos suelen llevar a cabo. Entonces es el uso de las Redes Neuronales Convolucionales es el proceso que se decide implementar para llevar a cabo la tarea mas primordial, que es el reconocimiento individual de las papayas. Las Redes Neuronales Convolucionales (CNN) son una serie de varias capas cada una con varias neuronas, en donde cada neurona recibe un dato distinto y lo pasa a la siguiente serie de neuronas para así ir aprendiendo de cada una hasta lograr el resultado deseado.  Para la programación se utilizará el lenguaje de Python, ya que este cuenta con las librerías y herramientas necesarias. El primer paso para todo algoritmo de clasificación es la adquisición de imágenes que funcionen como fuente para obtener información referente al objeto a clasificar, para ello se crear un dataset, luego aplicamos la segmentación para separar los pixeles de información mas relevantes del resto de la imagen, seguido va la extracción de características donde se extraen datos relevantes del área de interés para su posterior clasificación que es donde el software extrae conocimiento basado en los datos recabados. Para la creación del dataset se recolectaron una basta cantidad de imágenes de internet tanto de papayas individuales como de papayas en arboles; en este caso se llevará a cabo un aprendizaje supervisado, en este tipo de aprendizaje los datos utilizados para la generación del modelo están previamente etiquetados, donde ya sabemos el tipo de dato que queremos de salida. Para lograr un dataset lo suficientemente robusto se plantea el uso de la técnica Data Augmentation, la cual consiste en tomar una serie de imágenes y a partir de estas crear más, al aplicarle modificaciones a las imágenes originales. Se utilizaron un total de 140 imágenes, dejando 97 imágenes para el entrenamiento, 33 para la validación y 10 para el testeo. Para la creación de nuestro modelo de CNN se utilizó el framework ultralytics de YOLOV8, el cual contiene una serie de modelos de redes neuronales previamente entrenadas en el dataset COCO, cada modelo ofrece diferentes precisiones de aprendizaje, claro, a costa de mas hardware para llevarlo a cabo, pero para evitar esto se realizo el entrenamiento de la red neuronal en Google colab, el cual te permite utilizar una GPU en la nube, lo cual facilita el entrenamiento de la red neuronal, acortando los tiempos de manera significativa, por ello se eligió el modelo más eficiente, el modelo YOLOv8x.   En este sentido estaríamos haciendo Transfer Learning, ya que estamos utilizando un modelo ya entrenado para poder extraer del mismo un modelo propio que cumpla con nuestros requerimientos, con la diferencia de que aquí estamos utilizando nuestro propio dataset de imágenes. Para entrenar el modelo tienes que especificar varias cosas, como las epoch, que es la cantidad de veces que la red neuronal va a recorrer los datos para poder aprender lo mas posible de ellos, el batch size que es la cantidad de imágenes que va a tomar en conjunto la red neuronal para aprender y en esta caso también el task que en el caso de YOLOV8 nos ofrece varios, donde queda a elección el que mas te sirva para tus objetivos, en nuestro caso utilizamos segment que es la segmentación de dicho objeto; también se tiene que poner el image size que es el tamaño de las imágenes en pixeles con las que va a trabajar, en este caso Yolo pide que sean de 640 x 640 pixeles, para cumplir este requisito se agrego como parte de las modificaciones del Data Augmentation el respectivo cambio de tamaño de las imágenes. Una vez especificado esto puedes proceder a iniciar el entrenamiento de la red neuronal. El primer entrenamiento fue con 20 epochs y un batch size de 2, en este caso la red solo fue capaz de identificar papayas individuales en casos concretos y para el segundo entrenamiento se utilizo un batch size de 50 epochs y un batch size igual mente de 2, logrando que la red neuronal pudiera reconocer tanto papayas individuales como papayas en un árbol.


CONCLUSIONES

Durante la estancia se pudo recibir bastante retroalimentación del investigador, el cual ya contaba con bastante experiencia en el método que se escogió llevar a cabo, haciendo que el aprendizaje fuera pleno y satisfactorio; al final se logro uno de los objetivos y el más primordial, la detección de papayas de manera individual en un árbol, pero siendo este solo lo básico, dando paso a querer seguir con el proyecto a futuro. Considero que lo que aprendí fue solo un poco del gran mundo de posibilidades dentro del área de visión por computador, pero me siento bien por los resultados logrados.
Torres Soriano Roberto Alejandro, Instituto Tecnológico de Gustavo A. Madero II
Asesor: M.C. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave

PROPUESTA DE REDISEÑO DE UNA PLANTA PARA LA AUTOMATIZACIÓN DE PROCESOS DE PRODUCCIÓN EN LA EMPRESA ACUICOLA EN GUASAVE SINALOA


PROPUESTA DE REDISEÑO DE UNA PLANTA PARA LA AUTOMATIZACIÓN DE PROCESOS DE PRODUCCIÓN EN LA EMPRESA ACUICOLA EN GUASAVE SINALOA

Alejandre García Cintia Cristina, Instituto Tecnológico de Jiquilpan. Almanza Ferruzca Ana, Instituto Tecnológico de Querétaro. Torres Soriano Roberto Alejandro, Instituto Tecnológico de Gustavo A. Madero II. Asesor: M.C. Grace Erandy Báez Hernández, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

En el estado de Sinaloa la actividad acuícola es de suma importancia ya que es un eje estratégico de la entidad. CODESIN consejo para el desarrollo económico de Sinaloa, indica en su reporte anual el volumen de producción, donde indica que la producción de camarón es de 80 mil toneladas anuales. (CODESIN, 2018). En el municipio de Guasave Sinaloa se cuentan con 100 granjas acuícolas camaroneras, con una superficie estimada de 7000 Has. De espejo de agua, actualmente están en operación 5500 Has. Lo que generan 800 empleos permanentes y 3000 empleos eventuales donde se producen 1000 toneladas de camarón. La Acuicola Los Ahumadas, se encarga del procesamiento de esta especie, con el frezado de camarón para su venta. En esta planta se cuenta con 9 áreas de trabajo, y trabajan  hasta 20 toneladas diarias, haciendo un trabajo semiautomatizado en unas áreas mientras que en otras se hace trabajo manual, no se cuenta con un sistema de automatización en las áreas de recepción,  clasificado y empaque, generando una desventaja en el proceso de competitividad con el resto de las empresas, porque se presentan problemas de tiempos muertos, rotación de personal, problemas de calidad y rendimiento, Así mismo los trabajadores de la áreas de clasificado y empaque realizan largas jornadas de trabajo lo que genera un desgaste físico y mental afectando en el rendimiento de sus actividades y tareas. Se ha detectado anomalías en la aplicación de la metodología, desde tiempos muertos y producto fuera de los límites de calidad. El problema planteado para el desarrollo de la presente investigación pretende responder a las siguientes preguntas: ¿Por medio de un plan de rediseño se podrá automatizar los procesos de producción de una manera más eficiente dentro de la empresa? ¿Cuáles serían las áreas con deficiencia en automatización?



METODOLOGÍA

Se inició con la realización de una investigación documental en artículos científicos de revistas, congresos, entrevistas y tesis, para conocer el proceso, las aplicaciones y las formas de trabajo en otros lugares del mundo que han hecho un procesamiento del camarón. Una vez con un conocimiento del proceso se logró identificar los diferentes problemas que se presentan en el frezado  de camarón en la empresa. Dentro de este marco se puede resaltar que se permite obtener información de las nuevas necesidades y las perspectivas que exigen los mercados. Se realizó una investigación minuciosa del área a automatizar a través de videos, fotografías y sesiones con el asesor, de manera que se propone el equipamiento requerido para mejorar la eficiencia. Se realizaron diagramas de flujo de procesos y diagrama de recorridos, así como aplicación de herramientas de calidad para hacer un diagnóstico de las áreas para identificar los problemas. Se propusieron remplazar procesos manuales por automatizados para reducir tiempos en la realización de dichas actividades. Las organizaciones deben optar por automatizar sus procesos a fin de ser más eficientes y obtener mayor rentabilidad ya que el mercado actual es más competitivo. (RICOPIA TECNOLOGIES, 2018). La automatización acelera el tiempo de atención de las tareas y actividades, además de eliminar los errores humanos que pudiesen cometer al realizar las tareas manuales (FLOKZU, 2018).


CONCLUSIONES

La automatización en las empresas industriales va más allá que una simple mecanización ya que estas aportan a los humanos mecanismos en los que se reduce ampliamente el desgaste mental y físico del humano, a su vez el incremento de la eficiencia de los procesos. La propuesta en la empresa de frezado de camarón logrará reducir tiempos en dichas áreas a su vez también las largas jornadas que se perciben en las áreas de esta empresa. Los procesos de automatización no son malas inversiones a las empresas ya que aumentan las mejoras en eficiencia, así como reducción de tiempos y respuesta a esto hace a una empresa competente. Como parte de la propuesta se presenta automatizar las áreas de clasificado y empaque para mejora de procesos. como el transporte del producto y el ensamble de cajas para empaque. RESULTADOS POR OBTENER Disminuir largas jornadas de los trabajadores. Aumentar la eficiencia en los procesos. Actualizar los procesos de dichas áreas. Rendimiento dentro de la empresa. Competitividad en el mercado (generar confianza en los clientes) Eliminación de tiempos muertos en los trabajadores.
Torres Villarreal Saulo Omar, Universidad de Guadalajara
Asesor: Dr. Oscar Acevedo Patiño, Universidad Tecnológica De Bolívar

DISEÑO Y CONSTRUCCION DE ROBOTS PARA SIMULACION DE AGREGACION DE ENJAMBRES.


DISEÑO Y CONSTRUCCION DE ROBOTS PARA SIMULACION DE AGREGACION DE ENJAMBRES.

Cardenas Gallegos Genaro, Instituto Tecnológico Superior de Ciudad Acuña. Torres Villarreal Saulo Omar, Universidad de Guadalajara. Asesor: Dr. Oscar Acevedo Patiño, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Conforme la complejidad de los problemas vistos en la industria aumenta, la necesidad para solucionarlos se hace más presente, por ello se buscan algoritmos matemáticos que aumenten la eficiencia y reduzcan la demanda computacional, de esta necesidad nacen los algoritmos inspirados en procesos naturales. Uno de estos problemas es la agrupación, se trata del primer paso para sincronizar los movimientos dentro de un grupo. El algoritmo de agregación de enjambre de abejas Beeclust consiste en imitar el comportamiento de agrupación de las abejas en busca de focos de calor dentro de la colmena. La sincronización en el movimiento de robots independientes resulta útil en tanto en el entretenimiento (espectáculos de drones, rutinas, formación de patrones, etc.), como en la industria, hablemos por ejemplo del caso de KIVA el robot móvil encargado del acomodo de envíos de la empresa Amazon, se trata de máquinas individuales trabajando en sincronía, lo que permite un movimiento constante sin que se obstruyan entre ellos. Sin embargo, estos tienen un intercambio constante de información lo cual complica su implementación. Este proyecto consiste en el desarrollo de robots que sigan el algoritmo de Beeclust para que se agrupen sin la necesidad que un envió de datos entre ellos, si no que se base en los componentes en su estructura y técnicas que le permitan reconocer entre obstáculos y otros individuos.



METODOLOGÍA

Se utilizó un minicomputador Raspberry Pi Zero W para la programación y control de los componentes electrónicos, cuatro sensores infrarrojos Sharp 0A41SK F 96 para la detección de obstáculos en una distancia menor a 15 cm para evitar colisiones con paredes u otros robots, un transistor 22N2222 para habilitar o deshabilitar el funcionamiento de los sensores, un puente H L298N para el control de motores, dos motores DC de 3-9V con motorreductor a 200rpm, dos ruedas acoplables de 65mm, una rueda conjunta de Nylon de 2 In, un protoboard de 400 puntos, cableado tipo Jumper de diferentes composiciones y una base de PLA impresa en 3D. Al principio del proyecto se realizaron pruebas individuales de los componentes para comprobar el funcionamiento con respecto a los parámetros que permiten las terminales de prueba del Raspberry Pi y ajustarlos a lo requerido en el proyecto, además de adaptarse a los componentes con los que se está trabajando. Posteriormente se priorizo acomodarlo en la base proporcionada por nuestro asesor. Asimismo se comenzó el diseño de una base optima en SolidWorks donde se priorice el orden en los componentes. Teniendo una visión más amplia se comenzó el ensamblaje de los componentes sobre la base de PLA para para una prueba en conjunto donde se aplique el algoritmo de Beeclust de forma física en el robot. El objetivo del algoritmo es la agrupación siguiendo la siguiente secuencia de acciones: Avanzar en línea recta hasta detectar un obstáculo En caso de detectar un obstáculo decidir: Si es una pared: Rotar un ángulo aleatorio y volver a avanzar en línea recta hasta un nuevo obstáculo. Si es otro robot: Tomar una medición en la luz reflejada del suelo y realizar una espera proporcional a la cantidad de iluminación. Repetir las acciones desde el paso uno hasta lograr una agrupación con los individuos suficientes.


CONCLUSIONES

Se obtuvieron programas de prueba para los componentes de forma individual con el fin de facilitar la programación para el algoritmo desarrollado, también se realizó un diseño manipulable de SolidWorks en caso de requerir cambios en la estructura del prototipo y se comenzó a probar los robots obtenidos incluyendo todos los elementos que lo conforman previo a la actualización de la base. El avance permite trabajar con el algoritmo y su simulación usando los robots diseñados y los programas individuales, estos pueden ser utilizados no solo para el algoritmo objetivo si no para comenzar a desarrollar estructuras más complejas que puedan realizar más actividades añadiendo o modificando las características actuales en el modelo pues, la capacidad de procesamiento, el tamaño y versatilidad que ofrece el miniordenador Raspberry Pi Zero W lo vuelve capaz de procesar un mayor número de datos y componentes en un espacio reducido.  Esto abre posibilidad de proyectar a futuro una conexión e intercambio de información entre los robots para mejorar el proceso de agrupación en algoritmos más robustos.
Tovar Romero Kevin Iván, Instituto Politécnico Nacional
Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)

SISTEMA ROBóTICO CARTESIANO PARA EL CULTIVO DE SEMILLAS


SISTEMA ROBóTICO CARTESIANO PARA EL CULTIVO DE SEMILLAS

Juarez Falcon Alberto Daniel, Instituto Politécnico Nacional. Torres Chagolla Lilia, Universidad Michoacana de San Nicolás de Hidalgo. Tovar Romero Kevin Iván, Instituto Politécnico Nacional. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Debido a la riqueza de recursos naturales y la biodiversidad en México, este país destaca como productor de una amplia variedad de cultivos. En este contexto, el presente proyecto se enfoca en el diseño y simulación de un sistema robótico cartesiano para el cultivo de semillas con fines prácticos para el Centro de Investigaciones Biológicas del Noroeste. La implementación del sistema robótico propuesto busca mejorar la eficiencia del proceso de cultivo de albahaca mediante la automatización de tareas específicas, lo que permitirá un uso más preciso y efectivo de los recursos agrícolas. El objetivo general es el diseño de un sistema robótico automatizado que, con su implementación, simplifique la tarea del agricultor al sembrar semillas en charolas comerciales de 50 cavidades, reduciendo los riesgos asociados con el trabajo manual y optimizando la producción al utilizar de manera eficiente las semillas que son sembradas, mejorando la productividad en los cultivos al reducir el tiempo invertido en la tarea. La implementación de un robot cartesiano diseñado para automatizar la siembra logra optimizar el proceso el cultivo y se liberan recursos humanos, brindándoles la oportunidad de emplear sus esfuerzos en diferentes actividades que los hagan aumentar su ingreso económico. Promueve la innovación al introducir un enfoque automatizado en un proceso tradicionalmente realizado manualmente, representando un cambio tecnológico que puede mejorar la eficiencia y precisión en la producción de los cultivos. Al sembrar las semillas de manera responsable y mantener las plantas germinadas en condiciones apropiadas, se fomenta el crecimiento saludable de la vegetación. El prototipo del sistema robótico se diseña específicamente para las semillas de albahaca. El proceso para la plantación de semillas en charolas comerciales de plástico para cultivo consiste de las acciones mencionadas. Debido a esto, surge la necesidad del diseño de un sistema robótico automatizado que simplifique y agilice las tareas del agricultor al sembrar las semillas en las charolas comerciales. 



METODOLOGÍA

Para el diseño integral del sistema robótico debe abarcar tres puntos fundamentales: la simulación, la interconexión electrónica de los componentes y la programación del sistema encargado de ejecutar las actividades requeridas. Cada uno de estos aspectos es esencial para lograr un sistema funcional y eficiente que automatice la tarea de una manera precisa y confiable, logrando nuestros objetivos de realizar el cultivo de la albahaca. El proceso para la siembra manual de semillas de albahaca consiste de una serie de pasos laboriosos que requieren mucho tiempo para llevar a cabo, tales como la selección manual de semillas y la colocación en los orificios de cada cavidad de la charola conllevan a una alta dedicación de los agricultores y la posibilidad de cometer errores que ponen en riesgo la tasa de germinación, impactando directamente con la productividad del cultivo. Con este sistema garantizamos la distribución uniforme y precisa de las semillas en el proceso de siembra, reduciendo la intervención manual, lo que también minimiza los riesgos asociados con el trabajo en condiciones de calor extremo, trayendo consigo beneficios mayores, como lo son una mayor productividad y rentabilidad en el cultivo de semillas. El sistema robótico propuesto es de tipo cartesiano, que cuenta con 3 ejes de control primario, los cuales son todos lineales. Cuenta con tres articulaciones deslizantes que permiten el movimiento de una herramienta hacia dentro, hacia afuera, hacia arriba y hacia abajo. Este tipo de robots suelen ser utilizados para la manipulación de materiales, es posible debido a la alta precisión que tienen para moverse. Debido a las ventajas que este tipo de robot nos presenta, será utilizado en conjunto con una herramienta diseñada específicamente para realizar el proceso de la siembra de las semillas en una acción simplificada. Para el presente proyecto, se procedió a crear el diseño funcional del sistema robótico cartesiano,  la representación simulada de la propuesta generada, en la que se pueden observar los tres ejes de transmisión del robot, husillos y motores a pasos para cada uno de los mismos. La conexión electrónica asegura la comunicación efectiva entre los distintos elementos del sistema, para permitirnos un control coordinado y preciso del robot


CONCLUSIONES

El diseño y simulación de este sistema robótico es de gran ayuda para automatizar los cultivos de semillas, en este caso, de la albahaca. En la localidad seleccionada, es de gran ayuda por las condiciones climatológicas y debido al costo elevado de cada semilla. Con este sistema, se optimiza el cultivo y la producción de esta planta, y también puede ser adaptado a otros tipos de plantas que pueden ayudar a mejorar las formas en las que la agricultura se desarrolla, mejorando tiempos, reduciendo costos y disminuyendo la probabilidad de cometer errores al realizar esta actividad. El diseño del robot cartesiano conjuga una cantidad de ramas de la ingeniería como lo es la mecánica, programación, electrónica, entre otros, por lo que este proyecto integra diversos conocimientos. La utilización de diversos softwares para la simulación del sistema nos permite saber cómo será su construcción en el momento que se decida llevarlo a cano físicamente, aprovechando que los materiales con los que se trabaja en la etapa de simulación del sistema físico e interconexión electrónica son los que se eligieron para este proyecto por cumplir las necesidades observadas durante la etapa de diseño. Los actuadores, los drivers y la tarjeta utilizada son materiales comerciales comunes, lo que hace que su construcción se facilite debido a que pueden conseguirse de una forma relativamente sencilla. En resumen, el diseño y simulación de este sistema robótico representa una solución valiosa para la automatización de los cultivos, mejorando la eficiencia, reduciendo costos y promoviendo una agricultura más sustentable y segura para todos los involucrados.
Trujillo Jiménez José Alberto, Universidad de Guadalajara
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Albarran Barbosa Jessica Denisse, Universidad Michoacana de San Nicolás de Hidalgo. Ceja Reyes Guillermo, Universidad de Guadalajara. Muñoz Silva César Edmundo, Instituto Tecnológico de Tepic. Naranjo Blanco Francisco Alfonso, Instituto Tecnológico Superior de Los Reyes. Trujillo Jiménez José Alberto, Universidad de Guadalajara. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

La población en México ha crecido exponencialmente durante los últimos 70 años. El aumento ha llevado a la necesidad de construir nuevas casas que requieren servicios básicos como agua, drenaje y electricidad. Sin embargo, la obtención de electricidad a través de combustibles fósiles ha generado altas emisiones de Gases Efecto Invernadero y contribuido al calentamiento global. La expansión urbana y el consumo desmedido de recursos naturales han tenido un impacto negativo en el medio ambiente. Para abordar este problema, se presenta el proyecto "Diseño de una Casa Ecológica Autosustentable" (CEA), que busca crear viviendas cómodas y respetuosas con el medio ambiente. Las CEA son una respuesta proactiva al cambio climático y promueven la construcción sostenible para reducir la huella de carbono y contribuir a la estabilidad del clima.



METODOLOGÍA

Durante el desarrollo del proyecto, se llevaron a cabo numerosas investigaciones documentales y sesiones de video sobre diversos temas relacionados, así como sesiones de trabajo colectivo para compartir ideas de lo investigado y tomar decisiones sobre la mejor alternativa. Se trató el uso de energía en edificaciones, se exploraron aspectos fundamentales como la irradiación solar, el viento, la temperatura, el confort térmico, el aprovechamiento del activo solar y la consideración de la visión humana en el diseño. También se estudió el principio del diseño con luz diurna, el tratamiento de aguas grises y la importancia de la ventilación natural en el contexto ecológico. Para enriquecer aún más los conocimientos sobre el tema, se realizó una visita de estudio al Instituto Mexicano de Tecnología del Agua (IMTA), donde se pudo observar en vivo el funcionamiento de dos casas ecológicas diferentes. Además, se conocieron las tecnologías y ecotecnias empleadas en estas viviendas, incluyendo el tratamiento de aguas, lo cual brindó una perspectiva más amplia y valiosa para el diseño de la Casa Ecológica Autosustentable. En el proyecto, se planea equipar la vivienda con tecnología de vanguardia para optimizar la eficiencia energética. Se implementarán estratégicamente paneles fotovoltaicos para captar la energía del sol, que es una fuente de energía renovable, y convertirla en energía eléctrica. Esta electricidad generada será utilizada para alimentar los sistemas de iluminación y los electrodomésticos, promoviendo el uso responsable de la energía. Adicionalmente, se prevé instalar generadores eólicos con eje vertical para aprovechar el viento, complementando la producción energética con otra fuente limpia y renovable.  Con estas acciones, el proyecto de la Casa Ecológica Autosustentable busca no solo promover la adopción de prácticas amigables con el medio ambiente, sino también inspirar y servir como ejemplo para futuras construcciones ecológicas y sostenibles, contribuyendo así a la lucha contra el cambio climático y fomentando un uso más responsable de los recursos naturales. Para garantizar el uso responsable del agua se incorporará un sistema de cosecha de agua de lluvia en techos, que permita captar y almacenar este vital líquido hacia depósitos subterráneos, para ser aprovechado en épocas de escasez, así como un sistema de filtración para obtener agua potable, lo que permitirá disponer de agua pluvial para tareas del hogar, fortaleciendo la auto sustentabilidad del hogar.  A su vez se implementará un sistema tratamiento de aguas grises: estas aguas provenientes de lavamanos, duchas y lavadoras se filtrarán y purificarán con ozono para ser reutilizadas en actividades cotidianas, tales como el riego de jardines y descargas de inodoros, lavado de ropa y el aseo de la casa. Esto no solo reducirá el consumo de agua potable, sino que también contribuirá a disminuir la contaminación ambiental, es importante tener esto en cuenta debido a que Organización Mundial de la Salud (OMS), menciona que una persona requiere de 100 litros de agua al día (5 o 6 cubetas grandes) para satisfacer sus necesidades [5], tanto de consumo como de higiene y lamentablemente en México según datos proporcionados por el Sistema de Aguas de la Ciudad de México (SACMEX), el consumo promedio de agua por persona en la CDMX es de aproximadamente 380 litros por día[6].


CONCLUSIONES

El proyecto ha sido pensado para acoger a una familia de 5 personas, esta vivienda ofrece un ambiente plácido y armonioso mientras mantiene un consumo energético e hídrico por debajo de los estándares establecidos. Su diseño, novedoso y creativo, garantiza no solo el confort térmico sino también una iluminación óptima, brindando una experiencia habitacional única. En vista de nuestro compromiso con el medio ambiente, anhelamos que el Gobierno de la República respalde este proyecto mediante la implementación de Hipotecas Verdes, especialmente destinadas a personas de bajos ingresos. De esta manera, daremos un paso significativo hacia un México autosustentable, donde la armonía entre la naturaleza y el desarrollo humano se vuelva una realidad palpable. Es nuestro propósito fomentar una cultura de conciencia ecológica, donde cada individuo pueda disfrutar de una vivienda que respete y cuide nuestro planeta, forjando así un futuro más prometedor y sostenible para las generaciones venideras, juntos podemos construir un país en armonía con la naturaleza y trascender hacia un futuro próspero y responsable con el medio ambiente.
Tzeck Alatorre Liliana Anahi, Universidad de Guadalajara
Asesor: Mg. Andrea Goméz Alzate, Universidad Autónoma de Manizales

REDISEñO DE APUNTADOR PARA JUEGO DE BOCCIA. GUíA DE ELECCIóN, ADAPTACIóN Y USO DE PRóTESIS TRANSITIBIAL (CAPíTULO ELECCIóN)


REDISEñO DE APUNTADOR PARA JUEGO DE BOCCIA. GUíA DE ELECCIóN, ADAPTACIóN Y USO DE PRóTESIS TRANSITIBIAL (CAPíTULO ELECCIóN)

Gómez Almanza Arantxa María, Universidad de Guadalajara. Tzeck Alatorre Liliana Anahi, Universidad de Guadalajara. Asesor: Mg. Andrea Goméz Alzate, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

ODS 3: salud y bienestar, garantizar una vida saludable y promover el bienestar para todos para todas las edades. Proyecto 1: Guía para la elección, adaptación y uso de prótesis transtibial (capítulo elección) Planteamiento El éxito del proceso de protetización depende de muchos factores, entre los cuales se encuentran la elección de la prótesis adecuada, una correcta adaptación a ésta por medio de procesos de rehabilitación, y del correcto uso que el paciente haga de la prótesis.  Uno de los factores que puede mejorar el proceso de adaptación y uso es la correcta elección del elemento protésico, pues depende no sólo de factores como la edad, el peso, el motivo de amputación y el costo, sino también, del nivel de actividad que en su cotidianidad tenga el usuario, son muchos factores que pueden ser abrumadores sumados al proceso mismo de la pérdida del miembro. Esta guía, puede informar al usuario sobre conceptos importantes para el proceso de protetización, enfocada en la elección de una prótesis transtibial, bien sea para niño, adulto o adulto mayor, siempre acompañado de la ayuda de expertos en prótesis y ortesis para una elección adecuada. Contiene además apartes informativos que ayudarán a la población mexicana y colombiana en aspectos de costos, fabricantes e información relacionada con los factores ambientales y culturales. Como resultado, se generó un mapa mental que contiene información generalizada donde el usuario pueda tener una orientación para la elección de la prótesis. Proyecto 2: Rediseño de apuntador para juego boccia Planteamiento Las ayudas técnicas deportivas se constituyen como un factore fundamental en el desarrollo deportivo de las personas en situación de discapacidad.  Específicamente para el juego de Boccia en la categoría BC3 éstas son fundamentales para que el jugador pueda desempeñarse en el campo de juego y en entrenamientos.  En este proyecto se realizó el rediseño de un apuntador que se utilizará en cabeza, boca y mano, estos modos de uso del apuntador tienen la finalidad de ayudar al jugador a lanzar la bocha durante el juego, se busca que este rediseño sea más práctico para cambiar las posiciones o aumentar la altura para lanzar la bocha, asimismo para transportar; es de vital importancia que sea seguro y preciso para el usuario.



METODOLOGÍA

Proyecto 1: Guía para la elección, adaptación y uso de prótesis transtibial (capítulo elección) Problema: Crear un mapa mental con información donde establezca los lineamientos para la elección de una prótesis transtibial en niños, adultos y adultos mayores. Contextualización Comprender qué es una prótesis transtibial: Conocimiento de qué es una prótesis transtibial en niños, adultos y adultos mayores. Comprender etapas para un uso correcto de prótesis: Conocimiento de etapas de protetización en niños, adultos y adultos mayores. Análisis Análisis de las etapas de protetización Clasificación Clasificación de información de cada etapa para los diferentes públicos: Organización de la información dirigida a los distintos tipos de usuarios. Realización: Elaboración de un mapa mental donde articulen los factores que inciden en el proceso de elección de una prótesis transtibial para distintos usuarios. Proyecto 2: Rediseño de apuntador para juego boccia Metodología Para esta investigación se utilizó una metodología participativa para el diseño de producto centrado en usuario. Problema: Rediseñar apuntador para cabeza y boca, que sea preciso, seguro y robusto para reconfigurable y práctico. Contextualización Comprender el juego de boccia. Análisis de diseños existentes: Identificación de elementos en diseños existentes factibles de implementar o rediseñar. Etapa creativa Elaboración de diseños mejorados que cumplan con los criterios establecidos. Evaluación Evaluación de propuestas: Determinar el diseño final.


CONCLUSIONES

Proyecto 1: Guía para la elección, adaptación y uso de prótesis transtibial (capítulo elección) La información requerida para la elección de una prótesis es tan variada, que tenerla depurada, organizada y en un lenguaje claro para las personas por fuera del ámbito de la salud; ayuda a usuarios y familias a hacer una elección informada. El mapa informativo desarrollado en este proyecto ayuda a tener de una manera clara y ágil la información relacionada con la elección de una prótesis transtibial, lo que repercute positivamente en los procesos de adaptación y uso. Proyecto 2: Rediseño de apuntador para juego boccia Por medio de este proceso adquirimos conocimientos del proceso de diseño de producto que consideramos importantes como la relación del objeto con el usuario y el contexto. La Ingeniería Biomédica es una disciplina que influye de manera positiva en campos antes no considerados por nosotras como el de las ayudas técnicas. El trabajo con los usuarios en el proceso de diseño mejora la percepción de lo que se necesita para proponer soluciones al problema planteado. El diseño del apuntador obtenido por medio del proceso permite adaptarse a boca, cabeza y mano; lo que hace que cualquier jugador, sin importar su nivel o control de movilidad pueda usarlo.
Uicab Nahuat Victor, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dra. Mónica Ramírez Mata, Universidad de Guadalajara

APRENDIZAJE PERSONALIZADO


APRENDIZAJE PERSONALIZADO

Uicab Nahuat Victor, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Mónica Ramírez Mata, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El problema principal radica en que la educación en línea tradicional suele ofrecer un enfoque estándar y homogéneo, "sin tomar en cuenta las necesidades individuales de cada estudiante" (UNESCO, 1994, p. 10). Por eso el objetivo principal es ofrecer una plataforma de educación en línea que se adapte a las necesidades individuales de cada estudiante utilizando herramientas de inteligencia artificial y tecnologías avanzadas. Para lograr esto, se busca proporcionar acceso a recursos educativos de alta calidad y recomendar contenidos específicos para cada estudiante, con el fin de mejorar la calidad de la educación y promover el desarrollo de habilidades. El rol de la inteligencia artificial y el aprendizaje automático en el aprendizaje personalizado, la evaluación y monitoreo del progreso de los estudiantes, la protección de la privacidad y seguridad de los datos, la interacción de métodos de integración y la exploración de herramientas tecnológicas.  Es necesario diseñar currículos teniendo en mente a todos los estudiantes, lo cual permitirá a los docentes responder a una amplia gama de alumnos, teniendo en cuenta que cada alumno es único.  (Blanco, 2009).  



METODOLOGÍA

Se está llevando a cabo una metodología de investigación que combina el análisis bibliográfico y documental, así como la aplicación de técnicas de minería de datos y análisis de comportamiento. Se están realizando investigaciones de diferentes plataformas de aprendizaje en línea, sistemas de gestión del aprendizaje y aplicaciones educativas para identificar las mejores prácticas y enfoques exitosos en el ámbito del aprendizaje personalizado. Posteriormente, se exploraron las herramientas tecnológicas y metodologías disponibles para el aprendizaje personalizado en línea. Se está explorando diferentes sistemas de gestión del aprendizaje, aplicaciones móviles educativas y sistemas de tutoría inteligente para determinar cuáles son más adecuados para el proyecto. También se exploraron diversas herramientas tecnológicas y metodologías disponibles, como el uso de lenguajes de programación como Python y frameworks como Flask o Django, bibliotecas de inteligencia artificial como TensorFlow o PyTorch, y plataformas de computación en la nube como Amazon Web Services (AWS). Estas herramientas permitirán el diseño y desarrollo efectivo de la plataforma de aprendizaje personalizado. De igual manera, se planificara el seguimiento del progreso de los estudiantes a lo largo del proceso de aprendizaje. Se están definiendo indicadores clave para evaluar el impacto y la satisfacción de los estudiantes que utilizan la plataforma, y se elaboraran cuestionarios y encuestas para recopilar información sobre su percepción en términos de compromiso, motivación y satisfacción. Se esta trabajando de forma colaborativa en el laboratorio de inteligencia artificial en la empresa latinoamericana con expertos colaboradores y los compañeros del programa delfín en el que todos colaboramos y compartimos informacion que estamos recolectado.


CONCLUSIONES

El trabajo de investigación sobre el aprendizaje personalizado en línea para la educación tiene como objetivo principal proporcionar una solución innovadora y adaptativa a los desafíos educativos actuales, promoviendo un aprendizaje más efectivo y significativo para cada estudiante mediante el uso de tecnologías avanzadas y metodologías fundamentadas en la ciencia del aprendizaje Con base en los resultados obtenidos, se espera desarrollar una plataforma de aprendizaje personalizado en línea que se adapte a las necesidades individuales de cada estudiante y mejore la calidad de la educación. El uso de herramientas de inteligencia artificial y tecnologías avanzadas permitirá ofrecer una experiencia de aprendizaje efectiva y enriquecedora, lo que permitirá tomar decisiones estratégicas. Además, se espera que la plataforma pueda impactar positivamente en el desarrollo de competencias de los estudiantes, brindándoles habilidades del siglo XXI y capacitándolos para alcanzar su máximo potencial educativo y profesional. Referencias: UNESCO. (1994). Informe final de la conferencia mundial sobre necesidades educativas especiales: Acceso y calidad. París: UNESCO. Blanco, R. (2009). La atención educativa a la diversidad y las escuelas inclusivas. En A. Marchesi, J. C. Tedesco y C. Coll (Comps.), Calidad, equidad y reformas en la enseñanza (pp. 87-99). Madrid: Fundación Santillana.
Urbina Velarde Julio Cesar, Universidad de Sonora
Asesor: Ing. Araceli Rebollar Becerra, Tecnológico de Estudios Superiores de Valle de Bravo

DETERMINAR LOS íNDICES DE CAPACIDAD DEL PROCESO (CP Y CPK) DE UNA FRESADORA CNC EN POLIAMIDA MECANIZABLE.


DETERMINAR LOS íNDICES DE CAPACIDAD DEL PROCESO (CP Y CPK) DE UNA FRESADORA CNC EN POLIAMIDA MECANIZABLE.

López Urbano Pamela Aimée, Instituto Politécnico Nacional. Urbina Velarde Julio Cesar, Universidad de Sonora. Asesor: Ing. Araceli Rebollar Becerra, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

En el proceso de fresado de piezas, es esencial garantizar que las tolerancias y especificaciones establecidas se cumplan de manera consistente para asegurar la calidad del producto final. Sin embargo, la variabilidad inherente en los procesos de manufactura puede dar lugar a desviaciones y defectos en las dimensiones de las piezas fresadas, lo que podría impactar negativamente en la satisfacción del cliente, la eficiencia de producción y la rentabilidad. Es decir, un Cpk menor a uno es una señal de que el proceso de fresado no es capaz de producir piezas dentro de las tolerancias requeridas de manera consistente. Esto puede resultar en problemas de calidad, costos adicionales y una disminución general en la eficiencia. Por lo tanto, el problema radica en la necesidad de determinar de manera precisa y sistemática los valores de Cp y Cpk en el proceso de fresado, para identificar si el proceso se encuentra bajo control o existen fuentes de variabilidad que afectan la calidad del producto, lo cual, conlleve a tomar medidas correctivas efectivas que mejoren la capacidad del proceso y producir piezas mecanizadas de alta calidad de manera consistente.



METODOLOGÍA

Establecimos los siguientes pasos para la metodología:  Planeación y diseño de la pieza: Se realizó el diseño de la pieza en AutoCAD, estableciendo las especificaciones de las medidas, el tamaño de muestra y el tipo de herramienta a utilizar. Elaboración del código CNC: Elaboramos el código del programa CNC para fresadora, con su respectiva simulación. Mecanizado de piezas: Ajustamos los parámetros necesarios para el mecanizado en la fresadora CNC y mecanizamos las piezas. Acabado de piezas: Al final del proceso de mecanizado, realizamos un proceso de acabado retirando la viruta de las piezas. Medición: Utilizamos un comparador óptico como instrumento de medición para obtener las mediciones de las piezas mecanizadas.  Recolección de datos: Una vez obtenidos los datos de las mediciones, organizamos los datos por cada lado de la pieza y establecimos las tolerancias correspondientes, en base a la normal DIN ISO 2768. Análisis estadístico: Interpretamos los indicadores de capacidad y evaluamos con los criterios de Cp y Cpk para tomar decisiones en base a la capacidad del proceso.


CONCLUSIONES

Después de 48 mecanizaciones se determinó que el Cpk es menor a 1, lo que significa que el proceso está fuera de control y que las medidas no cumplen con las especificaciones establecidas, por lo que el proceso no es confiable, esto se debe a diferentes variaciones en factores como: la calidad de la herramienta, la velocidad de corte y el material utilizado.  La conclusión principal de este proyecto es la toma de medidas preventivas y correctivas para el aseguramiento de la calidad de las piezas, cumpliendo con los requisitos y satisfacción del cliente. Algunas recomendaciones que sugerimos es la supervisión constante del proceso de mecanizado, así como también una producción por lotes, ya que la fresadora se puede descalibrar. Para eso implementar mantenimiento correctivo estandarizado y supervisar los resultados de mecanizado para posteriores mantenimientos preventivos de la máquina.
Urías Domínguez Ana Gabriela, Universidad Autónoma de Sinaloa
Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo

EFECTO DE LAS MICROFIBRAS DE POLIPROPILENO Y FLUIDIFICANTE EN LAS PRUEBAS AL CONCRETO EN ESTADO FRESCO


EFECTO DE LAS MICROFIBRAS DE POLIPROPILENO Y FLUIDIFICANTE EN LAS PRUEBAS AL CONCRETO EN ESTADO FRESCO

Urías Domínguez Ana Gabriela, Universidad Autónoma de Sinaloa. Asesor: Dr. Marco Antonio Navarrete Seras, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la industria de la construcción se ha enfrentado a varios problemas de funcionalidad y edificación de las obras, es decir, al mantenimiento, costo y duración de la vida útil de las construcciones.    Muchos de estos problemas son resultado de la falta de análisis al concreto en estado fresco, estas pruebas son de suma importancia, ya que, a través de estas se asegura la trabajabilidad durante el colado y que la mezcla cumpla con el revenimiento y las características para la que fue diseñada, si esto no es así, se puede tener como resultado un concreto segregado, en donde se  reduzca el valor de su resistencia (f`c), aumente su  porosidad, disminuye su durabilidad, empeore la trabajabilidad al momento de la colocación, vibrado y segregación en el concreto.    La presente investigación analiza el efecto de las pruebas al concreto en estado fresco con adición de fluidificante multipropósitos, el cual incrementa la fluidez de la pasta y actúa permitiendo una reducción del 10 al 20% del cemento y microfibras de polipropileno,  es la de minimizar los agrietamientos por contracción plástica en el estado fresco y por temperatura en estado endurecido del concreto; con el objetivo de conocer su cambio de trabajabilidad, revenimiento, masa unitaria y aire incluido con respecto a las pruebas de un concreto convencional. Todo esto con lo establecido en la norma NMX-C-ONNCCE-2013 y auxiliado por la ASTM C-172.    



METODOLOGÍA

Para la elaboración de la mezcla de concreto con fibra de polipropileno y aditivo fluidificante se realizó una mezcla diseñada por el método del ACI, el cual, resultó la siguiente proporción: Cemento cemex CPC : 39.013 kg. Arena volcánica : 87.132 kg. Grava triturada: 127.549  kg. Agua: 40.088  kg.  Aditivo fluidificante: 0.258 lt. Microfibra de polipropileno: 0.078 kg. La relación de los aditivos fueron de 6 ml de fluidificante multipropósitos por cada kg de cemento y 600 g por cada m3 de concreto.  En cuanto a la elaboración de la mezcla del  concreto convencional se utilizaron las siguientes proporciones: Cemento cemex CPC: 44.277kg. Arena volcánica: 77.721 kg. Grava triturada: 127.549 kg. Agua: 42.638 kg.    Dentro de la elaboración de los especímenes de concreto hidráulico con y sin adición se tienen los siguientes pasos:      muestreo Una vez agregados todos los componentes y obtenida una mezcla homogénea se tomó una muestra representativa basado en la norma NMX-C-161-ONNCCE, la muestra tomada fue de aproximadamente 28 litros mismos que se utilizaron para las pruebas de revenimiento y masa unitaria.   Revenimiento Para la prueba de revenimiento se basó en los lineamientos expuestos en la norma NMX-C-156-ONNCCE, en la cual, se utilizó un molde metálico troncocónico puesto sobre una placa de acero, este molde cuenta con dos piezas de apoyo en donde el operador estuvo sobre ellas durante el llenado, se llenó en tres capas en donde cada una de ellas fue compactada por 25 penetraciones ayudadas por una varilla punta de bala, después de ser llenada se enrasó con la misma varilla usada, se levantó el molde de manera vertical sin movimiento lateral o torsional, este mismo fue colocado sobre la placa quedando la abertura mayor arriba,inmediatamente se midió el revenimiento con una diferencia vertical entre el borde superior del molde y la posición desplazada del centro de la pasta cementante.    Masa unitaria y Contenido de aire. La prueba de masa unitaria y contenido de aire fue basada en la norma NMX-C-161-ONNCCE. Esta prueba consistió en la determinación  del concreto, misma que proporciona fórmulas para determinar su rendimiento y contenido de aire. Se necesitó una olla para el contenido de aire, la cual, contiene un molde cilíndrico, mismo que se relleno con la mezcla de concreto en tres capas que fueron compactadas 25 veces con una varilla punta de bala, luego de compactar cada capa se golpeó  3 veces por cada costado del molde con ayuda de un mazo apropiado. Al finalizar las tres capas se enrasó y se colocó la tapa de la olla para determinar su contenido de aire, para esto, llenamos con agua las válvulas con las que cuenta la olla y procedimos a bombear hasta que la aguja estuviera justo sobre la la manecilla amarilla y por último soltamos la palanca para hacer girar a la aguja y esta nos diera el resultado de contenido de aire.   


CONCLUSIONES

Una vez realizadas las pruebas con la mezcla de concreto convencional y con la mezcla modificada con microfibras de polipropileno y fluidificante, se notó un cambio muy relativo en los resultados de la prueba de revenimiento, ya que, el revenimiento en la mezcla convencional dió como resultado de 14 cm, en el que su diseño fue propuesto para 12 cm, estando dentro de la marca de tolerancia ± 3.5 cm según lo establecido en la norma NMX-C-156-ONNCCE, en cambio, la prueba de la mezcla modificada dió un revenimiento de 22 cm, donde su diseño fue para 12 cm, por lo tanto, no estuvo dentro de lo tolerado. Consideramos que este resultado fue debido al fluidificante, que como su nombre lo indica, cumple su función incrementando la fluidez de la mezcla. Para las pruebas de muestreo, masa unitaria y contenido de aire, ambas mezclas fueron exactamente iguales obteniendo un contenido de aire de 2% tal y como lo marcaba su diseño, después de esto concluimos que el conocer las normas y pasos correctos para la realización de las pruebas al concreto en estado fresco son de suma importancia, ya que, con ellas conocemos la calidad del concreto que obtenemos, observamos también que el concreto modificado tiende a cambiar mucho su revenimiento y es por ello que debemos diseñar con respecto a las características del aditivo que proponemos adicionar y si este no afecta a la trabajabilidad a la hora de su colocación.      
Urias Lachica Danna Paola, Universidad Autónoma de Sinaloa
Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana

ANáLISIS DE REGISTROS SíSMICOS EN LA CIUDAD DE PUEBLA CON éNFASIS EN EL EFECTO DE EDIFICIOS


ANáLISIS DE REGISTROS SíSMICOS EN LA CIUDAD DE PUEBLA CON éNFASIS EN EL EFECTO DE EDIFICIOS

Urias Lachica Danna Paola, Universidad Autónoma de Sinaloa. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana



PLANTEAMIENTO DEL PROBLEMA

El estado de Puebla cuenta con eventos sísmicos habituales los cuales eventualmente provocan daños a la infraestructura.   Durante los últimos años en la ciudad de Puebla se han registrado sismos de gran magnitud que han afectado la calidad de vida de la población en la ciudad; debido a esto es de gran importancia realizar estudios de dichos efectos mediante el análisis de los registros sísmicos.  



METODOLOGÍA

Se comienza el análisis priorizando un sitio en particular, en este caso, del estado de Puebla se eligió la ciudad de Puebla a causa de la frecuente actividad sísmica del lugar. A continuación, con ayuda de la base de datos de la UNAM, se identificaron las estaciones sismológicas de la ciudad, como resultado se obtuvo una tabla con todas las estaciones pertenecientes a la ciudad incluyendo información relevante de cada una de estas (ubicación, tipo de terreno, la cantidad de registros que tiene cada estación y la institución a cargo de dicha estación), con esta información se realiza un primer filtro; lo ideal es ubicar las estaciones que sigan en operación, lo que nos deja con siete estaciones; lo más importante de esta primer tabla es el tipo de terreno en el que la estación está ubicada ya que con esa información podemos analizar el comportamiento de los tipos de terreno de acuerdo a las aceleraciones registradas por las estaciones, así que si alguna de las siete estaciones no llegara a tener información del tipo de terreno este se descarta. Continuando con el análisis, se debe realizar una segunda tabla la cual requiere información de los registros de las estaciones de la primer tabla, se realiza un filtro de PGA donde los valores de aceleración sean mayores igual a 10 cm/s2 (cómo valor inicial) y se buscan los registros de las estaciones, posteriormente se descarga un archivo de excel con el resultado de la búsqueda con la finalidad de facilitar el uso de la información, en excel se realiza otro filtro, en este caso el filtro consistió en seleccionar eventos que hayan sido registrados por todos si no la mayoría de las estaciones dejando ocho filas restantes, correspondientes a diferentes sismos; se documentó información de cada uno de estos sismos tales como la fecha del sismo, su magnitud, latitud, longitud, profundidad, el máximo valor registrado en la ciudad, la estación donde se registró el valor máximo de PGA y la cantidad de registros presentados para cada sismo que a su vez corresponde a la cantidad de estaciones que registraron dicho sismo. Se observa que, en los ocho sismos, la estación que registró el valor máximo de PGA en cada uno de los eventos fue SAPP (San Alejandro) que tiene como tipo de terreno depósitos lacustres, un terreno que es muy flexible en comparación a un tipo de terreno roca. A partir de ahí se selecciona un evento sísmico a estudiar (sismo del 19 de septiembre del 2017). Con ayuda de las tablas anteriores donde analizamos las estaciones de la ciudad y los eventos sísmicos, se realiza un resumen tipo tabla (tabla 3) de la información recolectada de las estaciones y sus respectivos registros obteniendo lo siguiente: De las estaciones se eligieron 3; SAPP (San Alejandro) por ser la estación que registró el PGA máximo del sismo, PZPU (Cerro la Paz) y PHPU (Parque la Habana) por el tipo de terreno que presentan al agregar información adicional a la tabla como lo es el tipo de terreno de cada estación, el valor de PGA que registró el sismo, entre otros, llegamos al valor de factor de amplificación con respecto al tipo de terreno roca, para completar esta parte de la tabla es necesario tener una estación que haya registrado el sismo y que su terreno sea roca (en este caso la estación con ese tipo de terreno es PZPU).Con la información presentada en la tabla observamos que el factor de amplificación es casi el doble para la estación SAPP (depósitos lacustres), mientras que la estación PHPU (suelo) presenta un factor similar al de PZPU (roca), esto es debido a que tipo de terreno en SAPP presenta mayor flexibilidad y por ende registra los valores más altos de PGA.  


CONCLUSIONES

A lo largo de la estancia de verano se adquirieron conocimientos relevantes para el estudio y análisis de los sismos así como su efecto en diferentes estructuras; consultando diferentes sitios web, bases de datos y software especializado en procesar los registros de los sismos. Con dichos recursos y conocimientos, se logró estudiar un sitio en específico, en este caso, la ciudad de Puebla.  Se considera que la ciudad es muy propensa a tener sismos debido a su localización geográfica por lo que es importante mantener las estaciones en operación recopilando registros de los eventos sísmicos que ocurren en la ciudad para continuar almacenando la información y así obtener una mejor percepción de los efectos y el comportamiento de los sismos, de tal manera los edificios en la ciudad podrán recibir el mantenimiento adecuado y las obras nuevas puedan aprovechar la información para realizar construcciones sostenibles. En otras palabras, al hacer el análisis de diseño sísmico en tipo de terreno de depósitos lacustres se debe tomar en cuenta criterios distintos al tipo de terreno roca o suelo, ya que como se observó, el terreno de depósitos lacustres presentó valores mayores de aceleración lo cual nos indica que es un tipo de terreno flexible en comparación al de roca.  
Usuga Usma Maria Alejandra, Universidad Autónoma Latinoamericana
Asesor: Mg. Darwin Jose Mendoza Galvis, Universidad de Santander

ESTRATEGIAS DE IMPLEMENTACIóN DE MéTODOS Y TIEMPOS EN EMPRESAS MANUFACTURERAS: ANáLISIS BIBLIOMéTRICO


ESTRATEGIAS DE IMPLEMENTACIóN DE MéTODOS Y TIEMPOS EN EMPRESAS MANUFACTURERAS: ANáLISIS BIBLIOMéTRICO

Usuga Usma Maria Alejandra, Universidad Autónoma Latinoamericana. Asesor: Mg. Darwin Jose Mendoza Galvis, Universidad de Santander



PLANTEAMIENTO DEL PROBLEMA

Investigación enfocada en analizar las estrategias de implementación de métodos y tiempos en empresas manufactureras mediante un análisis bibliométrico. En América Latina, las Pymes que realizan estudios de trabajo destacan por su capacidad de análisis y planificación, lo que les permite mejorar la eficiencia y calidad de sus productos o servicios. Por otro lado, las empresas que operan de manera empírica enfrentan dificultades en su gestión productiva, lo que afecta la identificación y resolución de ineficiencias, impactando negativamente en la productividad y calidad. Objetivo general: realizar un análisis bibliométrico para identificar y evaluar las estrategias de implementación de métodos y tiempos en empresas manufactureras en Colombia, proporcionando un panorama completo de las tendencias y enfoques utilizados en este campo. Objetivos específicos: Realizar una revisión exhaustiva de la literatura sobre implementación de métodos y tiempos en empresas manufactureras. Identificar las estrategias más efectivas y en tendencia para mejorar procesos manufactureros. Realizar un análisis y comparación de casos múltiples en empresas de Valledupar, Cesar, Colombia. Proponer recomendaciones para mejorar los procesos en la industria manufacturera en Colombia. Esta investigación busca contribuir a la gestión de la producción y calidad en el ámbito de la ingeniería e industria. Se espera que los resultados obtenidos de este análisis bibliométrico proporcionen una base teórica sólida y práctica para los profesionales y académicos interesados en la implementación de métodos y tiempos en empresas manufactureras, y que contribuyan al desarrollo y crecimiento sostenible de la industria manufacturera.



METODOLOGÍA

Análisis bibliométrico de la literatura científica: Búsqueda exhaustiva en bases de datos especializadas, priorizando SCOPUS como fuente principal para la recopilación de artículos científicos relevantes. Se utilizaron palabras clave específicas, y se aplicaron filtros temporales para obtener información actualizada entre los años 2019 y 2023. Identificación de las estrategias más efectivas: Se examinaron las tendencias y enfoques emergentes que han demostrado ser efectivos para mejorar la eficiencia y calidad en los procesos productivos. Observación de casos múltiples: Se seleccionaron algunas empresas manufactureras en la ciudad de Valledupar, Cesar, Colombia. Se observaron detalladamente sus prácticas y procesos, recopilando datos cualitativos y cuantitativos relevantes. Comprensión del panorama actual, tendencias y recomendaciones prácticas: A partir de los resultados obtenidos, se generaron conclusiones sobre el panorama actual. A partir de estos hallazgos, se formularán recomendaciones prácticas y pertinentes para mejorar los procesos en la industria manufacturera en Colombia.


CONCLUSIONES

Hallazgos del análisis bibliométrico: Se identificaron las estrategias más efectivas y comunes utilizadas. Se observó interés constante en este campo durante los años analizados, lo que sugiere la importancia continua de mejorar los procesos en la industria manufacturera. Distribución geográfica: Muestra una alta producción de documentos en países como India, Estados Unidos y China. En América del Sur, Brasil destaca con un número significativo de publicaciones. Se destaca la importancia de fomentar la colaboración y el intercambio de conocimientos en la región para impulsar la eficiencia y competitividad en el sector. Distribución por áreas temáticas: Reveló la interdisciplinariedad en la investigación de métodos y tiempos en el sector manufacturero. La ingeniería es la disciplina dominante, seguida por informática, ciencias de la computación, negocios y gestión. También se destacan las ciencias ambientales y materiales, lo que sugiere que la mejora de los procesos en esta área se beneficia de una aproximación holística. Análisis con VOSviewer: Se generaron mapas bibliométricos para visualizar la estructura y relaciones en la literatura científica sobre métodos y tiempos. Se identificaron clústeres relacionados con la fabricación e investigación industrial, el sector manufacturero y el desarrollo sostenible. Resultados del análisis de casos: Brindó ejemplos concretos de cómo se aplican las estrategias de implementación de métodos y tiempos en la práctica. Estos ofrecen información valiosa para comprender los desafíos y oportunidades específicos que enfrentan las empresas manufactureras en la región. Contribuciones: La investigación contribuye al enriquecimiento de la literatura científica y fomenta el crecimiento colectivo del conocimiento en el campo de gestión en la industria manufacturera. Además, promueve conexiones colaborativas y fortalece la reputación de la investigación en el país. Esto, a su vez, puede impulsar una mayor eficiencia y competitividad en el sector, alineándose con el objetivo de desarrollo sostenible "Industria, Innovación e Infraestructura". Transferencia de conocimientos y tecnologías: Fomenta la transferencia de conocimientos y tecnologías avanzadas a las empresas manufactureras en América Latina, fortaleciendo su capacidad de innovación y adaptación al entorno cambiante. Esto contribuiría al crecimiento y desarrollo sostenible de la industria manufacturera en la región.   Estas conclusiones son preliminares, al continuar con la investigación, es probable que se descubran más aspectos y detalles significativos. Se puede profundizar en cada una de estas conclusiones para proporcionar una visión más completa y respaldada por los datos obtenidos.
Vacame Reyes Xochitl Jazmin, Universidad de Sonora
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Valdez Martínez Carlos Alejandro, Universidad de Sonora
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE SOLDADURA (SMAW Y GMAW)


PROCESOS DE SOLDADURA (SMAW Y GMAW)

Abarca Reyes Karla Iveth, Instituto Tecnológico de Morelia. Benito Salgado Jatziry, Instituto Tecnológico Superior de Ciudad Hidalgo. Castillo Pérez Luciana, Instituto Tecnológico Superior de Ciudad Hidalgo. Esquivel Olivares Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Morales Téllez Daniel Alexander, Instituto Tecnológico de Morelia. Pichardo Delgado Blanca Flor, Instituto Tecnológico Superior de Puruándiro. Sierra Álvarez Daniela, Instituto Tecnológico de Morelia. Sierra Ramos Emilio Adalid, Instituto Tecnológico de Morelia. Valdez Martínez Carlos Alejandro, Universidad de Sonora. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En su generalidad, el propósito del proyecto llevado a cabo fue una complementación práctica y teórica a los conocimientos que ha adquirido cada uno de los participantes en este verano delfín, desde distintas áreas. Así obteniendo un conocimiento más amplio y enriquecedor para cuando deseemos llegar a un ámbito laboral, o en su defecto seguir con competencias de investigación, tener una noción acerca del trabajo realizado por el Instituto Tecnológico de Morelia y sus investigadores. Primeramente, se pudo realizar un recorrido por el laboratorio de soldadura de la institución y por los distintos procesos que poseen los antes mencionados, con esto se espera un entendimiento teórico del funcionamiento de los procesos y el uso práctico ayudará a entender las distintas complicaciones, diferencias o ventajas que pueden llegar a tener entre un proceso u otro. Así como también, este curso ayudará a satisfacer las necesidades de los estudiantes, ya que, en algunas de sus instituciones procedentes no cuentan con la herramienta necesaria para practicar, por eso la iniciativa de venir al Instituto Tecnológico de Morelia a realizar dicha estancia.



METODOLOGÍA

Se vieron 2 tipos de procesos de soldadura en el área de metal-mecánica, los cuales son: SMAW Se da mediante la fusión del metal al producir calor generado por un arco eléctrico que se da entre un electrodo que tiene un revestimiento y un material base al que se une. Se estuvo trabajando con una polaridad directa (porta electrodo en el polo negativo y tierra en el positivo) e inversa (porta electrodo en el polo positivo y la tierra en el negativo) a una intensidad de 100 a 200 amperios. Durante la práctica se estuvieron realizando cordones con distintos electrodos, el más común, fue un electrodo revestido (7018) que funciona como un fundente con la placa de metal de aporte en la que se crea un charco de soldadura creando así cordones en distintas formas (espiral, media luna, zigzag, infinito, entre otras) ya sea por empuje o por arrastre, incluso, en posición vertical ascendente y descendente. Para crear el arco eléctrico se debe de iniciar con el cebado (choque de la punta del electrodo con el metal base) una vez que se tiene este arco, se debe mantener una distancia de 2-4 mm de separación del electrodo a una velocidad constante. Al terminar de realizar el cordón, se le retira el recubrimiento formado (escoria) con ayuda de un martillo para descascarillado o un cincel y un cepillo para retirar los residuos que se queden en la pieza.  GMAW Es un proceso de soldadura de arco que requiere de una alimentación automática de un material aporte protegido por un gas que es suministrado de forma externa. El material que se usa es el microalamabre. Antes de empezar a soldar, se revisa el equipo para que esté en condiciones adecuadas, está conformado principalmente por una tobera, que es por donde sale el microalamabre, algo muy importante que se debe tener en cuenta son los gases a usar, en este caso, se usa 98% de argón y 2% de O2. En aleaciones no ferrosas se llega a utilizar el 100% de argón. También, se le debe hacer una limpieza a la tobera con un anti salpicaduras cada vez que se empiece a soldar o después de un buen rato soldando. Normalmente este proceso alcanza un amperaje de 150 A, un voltaje de 25V y una velocidad de avance de 500 mm/min aproximadamente. Existen diferentes modos de trasferencia en GMAW, pero, solo vimos 2, por corto circuito y spray.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los procesos de soldadura los cuales en este curso pusimos en práctica SMAW y GMAW sin embargo, el factor común entre los diferentes tipos de soldaduras aquí expuestos es la utilización de un gas para aislar la atmosfera de la contaminación cercana de la fusión o unión de los metales, todo esto nos llevó a un punto muy específico de conocer en nuestra función como estudiantes y es que las temperaturas que se alcanzan son demasiado altas, para así corresponder a los puntos de fusión de los metales a unir y esto para la correcta unión que se busque para la optimización de unos resultados de soldadura en excelencia. Con ello el aprendizaje sobre el uso de la soldadura especial y correcta evita la distorsión de las piezas soldadas y el debilitamiento o afectación de las áreas que rodean la unión, con lo que se disminuyen los riesgos de falla de las piezas sometidas a esfuerzos en el trabajo, con la prevención de riesgos inherentes. Con este trabajo, se contribuye a enriquecer el conocimiento tecnológico de nuestras carreras, aportando de manera sistemática los conocimientos iniciales para su desarrollo como una de las técnicas de metalurgia aplicables.
Valdez Peña Francisco Oraldo, Instituto Tecnológico de Matamoros
Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango

ACONDICIONAMIENTO DE SUELO Y CABINA DE SANITIZACIóN PARA PRODUCCIóN DE HONGOS SETA


ACONDICIONAMIENTO DE SUELO Y CABINA DE SANITIZACIóN PARA PRODUCCIóN DE HONGOS SETA

Medina Castillo Jorge Alejandro, Instituto Tecnológico de Matamoros. Valdez Peña Francisco Oraldo, Instituto Tecnológico de Matamoros. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a datos oficiales, México Produce 5 especies de hongo: champiñón, portobello, seta, hongo blanco y shiikate, y ocupa el primer lugar en producción en América Latina, su producción se ha duplicado en los últimos años como consecuencia de la difusión y a la capacitación para preparar a pequeños productores y la proliferación de pequeñas empresas. Algunas de sus ventajas son que: Su cultivo no es difícil, la inversión requerida es mínima, no requiere de gran infraestructura, su precio es accesible al consumidor y tiene un sabor delicioso, además de ser un cultivo de reconversión ecológica. Para cultivar el hongo seta es necesario ser muy cuidadoso y prestar atención al realizar cada paso en el proceso de cultivo, aunque resulta ser sencillo cultivarlos. Se realizó el cultivo y cosecha de hongos seta en el Instituto Tecnológico Superior de Huauchinango, en 2022-2023, sin embargo, las condiciones del invernadero ubicado en la institución, así como diversas afectaciones externas, trajeron consigo que la cosecha disminuyera, registrando una perdida final del 25% del cultivo, por lo cual es indispensable la generación de ambientes idóneos para alcanzar las metas de productividad propuestas y no generar desperdicios agrícolas.



METODOLOGÍA

Para buscar solucionar el problema planteado en el primer capítulo, se generan diversas mejoras, tanto en la infraestructura como en el método de siembra y cultivo de hongos seta en el invernadero (Incubación y cultivo) del Instituto Tecnológico Superior de Huauchinango (ITSH). Estas mejoras las desarrollamos tomando en cuenta principios de Lean Manufacturing.  Dentro de los principales problemas que identificamos en la producción, se detectó la intervención de agentes externos en las bolsas de producción, posiblemente Trichoderma el cual se identifica por tener un comportamiento saprófito o parásito, considerando esta intervención se deduce que pudo ingresar por medio de la proliferación de esporas. Tomando en cuenta esta causa, optamos por crear un sistema para controlar cualquier agente que acceda al invernadero, tomando como base las 5´S, para de esta manera estandarizar y regular el método de acceso al invernadero físico. Nuestra alternativa propuesta es el diseño e implementación de una cabina de desinfección, la cual dividimos en dos estaciones o secciones para alcanzar un mayor control de los agentes que acceden al invernadero. Así también, mediante un proceso de investigación teórica y de visitas a invernaderos locales nos percatamos de la importancia de mantener niveles óptimos de humedad dentro del invernadero, siendo importante tener una superficie (suelo) constantemente húmeda, por lo cual es necesario el posicionamiento de piso con superficie constante. Actualmente el invernadero dispone de suelo acondicionado con tezontle, detectando una visible área de mejora basada en cambiar la superficie del suelo por un piso de concreto, sin embargo, posterior a diversos análisis de costos de materiales, durabilidad y efectividad de absorción determinamos cementar la superficie total del invernadero mediante la construcción de paneles de concreto de dos diversas dimensiones, la primera categoría de paneles se caracteriza por: 22 placas de 0.91 x 0.92 x 0.08 metros, la segunda categoría consiste en 10 placas de 0.91 x 0.82 x 0.08 metros, cabe mencionar que 8 de esas placas se utilizarán para la cápsula de esterilización y las 2 restantes se colocaran en la cabina de desinfección. Ahora bien, para controlar la existencia y expansión de esporas se generó una guía para el cultivo, que incluye la metodología para pasteurización, siembra, incubación, cultivo y cosecha de la producción de hongos seta, esta guía se realizó tomando en cuenta aspectos relevantes sobre la inocuidad para el cultivo de este producto, así también se tomaron en cuenta las características de los hongos setas, las propiedades y las condiciones ambientales para propiciar el óptimo crecimiento.


CONCLUSIONES

La presente investigación permitió la generación de conocimiento significativo orientado al correcto cultivo de hongos setas, se consideraron diversas variables cuantitativas y cualitativas, la cuales quedaron plasmadas en la guía de cultivo, de igual manera se diseñó y simulo en software especializado la propuesta de adecuación de suelo del invernadero, teniendo en cuenta la eliminación de fuentes que originan la entrada de esporas a la cápsula de incubación y cultivo de los hongos setas, por otro lado de manera personal adquirimos nuevos conocimientos relacionados con el diseño en software, así también al generar diversas propuestas de mejora observamos un alto impacto en el invernadero, mismo que traerá consigo elevar el índice de productividad actual de hongos setas en la Sierra Norte del Estado de Puebla.
Valdez Sanchez Alexander, Universidad Politécnica de Sinaloa
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

ESTUDIO DEL POTENCIAL EóLICO Y DE FLUJOS DE POTENCIA DE UN PARQUE EóLICO EN LA LOCALIDAD DE SANTA MARíA DEL MAR, OAXACA, MéXICO.


ESTUDIO DEL POTENCIAL EóLICO Y DE FLUJOS DE POTENCIA DE UN PARQUE EóLICO EN LA LOCALIDAD DE SANTA MARíA DEL MAR, OAXACA, MéXICO.

Linn Wong Pedro Yahvé, Universidad Politécnica de Sinaloa. Valdez Sanchez Alexander, Universidad Politécnica de Sinaloa. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad es de suma importancia buscar la sostenibilidad mundial en cualquier actividad humana debido a que existe una gran demanda de insumos para la elaboración de cualquier producto que satisfaga una necesidad humana, pero sin que esta contribuya a la contaminación para poder lograr una mitigación en el calentamiento global y cambio climático. A si a su vez el consumo de energía eléctrica mundial se eleva anualmente, debido a la modernización que se tiene en todos los sectores. La generación de energía eléctrica también se cataloga como un producto el cual puede tener una gran variedad de insumos para su producción, pero que actualmente la mayoría de estos son provenientes de fuentes fósiles. Es por ello que es de suma importancia iniciar una transición de matriz energética a una la cual sea dominada por fuentes limpias y renovables. Es por eso que se tiene como objetivo analizar la viabilidad y beneficios que puede tener la instalación de un parque eólico en una comunidad, en este caso se seleccionó Salinas Cruz, Oaxaca. Con el proyecto ‘’Estudio del potencial eólico y de flujos de potencia de un parque eólico en la localidad de Santa María del Mar, Oaxaca, México’’. Buscando aprovechar el recurso eólico disponible, como una alternativa al uso de fuentes de energía eléctrica convencionales.



METODOLOGÍA

Se seleccionó Santa Maria del Mar, Oaxaca para realizar el estudio, debido a que esta cuenta con ubicación cercana a grandes fuentes del recurso eólico como lo es el istmo de tehuantepec. Se explicaran algunos pasos que se realizaron para el análisis de viento y posteriormente el análisis de flujo de potencia. Para obtención de los datos necesarios, se utilizaron registros de la NASA POWER LARC correspondientes a los años 2018-2022.  Se extrapolaron las velocidades de viento desde la altura de 50m a una altura de 150 metros basado en la ley de Hellman. Se calcularon los parámetros de concentración y dispersión del viento mediante las fórmulas de la media aritmética, desviación estándar e intensidad de turbulencia. Se realizaron estudios de distribuciones de frecuencias. Se calculó las frecuencias relativas, las frecuencias acumuladas menores o iguales y las frecuencias acumuladas mayores de viento . Estos análisis proporcionaron información sobre la ocurrencia de velocidades de viento específicas y su importancia para el diseño del parque eólico. Fue posible estimar la energía que generaría un aerogenerador en el parque eólico. Este se seleccionó en base a la velocidad media del viento y la velocidad de producción nominal del aerogenerador. Al multiplicar las horas por la energía generada a diferentes velocidades de viento, se pudo obtener la energía que puede producir un solo aerogenerador. Adicionalmente, se utilizó la función de Distribución de Probabilidad de Weibull (FDPW) para predecir las velocidades de viento más probables en función de los parámetros de centralización y dispersión presentes en el año. 


CONCLUSIONES

Los resultados obtenidos en general fueron realmente buenos, comenzando con el estudio de viento, se tiene que la extrapolación de datos gracias a la ley de Hellman tuvo un aumento en su magnitud considerable. Mientras que el comportamiento que se tuvo en el año promedio fue más uniforme por lo que es un buen punto para comparar con velocidades de años futuros. Se tiene una velocidad promedio de 9.19 m/s lo cual es buena. La distribución de viento muestra que la mayoría de la frecuencias rondan entre los 4,5,6 m/s y tienen un descenso uniforme hasta los 18 m/s. En cuanto la dirección de este mismo es favorable, ya que la mayoría del tiempo suele dirigirse hacia el norte con lo que el choque entre pala y viento sería mayormente perpendicular sin consumo de corriente para la rotación de la góndola. Gracias a la distribución de frecuencia y la curva característica de potencia del aerogenerador, podemos obtener la energía que este produciría en 1 año que sería alrededor de 20 GWh. Para el estudio de flujos de potencia, se calculó que por el espacio de la zona se pueden instalar alrededor de 11 aerogeneradores  por lo que se optó por solamente 10 los cuales respetan un espaciado de 520 entre aerogeneradores . En conjunto se estima que generen 200 GWh al año los cuales pueden satisfacer la demanda eléctrica de Salinas Cruz y otros pueblos cercanos si así se requiere. El estudio de potencia mostró que dicha central estaría consumiendo una demanda de 20.464 MVAr los cual es una gran cantidad de potencia reactiva, por lo que se dimensionó y agrego un banco de capacitores el cual pudo reducir dicha potencia y crear una central eléctrica la cual no perjudique a la red eléctrica nacional. Con esta información se redactó el artículo Estudio del potencial eólico y de flujos de potencia de un parque eólico en la localidad de Santa María del Mar, Oaxaca, México.
Valdez Sanchez Pedro Rafael, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

MOVILIDAD Y SEGURIDAD VIAL


MOVILIDAD Y SEGURIDAD VIAL

Figueroa Salazar Enrique Angel, Universidad Politécnica de Sinaloa. Valdez Sanchez Pedro Rafael, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el crecimiento urbano demanda una nueva política pública que propicie un crecimiento ordenado y sostenible, la comunidad urbana debe estar comunicada asegurando la prosperidad para todas las personas, es importante considerar el factor ambiental, social y económico donde el balance es cada vez más complejo. En un ámbito de desarrollo económico de la región de Mazatlán en el Estado de Sinaloa, la cual pone a prueba la conciencia en movilidad de las actividades del sector logístico y transporte, pues si bien las necesidades de conectividad urbana son esenciales a la vez sí necesitan ser sostenible, con una atención principal en las empresas de servicios turísticos y el uso social, por lo anterior nos vemos en la necesidad de abordar la problemática compleja en el tema del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU, en especial en la meta 11.2 incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un conocimiento para la reflexión y difusión del conocimiento sobre la movilidad y seguridad vial en la ciudad y su conciencia en la sostenibilidad. El alcance de la investigación cuantitativa de tipo campo es identificar si las condiciones en materia de movilidad y seguridad vial son adecuadas para el uso público considerando factores sociales, desde la perspectiva pública.



METODOLOGÍA

Para nuestro estudio científico se utiliza la metodología de investigación cuantitativa, de tipo campo la cual consiste en la recolección de datos directamente de la realidad donde ocurren los hechos, sin manipular o controlar variable alguna, con una extensión del estudio de investigación de campo con medios de instrumentos a distancia con medios digitales de tecnología de la información y la comunicación, el nivel de la investigación descriptiva donde se busca el diagnosticar la relación de los hechos. El método de recolección de datos es a través de instrumento de encuesta con 15 reactivos, se aplicó a personas con edad entre los 18 y 25 años, con una muestra de 101 personas, orientada a conocer las opiniones de la población joven en materia de movilidad y seguridad vial de forma individual para el uso público considerando el factor sociales, desde la perspectiva pública.  Se analiza la información de forma gráfica estadística para realizar una argumentación sustentada ante una hipótesis preliminar de que si la sociedad conoce la Ley General de Movilidad y Seguridad Vial; así también, la necesidad de integrar un programa educativo la movilidad y seguridad vial a nivel bachillerato y universitario, bases de conocimiento para reflexionar del contexto actual en la interacción social en la vía de comunicación con el propósito de generar políticas públicas para el bienestar social.


CONCLUSIONES

La población encuestada se encuentra entre los 18 y 25 años, el 50.5% son mujeres y el 49.5% son hombres, de la muestra general de 101 personas se muestra un resultado del 93.2% de personas que creen pertinente que se incluyan en un programa educativo la movilidad y seguridad vial a nivel bachillerato y universitario y un 6.8% que no lo considera necesario; un 72.8% de los encuestados no conoce la Ley General de Movilidad y Seguridad Vial, siendo solamente el 27.2% quienes la conocen; el 53.4% no cuenta con licencia de conducir y 46.6% cuenta con licencia de conducir, así también el 42.2% aprendió a conducir por un familiar, 11.8% aprendió de forma empírica y el solo el 19.6% aprendió en un escuela, en un ámbito en el uso del transporte público el 79.6% lo utiliza independientemente se cuentan con vehículo propio o no, en el escenario ambiental el 15.5% opina que los vehículos de transporte público son amigables con el ambiente, el 57.3% considera que es accesible económicamente y el 12.6% considera que el transporte público es limpio con calidad en el servicio, de acuerdo con los resultados en la pregunta central de que si el transporte público es más económico, limpio, ecológico y con buen servicio, dejarías de utilizar con mayor frecuencia su vehículo propio el 50% considera que sí, los resultados en materia en movilidad y seguridad vial nos proporcionan la necesidad de una política pública para garantizar la continuidad en proyectos orientados al punto 11 Conseguir que las ciudades y los asentamientos humanos sean inclusivos, seguros, resiliente y sostenibles, referente a uno de los 17 Objetivos de Desarrollo Sostenible de la agenda 2030
Valdivia Mendoza Josue Bismarck, Universidad Nacional de Ingeniería
Asesor: Dr. Alain Picos Picos, Instituto Politécnico Nacional

DISEÑO DE UN REACTOR DHS COMO TRATAMIENTO SECUNDARIO DE UN SISTEMA DE LODOS ACTIVADOS UBICADO EN UNA ZONA PERIURBANA MEDIANTE UN MÉTODO DE INGENIERIA INVERSA


DISEÑO DE UN REACTOR DHS COMO TRATAMIENTO SECUNDARIO DE UN SISTEMA DE LODOS ACTIVADOS UBICADO EN UNA ZONA PERIURBANA MEDIANTE UN MÉTODO DE INGENIERIA INVERSA

Báez Báez Luis Fernando, Universidad Nacional de Ingeniería. Valdivia Mendoza Josue Bismarck, Universidad Nacional de Ingeniería. Asesor: Dr. Alain Picos Picos, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

¿Cómo puede optimizarse el diseño y funcionamiento de los sistemas de tratamiento de aguas residuales existentes para lograr una mayor eficiencia en la remoción de DBO, DQO, Sólidos Totales y Nutrientes, asegurando así el cumplimiento de los estándares ambientales y la sostenibilidad del proceso? En el contexto de la creciente preocupación por la calidad del agua y la preservación del medio ambiente, las plantas de tratamiento de aguas residuales desempeñan un papel crucial en la mitigación de la contaminación y el aseguramiento de la salud pública. Sin embargo, con las tecnologías actuales y altos costos energéticos uno de los desafíos más significativos que enfrentan los países en desarrollo es garantizar que estas plantas tengan una remoción eficiente de parámetros críticos como la Demanda Bioquímica de Oxígeno (DBO), la Demanda Química de Oxígeno (DQO), los Sólidos Totales y Nutrientes presentes en las aguas residuales. El desafío radica en optimizar el diseño y funcionamiento de los sistemas en las plantas de tratamiento de aguas residuales para lograr una mayor eficiencia. Esto implica encontrar soluciones que aseguren la remoción efectiva de estos parámetros, garantizando al mismo tiempo el cumplimiento de los estándares ambientales y la sostenibilidad del proceso. Para abordar este problema, es necesario evaluar diferentes tecnologías y estrategias de tratamiento, así como considerar factores como el flujo de aguas residuales, las características de la materia orgánica presente y los recursos disponibles. Asimismo, se requiere estudiar los posibles efectos secundarios de las técnicas aplicadas, como la generación de lodos o subproductos, y buscar soluciones que minimicen su impacto ambiental. La optimización del diseño y funcionamiento de los sistemas en las plantas de tratamiento de aguas residuales es crucial para asegurar la protección del medio ambiente, la salud pública y la disponibilidad de recursos hídricos de calidad. Por lo tanto, esta investigación se propone analizar el diseño de una tecnología innovadora que contribuya a un manejo más eficiente y sostenible de las aguas residuales, teniendo en cuenta la remoción efectiva de la DBO, DQO y Sólidos Totales, y cumpliendo con los estándares ambientales y normativas vigentes.



METODOLOGÍA

Diseño del reactor DHS Partiendo del criterio de funcionamiento del reactor DHS como un filtro percolador (Cambronero, 2019) el diseño del equipo, por lo tanto, no sería distinto a estos y por ello se aplicará la metodología seguida por Tchobanouglus (2013). Cabe resaltar, los factores que se consideran en el diseño de filtros percoladores incluyen: Tipo y caracteristicas fisicas del material filtrante utilizado. Velocidad de Flujo. Tipo y caracteristicas de la dosificación en la distribución del sistema. Configuración del sistema de desague. Tipo de Aireación (natural o forzada). Diseño de tanque de sedimentación. El material filtrante ideal es aquel que tiene una alta superficie de contacto por unidad de volumen, un bajo costo, una alta durabilidad y una alta y suficiente porosidad que minimice las obstrucciones y permita una buena circulación de aire. Los materiales tipicos utilizados son empaques plasticos y rocas. Sin embargo, la caracteristica principal en el reactor DHS es que se utilizarán como medio filtrante esponjas de poliuretano suspendidas dentro de un soporte cilíndrico de polietileno de alta densidad. La configuración de esponjas suspendidas que se implementará será de tercera generación debido a su disposición al azar dentro de los segmentos del reactor. Las dimensiones de las esponjas son de 0.03 x 0.03 m, y su recubrimiento con un diámetro interno de 0.03 m y 0.032 m de diámetro externo con altura de 0.03 m. El material de las esponjas tiene una densidad de 30 kg/m3, un área superficial especifica de 256 m2/m3, una porosidad del 90% y un tamaño de poro de 0.63 mm (Zidan, Nasr, Fujii, & Ibrahim, 2023). En las esponjas se alojarán los microorganismos provenientes del contenido orgánico de las aguas residuales, formando una película de biomasa microbiana que propiciará al tratamiento de la carga orgánica contaminante en dichas aguas residuales. El volumen del reavtor es de aproximadamente 40 Litros, el diametro del mismo es de 0.15 metro, este se encuentra dividido en 3 etapas con una altura de 0.8 metros cada una. Los resultados que se espectan en base a diversos estudios, relacionados a la eficiencia de remoción de la carga orgánica de DQO, STT, NH3 y STD son de 90%, 88.3%, 55% y 25.3% respectivamente.


CONCLUSIONES

Con los resultados se corroboraría que la tecnología cuenta con altos niveles de eficiencia de remoción y en conjunto que se destaca por ser de bajo costo de operación y mantenimiento, con estructura compacta y ahorro energético. Este trabajo se desarrollo durante las 7 semanas del verano de investigación de Delfín en conjunto con el asesor Dr. Alain Picos del Instituto Politécnico Nacional de México que nos proporcionó las herramientas necesarias para la búsqueda y obtención de información de suma relevancia, como lo fue por ejemplo el aporte del libro Tchobanoglous. Con esto se puede argüir que se alcanzaron los objetivos esperados del verano de investigación, así como los establecidos para el desarrollo de este proyecto que en consecuencia se seguirá trabajando a futuro ya que esto forma parte de algo mas grande relacionado al grupo de investigación Science of Design de la Facultad de Ingeniería Química.
Valdivia Moreno Oscar Emmanuel, Universidad Tecnologica de León
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

PROCESO DE ELECTROCOAGULACIÓN PARA REMOCIÓN DE GLIFOSATO COMERCIAL EN AGUA CON ELECTRODOS DE ALUMINIO Y HIERRO


PROCESO DE ELECTROCOAGULACIÓN PARA REMOCIÓN DE GLIFOSATO COMERCIAL EN AGUA CON ELECTRODOS DE ALUMINIO Y HIERRO

Espinosa López Alondra Yazmín, Universidad Tecnologica de León. Gomez Hurtado Elvira Berenice, Universidad Tecnologica de León. Valdivia Moreno Oscar Emmanuel, Universidad Tecnologica de León. Zacariaz Martínez Sandra Teresa Giuliani, Universidad Tecnologica de León. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

En los ultimos años, han aumentado los problemas derivados del uso agroindustrial del herbicida glifosato, debido a que puede filtrarse en diferentes medios naturales, como los mantos acuiferos, causando daños al medio ambiente y a la salud de los seres humanos. El presente proyecto contribuye a atender dicho problema utilizando la electrocoagulación como medio de remoción del glifosato. 



METODOLOGÍA

Se realizaron experimentos a nivel laboratorio y se encontraron los parámetros adecuados para alcanzar altos niveles de remoción de una solución sintética con una concentración de 270 mg/L de glifosato. Se estudio el efecto de la variación del factor densidad de corriente  con los valores de 2.5 mA/cm2, 5.5 mA/cm2, 7.5 mA/cm2, 0.3 g/L de Cloruro de sodio, electrodos de aluminio y hierro  y tiempos de electrolisis de 20, 40, 60, 80 y 100 minutos.


CONCLUSIONES

Los resultados de la eliminación de glifosato se evaluaron de modo indirecto, a través de la demanda química de oxigeno (DQO). La remoción máxima obtenida de la electrocoagulación con electrodos de aluminio  fue de 48,75%, mientras que con electrodos de  hierro se obtuvo una remoción de 20%; en ambos casos con una densidad de corriente de 7.5 mA/cm2
Valencia Calero Juan Camilo, Universidad Autónoma de Occidente
Asesor: Dr. Víctor Hugo Castillo Topete, Universidad de Colima

METODOLOGíA MIXTA PARA EL LLENADO SINTéTICO DE DATOS.


METODOLOGíA MIXTA PARA EL LLENADO SINTéTICO DE DATOS.

Solis Rios Daniel, Universidad Autónoma de Occidente. Valencia Calero Juan Camilo, Universidad Autónoma de Occidente. Asesor: Dr. Víctor Hugo Castillo Topete, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El electrohilado es una técnica versátil y prometedora para la fabricación de nanofibras a partir de soluciones poliméricas. Estas nanofibras tienen aplicaciones en diversos campos, como la entrega de fármacos, la ingeniería de tejidos, la filtración y la electrónica. Al recolectar datos experimentales relacionados con los parámetros del proceso de electrohilado, es común encontrarse con valores faltantes debido a diversas razones, como errores de medición, condiciones experimentales variables que no eran consideradas importantes registrarlas al momento de hacer el reporte del procesamiento de estas variables en la publicación científica. Disponer de un archivo de datos completos es ideal para la optimización de este proceso, pero aplicar métodos de imputación inapropiados para lograrlo, puede generar más problemas de los que resuelve, es por eso, que requerimos a la imputación de datos para los valores faltantes, es el proceso de estimar o predecir valores para los datos ausentes utilizando información disponible en el conjunto de datos. Este proceso es fundamental para garantizar la integridad y la calidad de los análisis posteriores.



METODOLOGÍA

1. Comprensión del Proceso de Electrohilado:    Para llevar a cabo una imputación efectiva, es esencial comprender en profundidad el proceso de electrohilado. Esto implica conocer los diversos parámetros involucrados, como la concentración de la solución polimérica, la tasa de flujo, la distancia de la boquilla, la tensión aplicada, entre otros. Esta comprensión permitirá identificar patrones y relaciones entre los parámetros 2. Exploración y Análisis de Datos    Antes de abordar la imputación, es fundamental realizar un análisis exploratorio de los datos. Esto incluye visualizar la distribución de los valores faltantes, identificar posibles patrones de ausencia y evaluar la correlación entre diferentes parámetros. La comprensión de la naturaleza de los datos faltantes ayudará a seleccionar las técnicas de imputación más apropiadas. 3. Selección de Técnicas de Imputación:    Existen varias técnicas de imputación que pueden ser aplicadas, como la imputación media, mediana, moda, imputación basada en regresión, imputación de valores aleatorios y métodos avanzados como el uso de redes neuronales. La elección de la técnica dependerá de la distribución de los datos, la cantidad de valores faltantes y la relación entre los parámetros. 4. Validación    Después de realizar la imputación, es crucial evaluar la calidad de los datos imputados. Esto se puede lograr mediante técnicas de validación cruzada y comparación de estadísticas descriptivas antes y después de la imputación. La evaluación ayudará a determinar si la imputación ha mejorado la integridad y la utilidad del dataset. 5. Consideración de Incertidumbre:    Es importante reconocer que la imputación introduce cierta incertidumbre en los datos. Por lo tanto, se debe ser transparente acerca de las técnicas utilizadas y la proporción de datos imputados al informar los resultados del estudio.


CONCLUSIONES

Según los resultados obtenidos por el método de imputación de datos por moda y redes neuronales, se realizó una comparación entre los datos sintéticos de cada método mediante la evaluación de los datos atípicos de cada parámetro. Los valores atípicos (outlier) para esta situación nos permiten tener una estadística de cuantos datos son distantes al resto, para así darnos una de idea de cuantos posibles valores serian engañosos. Los outliers obtenidos para cada parámetro de estos dos distintos métodos de imputación de datos fueron muy cercanos, significando que ambos métodos para el rellenado de dataset pueden ser válidos, faltaría ponerlos en practica para hacer una validación de que a partir de esos datos sintéticos si obtengan resultados acordes al experimento practico.
Valencia Cruz Laura Belem, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dra. Gloria Saab Rincon, Universidad Nacional Autónoma de México

CONSTRUCCIóN DE UNA BIBLIOTECA DE MUTANTES DEL CITOCROMO P450BM3 PARA HIDROXILAR áCIDO P-CUMáRICO


CONSTRUCCIóN DE UNA BIBLIOTECA DE MUTANTES DEL CITOCROMO P450BM3 PARA HIDROXILAR áCIDO P-CUMáRICO

de Lima Mar Juan Carlos, Benemérita Universidad Autónoma de Puebla. Valencia Cruz Laura Belem, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Gloria Saab Rincon, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El ácido cafeico es un compuesto con aplicaciones en la industria farmacéutica y de alimentos, por sus propiedades antioxidantes, antitumorales y antiinflamatorias. Actualmente, se obtiene mediante fuentes vegetales, principalmente de hojas y granos de café, sin embargo, los rendimientos son bajos y el proceso es costoso. Por lo que se han generado alternativas para su producción empleando procesos biotecnológicos que resulten más baratos y eficiente. Para ello, se recurre a la ingeniería de enzimas para la obtención de ácido cafeico a partir de ácido p-cumárico mediante una reacción de hidroxilación mediada por el citocromo P450 de Bacillus Megaterium. El objetivo de este proyecto es realizar el tamizaje de una librería de mutantes previamente construida del citrocromo P450 de Bacillus Megaterium que use ácido p-cumárico como sustrato para la conversión a ácido cafeico. Este proyecto se aplica directamente al objetivo 9: “Industria, Innovación e Infraestructura” de la Agenda 2030 para el Desarrollo Sostenible, al fomentar la innovación e industrialización sostenible, además de cumplir con varios principios de la química verde al emplear catalizadores selectivos y generar productos químicos menos tóxicos, entre otros.



METODOLOGÍA

Se transformaron células quimiocompetentes de la cepa BL21 de E. coli con 4 plásmidos diferentes: librería de mutantes, enzima silvestre (WT por sus siglas en inglés wild type), vector vacío y vector de resistencia a ampicilina[G1] [Aa2] [Aa3] . Para ello, se colocaron 1.5 µL de cada plásmido en viales con células Ca-competentes previamente preparadas de E. coli y se incubó en hielo por 30 minutos. Luego, se realizó un choque térmico a 42°C por 90 segundos y se recolocaron en hielo por otros 2 minutos. Posteriormente se adicionó medio LB y se incubó por 1 hora a 37°C con agitación. Al final se vertieron de 75 a 150 µL de cultivo en placas petri con agar LB-kanamicina y LB-ampicilina, dependiendo de la resistencia que le provea el respectivo vector, y se incubó toda la noche a 37°C. Se inocularon colonias individuales por separado en cajas de 96 pozos con 1 mL de medio LB-Km y se dejaron crecer al menos 12 h a 37°C con agitación, dejando pozos para los controles, enzima silvestre (WT), vector vacío y vector ampicilina bien ubicados. Al día siguiente se transfirieron 50 µL de precultivo a cajas nuevas con 900 µL de medio TB-kanamicina y, se incubaron de 4 a 5 h hasta obtener una densidad óptica a 600 nm de entre 0.6 a 0.7 medidos con un espectrofotómetro. Cumplido esto se adicionaron 50 µL de IPTG  5 mM para inducir la sobreexpresión de proteína y se incubaron a 30°C durante 24 h con agitación. Para preservar las cepas del precultivo se obtuvieron los pellets centrifugando a 3500 rpm de 30 a 40 minutos y se congelaron a - 4°C. Las cajas del cultivo inducido se centrifugaron por 30 min a 3500 rpm a 4°C, se descartó el sobrenadante y los pellets obtenidos se congelaron por al menos 8 h. Después, se resuspendieron en 500 µL de buffer de lisis en un baño de hielo y posteriormente se incubaron por 1 h a 37°C con agitación. Finalmente, se centrifugaron a 1500 rpm a 4°C por 12 min. En los ensayos de actividad enzimática se transfirieron 30 µL del lisado celular a placas de microtitulación, junto con buffer KPi - ácido p-cumárico 0.8 mM y se incubaron por 5 min a temperatura ambiente. Se adicionaron 50 µL de NADPH 2.8 mM e inmediatamente se midió la actividad enzimática monitoreando la absorbancia a 340 nm por 15 min.Después de la lectura se guardaron las placas en ausencia de luz y a temperatura ambiente por al menos 12 h. Se construyó una curva estándar de ácido cafeico de 0.04 a 0.4 mM agregando los mismos componentes del ensayo de actividad. En nuevas placas de microtitulación se transfirió 20 µL provenientes del ensayo de actividad enzimática y 200 µL del complejo de ferrozina/Fe(III)  para dejar reposar 30 minutos. Pasado este tiempo, se midió la absorbancia a 562 nm para detectar variantes productoras de ácido cafeico de alto o bajo rendimiento con respecto a la WT y al vector vacío. Esta metodología se repitió 5 veces, comprendiendo el análisis de 960 variantes individuales, logrando identificar y seleccionar 6 candidatas, de las cuales seleccionamos 3 variantes de alto rendimiento y 3 de bajo rendimiento para analizar sus posibles productos de reacción mediante ensayos de TLC. El ensayo de TLC se realizó tomando el total de los pozos correspondientes a las variantes de las placas del ensayo de actividad en tubos eppendorf de 1.5 mL, se concentraron en el equipo eppendorf vacufuge durante 30 min a 60°C. Una vez disminuido su volumen a la mitad se cargaron 5 µL en una cromatoplaca de sílica-gel en carriles individuales junto a controles wild type, vector vacío y ácido cafeico 0.16 mM. Se aislò el plásmido de las 6 variantes seleccionadas, el cual de manera individual fue sometido a un segundo tamizaje aplicando el procedimiento anterior. Se comprobó que el plásmido aislado contenía el gen de interés, para lo cual se hicieron digestiones con las enzimas NcoI y SacI específicas del vector y el gen. Los productos se corrieron en una cámara de electroforesis por 30 min a 90 volts para después visualizarse en el fotodocumentador Al final, se mandaron a secuenciar los plásmidos de las 6 variantes seleccionadas para identificar los cambios en las posiciones de aminoácidos implicados en las características observadas.  


CONCLUSIONES

Durante la estancia de verano en el Instituto de Biotecnología de la UNAM-campus Morelos, se aprendieron satisfactoriamente conocimientos teóricos y prácticos de técnicas de tamizaje de variantes como parte de los estudios de evolución dirigida del citocromo P450BM3 para hidroxilar ácido p-cumárico. Debido al tiempo empleado, no es posible analizar completamente una librería e identificar variantes con potencial producción de ácido cafeico, sin embargo, nuestras variantes seleccionadas muestran mutaciones correlacionadas con las características que observamos y que pueden ayudar al rediseño y tamizaje de librerías de variantes.
Valencia Valdez Maricela, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa

RECONOCIMIENTO AUTOMáTICO DE EMOCIONES EN PERSONAS CON AUTISMO


RECONOCIMIENTO AUTOMáTICO DE EMOCIONES EN PERSONAS CON AUTISMO

Iturbide Mendoza Guadalupe, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Suarez Dorelys Esthefany, Universidad Libre. Valencia Valdez Maricela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Zhoe Vanessa Comas González, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El autismo es un desorden del neurodesarrollo que afecta las habilidades sociales y comunicativas. Gracias a la contribución de la tecnología en el área de la salud, hoy en día se cuenta con herramientas apropiadas para el diagnóstico, intervención y tratamiento de esta condición. El reconocimiento de emociones se ha convertido en un campo de estudio creciente y relevante, especialmente para tratar trastornos del espectro autista (TEA). Hoy por hoy, los datos capturados a través de sensores y demás dispositivos pueden ser procesados y analizados a través de software especializados, y a partir de la implementación de técnicas de machine learning se puede determinar cuál es el algoritmo más apropiado para reconocer una emoción, cuáles son los sensores más adecuados o cuál es la manera más conveniente para capturar los datos requeridos en personas con condición de autismo. Finalidad: reconocer emociones de manera automática y poder minimizar la brecha comunicativa que afecta a individuos con autismo y la comunidad que los rodea. El objetivo general del proyecto consiste en desarrollar un sistema que permita reconocer automáticamente las emociones en personas con autismo mediante el uso de técnicas de inteligencia artificial.



METODOLOGÍA

Se ha trabajado bajo la estructura top breakdown structure, la cual desarrolla cada etapa de manera jerárquica desde lo más global a lo más específico. A continuación, se detallarán las tareas, fases y objetivos planteados: Tarea 1. Analizar el estado del arte en el reconocimiento automático de emociones de personas con autismo. Esta tarea se encargará de revisar e identificar cuáles son los sensores y métodos utilizados en el reconocimiento de emociones en personas con autismo. Actividades:                 • Realizar una revisión bibliográfica sobre los sensores utilizados en el reconocimiento de emociones en personas con autismo.                 • Identificar cuáles son los métodos empleados en el reconocimiento de emociones en personas con autismo.                 • Identificar cuáles son las emociones de las personas con autismo que son objeto de estudio para estos fines.                 • Identificar cuáles son los desafíos más sobresalientes del reconocimiento de emociones en personas con autismo. Tarea 2. Obtención de bases de datos. Esta tarea se encargará de revisar los datasets existentes en el reconocimiento de emociones en personas con autismo. Revisar los datasets existentes usados para entrenar algoritmos de machine learning en el reconocimiento de emociones en personas con autismo, identificando sus características, limitaciones y precisión. Actividades:                 • Buscar datasets existentes enfocados al reconocimiento de emociones de personas con autismo.                 • Analizar los datasets seleccionados.                 • Definir un estudio metodológico para la captura de datos en personas con y sin autismo.                 • Solicitar permisos éticos para la creación de datasets. Resultados esperados: Un artículo comparativo de datasets para el reconocimiento de emociones en personas con autismo.


CONCLUSIONES

Realizamos una revisión sistemática de los datasets para inteligencia artificial enfocados al reconocimiento de emociones y reconocimiento de emociones en personas autistas a través de distintos medios como imágenes y audio. Para ello, realizamos una búsqueda en bases de datos como Kaggle y Google Datasets Search.  En total recopilamos un total de 22 datasets relevantes para el proyecto. Esta revisión permitirá establecer una base sólida para el desarrollo del proyecto de investigación.   También extrajimos artículos de las bases de datos de Scopus, Web Of Science, IEEE, entre otras, en los cuales se han estudiado o utilizan los datasets recopilados previamente. En total recopilamos 162 artículos relevantes para el proyecto.  Por último, revisamos los artículos recopilados, los analizamos y extrajimos los algoritmos de inteligencia artificial que se utilizaron en cada uno de los proyectos estudiados.  El acceso a datasets y artículos relevantes será fundamental para el desarrollo y validación de los algoritmos de inteligencia artificial del proyecto.  Como resultado entregamos una matriz de revisión de datasets en la cual se encuentran los datasets estudiados, los artículos en los que han aplicado estos datasets y toda la información relevante de estos. 
Valencia Zavala Irving Miguel, Universidad Tecnológica de Nayarit
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

PROTOTIPO DE APLICACIóN DE REALIDAD AUMENTADA USANDO LAS GAFAS VUZIX BLADE PARA REPRESENTAR ELEMENTOS PRINCIPALES DE UNA HISTORIA DE MIGRACIóN EN COLOMBIA


PROTOTIPO DE APLICACIóN DE REALIDAD AUMENTADA USANDO LAS GAFAS VUZIX BLADE PARA REPRESENTAR ELEMENTOS PRINCIPALES DE UNA HISTORIA DE MIGRACIóN EN COLOMBIA

Sánchez Alarcón Cinthia Elizabeth, Universidad Tecnológica de Nayarit. Valencia Zavala Irving Miguel, Universidad Tecnológica de Nayarit. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

El fenómeno migratorio es común en todo el mundo por diversas razones, como buscar mejores oportunidades económicas o huir de conflictos. En Colombia, ha habido un aumento significativo de migrantes venezolanos debido a la crisis en Venezuela, con aproximadamente 1.742.927 ciudadanos ubicados principalmente en ciertos departamentos. El gobierno implementó el Estatuto Temporal de Protección para Migrantes en 2021 para abordar la situación. A pesar de los esfuerzos gubernamentales, la migración masiva ha generado desafíos de integración y acceso a servicios básicos, y ha provocado rechazo social y económico en la sociedad colombiana. Sin embargo, la tecnología puede ser una herramienta valiosa para buscar soluciones creativas y generar empatía hacia situaciones difíciles. En un mundo conectado gracias a la Web e internet, los proyectos tecnológicos pueden llegar a muchas personas y ayudar a fomentar la concientización deseada.



METODOLOGÍA

El objetivo del proyecto es desarrollar un prototipo de aplicación de realidad aumentada que cuente una historia de migración basada en el testimonio de un ciudadano venezolano y sus motivos detrás de la decisión. Se busca proyectar esta aplicación en las gafas inteligentes Vuzix Blade. El proyecto comenzó con la introducción a las gafas por parte de la investigadora líder del equipo, que eran nuevas y no se habían utilizado antes. Se enfocaron en crear productos de realidad aumentada adaptados para las gafas. Se aprendió formalmente el uso de Unity mediante cursos gratuitos en Unity Learns. Se seleccionó una historia de migración basada en entrevistas con migrantes venezolanos, manteniendo la confidencialidad. El equipo acordó un menú con opciones para iniciar y explicar los movimientos. El entorno mostrado sería similar al de la entrevista. Las interacciones básicas presentarían escenas diferentes con audios, texto y objetos significativos relacionados con cada movimiento. Los puntos clave rescatados de la entrevista son: "¿Quién soy?", "Motivos para emigrar", "Migración", "Metas", "¿Qué le diría a los demás?" y "Documentación". Se utilizó el código de interacciones proporcionado por Vuzix y se ajustó según las necesidades del proyecto. Las interacciones quedaron de la siguiente manera: (Al principio) Hacia arriba - Menú de opciones Un tap - Comenzar Hacia enfrente - Quién es, AUDIO (1ra escena) Hacia atrás - Motivos para emigrar, CUADRO DE TEXTO y AUDIO (2da escena) Hacia arriba - Objeto documento, AUDIO (3ra escena) Hacia abajo - Experiencia en la travesía, AUDIO (4ta escena) Desde escena 4 (complemento de la escena 4) dos dedos hacia trás, - OBJETOS escuela y bus consecutivamente, AUDIOS Dos dedos hacia atrás - CUADROS DE TEXTO de quién soy y motivos. La experiencia sería la siguiente:  Dando un tap con un dedo en el touchpad se inicia la experiencia (para volverla a reproducir, sería deslizar el dedo hacia adelante), primero se presentará un plano del avatar y el escenario montado y se reproduciría un audio con voz artificial diciendo: ¿Quién soy?" Deslizando un dedo en el touchpad hacia atrás, se muestra un cuadro de texto y se reproduciría otro audio de voz artificial diciendo: Motivos para emigrar. Deslizando un dedo en el touchpad hacia abajo, se muestra otro enfoque de la cámara/plano del avatar y se reproduciría otro audio de voz artificial diciendo: Experiencia en la travesía."  Deslizar dos dedos hacia atrás nos muestran dos cuadros de texto que es el escrito de los audios Quién soy y Motivos para emigrar. La siguiente idea es mostrar algunos objetos 3D prefabricados que representen un fragmento de la historia, aparecerán después de la 4ta escena y al aparecer, un audio se reproducirá contando lo correspondiente, quedando de la siguiente manera:   OBJETO BUS (a partir de la cuarta escena): Explica que emigraron por bus. OBJETO ESCUELA (a partir de la cuarta escena): Explica que quiere una buena educación para sus hijos. OBJETO DOCUMENTOS (deslizar un dedo hacia arriba): Explica cómo obtuvo sus documentos legales.


CONCLUSIONES

Durante la estancia de verano, se adquirieron conocimientos teóricos y prácticos sobre realidad aumentada y se exploraron las gafas inteligentes por primera vez. Además, se aprendió a utilizar el programa de Unity para proyectos 3D sin experiencia previa en la plataforma. El producto se visualiza adecuadamente en las gafas y las interacciones programadas funcionan. Sin embargo, se identificó un problema con la carga lenta de escenas, por lo que se busca una estrategia para mejorar el rendimiento al ejecutar los proyectos en las gafas.
Valenzuela Barreras Maria Jose, Universidad de Sonora
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

ÓXIDOS SEMICONDUCTORES PARA FOTOCATáLISIS


ÓXIDOS SEMICONDUCTORES PARA FOTOCATáLISIS

Rivera Valencia Ramon Angel, Instituto Tecnológico de Sonora. Valenzuela Barreras Maria Jose, Universidad de Sonora. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los óxidos semiconductores con estructura tipo Delafosita (ABO2, donde A y B representan a cationes de la tabla periódica, y O al elemento químico oxígeno) son materiales que han sido muy poco estudiados debido a sus complicados métodos de síntesis que se han utilizado. Sin embargo, debido a que presentan una energía de banda prohibida ‹ 2 eV, pueden tener múltiples aplicaciones en muchas áreas de la ciencia y la tecnología, por ejemplo: diseño de sensores químicos para detección de gases operados a temperaturas bajas (‹ 200 °C), bio sensores, catalizadores, foto catalizadores, entre otras. En el presente trabajo fueron sintetizadas las delafositas AgMnO2, CuMnO2 y CrMnO2 para investigar su aplicación como fotocatalizadores utilizando dos diferentes métodos de síntesis química.  



METODOLOGÍA

Las síntesis se llevaron a cabo utilizando dos diferentes métodos: precipitación y polimerización. En ambas síntesis se utilizaron nitratos como fuentes de cationes, particularmente: Ag(NO3) (Sigma Aldrich, 99% de pureza), Mn(NO3)2 · 4H2O (Sigma Aldrich, 99.9% de pureza), Cu(NO3)2 · 3H2O (Sigma Aldrich, 99.9% de pureza), Cr(NO3)3 · 9H2O (Sigma Aldrich, 99.9% de pureza). Como agente precipitante se utilizó ácido fórmico (Sigma Aldrich, 98% de pureza) y como agente polimerizante alcohol polivinílico (PVA) (Mw 89,000-98,000, 99% Sigma Aldrich). Una vez mezclados y disueltos los nitratos se calcinaron a 500°C por 6 hrs. En todos los casos se obtuvieron polvos de color negro muy obscuro. Se escogió el colorante verde malaquita como un modelo de contaminante para ser degradado. De todos los materiales, se escogió CuMnO2 para ser utilizado como fotocatalizador. En particular, se degradó una solución de verde malaquita (a una concentración de 5X10-5 M) utilizando 20 mg del polvo en 40 ml del colorante. Las muestras fueron analizadas utilizando un espectrofotómetro  NanoDrop 2000. Se estimó una fotodegradación de más del 90% en 30 min de exposición al sol. También se utilizó un microscopio electrónico de transmisión (JEOL) para el análisis de la morfología de los polvos obtenidos en cada síntesis.  


CONCLUSIONES

Estos óxidos fueron sintetizados por dos diferentes métodos de síntesis. Por el método de polimerización se obtuvieron nanoestructuras porosas, mientras que utilizando el método de precipitación se obtuvieron micro estructuras con morfologías muy diferentes (micro cubos, micro cilindros, entre otras). Se alcanzó a evaluar la actividad fotocatalítica de uno de ellos (CuMnO2) en luz visible. Mostrando resultados muy favorables   
Valenzuela Fraijo Ivette, Instituto Tecnológico Superior de Cajeme
Asesor: Dra. Gloria Irene Téllez Rodríguez, Universidad Politécnica de Sinaloa

DISEñO DE INTERFAZ PARA APRENDIZAJE DE LENGUAJE DE SEñAS PARA LA UNIVERSIDAD POLITéCNICA DE SINALOA


DISEñO DE INTERFAZ PARA APRENDIZAJE DE LENGUAJE DE SEñAS PARA LA UNIVERSIDAD POLITéCNICA DE SINALOA

Soto Higuera Flor Margarita, Instituto Tecnológico Superior de Cajeme. Valenzuela Fraijo Ivette, Instituto Tecnológico Superior de Cajeme. Asesor: Dra. Gloria Irene Téllez Rodríguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Según datos del Instituto Nacional de Estadística y Geografía (INEGI, Censo 2020), el 20.8% de la población total de México padece sordera o tiene una discapacidad auditiva, lo que resalta la importancia del señas como una forma esencial de comunicación. El aprendizaje y uso del lenguaje de señas tiene un impacto significativo en la calidad de vida de las personas con discapacidad auditiva, ya que les permite una mejor integración social, una comunicación efectiva y el acceso a información vital para su desarrollo personal y profesional. No obstante, enseñar el lenguaje de señas a adultos en México presenta desafíos particulares, debido a la falta de recursos educativos especializados y el acceso limitado a cursos presenciales. Por fin, se hace evidente la necesidad de desarrollar una solución innovadora, como un software educativo, que permita a los adultos mexicanos aprender de manera efectiva el lenguaje de señas. Esta herramienta tiene el potencial de mejorar la accesibilidad para las personas sordas, fomentando una sociedad más inclusiva y brindando mayores oportunidades para una participación plena en la comunidad.  



METODOLOGÍA

La metodología empleada en el proyecto fue la metodología cualitativa, como estrategia de investigación nos permitió obtener una comprensión contextualizada de la problemática en un enfoque en particular en nuestra región. Se realizó una investigación mediante artículos científicos de la región de México y Latinoamérica para tener una visión clara de la problemática del lenguaje de señas mexicano. Lo cual nos permitió identificar las principales dificultades y necesidades para diseñar una página web que pudiera ser de utilidad. A través técnicas de recopilación de información como encuestas y focus group, se obtuvo retroalimentación de los estudiantes de tecnologías de información, posteriormente, se analizaron los resultados obtenidos para obtener perspectivas directas y experiencias prácticas de quienes podrían ser usuarios potenciales de la página web.  Una vez recopilados los datos, se procedió a analizar la información obtenida e identificar los patrones y aspectos que proporcionaron una visión más clara de las necesidades y expectativas de los estudiantes con relación al interés del lenguaje de señas y su empleo en la página web. Una vez realizadas las mejoras en la página web, se realizó de nuevo la fase de evaluación con las recomendaciones anteriores aplicadas y se realizaron ajustes adicionales según sus comentarios y sugerencias.  


CONCLUSIONES

El lenguaje de señas como forma esencial de comunicación para las personas con discapacidad auditiva en México. Con un 20,8% de la población afectada, es evidente la necesidad de soluciones educativas e inclusivas. La metodología cualitativa utilizada en el proyecto permitió identificar las necesidades y expectativas de los usuarios. La creación de una página web educativa busca mejorar la accesibilidad e impulsar la inclusión social, brindando oportunidades para el desarrollo personal y profesional.
Valenzuela García Rodrigo Vladimir, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Gerardo Vázquez Guzmán, Instituto Tecnológico Superior de Irapuato

ESQUEMA DE MODULACIóN PARA BALANCE DE CAPACITORES EN INVERSORES MULTINIVEL CON CAPACITOR DIVIDIDO.


ESQUEMA DE MODULACIóN PARA BALANCE DE CAPACITORES EN INVERSORES MULTINIVEL CON CAPACITOR DIVIDIDO.

Valenzuela García Rodrigo Vladimir, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Gerardo Vázquez Guzmán, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los sistemas FV son una fuente de energía renovable, limpia y económicamente competitivos. Por estas razones existe un interés en este tipo de sistemas, para la generación de energía eléctrica. Algunos tipos de inversores multinivel presentan capacitores de entrada dividido los cuales pueden mostrar desbalance en las tensiones de entrada, esto puede producir componentes de Corriente Directa (CD) no deseadas en la carga.  Por lo que es necesario implementar técnicas que permitan mantener el voltaje de los capacitores de entrada balanceados.



METODOLOGÍA

Se estudiaron los estados de operación de un convertidor tipo T de 3 niveles con capacitor divido a la entrada, y se realizaron simulaciones implementadas en el software de PSIM. Para la realización de la estrategia se compararon dos portadoras con una señal sinusoidal de referencia, las portadoras estaban a contrafase, de este modo se obtuvo una tensión a la salida de 3 niveles.  De misma manera se estudiaron los estados de operación de un inversor de 5 niveles con capacitor dividido en la entrada (convertidor tipo T en serie con un convertidor en puente H) e implemento la comparación de dos portadores a contrafase con una señal de referencia para el convertidor multinivel de 5 niveles. Se obtuvieron los estados de conmutación que correspondía con cada IGBT y también se obtuvo la salida de voltaje del convertidor. Una vez estudiado e implementado en forma de simulación los convertidores mencionados anteriormente se llevó a cabo el estudió de la operación de un inversor de 5 niveles con capacitor dividido en la entrada (Convertidor híbrido puente H + Tipo T). La estrategia utilizada fue la misma que en los dos convertidores anteriores, la comparación de una señal de referencia con dos portadoras. Ya concluido el estudio de los estados de operación de los convertidores convencionales se realizó el análisis de esquemas de modulación basados en portadoras para el control de los inversores estudiados, se revisaron esquemas de modulación orientados al balanceo de capacitores de entrada en inversores multinivel y se realizaron las simulaciones de los esquemas de modulación.  Para la implementación de forma física se planeó estudiar la tarjeta TMDSCNCD28379D, se estudió el esquemático y se realizó la instalación del software necesario para el correcto funcionamiento de la tarjeta, se realizó un ejemplo de una señal PWM desde el software de Simulink.  Para terminar el convertidor utilizado para la estrategia que se implemento es un convertidor tipo T multinivel con sujeción basada en un interruptor bidireccional, la estrategia que se utilizó usa una señal portadora y 4 señales de referencia. Para lograr el balance de los capacitores de entrada se sensan las tensiones de los capacitores y se ajustan las señales de referencia considerando las relaciones entre la tensión de salida, la amplitud de la señal portadora y la amplitud de las señales de referencia.


CONCLUSIONES

Con las topologías implementadas se adquirio conocimiento sobre los inversores y las estrategias que se pueden implementar para lograr la salida de voltaje deseada. También se adquirio conocimiento sobre la tarjeta de programación, aunque no se implemento la estrategia utilizada en simulación. Se obtuvieron los estados de operación del convertidor estudiado, ademas de que al cambiar el voltaje en los capacitores la estrategia utilizada compensaba el desbalanceo ajustando las señales de modulación.
Valenzuela Martínez Adrián José, Instituto Tecnológico de Tepic
Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla

DISEñO E IMPLEMENTACIóN DE UN DISPOSITIVO ELECTRóNICO PARA MEDIR LA TEMPERATURA, EL CO2, LA ILUMINACIóN Y HUMEDAD AL INTERIOR DE UN MICRO CLIMA.


DISEñO E IMPLEMENTACIóN DE UN DISPOSITIVO ELECTRóNICO PARA MEDIR LA TEMPERATURA, EL CO2, LA ILUMINACIóN Y HUMEDAD AL INTERIOR DE UN MICRO CLIMA.

Herrada Sánchez Adolfo, Benemérita Universidad Autónoma de Puebla. Valenzuela Martínez Adrián José, Instituto Tecnológico de Tepic. Asesor: Dr. José Eligio Moisés Gutiérrez Arias, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a la Secretaría de Agricultura, Ganadería, Desarrollo Rural, Pesca y Alimentación (SAGARPA), al cierre de 2020 se obtuvo un volumen de tres millones 271 mil toneladas, en una superficie de más de 45 mil hectáreas y un consumo per cápita de 13.4 kilogramos. ​Sin embargo, actualmente las zonas rurales de la República Mexicana están sufriendo los cambios que produce el calentamiento global. según la Organización Meteorológica Mundial (OMM) 2020 estuvo 1,2°C por encima de las temperaturas de la era preindustrial (1880) y predice que el aumento de las temperaturas supere temporalmente los 1,5°C a partir de 2024. En la producción de tomate se deben conservar parámetros vitales para la hortaliza, los mas importantes a tomar en cuenta son: Luminosidad: valores promedios de 3,000 - 4,000 lúmenes. Temperatura: Los rangos  oscilan entre los 28 - 30 º C durante el día y 15 - 18ºC durante la noche. Humedad relativa: La humedad relativa óptima oscila entre 65 - 70%. CO2 relativo: El óptimo para un cultivo de tomate en invernadero es de 355 ppm con las ventanas abiertas y 600 -700 ppm con las ventanas cerradas del invernadero. Debido a el cambio no controlado de los parámetros ambientales los cultivos sufren de estrés térmico, lo cual ocasiona la deshidratación del cultivo y frena su desarrollo. Debido a este padecimiento, el tomate sufre de alteraciones bioquímicas y fisiológicas como: Debido a las altas temperaturas, el cultivo no puede capturar suficiente dióxido de carbono (CO2) para el proceso de fotosíntesis y sufren daño las proteínas lo que reduce la función de las enzimas. Por otra parte, pueden padecenestres oxidativo e hidrico.



METODOLOGÍA

Las variables ambientales clave para la hortaliza son luz, temperatura, humedad y concentración de CO2. Se llevó a cabo una investigación para determinar la plataforma más adecuada para caracterizar y leer los diferentes sensores. Se optó por la plataforma Arduino Uno debido a su entorno de programación amigable y la abundancia de recursos disponibles. Se procedió a definir los sensores específicos a utilizar. Para medir la concentración de CO2, se eligió el sensor K30, siendo adecuado para el control de invernaderos gracias a su precisión y costo. Para medir la humedad y la temperatura, se optó por el sensor DHT11, que combina ambas mediciones en un solo dispositivo, simplificando y economizando el diseño. Su precisión es suficiente para este proyecto, con un margen de error de aproximadamente ±5% en humedad y ±2 grados Celsius en temperatura. Para medir la luminosidad, se utilizó un módulo LDR debido a su facilidad para ser caracterizado y convertir sus cambios en voltajes medibles, permitiendo lecturas analógicas. En el proyecto se incorporaron un módulo microSD para guardar una base de datos y un módulo RTC DS1302 para garantizar la precisión de la fecha. Tras definir los sensores, se procedió a la programación de los mismos. El sensor de CO2, fue utilizado con puertos analógicos para mayor flexibilidad en el uso de pines digitales en Arduino Uno. Se programaron los 3 sensores DHT11 y los 2 sensores LDR, con ayuda de las librerías disponibles en el entorno Arduino IDE. Una vez prototipados  todos los sensores, se procedió a la programación e integración de los módulos RTC DS1302 y lector microSD. Concluida esta fase, el dispositivo se volvió funcional, lo que llevó a la siguiente etapa: la investigación y aplicación de la alimentación. Se determinó que el dispositivo funcionaría con energía solar para mayor versatilidad en aplicaciones sin acceso a energía eléctrica. Se utilizaron 2 paneles de 5V y 160 mAh en serie para maximizar la captación solar. Se incluyó un regulador de voltaje LM7805 para alimentar un BMS con rango de trabajo de 5 a 8V. Se seleccionó el modelo TP4056/HW107 para cargar una batería Li-Ion de manera segura y permitir la conmutación entre energía solar y batería. Sin embargo, se requirió la implementación de un elevador de voltaje para alimentar el Arduino a 8V estables. Con esta fase completada, el dispositivo operaba exclusivamente con la energía de los paneles solares. Se diseñaron carcasas para los conjuntos de sensores y el módulo principal utilizando tecnologías CAD, y la fabricación en impresión 3D por FDM.


CONCLUSIONES

Gracias a la realización del dispositivo de monitoreo de los parámetros del ambiente para la producción de tomate, pudimos reforzar nuestras habilidades en electrónica, microcontroladores, transductores, sensores, diseño 3D y programación. Además, abordar las bases matemáticas como los multiplicadores de Lagrange para los sistemas de control no lineales como en este caso. Por el momento la investigación no se puede concluir con resultados, ya que, aún se encuentra en fases tempranas de diseño. Sin embargo, la implementación de este dispositivo en un invernadero ayudara ampliamente a llevar una base de datos de las variables como: CO2, humedad relativa, luminosidad y temperatura. Gracias a esto se podrá diseñar un sistema de control retroalimentado para mantener ideales las variables antes mencionadas. En conclusión, la estancia de investigación fue una grata experiencia para los miembros del equipo que nos dejo conocimientos y habilidades invaluables para nuestra formación como ingenieros.
Valenzuela Medina Fabian, Universidad Autónoma de Sinaloa
Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla

DISEñO DE MAQUINA DOBLADORA DE VARILLA


DISEñO DE MAQUINA DOBLADORA DE VARILLA

Cortés Aparicio Yael Itsuky, Benemérita Universidad Autónoma de Puebla. Hernandez Elizalde Wendy Cecilia, Universidad Autónoma de Sinaloa. Hernandez Sanchez Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Jiménez Rodríguez Anayansi, Universidad Autónoma Benito Juárez de Oaxaca. Sanchez Fonseca Edna Julieth, Instituto Tecnológico Metropolitano. Valenzuela Medina Fabian, Universidad Autónoma de Sinaloa. Asesor: Dr. José Isrrael Rodríguez Mora, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En el área de la construcción se tiene la necesidad de fabricar hogares, puentes, edificios entre otros, por lo que se requiere resolver el problema de la fabricación de estribos que son varillas de alambrón de acero, que unen las varillas en los castillos, por lo que se plantea el diseño una maquina dobladora de varilla, capaz de doblar por medio de una secuencia con un sistema mecánico y un sistema de moldeo fijo, dirigido por un motor, este diseño se propuso dado que era necesario un prototipo de bajo costo, esto debido a que en el área de la construcción en México ha crecido un 5% de acuerdo a la cámara Mexicana de la industria de la construcción (CMIC), durante el año 2021.



METODOLOGÍA

Para el diseño de la maquina dobladora de varilla se utilizaron materiales biodegradables para el prototipado por impresión 3D, dichos materiales fueron el acido polilactico (PLA) y poliuretano termoplastico (TPU), además de los diseños se pueden realizar bajo cualquier software asistido por computadora como ejemplo Solidworks, autodesk, FreeCAD,  entre otros, los pasos a seguir para el dieño de la maquina dobladora de varilla fuerón los siguientes 1) Se realizó una búsqueda del estado del arte y de vigilancia tecnológica en diferentes buscadores de patentes como Google Patents, EspaceNet,  Patentscope, entre otros más. 2) Posteriormente se realizó con dicha búsqueda inicial una serie de propuestas diseñadas por medio de algún Software CAD para diseño 3D, para posteriormente realizar la impresión de dichos modelos para su fabricación por manufactura aditiva, con PLA.  3) La serie de prototipos se realizaron haciendo simulaciones de movimiento mecánico por computadora y realizando una comparativa con el movimiento en ambiente real.  4)  A la par de la realización de la fabricación por manufactura aditiva de los diferentes prototipos se realizó la escritura de la solicitud de patente que actualmente continua en proceso para solicitar el trámite ante el Instituto Mexicano de la Propiedad Industrial (IMPI).  5) Se realizaba una serie de vigilancias tecnología cada vez que se quería realizar otra propuesta de prototipo y verificar el estado del arte en los diferentes buscadores de patente.  6) Finalmente se construyó el prototipo que cumple las simulaciones mecanicas y en ambiente real,  para verificar la prueba de concepto, por manufactura aditiva que es una representación a escala para la maquina real que se construirá, en caso de conseguir recursos.


CONCLUSIONES

Las diferentes conclusiones que llego el equipo fueron que se aprendió una metodología diferente de como investigar la alta tecnología así de cómo usar el diseño por computadora, la impresión 3D en diferentes materiales para realizar prototipos de manera rápida y como profundizar en un tema para realizar su vigilancia tecnológica además de realizar el desarrollo de la escritura de patente y la solicitud de la misma ante el IMPI en un futuro, en este caso, la maquina dobladora de varilla de alambrón y materiales de inferior densidad así como de sus diferentes aleaciones, dado que fue un reto desarrollar un prototipo mecánico, que cumpliera las caracteristicas de funcionalidad tanto en simulación por computadora y en ambiente real a escala, el mayor reto fue realizar el proceso para hacer los dobleces de la varilla es por medio de un sistema sincronizado de engranajes.
Valenzuela Perez Alejandro, Instituto Tecnológico de Tepic
Asesor: Mtro. Carlos Hirashi Valenzuela, Instituto Tecnológico de Sonora

INFLUENCIA DE ESTACIÓN DE AUTOBUSES EN EL TRÁNSITO VEHICULAR DE VIALIDADES ALEDAÑAS


INFLUENCIA DE ESTACIÓN DE AUTOBUSES EN EL TRÁNSITO VEHICULAR DE VIALIDADES ALEDAÑAS

Valenzuela Perez Alejandro, Instituto Tecnológico de Tepic. Asesor: Mtro. Carlos Hirashi Valenzuela, Instituto Tecnológico de Sonora



PLANTEAMIENTO DEL PROBLEMA

Ciudad obregón nació en tiempos del movimiento y pensamiento moderno europeo y en tiempos en que el gobierno mexicano otorgo concesiones de tierra para su ocupación en el Norte del país mediante la Reforma agraria creando varios ejidos, estos hechos estuvieron asociados a los programas de irrigación en todo México. La creación de nuevos distritos de riego se realizó a través de la Comisión Nacional de Irrigación, creada en 1926, la cual se transformó en 1946 en la Secretaria de Agricultura y Recursos Hidráulicos. La traza urbana de Ciudad Obregón es de damero, distinta a la de las ciudades coloniales de México. Con la forma de damero, al referirse a este tipo de urbanismo, se destaca la acción de un arte militar, de una ideología política la de las monarquías centralizadas de una nueva concepción del espacio que se inspiraba en la filosofía mecanicista. La Estación de Autobuses de Ciudad Obregón es un importante centro de transporte que conecta a la ciudad con diversas localidades y destinos en la región. A lo largo del tiempo, el crecimiento urbano, el aumento del parque vehicular y la falta de infraestructura adecuada han generado una problemática significativa relacionada con el tráfico en el Bulevar Rodolfo Elías Calles, que es la principal vía de acceso y salida de la estación de autobuses. Esta situación ha provocado demoras en la incorporación de los autobuses al bulevar, descubriendo congestiones viales y empeorando negativamente la eficiencia y seguridad del transporte público. Es un nodo crucial para el transporte de pasajeros, tanto locales como foráneos. Sin embargo, su ubicación estratégica cerca del Bulevar Rodolfo Elías Calles, una de las principales arterias viales de la ciudad, ha dado lugar a una serie de inconvenientes debido a la elevada cantidad de vehículos que circulan diariamente por esta vía. El acceso inadecuado y la falta de carriles exclusivos para autobuses en la estación han provocado problemas de tráfico importantes. La gran afluencia de autobuses y vehículos particulares que ingresan y salen de la estación de autobuses genera un congestionamiento significativo en las horas pico. Los tiempos largos de espera y las maniobras de ingreso y salida contribuyen a una saturación del tráfico en el área, apuntando negativamente a los residentes locales y los usuarios del transporte público. Esta situación genera retrasos en los tiempos de viaje de los pasajeros, así como mayores tiempos de desplazamiento para los automovilistas que utilizan esta importante vía de acceso a diferentes partes de la ciudad.



METODOLOGÍA

La necesidad de mejorar el flujo de tráfico y reducir el exceso de tráfico en el Bulevar Rodolfo Elías Calles, causado principalmente por el ingreso de autobuses a la Central de Autobuses, se identificó como un problema crucial para la movilidad y calidad de vida de los residentes y usuarios del transporte público. A partir de los datos recopilados, se exploraron diversas alternativas para abordar el problema. Una de las propuestas fue trasladar la estación de autobuses a la Calle Jalisco, lo que implicaba rediseñar el área para mejorar el tráfico y disminuir la carga vehicular en el Bulevar Rodolfo Elías Calles. Se recopiló información relevante sobre el Bulevar Rodolfo Elías Calles, la Central de Autobuses y la Calle Jalisco, incluyendo estudios de tráfico previos, datos sobre el flujo de vehículos y autobuses, y otros informes relevantes. Se realizaron estudios de tráfico y conteo de vehículos en diferentes horas del día durante un período representativo para comprender la magnitud del problema y los momentos críticos del día con mayor congestión vehicular. Se analizaron los puntos de entrada y salida de la Central de Autobuses en el Bulevar Rodolfo Elías Calles para determinar las áreas más congestionadas y proponer soluciones específicas. Se investigó la factibilidad de trasladar la estación de autobuses a la Calle Jalisco, identificando ventajas, desventajas, costos y beneficios asociados con esta propuesta. se elaboraron planos detallados para visualizar cómo sería la nueva estación de autobuses en la Calle Jalisco y su impacto en el tráfico. Se elaboró ​​un diseño arquitectónico para la nueva estación de autobuses en la Calle Jalisco, teniendo en cuenta la capacidad necesaria, espacios de carga y descarga, áreas de espera y facilidades para los usuarios y conductores. Se compiló todos los datos y resultados obtenidos durante el proyecto en un informe detallado que demostró el diagnóstico, las alternativas consideradas, el diseño de la nueva estación y los análisis de impacto.


CONCLUSIONES

Durante la estancia de verano en Ciudad Obregón, Sonora, aprendí que la mala planificación de las instalaciones de una estación de autobuses puede tener consecuencias significativas para la comunidad. La falta de una planificación adecuada puede resultar en una infraestructura inadecuada, tiempos de espera prolongados, congestión vehicular y problemas de seguridad. También descubrí que una planificación deficiente puede impactar negativamente en la calidad de vida de los residentes y visitantes, así como en la eficiencia del transporte público en la ciudad. Es esencial que las autoridades y planificadores urbanos consideren cuidadosamente los aspectos logísticos, la demanda de transporte y las necesidades de la población para asegurar una estación de autobuses eficiente, accesible y segura. Al reflexionar sobre esta experiencia, queda claro que una planificación bien estructurada y basada en un enfoque integral es esencial para optimizar la movilidad y el bienestar de la comunidad.
Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS


HIGIENE Y SEGURIDAD EN EL SECTOR EMPRESARIAL: COMERCIAL, INDUSTRIAL Y DE SERVICIOS

Ayala Santana María Dolores, Instituto Tecnológico Superior de Ciudad Hidalgo. Barrón Rocha Fátima Daniela, Instituto Tecnológico de Piedras Negras. Jacob Prandini Paola Teresita, Universidad de Sonora. López García Ivonne, Universidad de Sonora. Mendoza Morin Monica Aimee, Instituto Tecnológico de Piedras Negras. Noriega Miranda Jhoceline Elizabeth, Universidad de Sonora. Romero Zavala Marco Antonio, Universidad Autónoma de Occidente. Soto Moreno Viridiana, Instituto Tecnológico Superior de Ciudad Hidalgo. Vacame Reyes Xochitl Jazmin, Universidad de Sonora. Valera Fox Lucía Esmeralda, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La seguridad e higiene industrial en los últimos años son una temática que ha tenido más resonancia en las empresas, desde las más pequeñas hasta las mega empresas, y en los trabajadores que laboran en ellas. En México y en el mundo se han implementado medidas de seguridad en los centros de trabajo a raíz de los accidentes e incidentes ocurridos al realizar las actividades correspondientes de las empresas y con el paso de los años se han creado Normas Oficiales y normas de estandarización, para que las empresas se vean obligadas a cumplir con las condiciones adecuadas para trabajar de forma segura, evitar enfermedades y accidentes. Lamentablemente el cumplimiento de estas normas es ignorado por las empresas más de giro comercial y de servicios mayormente, aunque el sector industrial no es la excepción, debido al desconocimiento de estas o la ignorancia de los riesgos existentes en sus instalaciones. De acuerdo con datos del Instituto Mexicano del Seguro Social (IMSS) en la última década se ha registrado un promedio de 410,000 accidentes de trabajo por año, esto sin contar los accidentes ocurridos de camino al trabajo y del trabajo al hogar. La falta de equipos de protección personal y de las herramientas necesarias para realizar un trabajo seguro es uno de los puntos que no se cumplen al cien por ciento en las empresas, lo que conlleva a una mayor probabilidad de riesgo de que ocurra un accidente o incidente, lo cual no solo afecta al trabajador sino que también a sus compañeros y por consiguiente a la productividad de la empresa lo que se convierte en un efecto cadena de forma negativa.



METODOLOGÍA

Se realizó un análisis en 3 empresas, una correspondiente a cada giro empresarial: industrial, comercial y de servicios; en la ciudad de Los Mochis, Sinaloa, lugar donde abundan empresas comerciales y de servicios y donde el giro industrial está en potencial crecimiento. El análisis se enfoca en la conformidad de cada empresa con el cumplimiento de las Normas Oficiales Mexicanas de seguridad e higiene, las cuales son reguladas por La Secretaría del Trabajo y Previsión Social (STPS). Para llevar a cabo el análisis, se elaboró un formato evaluador basado en el Programa de Autogestión en Seguridad y Salud en el Trabajo (PASST), quien tiene un formato de evaluación de las condiciones de los centros de trabajo, donde contempla todos los aspectos de seguridad e higiene. El formato se ajustó a cada empresa, considerando su tamaño y las actividades que se realizan en ellas. También se redactaron preguntas referentes a la seguridad de los trabajadores, para realizar entrevistas en los centros de trabajo y así conocer de manera más certera las condiciones en las que laboran estas personas, Se asignaron grupos para cada giro empresarial, de tal forma que se pudiera abarcar de forma integral cada evaluación, las evaluaciones consistieron en el llenado de una lista de verificación, con observaciones, y con entrevistas a los trabajadores de las empresas. Cada empresa organizó una visita guiada, en las cuales fue posible visualizar e identificar las condiciones de los centros de trabajo, de tal forma que mientras un grupo llenaba las listas de verificación, otro grupo realizaba las entrevistas para el final de cada visita hacer un reporte contemplando todos los puntos a evaluar. Para llegar a las visitas el equipo de investigación portó siempre equipo de protección personal que también sirvió como una identificación de visitante, el cual consistía en un casco contra impactos, zapato cerrado (botas), chaleco de alta visibilidad y lentes de seguridad envolventes. Se realizó un reporte de cada empresa, dondé se plasmó en tablas el nivel de conformidad con las Normas Oficiales Mexicanas, y las observaciones que se deben mejorar, se tomaron a consideración los posibles riesgos y se hizo una lista de recomendaciones para cada empresa que mencionan puntos que deben atender lo más pronto posible y otros que no son graves pero pueden mejorar y así tener un ambiente más seguro para sus trabajadores y al mismo tiempo estar actualizadas en el cumpliento de las Normas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la estandarización de las condiciones de seguridad e higiene en los centros de trabajo, las regulaciones de las Normas, y del estado actual de las empresas conforme a estás. Al igual que se logró poner en práctica los análisis de riesgo en instalaciones que realizan actividades peligrosas diariamente para la continuidad de las empresas, al participar en las visitas se alcanzó a ver detalles que a simple vista no parecen importantes, como un sencillo botiquín de primeros auxilios. Con estas evaluaciones se espera la mejora en las condiciones de los centros de trabajo y la aspiración de cada empresa para ser limpias y socialmente responsables.
Valverde Luna Irvin Yeremy, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Dunstano del Puerto Flores, Universidad de Guadalajara

ESTUDIO,DISEñO E IMPLEMENTACIóN DE CONTROLADORES PID DIGITALES


ESTUDIO,DISEñO E IMPLEMENTACIóN DE CONTROLADORES PID DIGITALES

Rivera Alvarez Jesus Omar, Instituto Tecnológico Superior de Cajeme. Valverde Luna Irvin Yeremy, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Dunstano del Puerto Flores, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El avance tecnológico ha impulsado la evolución de los sistemas hacia su digitalización y la necesidad de implementar controladores capaces de garantizar un funcionamiento óptimo y eficiente. Los controladores basados en componentes analógicos ya no son viables para satisfacer las demandas actuales, lo que ha llevado al desarrollo de sistemas digitales más sofisticados y con respuestas similares al tiempo continuo. Estos nuevos controladores deben ser estables, robustos e inteligentes para enfrentar los desafíos de la era tecnológica actual. En este contexto, los convertidores de voltaje han adquirido una importancia crucial en el manejo de la energía en los aparatos electrónicos. Estos dispositivos son indispensables para el aprovechamiento eficiente de la energía, lo que ha motivado a la creación de convertidores de voltaje más inteligentes y avanzados. El desarrollo de controladores ha sido fundamental para lograr esta mejora en los convertidores, permitiendo un manejo más eficiente y cuidadoso de la energía eléctrica. La mayor problemática se enfoca en la necesidad de sistemas digitales más complejos requiere el desarrollo de controladores digitales avanzados que sean capaces de proporcionar respuestas cercanas al tiempo continuo.



METODOLOGÍA

1. Primero se realizó una breve introducción acerca de los conceptos básicos del control digital, donde el principal objetivo fue sintonizarnos con el material de investigación y nuestros compañeros a trabajar. 2. Una vez que se comprendió la idea básica de la investigación, comenzamos a caracterizarnos con Arduino Uno, enfocándonos principalmente en comprender el ancho de banda y todo lo relacionado a las señales PWM de la placa. 3. Comenzamos con un repaso a la transformada Z con el propósito de analizar y sintetizar lo aprendido en la práctica de la investigación a desarrollar. Todo esto utilizando códigos de Matlab y observando las respuestas discretas de algunas funciones de transferencia.  4. Se discretizaron sistemas dinámicos en tiempo continuo, principalmente mediante el método Tustin, con el propósito de implementar estos sistemas discretos en Arduino. Trabajamos con una gran variedad de sistemas, de primer orden y segundo orden como los subamortiguados, críticamente amortiguados, sobreamortiguados e incluso oscilador. Esto para posteriormente poder implementar con mas facilidad el compensador y función de transferencia de nuestra planta dentro del arduino para que funcionara como un simulador. 5. Se estudio el diseño de controladores en el dominio de la frecuencia, primeramente, abarcando los diagramas de bode y su estabilidad, para después pasar al estudio de los compensadores de atraso y adelanto. También se estudió la forma de obtención de la función de transferencia de un convertidor Buck para después implementar está en arduino simulando la planta de nuestro sistema.  6. Se simularon varios códigos en Matlab donde desarrollábamos el proceso para el diseño de sistemas de control digitales, donde conocimos el comportamiento y la implementación que tienen los compensadores de adelanto y atraso de fase para el diseño de sistemas de control digitales. 7. Obtuvimos la función de transferencia del sistema a controlar, en este caso el convertidor buck y se implemento en arduino en lazo abierto. 8. Mediante simulación diseñamos un controlador digital.


CONCLUSIONES

Durante nuestra estancia de verano los temas abordados nos brindaron una comprensión profunda acerca de los sistemas de control digitales y su implementación práctica en Arduino, donde para abordar estos desafíos, fue necesaria una adecuada integración de tecnologías y aplicaciones, donde la sinergia entre los controladores, convertidores y sistemas en los que se implementan, es fundamental para lograr un funcionamiento armonioso y eficiente en el manejo de la energía eléctrica. Fue impresionante conocer todo lo que desarrollamos, aunque, al ser un proyecto de una gran extensión, no logramos realizar una física de todo lo que desarrollamos, pero es agradable saber que dejamos este camino preparado para próximos estudiantes y que en próximo futuro podrá ser implementado y complementado con nuestra investigación desarrollada.
Valzania Prada Vittoria José, Universidad Autónoma de Bucaramanga
Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California

EXTRACCIóN DE CARACTERíSTICAS DE ECG PARA DETECCIóN SEMIAUTOMáTICA DE FIBRILACIóN AURICULAR


EXTRACCIóN DE CARACTERíSTICAS DE ECG PARA DETECCIóN SEMIAUTOMáTICA DE FIBRILACIóN AURICULAR

Moncada Alvarez Emmanuel, Universidad de Guadalajara. Noreña Ceballos Marcelo, Universidad Nacional Abierta y a Distancia. Valzania Prada Vittoria José, Universidad Autónoma de Bucaramanga. Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La fibrilación auricular (FA) es una arritmia cardíaca común caracterizada por un ritmo cardíaco irregular y rápido. En lugar de tener un ritmo cardíaco regular, como ocurre en un corazón sano, los pacientes con fibrilación auricular experimentan una actividad eléctrica caótica y desorganizada en las aurículas del corazón, que son las dos cámaras superiores. En la fibrilación auricular, las aurículas no se contraen adecuadamente, lo que resulta en una pérdida parcial de la capacidad de bombear sangre de manera efectiva hacia los ventrículos, que son las cámaras inferiores del corazón. Como resultado, la frecuencia cardíaca puede aumentar significativamente y volverse irregular. La fibrilación auricular es el trastorno del ritmo cardíaco más común en adultos. Teniendo un dato de 46,3 millones de personas en el mundo padece de esta enfermedad, donde un 50-87% son asintomáticas. Esta enfermedad puede tener serias implicaciones para la salud, ya que puede aumentar el riesgo de formación de coágulos sanguíneos en las aurículas y su posterior liberación hacia otras partes del cuerpo, aumentando el riesgo de accidentes cerebrovasculares o embolias El diagnóstico de la fibrilación auricular generalmente se realiza mediante la realización de un electrocardiograma (ECG), que muestra la actividad eléctrica del corazón y revela los patrones característicos de la arritmia. Este trabajo tiene como objetivo de manera semi automatizada, detectar dicha patología por sus características únicas o distinguibles de otras patologías cardiacas.



METODOLOGÍA

En el presente estudio, se utilizó MATLAB para procesar las señales de ECG y se implementó un código personalizado que resalta tres características esenciales de la fibrilación auricular (FA). En primer lugar, se evaluó la arritmia, que se refiere a la variación en las pulsaciones por minuto, permitiéndonos detectar cuando el ritmo cardíaco se aleja del estándar o promedio de una persona sana. En segundo lugar, se analizó la irregularidad de los pulsos derivados de la patología. Esta característica es crucial, ya que muestra que el tiempo entre pulsos es completamente aleatorio, lo cual es uno de los aspectos más distintivos de la FA y de gran relevancia para su detección temprana. Finalmente, el código también identificó las ondas fibrilatorias, conocidas como pulsos f, que son oscilaciones de menor tamaño y duración, pero con altas frecuencias, que se pueden encontrar en la línea isométrica de nuestra señal de ECG entre los pulsos reales del corazón. Estas ondas fibrilatorias son indicativas de la presencia de FA y su detección es fundamental para un diagnóstico certero. El algoritmo de detección desarrollado se probó en seis señales de ECG obtenidas de una base de datos, que incluía sujetos sanos y sujetos con otras patologías cardíacas. La efectividad del algoritmo se evaluó en términos de su capacidad para detectar correctamente la presencia de la FA, así como para minimizar los falsos positivos.


CONCLUSIONES

En el presente estudio, se observó que el software desarrollado fue capaz de detectar cuatro de las señales como fibrilación auricular, identificando las tres características esenciales previamente mencionadas. Sin embargo, en las otras dos señales, solo se pudieron detectar dos de las características, lo que sugiere que aún se necesita estudiar y mejorar la generalización del algoritmo para lograr una detección más precisa de estas dos patologías faltantes. En cuanto a los sujetos sanos, los resultados fueron altamente alentadores, ya que el algoritmo mostró una precisión del 100% al descartar la falta de características  de la fibrilación auricular en estas muestras. Esto indica que el algoritmo es capaz de diferenciar de manera efectiva entre una señal de ECG normal y una afectada por fibrilación auricular, evitando confusiones con esta patología. Por otro lado, el algoritmo también demostró una buena capacidad para descartar otras patologías que no son fibrilación auricular, gracias a las características distintivas de esta arritmia, como la irregularidad de los pulsos y la presencia de las ondas f. En particular, se destacó que el algoritmo es capaz de diferenciarse de otras patologías excepto por una derivación de esta que es el aleteo auricular. Aunque los resultados son prometedores, se reconoce que aún queda trabajo por hacer para mejorar la capacidad de generalización del algoritmo y permitir una detección más precisa de las dos señales faltantes. Se sugiere seguir investigando y ampliando el conjunto de datos utilizado para entrenar y validar el algoritmo, con el objetivo de mejorar su sensibilidad y especificidad.
Vargas Figueroa Edgar Alexis, Instituto Tecnológico de Jiquilpan
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

CREACIóN DE UN PROGRAMA, UNA APP O UN JUEGO PARA APRENDER LENGUAJE DE SEñAS. MEXICANO (LSM)


CREACIóN DE UN PROGRAMA, UNA APP O UN JUEGO PARA APRENDER LENGUAJE DE SEñAS. MEXICANO (LSM)

Ciriaco Torres Juan Martín, Instituto Tecnológico de Jiquilpan. Vargas Figueroa Edgar Alexis, Instituto Tecnológico de Jiquilpan. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El Lenguaje de Señas Mexicano (LSM) es una forma de comunicación visual y gestual ampliamente utilizada por la comunidad sorda y/o muda en México para expresar ideas, emociones y conceptos. A pesar de su importancia como medio de comunicación, el LSM sigue siendo relativamente desconocido para la mayoría de la población oyente. Esta falta de conocimiento y comprensión del Lenguaje de Señas Mexicano genera barreras comunicativas y sociales, lo que dificulta la inclusión y participación plena de las personas sordas en la sociedad. La falta de acceso a la educación y recursos adecuados para el aprendizaje del LSM también ha sido un desafío significativo. Aunque existen libros, cursos en línea y materiales impresos que enseñan el LSM, muchos de ellos carecen de interactividad y no están adaptados al entorno digital actual. Además, estos recursos a menudo no son completamente accesibles para personas con discapacidades visuales, lo que crea otro obstáculo para aquellos que buscan aprender Lenguaje de Señas. Las instituciones educativas y plataformas de aprendizaje también pueden tener dificultades para proporcionar programas de enseñanza especializados en LSM, lo que lleva a una oferta limitada de oportunidades educativas para las personas sordas y los interesados en aprender LSM.



METODOLOGÍA

En primer lugar, se realiza una investigación exhaustiva sobre el Lenguaje de Señas Mexicano (LSM), analizando su gramática, vocabulario y gestos más comunes. Además, se estudiarán otras aplicaciones similares en el mercado para identificar sus fortalezas y debilidades en el proceso de enseñanza del Lenguaje de Señas. Una vez recopilada la información necesaria, se definirán los objetivos y el alcance de la aplicación. Los objetivos serán claros y enfocados en enseñar el LSM de manera efectiva, mejorar la comunicación entre personas sordas y oyentes, y fomentar la inclusión social. El alcance se definirá con detalles sobre las características principales de la aplicación, el nivel de enseñanza, el público objetivo y las plataformas móviles compatibles. El siguiente paso será diseñar la interfaz base de usuario (UI) de la aplicación. También se prestará especial atención a la accesibilidad. Con el diseño aprobado, se procederá al desarrollo de la aplicación. Se seleccionará el lenguaje de programación y el entorno de desarrollo más adecuado para el proyecto. Se implementarán las características principales, como lecciones estructuradas, videos de enseñanza, ejercicios interactivos y reconocimiento de gestos. Además, se integrará una base de datos para almacenar el progreso y la información del usuario. El contenido de la aplicación será clave para su éxito, por lo que se pretende trabajar en desarrollar lecciones de alta calidad con explicaciones claras. También se planificará la actualización periódica del contenido para mantenerlo relevante y atractivo. La implementación de funciones especiales será otro punto importante en el desarrollo de la aplicación. Se trabajará para integrar el reconocimiento de gestos para brindar retroalimentación sobre la precisión de los movimientos realizados por los usuarios. Asimismo, se desarrollarán ejercicios interactivos y juegos educativos para reforzar el aprendizaje y hacerlo más entretenido. La creación de una aplicación de Lenguaje de Señas Mexicano (LSM) es una iniciativa significativa y con un propósito social importante. Esta aplicación tiene el potencial de abordar las barreras comunicativas y educativas que enfrenta la comunidad sorda en México, al proporcionar una herramienta interactiva, inclusiva y efectiva para aprender y practicar el LSM. A través de una metodología cuidadosamente planificada, estudiada y en constante aprendizaje construir una sólida investigación, diseño centrado en el usuario, desarrollo de contenido de alta calidad y la implementación de características especiales, se busca crear una experiencia de aprendizaje enriquecedora para personas sordas y oyentes interesados en aprender el LSM.


CONCLUSIONES

Tras el análisis e investigación del lenguaje de señas que en lo personal me interesa aprender un poco más y en el desarrollo es muy lento por cuestiones de que debe de haber una gran estructura clara y bien definida, pero poco a poco se va agregando herramientas, funcionalidades y a lo que he aprendido me ha gustado y siento que el impacto social de esta aplicación será significativo, ya que contribuirá a derribar barreras comunicativas y sociales que enfrentan las personas sordas. Este desarrollo como otras ayuda a promover la comprensión y la inclusión, la aplicación puede generar una sociedad mas igualitaria y empática, donde la comunidad sorda sea plenamente reconocida y respetada. A mi pensar la creación de una aplicación de enseñanza de LSM es una oportunidad para avanzar hacia una sociedad más inclusiva y accesible, donde la diversidad lingüística y cultural sea apreciada y celebrada. Al proporcionar una plataforma para el aprendizaje teórica de momento y práctica con el entendimiento y comprensión del LSM, la aplicación puede marcar la diferencia en la vida de muchas personas, facilitando la comunicación y promoviendo la igualdad de oportunidades para todos.
Vargas Mendoza Yolanda Itzel, Instituto Tecnológico Superior de Irapuato
Asesor: Dra. Jazmín Cortez González, Instituto Tecnológico Superior de Irapuato

SOFTWARE DE OPTIMIZACIóN ESTOCáSTICA PARA ESQUEMAS DE DESTILACIóN CON PRESIóN OSCILANTE


SOFTWARE DE OPTIMIZACIóN ESTOCáSTICA PARA ESQUEMAS DE DESTILACIóN CON PRESIóN OSCILANTE

Palma Montoya Dulce María, Instituto Tecnológico Superior de Irapuato. Vargas Mendoza Yolanda Itzel, Instituto Tecnológico Superior de Irapuato. Asesor: Dra. Jazmín Cortez González, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se presenta el desarrollo de un software de optimización programado en una interfaz gráfica de usuario. El algoritmo de optimización implementado es el Boltzmann Univariate Marginal Distributión  Algorithm (BUMDA), que es capaz de seguir la trayectoria de la función objetivo y salir de óptimos locales, a través de un mecanismo de reinicialización de la varianza. Se implemento una técnica de manejo de restricciones que permite encontrar de forma rápida la zona factible y que eventualmente converge a los mejores diseños que cumplen con las restricciones establecidas para el caso particular. Este software es capaz de optimizar sistemas de destilación por presión oscilante (PSD) de mezclas azeotrópicas binarias. De acuerdo a los casos resueltos la interfaz propuesta es una herramienta intuitiva, innovadora y fácil de utilizar.



METODOLOGÍA

La metodogía de este proyecto se encuentra dividida en los siguientes dos puntos: 1. Desarrollo de la interfaz: Esta etapa del proyecto, se enfocó en diseñar y construir la interfaz del sistema. Para decidir qué lenguaje de programación utilizar, se analizaron diversas opciones y finalmente se optó por utilizar dos lenguajes principales: Java y C++ (Matlab).  Java fue elegido debido a su versatilidad y capacidad para desarrollar aplicaciones robustas y multiplataforma. Al utilizar Java, se asegura que la interfaz sea compatible con diferentes sistemas operativos y dispositivos, lo que facilita su implementación en diversos entornos. Además, Java ofrece una amplia gama de bibliotecas y herramientas que permiten la creación de componentes visuales y una interfaz de usuario atractiva y amigable. Por otro lado, se optó por incorporar C++ para interactuar con Matlab, ya que Matlab es ampliamente utilizado en el ámbito científico y de ingeniería debido a su capacidad para realizar cálculos numéricos y análisis avanzados. Al utilizar C++ como puente entre Java y Matlab, se facilita la comunicación y el intercambio de datos entre estos dos entornos. En esta etapa, también se diseñó la interfaz visual del sistema. El diseño visual es una parte esencial de cualquier aplicación, ya que determina cómo los usuarios interactuarán con el sistema y cómo percibirán la información presentada. Se tuvieron en cuenta principios de usabilidad, accesibilidad y estética para asegurar que la interfaz sea fácil de usar y atractiva para los usuarios. Además, se llevó a cabo la implementación de los componentes visuales de la interfaz. Esto implica la creación de botones, cuadros de texto, gráficos, tablas y otros elementos visuales que permiten a los usuarios interactuar con el sistema y recibir información de manera clara y efectiva. Se prestaron especial atención a la disposición y la organización de estos elementos para asegurar una experiencia de usuario fluida y satisfactoria. 2. Implementación de la interfaz: Esta fase, se centra en establecer la comunicación entre los diferentes componentes del sistema: el optimizador, el evaluador y la base de datos. El optimizador juega un papel crucial en el sistema, ya que es responsable de encontrar las soluciones óptimas para el problema en cuestión. Para lograr esto, el optimizador utiliza algoritmos y técnicas de optimización avanzadas. Además, el optimizador actúa como una interfaz entre Matlab, Excel y el simulador secuencial modular. Por un lado, el optimizador se comunica con Matlab para aprovechar sus capacidades de cálculo numérico y análisis. Esta comunicación se logra mediante el uso de C++ como mencionamos anteriormente. Por otro lado, el optimizador también interactúa con Excel para importar y exportar datos. Excel es ampliamente utilizado para el manejo de hojas de cálculo y datos, por lo que se utilizó como una forma eficiente de intercambiar información con otras herramientas y permitir a los usuarios trabajar con datos en un entorno familiar. Además, el optimizador se conecta con el simulador secuencial modular, lo que le permite obtener información sobre el rendimiento del sistema y evaluar la calidad de las soluciones propuestas. Esta evaluación se basa en métricas y criterios predefinidos, que ayudan a determinar qué soluciones son óptimas y cuáles necesitan mejoras. Por último, la base de datos es utilizada para almacenar información relevante para el funcionamiento del sistema, como configuraciones de simulación, resultados anteriores, parámetros relevantes, entre otros. La implementación de la comunicación con la base de datos permite acceder y actualizar los datos de manera eficiente, asegurando que el sistema esté siempre actualizado y pueda trabajar con la información más reciente.  


CONCLUSIONES

En este estudio, se ha presentado un software innovador para la optimización de destilación con presión oscilante (PSD) en mezclas azeotrópicas binarias. Proporciona una representación visual de los parámetros clave en el diseño de estos sistemas. El software incluye dos características importantes: una técnica de manejo de restricciones autoadaptativa para encontrar la zona factible y una reinicialización de la varianza para evitar óptimos locales. Estas características mejoran el desempeño del software, reducen el esfuerzo de cómputo y mejoran la calidad de la solución. Los resultados de las pruebas experimentales demuestran claramente los beneficios de esta interfaz gráfica. Se observa una mejora en la eficiencia de separación y una reducción del consumo de energía, lo que resalta la efectividad del software.
Vargas Nogueron Daniela Paola, Instituto Tecnológico Superior de Irapuato
Asesor: Esp. Pedro Luis Milian Daza, Instituto Nacional de Formación Técnica Profesional - INFOTEP

CONSECUENCIA DEL SINDROME DE ARNES PARA EMPLEADOS DE TRABAJO DE ALTURA DE LA EMPRESA AIR-E DEL MUNICIPIO DE SAN JUAN DEL CESAR – LA GUAJIRA, COLOMBIA


CONSECUENCIA DEL SINDROME DE ARNES PARA EMPLEADOS DE TRABAJO DE ALTURA DE LA EMPRESA AIR-E DEL MUNICIPIO DE SAN JUAN DEL CESAR – LA GUAJIRA, COLOMBIA

Vargas Nogueron Daniela Paola, Instituto Tecnológico Superior de Irapuato. Asesor: Esp. Pedro Luis Milian Daza, Instituto Nacional de Formación Técnica Profesional - INFOTEP



PLANTEAMIENTO DEL PROBLEMA

Naisa, 2022) Las caídas de altura son una de las causas de accidentes laborales más frecuentes. Afortunadamente, el uso de la protección adecuada contra las caídas y su correcto mantenimiento garantizan la seguridad de los trabajadores. El arnés es fundamental que esté presente en todas las actividades relacionadas con la altura. Los trabajadores de altura, alpinistas y espeleólogos expertos saben que la suspensión durante un tiempo prolongado del arnés no tiene más consecuencias que la molestia producida por la presión de las correas del arnés encima los puntos de contacto. La Organización Internacional del Trabajo (OIT), identifica que las  ocupaciones  en  altura producen que la actividad ocasione la mayor  cantidad de muertes en el mundo laboral, pues más del 70% de los trabajadores que sufren caídas fallecen de forma inminente por las  lesiones  severas  causadas  por  el  impacto. Por otra parte en México 106 mil 728 casos de accidentes de trabajo fueron reportados en el país en 2016, por caídas de trabajo en las alturas esto es el 27%, varios  de estos son por  alturas  superiores de 1.80 metros. La secretaria de trabajo y prevención social (STPS) informó que conforme a la Norma Oficial Mexicana NOM-009-STPS-2011 es quien regula estas actividades, el trabajo en altura se refiere a mantenimiento, instalación, demolición, operación, reparación, limpieza, etc. En cuanto a Colombia las empresas constructoras, siguen aportando grandes índices de accidentes, frente  a  las  estadísticas  nacionales,  en  donde  el  trabajo  en  alturas representa  más  de  la  tercera  parte  de  los  accidentes  mortales  (Díaz,  2016). Teniendo en cuenta que las actividades recurrentes en la construcción obligan a que los trabajadores frecuentemente realicen labores en las alturas superiores a 2.0  metros, medida que la cual se considera necesario  gestionar  la  actividad  como  trabajo  en  alturas, teniendo  en  cuenta  la  legislación  vigente  y  todas  sus  implicaciones  (Ministerio  de Trabajo,  2021). Por otro lado, la empresa Air-e que se dedica a la prestación de servicios públicos de energía eléctrica, encargándose de la distribución y comercialización de esta y que hace presencia en tres departamentos como lo son Atlántico, La Guajira y Magdalena. Para su funcionamiento correcto cuanta con un gran grupo de operarios los cuales se encargan del mantenimiento y en muchos casos de la reparación de los tendidos eléctricos, actividad que los lleva a estar expuestos a trabajos en alturas, permaneciendo suspendidos por largos periodos de tiempo por lo que deja como resultados graves afectaciones a causa de lo que se conoce como síndrome ortostático o síndrome del arnés.



METODOLOGÍA

La investigación se realizó en San Juan del Cesar- la Guajira, Colombia, en la empresa de Air-e. Para esta investigación concreta se necesita identificar y analizar los problemas inmersos en los trabajos donde se debe estar suspendidos durante un tiempo determinado, todo esto Con la finalidad de lograr el uso correcto de los equipos de trabajo para así evitar futuros problemas en la salud de los operarios de la empresa. Para dar ejecución al proyecto de investigación, es necesario utilizar las técnicas e instrumentos adecuados que nos permitan recabar datos, de modo que podamos desarrollar nuestra investigación de manera efectiva, La observación nos permite analizar más detalladamente el problema que se está presentando en los trabajadores de altura, ya que están presentando síntomas, por no tener un buen conocimiento o capacitaciones adecuadas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de las enfermedades que provoca el síndrome del arnés o también conocido como síndrome ortostático, representa un riesgo significativo para la salud y seguridad de los trabajadores en altura. Es esencial tomar precauciones y descansos frecuentes para aliviar la presión en las piernas y mantener una buena circulación sanguínea. Es importante recordar que la prevención de lesiones en el trabajo en altura es una responsabilidad compartida entre los supervisores y los trabajadores, Ambos deben trabajar juntos para garantizar un entorno de trabajo seguro y reducir los riesgos asociados con el trabajo en altura.
Vargas Quintana Hallye Monserrath, Universidad de Sonora
Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología

NUEVAS TECNOLOGíAS ORIENTADAS A LA INDUSTRIA 4.0


NUEVAS TECNOLOGíAS ORIENTADAS A LA INDUSTRIA 4.0

Vargas Quintana Hallye Monserrath, Universidad de Sonora. Asesor: Dr. Homero Toral Cruz, Consejo Quintanarroense de Ciencia y Tecnología



PLANTEAMIENTO DEL PROBLEMA

La industria 4.0 es derivada como el concepto principal para el mejoramiento del dominio en la fabricación, esta cuarta revolución es el cambio de los paradigmas en las industrias, permitiendo a los proveedores y fabricantes de las industrias aprovechar de estas mismas innovaciones y nuevos conceptos tecnológicos. La industria 4.0 representa una evolución significativa en el paradigma industrial, caracterizada por la fusión de sistemas físicos y digitales. Esta nueva revolución se presenta como la compatibilidad en la interconexión de dispositivos automático inteligentes y la implementación de tecnologías de vanguardias, incluyéndolas en un paradigma de mejora que sustentan a la revulsión industrial.



METODOLOGÍA

La Industria 4.0 representa una nueva revolución industrial impulsada por componentes clave que buscan transformar la forma en que operan las industrias. Uno de estos componentes es el Internet de las cosas (IoT), que tiene como objetivo automatizar procesos y rutinas en el ámbito industrial, empresarial y cotidiano. Sin embargo, el aumento del uso de nuevas tecnologías también ha planteado desafíos en términos de ciberseguridad, lo que ha llevado a una mayor atención en proteger la información confidencial generada. En el sector industrial, el manejo de grandes cantidades de datos es vital, lo que ha llevado al desarrollo de tecnologías como Edge Computing y Cloud Computing para adaptar los servicios a los cambios y proveer servicios a través de Internet. La integración de estas tecnologías con la Industria 4.0 ha permitido aprovechar la automatización impulsada por la Inteligencia Artificial, que reduce los errores humanos y ofrece bajos costos y altos rendimientos. En el sector energético, la transición hacia fuentes de energías renovables ha sido impulsada por la transformación digital y las tecnologías 4.0, creando un entorno en el que las personas pueden producir, consumir y hasta comerciar energía. La adopción de redes 5G ha complementado estas tecnologías, permitiendo una comunicación inalámbrica sin limitaciones en diversos ámbitos. La cadena de bloques (blockchain) ha sido introducida en la Industria 4.0, proporcionando una forma segura de tener registros de acciones a través de redes públicas como Internet. Además, en el ámbito tecnológico, el desarrollo de tecnologías como realidad virtual (VR), realidad aumentada (AR) influido en las estrategias de mantenimiento industrial y en la mejora de la productividad. En términos de seguridad, los robots colaborativos (HR) se han diseñado para beneficio humano, maximizando el uso del espacio y previniendo lesiones. Las técnicas de control de última generación también han sido desarrolladas, considerando la evolución de la Industria 4.0. En resumen, la Industria 4.0 está transformando la forma en que las industrias operan, integrando tecnologías clave como IoT, IA, Edge Computing y Cloud Computing. La adopción de fuentes de energías renovables y las tecnologías 5G complementan esta revolución industrial. Además, la cadena de bloques, la realidad virtual y aumentada, y los robots colaborativos son solo algunos ejemplos de cómo la Industria 4.0 está revolucionando el mundo empresarial y tecnológico, presentando tanto oportunidades como desafíos.


CONCLUSIONES

La Revolución de la Industria 4.0 es un tema más que interesante te puede llenar de fascinación ver cómo es innovador y se puede actualizar de diferentes maneras con el paso de los años. La industria 4.0 está impulsada por una serie de componentes clave que han demostrado ser fundamentales para considerar esta nueva era industrial. En el ámbito social, las tecnologías 4.0 han conectado a las personas como nunca antes, permitiendo una comunicación instantánea y una mayor accesibilidad a la información. Han transformado la forma en que trabajamos, aprendemos y nos relacionamos, pero también han dado lugar a desafíos como la brecha digital, que deja atrás a aquellos que no pueden acceder o utilizar estas tecnologías de manera adecuada. Entre ellos, el Internet de las cosas (IoT) destaca como una tecnología que busca la automatización generalizada de procesos y rutinas tanto en el ámbito industrial como en el cotidiano, generando una gran cantidad de datos que exige una ciberseguridad altamente confidencial para proteger la información generada, existen diversos componentes los cuales crean la revolución industrial 4.0.
Vargas Romero Rosa Maria, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Leidy Haidy Pérez Coronell, Corporación Universitaria Latinoamericana

MACHINE LEARNING APLICADO AL SECTOR TURISMO: ANáLISIS BIBLIOMéTRICO PARA LOS AñOS 2009 A 2022


MACHINE LEARNING APLICADO AL SECTOR TURISMO: ANáLISIS BIBLIOMéTRICO PARA LOS AñOS 2009 A 2022

Vargas Romero Rosa Maria, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Leidy Haidy Pérez Coronell, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

El turismo es uno de los sectores que integra la economía mundial. Este proyecto busca predecir indicadores financieros del sector turismo a través de un análisis empírico racional. La fundamentación teórica se basa en las teorías de cálculo multivariados asociados al análisis de conglomerados proponiendo la utilización de técnicas de Machine Learning y cálculo multivariado que permitan identificar y clasificar aspectos relacionados con las empresas del sector estudiado.  



METODOLOGÍA

Se realizó un análisis bibliométrico, utilizando el R Core Team 20201-Software Bibliometrix, sobre la producción científica, autores e índex más representativos, documentos más citados y revistas, realizando un análisis de la nube de palabras clave de los 58 artículos publicados en Scopus hasta la fecha.


CONCLUSIONES

A partir del 2017 se observa incremento exponencial en el número de publicaciones relacionadas al machine learning siendo el autor más representativo Saura JR y la revista que más publica en el tema Sustainability (Switzerland) y la que tiene más citas en los últimos años Electronic Commerce Research and Applications. Este estudio identifica preguntas claves de investigación de una manera que proporciona un marco de planificación para futuras investigaciones en este campo.
Vargas Valle Jesus Alberto, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero

APLICACIóN WEB USANDO PHP, HTML, CSS Y JAVASCRIPT


APLICACIóN WEB USANDO PHP, HTML, CSS Y JAVASCRIPT

Vargas Valle Jesus Alberto, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Rene Edmundo Cuevas Valencia, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

Muchas escuelas no cuentan con un registro de información genera (números), donde el personal encargado del área de información no tiene acceso a ese conteo, dando problemas de información errónea, para el personal y a los estudiantes, porque los registros de los estudiantes y del personal fueron registrado de forma física (cuaderno y lápiz) o se guardo en otro tipo de registro (Excel como base de datos) u otra cosa. Esto dando problemas a la hora de brindar dicha información a los estudiantes o al personal, ya que algunos quieren saber cuando estudiantes hay en la escuela, cuantos son hombre y mujeres, en que grado están, si son fuera o no, tienen discapacidad, quienes, y cuantos cuentan con becas, cuantos son egresados, cuantos ingresaron en una fecha específica, etc. Por esta razón las escuelas buscan mejorar su proceso de obtener información sobre su instancia en la escuela de los estudiantes mediante la implementación de una página web con formularios electrónicos.



METODOLOGÍA

Las herramientas que ayudaran con este problema son los lenguajes de programación con uso combinado de PHP, HTML, CSS y JavaScript en el desarrollo de una página web, que permite lograr una experiencia más completa y dinámica para los usuarios. Para la obtención de la información que el usuario (personal y estudiante) quieran saber al respecto. Se sabe que PHP es un lenguaje del lado del servidor que se utiliza para realizar operaciones y manipulaciones con bases a los datos y archivos en el servidor, lo que permite el almacenamiento y recuperación de información.  Esto lo implementa todas las páginas en la actualidad en la gestión de información. Otra de las herramientas que es utilizada para el desarrollo de aplicaciones web es el HTML (HyperText Markup Language). es el lenguaje de marcado principal utilizado para definir la estructura y el contenido de una página web. Permite organizar el contenido en títulos, párrafos, listas, imágenes, enlaces, formularios, entre otros elementos, mediante las etiquetas. Otra herramienta es el CSS (Cascading Style Sheets) que se utiliza para definir el diseño y el aspecto visual de una página web creada en HTML. Que permite controlar aspectos como el color, tamaño, tipografía, disposición y distribución de los elementos en la página. JavaScript es un lenguaje de programación del lado del cliente que permite crear interacciones y comportamientos dinámicos en las páginas web. Se utiliza para realizar validaciones de formularios, animaciones, cambios en el contenido sin recargar la página, entre otros. Este mismo permite acceder y modificar el Document Object Model (DOM), que es la representación en memoria de la estructura de la página, lo que facilita la manipulación y actualización del contenido y la apariencia de la página en tiempo real. Implementado estas herramienta o tecnologías se puede lograr tener una página robusta, sostenible y bien diseñada, ayudándonos con el problema


CONCLUSIONES

En la instancia de verano se logro llevar un avance al problema planteado, lo que se logro fue dar una vista previa de los estudiantes y el personal de la escuela puedan visualizar, ya que cada una de ellos tendrá una vista previa diferente ya que cada una requiere diferente información, y esta pagina registra correctamente a las estudiantes, también a los docentes y a todo el personal con la ayuda de PHP, HTML y CSS. Esta misma página se crearon permisos de personal donde puede modificar la información de un docente o de un estudiante, ya que se puede ingresar información errónea o mal escrita, esta página también acepta documentos para guarda la información de un estudiante y del personal, en esta página se creará un administrador donde este podrá arreglar las tablas y la información de los registros ya que algunos registros son fijos y estos no se pueden modificar ni por el personal ni por los estudiantes solo el administrador y al personal autorizado, esto para que no allá ningún problemas en la hora de registra y/o actualizar los nuevos campos. Toda vía falta arreglas algunos bugs y simplificar el código ya que esto ayudará a la velocidad de la página, esto quiere decir que reducirá la carga de la página. Y los indicadores (valores numéricos) ya se pueden ver y dividirse para saber por medio numero la información de la escuela, esto quiere decir, que ya se sabe cuántos hombres, mujeres hay en la escuela, toda vía falta más indicadores, pero ya se tiene algo de información. Todavía falta hacer esto más dinámico, implantando JavaScript lo único que se implanto ocupando esta tecnología fue un buscador en tiempo real.
Varona Reyes Leonardo, Instituto Politécnico Nacional
Asesor: Dr. Natalia Betancur Granados, Corporación Universitaria Minuto de Dios

FABRICACIóN DE NANOPARTíCULAS, POR PIRóLISIS DE AEROSOL EN LLAMA: ZNAL2O4


FABRICACIóN DE NANOPARTíCULAS, POR PIRóLISIS DE AEROSOL EN LLAMA: ZNAL2O4

Varona Reyes Leonardo, Instituto Politécnico Nacional. Asesor: Dr. Natalia Betancur Granados, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

El aluminato de zinc (ZnAl2O4) es un óxido con la estructura típica de la espinela normal AB2O4. Estos polvos encuentran aplicaciones en la cerámica industrial debido a su alto rendimiento y refinamiento. El aluminato de zinc es ampliamente utilizado como catalizador, soporte catalítico y capas ópticas. Las espinelas son estructuras importantes en el desarrollo de materiales con aplicaciones industriales. Las múltiples aplicaciones se deben a la gran cantidad de cationes, generalmente elementos de transición, que ocupan sitios tetraédricos u octaédricos. El aluminato de zinc con estructura de espinela es un material interesante debido a propiedades como estabilidad térmica, alta tasa de difusión de cationes, fuerte resistencia química y alta capacidad como receptor de cationes. Con el fin de presentar un método de bajo costo y fácil aplicación para la preparación de nanomateriales, el método LF-FPS se ha mostrado como una alternativa atractiva para producir nanopolvos de óxidos metálicos mixtos. Por lo tanto, aquí se presentan los resultados de la síntesis de la estructura de espinela ZnAl2O4 a través del método no convencional de pirólisis de aerosol en llama con alimentación líquida (LF-FSP) utilizando precursores metalorgánicos de isobutirato de zinc y alumatrano. Las principales propiedades de los catalizadores son: actividad, selectividad, estabilidad, resistencia mecánica y conductividad térmica. Estas propiedades están íntimamente relacionadas con su composición y tecnología de preparación. Estas propiedades dependen principalmente de la selección de los diversos materiales y métodos de preparación (De Souto Viana et al., 2010).



METODOLOGÍA

Se utilizaron los siguientes reactivos: Carbonato de zinc básico 3Zn(OH)2·2ZnCO3 con un 59.16 %Zn de la empresa STREAM CHEMICALS, CAS 3486-35-9, fue utilizado como precursor de iones de Zn2+.   Alumatrane Al(OCH2CH2)3N sintetizado por la adición de una cantidad equimolar de aluminio tri-(sec-butoxido) gota a gota en un matraz de 5 L con trietanolamina mecánicamente agitado. El producto de reacción fue un líquido viscoso de color amarillo que es soluble en etanol.   Ácido propiónico 99% de pureza CAS 79-09-4, anhídrido isobutírico 97% de pureza CAS 97-72-3, ambos de la empresa ACROS ORGANICS y ácido isobutírico 99% de pureza CAS 79-31-2 y anhídrido propiónico de 97% de pureza CAS 123-62-6, de la empresa SIGMA-ALDRICH, los cuales fueron utilizados en la síntesis de precursores metalorgánicos.   Etanol grado industrial.   Se realizó la síntesis de la espinela ZnAl2O4 mediante el método de Pirólisis de aerosol con llama con alimentación líquida. Para ello se utilizaron las cantidades estequiométricas de los compuestos metalorgánicos isobutirato de zinc y alumatrane, los cuales fueron disueltos en etanol a una carga cerámica entre 2.5%.    Las soluciones fueron bombeadas con un atomizador ultrasónico a ~40mL/min. Para el proceso de ignición se utilizó una llama de oxímetano con una presión de oxígeno de 20 psi y 30 psi de metano, la cual alcanza una temperatura superior a 1500°C, generando la sublimación instantánea de los precursores y dando lugar a la formación de nanoparticulas cerámicas a partir de la nucleación de los gases formados. El equipo se encuentra rodeado de ventiladores que ayudan a un rápido enfriamiento de las partículas, evitando la nucleación y formación de aglomerados. Para colectar las partículas se utilizó un precipitador electrostático, seguido de la colección de las partículas de forma manual. Para su realización se utilizó la siguiente metodología: Se pesaron los compuestos metalorgánicos de partida de forma estequiométrica y se mezclaron en etanol con agitación constante hasta darse una disolución completa. En los casos en que la disolución no era efectiva se utilizó trietanolamina como agente complejante. Se bombeó la solución a través de la boquilla, a un flujo aproximado de 40mL/min, donde se dio lugar a la ignición. Se colectaron manualmente los polvos cerámicos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los métodos para la fabricación de nanopartículas sintéticas, más específicamente sobre el método FSP (Flame Spray Pyrolysis) y que tipos de nanopartículas se pueden sintetizar. Según el experimento que se realizó, los nanopolvos de ZnAl2O4 se desarrollaron mediante el método de pirólisis por aspersión de llama con alimentación líquida, utilizando precursores metalorgánicos. La pureza de las fases podría mejorarse, el análisis mostró la formación de la espinela ZnAl2O4 (93,7%) con un bajo porcentaje de ZnO (6,3%), lo que indica un exceso de isobutirato de zinc en el procedimiento experimental, sin embargo, la formación de fases está presente sin proceso de calcinación. El producto mostró morfología esférica y tamaños de partículas entre 10-40 nm, lo que indica que LF-FSP es un método adecuado para producir polvos nanocerámicos, que tiene un mercado potencial para nuevas aplicaciones industriales.
Vázquez Castrejón Flor Natividad, Universidad Autónoma de Guerrero
Asesor: Dra. Ana Beatriz Carrera Aguilar, Universidad Nacional Autónoma de México

INFRAESTRUCTURA Y COMUNIDAD: UN ANÁLISIS EN LA EX HACIENDA, EL HOSPITAL CUAUTLA, MORELOS.


INFRAESTRUCTURA Y COMUNIDAD: UN ANÁLISIS EN LA EX HACIENDA, EL HOSPITAL CUAUTLA, MORELOS.

Torres Quintana Astrid Itzel, Instituto Politécnico Nacional. Vázquez Castrejón Flor Natividad, Universidad Autónoma de Guerrero. Zamorano Nuñez Herandy Jacqueline, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Ana Beatriz Carrera Aguilar, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La Ex Hacienda El Hospital, es una comunidad ubicada a 5 kilómetros al suroeste del centro del municipio de Cuautla, Morelos, tiene una larga historia como lugar dedicado a la producción de caña de azúcar, cuya importancia ha perdurado a lo largo del tiempo. Sin embargo, en las últimas décadas, esta localidad ha enfrentado desafíos significativos en cuanto a su infraestructura debido al crecimiento demográfico experimentado en la zona. El crecimiento demográfico sin planificación ha generado problemas en el entorno urbano y el medio ambiente, que requieren atención inmediata.  



METODOLOGÍA

  Definición de objetivos  Diseño de instrumento para la  recolección de datos  Análisis de sitio - reconocimiento del lugar  Recopilación de datos  Análisis de datos  Resultados Evaluación del estado actual  Identificación de necesidades y deficiencias Propuesta de mejoramiento  Conclusiones 


CONCLUSIONES

  Tras realizar una evaluación de infraestructura y entorno urbano en la localidad de Ex Hacienda El Hospital, mediante un acercamiento directo a la comunidad a través de encuestas y entrevistas con los residentes locales, hemos obtenido resultados que nos permitieron proponer intervenciones futuras en diferentes áreas clave, como movilidad y transporte, servicios públicos, medio ambiente y equipamiento urbano. Estas intervenciones buscan transformar la Ex Hacienda El Hospital en una localidad más sostenible, funcional y con una mejor calidad de vida para sus habitantes.
Vazquez Chávez Jesús Miguel, Universidad de Guadalajara
Asesor: Dr. Clemente Guadalupe Alvarado Beltrán, Universidad Autónoma de Sinaloa

DEGRADACIóN DE COMPUESTOS COLORANTES TóXICOS CON DIóXIDO DE TITANIO SINTETIZADO CON EXTRACTOS NATURALES DE JAMAICA, MORINGA Y ESPINACA


DEGRADACIóN DE COMPUESTOS COLORANTES TóXICOS CON DIóXIDO DE TITANIO SINTETIZADO CON EXTRACTOS NATURALES DE JAMAICA, MORINGA Y ESPINACA

Lugo Quevedo David Alejandro, Universidad de Sonora. Salmerón Bastidas César Noel, Universidad Autónoma de Sinaloa. Vazquez Chávez Jesús Miguel, Universidad de Guadalajara. Asesor: Dr. Clemente Guadalupe Alvarado Beltrán, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los colorantes como el azul de metileno significan un riesgo para el medio ambiente por sus diversos efectos negativos y la lenta degradación de estos, es por esto que es importante buscar estrategias como lo es la fotocatálisis para poder eliminar estos colorantes tóxicos en nuestro entorno. La fotocatálisis es un proceso fotoquímico que transforma la energía solar en energía química en la superficie de un catalizador, que consiste en un material semiconductor que incrementa la velocidad de la reacción. Durante este proceso, se llevan a cabo tanto reacciones de oxidación como de reducción. Cuando se menciona la fotocatálisis, se hace alusión a una reacción catalítica en la que se absorbe luz por parte de un catalizador o sustrato. En el campo de la química, la fotocatálisis se refiere a la aceleración de una fotorreacción en presencia de un catalizador.



METODOLOGÍA

Partiendo del tetracloruro de titanio (TiCL4) se sintetizó dióxido de titanio (TiO2), al cual se le agregaron extractos naturales de moringa, espinaca y jamaica, para posteriormente evaporar el solvente y calcinarlo en la mufla. Con ayuda del mortero se molieron las cenizas para obtener las nanopartículas, las cuales fueron agregadas a muestras de azul de metileno para iniciar su degradación a luz directa del sol. Una vez obtenidas varias muestras de la degradación de azul de metileno en distintos lapsos de tiempo a exposición de luz, se analizaron con el equipo UV-Vis y se graficaron con el programa origin para comparar los resultados de las degradaciones de las distintas muestras.


CONCLUSIONES

La síntesis del dióxido de titanio (TiO2) fue exitosa según las caracterizaciones realizadas en UV-Vis, sin embargo, al agregar los extractos naturales solo se obtuvo resultado favorable en el caso de la jamaica debido al band gap calculado. En el caso de las degradaciones, en todos los casos se observó disminución de la concentración de azul de metileno, pero la muestra correspondiente a la jamaica fue la que obtuvo mayor eficiencia. Podemos concluir que la investigación fue un éxito al degradar azul de metileno con dióxido de titanio (TiO2​) sintetizado con extracto natural de jamaica, ya que pudimos sensibilizar las moléculas a la luz visible al disminuir el band gap, pudiendo lograr eficientemente la reacción fotocatalitica.
Vázquez Chávez Tristan Angel, Instituto Politécnico Nacional
Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima

ROBóTICA EDUCATIVA


ROBóTICA EDUCATIVA

Gordillo Hernández Isis Melissa, Instituto Politécnico Nacional. Vázquez Chávez Tristan Angel, Instituto Politécnico Nacional. Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La robótica educativa es una disciplina que utiliza la tecnología para mejorar los procesos de aprendizaje de los estudiantes. Es un hecho que la tecnología año con año se ve más envuelta en nuestra vida cotidiana, incluirla en el entorno educativo en unos años será muy común, pues los alumnos desde edades tempranas se desenvuelven en entornos relacionados a la industria, ingeniería y ciencia. La robótica educativa se engloba dentro de la llamada educación STEM (Science, Technology, Engineering and Mathematics), modelo de enseñanza destinado a enseñar conjuntamente ciencia, matemáticas y tecnología. La Educación STEM tiene presencia en diferentes áreas productivas pues incide en la esfera educativa, profesional y empresarial, y su promoción impacta directamente en el desarrollo nacional. Según estudios realizados por la OCDE (Organización para la Cooperación y el Desarrollo Económicos), el 80% de los empleos serán reemplazados por carreras STEM en 2030, y es que el mundo ha cambiado de manera radical en los últimos 20 años, todo apunta a que el avance de los cambios será aún mayor.  Incluir la robótica educativa en planes de estudio de escuelas de nivel Básico y Medio Superior, ayudará a los alumnos a superar los desafíos que presenta la cuarta revolución industrial y crecer de manera inclusiva y sostenible, impulsando así la empleabilidad de dichos alumnos en su etapa laboral.



METODOLOGÍA

Sigue-líneas con Lego Mindstorm Se usaron bloques Lego de la serie Mindstorm EV3, estos bloques están enfocados en la robótica y la programacion por medio de bloques, se usaron las piezas para armar un carro y 2 sensores de color. La programación se hizo usando el programa LEGO MINDSTORM EV3 home edition, el robot debia seguir el color negro, el codigo hacia que los sensores al dejar de detectar el color negro iba a alternar los motores de las ruedas para volver a buscar el color. Se colocó en una pista de madera con un circuito en cinta negra,  el carro siguió la línea alternando los motores para no perder el camino, el robot logró hacer el circuito. Brazo robotico Para realizar el brazo robótico se usaron servomotores y piezas de impresión 3D, una vez obtenido los modelos, estos se metieron al programa Flash Print 5 donde se visualizaron las piezas. Una vez que todas las piezas fueron impresas se procedió a ensamblar cada pieza junto los servomotores, el brazo consistió en una base rotatoria, un brazo que puede moverse hacia enfrente y hacia atrás y una pinza que puede abrirse y cerrarse, usando un total de 4 servomotores. La programación se hizo con Arduino, el programa consistió en un menú con 10 funciones: Calibración Arriba Abajo Adelante Atrás Derecha (base) Izquierda (base) Serie de movimientos Abrir pinza Cerrar pinzas En el programa se usaron las librerías Servo.h, se usó la sentencia switch para cada uno de los 10 casos, se utilizó el monitor serial para imprimir el menú y enviar las instrucciones al brazo, para cargar el código se usó una placa Arduino UNO, además se utilizó una fuente de voltaje para alimentar los servos y la placa. El código se probó y se procedió a hacerle modificaciones, como cambiar la velocidad de giro con el fin de tener un movimiento más suave y preciso. Carro controlado con guante Se usaron placas de programación ESP32, un giro sensor MPU6050, un guante, usando una baquelita se soldó el ESP 32 y el giro sensor. Se cosió  la baquelita al guante cuidando que ésta quedará firme, conectando una pila de 9 Volts y se verifica que funcionen. Se compró un kit para armar un carro. En una protoboard se conectó otra placa ESP 32 y un controlador de motores. Se usó el programa Arduino para realizar la programación del guante y el carro, el primer programa consistió en la lectura del giro sensor usando Serial plotter el cual es una gráfica en la que se muestran los movimientos al girar a cualquier ángulo en X, Y y Z. Se cargó el código al ESP 32. Para la recolección de datos se usó el software Python, en el cual se tenían cinco variables para recolectar datos: P1 (enfrente) P2 (atrás) P3 (derecha) P4 (izquierda) P5 (detenerse) En la interfaz  se podían ver los cambios al mover el sensor al igual que en las pruebas realizadas en Arduino, se elegía una variable para guardar datos y se movía el sensor dependiendo la variable, se generaron 5 archivos con los datos de cada movimiento. Una vez con los archivos de datos estos se volvieron a meter a un programa en python para generar un Dataset el cual se usará después para un entrenamiento con una red neuronal, una red neuronal es una inteligencia artificial que enseña a la computadora a procesar datos de una forma similar a los humanos. Para hacer el entrenamiento de la red neuronal se cargo el Dataset al programa de python con la red neuronal, en el entrenamiento se elige un número de Épocas que son las veces que la IA va a estar trabajando para aprender a procesar los datos, entre más épocas más precisos son los resultados pero es más lento el proceso, se usaron 10,000 épocas. Cuando se acaba el entrenamiento el programa genera, la estructura, el  procesamiento y las variables de la red neuronal. Con los datos de la red se hicieron las pruebas de esta, se cargaron los datos a un programa en arduino y se cargó el programa al guante, mediante el monitor serie el programa detectaba los movimientos del sensor y lo convertía en alguna de las 5 variables de movimiento dependiendo el ángulo. Después se obtuvieron las direcciónes MAC del guante y del carrito, para poder enviar datos de uno a otro. Después se hizo una verificación de envío de datos, se conectó una pila al guante y otras al carro, después de colocarse el guante empezarán las pruebas de control.


CONCLUSIONES

Durante la estancia de verano se logró realizar proyectos de robótica educativa, que ayudan a los alumnos a entender la programación y la robótica, tomando en cuenta que se desarrollan en un entorno de educación STEM, logrando así que los alumnos se interesen por el mundo de la ingeniería, ciencia y matemáticas.
Vazquez Garcia Kevin Alexis, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas

TIPOS DE MANTENIMIENTO APLICADOS EN LA INDUSTRIA PETROLERA.


TIPOS DE MANTENIMIENTO APLICADOS EN LA INDUSTRIA PETROLERA.

Vazquez Garcia Kevin Alexis, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

¿Cuáles son los tipos de mantenimiento que se realizan en las actividades de la industria petrolera, en Reforma Chiapas, durante el primer semestre de 2023?



METODOLOGÍA

La industria petrolera desempeña un papel fundamental en la economía de Reforma, Chiapas, y el mantenimiento adecuado de sus activos es esencial para asegurar su eficiencia y operación segura. Esta investigación se centra en analizar los resultados de una encuesta realizada a profesionales y trabajadores de la industria petrolera en Reforma, Chiapas, durante el primer semestre de 2023, con el objetivo de identificar y comprender los tipos de mantenimiento aplicados en las actividades petroleras de la región. Análisis de Datos: Tipos de Mantenimiento Identificados: Se realizará un análisis cuantitativo para identificar los tipos de mantenimiento específicos mencionados por los encuestados en sus respuestas. Se calculará la frecuencia de cada tipo de mantenimiento y se representarán en gráficos de barras para visualizar la distribución. Frecuencia y Efectividad Percibida: Se calculará la frecuencia promedio de realización de cada tipo de mantenimiento y se analizará la efectividad percibida a través de las escalas de Likert proporcionadas en la encuesta. Esto permitirá determinar la relación entre la frecuencia y la percepción de efectividad. Factores Influyentes: Se llevará a cabo un análisis cualitativo de las respuestas abiertas de los encuestados para identificar los factores que influyen en la elección de un tipo de mantenimiento en la industria petrolera en Reforma, Chiapas. Se agruparán y categorizarán estos factores para comprender las consideraciones clave en la toma de decisiones.  


CONCLUSIONES

La presente investigación ha arrojado luz sobre los tipos de mantenimiento aplicados en la industria petrolera en Reforma, Chiapas, durante el primer semestre de 2023. A través del análisis de los datos recopilados de profesionales y trabajadores de la industria, se ha logrado una comprensión más profunda de las prácticas de mantenimiento que sustentan el funcionamiento eficiente y seguro de las operaciones petroleras en esta región.   Identificación de Tipos de Mantenimiento: Los resultados del análisis revelan una diversidad de tipos de mantenimiento implementados en la industria petrolera de Reforma, Chiapas. Entre estos tipos, el mantenimiento preventivo y el correctivo emergen como los más comunes, indicando una estrategia dual para mantener y mejorar las operaciones. El mantenimiento predictivo también ha sido mencionado, aunque con menor frecuencia, lo que sugiere un enfoque progresivo hacia la implementación de técnicas más avanzadas. Frecuencia y Efectividad Percibida: Se ha observado que el mantenimiento preventivo se lleva a cabo con mayor frecuencia en comparación con otros tipos. Esta preferencia podría estar influenciada por la percepción generalizada de su efectividad en la reducción de fallas y la prolongación de la vida útil de los equipos. Sin embargo, es importante señalar que el mantenimiento correctivo también desempeña un papel significativo, probablemente en situaciones donde la respuesta inmediata es esencial para evitar interrupciones costosas. Factores Influyentes: Las respuestas proporcionadas por los encuestados han resaltado varios factores clave que influyen en la elección de un tipo de mantenimiento. La disponibilidad de recursos, la criticidad de los activos y la planificación operativa han demostrado ser consideraciones importantes. Estos hallazgos refuerzan la necesidad de un enfoque equilibrado que tenga en cuenta tanto la efectividad como la eficiencia en la gestión del mantenimiento. En resumen, esta investigación ha arrojado luz sobre la diversidad de enfoques de mantenimiento adoptados en la industria petrolera de Reforma, Chiapas. La combinación de mantenimiento preventivo y correctivo, respaldada por técnicas predictivas emergentes, refleja una estrategia integral para abordar los desafíos operativos y mantener la continuidad de las operaciones. Los factores influyentes destacan la importancia de la gestión de recursos y la planificación estratégica en la toma de decisiones de mantenimiento.
Vázquez Gómez María Fernanda, Instituto Tecnológico de Pachuca
Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa

ANáLISIS DE LA APLICACIóN DE METODOLOGíA SMED PARA REDUCIR TIEMPOS EN PROCESO DE PINTURA


ANáLISIS DE LA APLICACIóN DE METODOLOGíA SMED PARA REDUCIR TIEMPOS EN PROCESO DE PINTURA

Camargo Juarez Zayra Aline, Instituto Tecnológico de Pachuca. Vázquez Gómez María Fernanda, Instituto Tecnológico de Pachuca. Asesor: Mg. Alexander Troncoso Palacio, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Actualmente las empresas se deben volver más eficientes debido a la alta competencia, por ello, el modelo Lean Manufacturing busca herramientas y metodologías que las hagan más competitivas. La empresa Templado S.A. ha presentado un problema en cuanto a su proceso de cambio de formato de pintura en la cabina de pintura, arrojando 50 min en el tiempo de esta actividad, con 36 actividades internas y 3 externas y por medio de esta investigación se buscó darle solución, basados en un cambio eficiente y rápido de herramientas o modelo de fabricación a través de la metodología SMED, con el objetivo de que esta actividad sólo tome 30 min.



METODOLOGÍA

Este proceso se basó en un road map de seis pasos, los cuales, los primeros tres se encargan de recopilar, organizar y analizar información del proceso para posteriormente definir un nuevo método que elimine actividades innecesarias y transforme actividades internas en externas.  Los siguientes tres pasos son réplicas del nuevo método, los resultados que estas emiten servirán para verificar si las correcciones empleadas son óptimas. 


CONCLUSIONES

La primera réplica con una reducción del 52.7% de actividades internas, un incremento de 14 actividades externas y eliminación de 3 actividades, arrojó una disminución en el tiempo del 18.75%. La segunda réplica con una reducción a 9 actividades internas y eliminación de 13 actividades, nos dio un total de 45 min. Como se puede deducir con base en los resultados, el modelo de la réplica uno fue el más próximo en alcanzar la meta de este proyecto.
Vazquez Guevara Jose Angel, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar

EVALUACION EXPERIMENTAL DEL APROVECHAMIENTO DE ENERGIA UNDIMOTRIZ EN UN TANQUE DE OLAS CON UN PROTOTIPO BASCULANTE FLOTANTE.


EVALUACION EXPERIMENTAL DEL APROVECHAMIENTO DE ENERGIA UNDIMOTRIZ EN UN TANQUE DE OLAS CON UN PROTOTIPO BASCULANTE FLOTANTE.

Calixto Ramírez Omar, Universidad Tecnológica de Tecamachalco. Vazquez Guevara Jose Angel, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar



PLANTEAMIENTO DEL PROBLEMA

Diseñar y construir un prototipo undimotriz flotante, basculante a escala y medir su aprovechamiento energetico experimentalmente (en el tanque de olas del laboratorio de naval de la UTB) y compararlo con los resultados predichos por el análisis .



METODOLOGÍA

Se hace el diseño CAD del prototipo siguiendo criterios geométricos y los principios de la dinámica, para obtener un prototipo flotante, basculante a escala, que aproveche el movimiento de las olas para generar rotacion mecánica en el eje del moto-generador. Se utiliza la teoria básica de modelos de olas para predecir la energia disponible. Las mediciones son hechas de forma optica con un generador de olas de manivela-oscilador.


CONCLUSIONES

Se desarrollo un modelo de prototipo que cumpla con las expectativas de aprovechamiento de ahorro de energía mediante la implementación de energía undimotriz, el cual tiene como requisitos que tenga un diseño eficiente, practico y que pueda ser una propuesta de mejora para el ahorro energetico.
Vazquez Hernandez Yasbeth Anastacia, Instituto Tecnológico de Colima
Asesor: Ing. Adriana Marcela Guerrero Vaca, Instituto Tecnológico de Colima

PROPUESTA DE UNA ESTRATEGIA DE DIFUSIóN DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICAS DE LA INDUSTRIA 4.0


PROPUESTA DE UNA ESTRATEGIA DE DIFUSIóN DE CONTENIDO DIGITAL CON LAS HERRAMIENTAS TECNOLóGICAS DE LA INDUSTRIA 4.0

Vazquez Hernandez Yasbeth Anastacia, Instituto Tecnológico de Colima. Asesor: Ing. Adriana Marcela Guerrero Vaca, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual, las instituciones públicas de nivel superior enfrentan desafíos significativos en cuanto a la difusión de su oferta educativa y servicios a través de medios digitales. La industria y educación 4.0 han traído consigo una revolución digital que ha transformado el paradigma educativo. Los estudiantes digitales buscan experiencias de aprendizaje más interactivas y personalizadas, lo que exige una adaptación efectiva por parte de las instituciones educativas. Sin embargo, a pesar de las oportunidades que ofrece la industria 4.0 en el ámbito educativo, muchas instituciones públicas de nivel superior aún no han logrado aprovechar completamente sus ventajas en la estrategia de difusión de contenido digital. Existen varios obstáculos que dificultan esta implementación. El primer problema es la falta de adaptación a las preferencias y demandas de los estudiantes digitales. Aunque la tecnología está disponible, muchas instituciones no han implementado adecuadamente herramientas como la inteligencia artificial, realidad aumentada o comunidades de práctica, que podrían mejorar la experiencia de los estudiantes y captar su atención de manera más efectiva. El segundo problema está relacionado con la competencia en el mercado educativo. La digitalización ha ampliado la oferta de educación en línea y otras alternativas, lo que compite directamente con las instituciones públicas de nivel superior. Sin una estrategia de difusión adecuada y el uso de tecnologías avanzadas, estas instituciones corren el riesgo de perder su posición competitiva y, por lo tanto, su sostenibilidad financiera. El tercer problema se centra en la optimización de recursos. Las instituciones públicas de nivel superior, en muchas ocasiones, tienen limitaciones presupuestarias, por lo que es crucial utilizar eficientemente los recursos destinados a la comunicación y difusión de la oferta educativa. El no emplear herramientas tecnológicas de la industria 4.0 de manera eficiente puede llevar a un gasto innecesario y tener menos impacto en el público objetivo. Ante estos desafíos, es esencial plantear una investigación que aborde la siguiente pregunta: ¿Cómo pueden las instituciones públicas de nivel superior aprovechar las herramientas tecnológicas de la industria 4.0 en su estrategia de difusión de contenido digital para mejorar la comunicación con los estudiantes digitales, destacar en el mercado educativo y optimizar los recursos destinados a la promoción de su oferta educativa?



METODOLOGÍA

La investigación propuesta tiene un enfoque cualitativo con un alcance correlacional. Su objetivo principal es identificar los canales de comunicación utilizados por los estudiantes para informarse sobre la oferta educativa y recopilar información relevante para la toma de decisiones en la creación de contenidos digitales y selección de herramientas eficaces de la industria 4.0. La metodología se basa en la aplicación de una encuesta digital al estudiantado del Instituto Tecnológico de Colima durante el periodo Enero - Junio 2023. Los datos recopilados se someterán a un análisis e interpretación detallados para obtener resultados significativos. Se consideraron como variables independientes los canales de comunicación y las características sociodemográficas del público objetivo. Conocer los canales más utilizados y los intereses de los estudiantes permitirá diseñar una estrategia de difusión efectiva y personalizada. Las variables dependientes incluyen las herramientas tecnológicas de la industria 4.0 y las estrategias de difusión de contenido digital. La implementación de tecnologías como el cloud computing y los chatbots, así como las estrategias de difusión adecuadas aumentará el alcance de la oferta educativa.  


CONCLUSIONES

En conclusión, la captación de nuevos usuarios en una institución mediante el uso de herramientas tecnológicas de la Industria 4.0 puede ser una estrategia altamente efectiva y ventajosa. Además, las herramientas de la Industria 4.0 permiten la implementación de estrategias más precisas y efectivas. Mediante el uso de plataformas digitales, redes sociales, por lo que la institución puede llegar a una audiencia más amplia y específica, generando un mayor impacto; estas estrategias son las propuestas que se han estado generando en la inestigación para poder difundir la información ampliamente.  El realizar estas acciones proporciona una ventaja competitiva significativa a la institución, además, es fundamental mantenerse actualizado con las últimas tendencias tecnológicas y adaptarse a las necesidades cambiantes de los usuarios para lograr un crecimiento.
Vazquez Maldonado Paola, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Prfnal. Jaime Alberto Franco Osorio, Servicio Nacional de Aprendizaje SENA - Regional Caldas

DISEñO DE UNA PLATAFORMA TECNOLóGICA DE COMPRA VENTA DE PRODUCTOS AGROPECUARIOS Y PROCESADOS PARA EL SECTOR HORECA EN EL EJE CAFETERO


DISEñO DE UNA PLATAFORMA TECNOLóGICA DE COMPRA VENTA DE PRODUCTOS AGROPECUARIOS Y PROCESADOS PARA EL SECTOR HORECA EN EL EJE CAFETERO

Vazquez Maldonado Paola, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Prfnal. Jaime Alberto Franco Osorio, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Debido a las diferentes situaciones como pandemia y paros económicos en Colombia, las economías locales, de productores y empresarios del sector HORECA se han visto afectadas por sus bajo consumo, pero además de ello, muchos empresarios y productores han cerrado sus emprendimientos, y otros se han quedado sin sus proveedores de siempre. Por ello, se ha detectado desconocimiento de proveedores cercanos o locales de alimentos y demás productos por parte de empresarios del sector HORECA, así como los productores de alimentos del agro, y  productos procesados, también han detectado que no tienen gran mercado, por lo cual  deben vender sus productos a precios muy bajos a intermediarios que si se llevan buena parte de las ganancias.



METODOLOGÍA

La metodología trazada, es cuantitativa, pues se basará en análisis numéricos, de encuestas realizadas al sector HORECA y a los proveedores del sector, y luego de su análisis estadístico, se iniciará con la programación de la herramienta, que satisfaga las necesidades de los sectores, expuestas en las respuestas. El proyecto se ha ido y se seguirá desarrollando en las siguientes tres fases:  Análisis: Se recopiló información y se iniciaron  reuniones presenciales y virtuales, para conocer de primera mano las necesidades de la herramienta a desarrollar. Esta primera fase es una de las que permanece y seguirá permaneciendo para el desarrollo de dicha herramienta puesto que al ser un software necesita cambios y modificaciones cada determinado tiempo, así como el análisis de su funcionamiento, impacto y aceptación dentro del mercado al que va dirigido es decir el sector HORECA (hoteles, restaurantes, cafeterías). Diseño: Se elaboró el diseño de la herramienta tecnológica que permitirá interactuar a empresarios y proveedores del sector HORECA en el eje cafetero Esta fase implicó el formar acuerdos para poder definir la manera en la que debería desarrollarse de modo que esta logre generar el impacto esperado así como los objetivos planteados, todo esto fue desde el detectar el mercado al que iría dirigido, el definir el concepto a manejar dentro de este, el generar diferentes pruebas hasta llegar a la que a todo el equipo le convenciera y por supuesto está en seguimiento el terminar de crearla, presentarla y ponerla a prueba. Implementación: Corresponde al componente practico de la puesta en marcha del proyecto con proveedores y empresarios del sector HORECA, con el fin de sensibilizar sobre los beneficios del programa de compras locales y el KM0. Se registrarán los interesados a participar del programa en una gran base de datos, estará presente la comunicación constante entre proveedor – cliente para definir factores como capacitaciones, diseños de productos, eventos a realizar, necesidades de proveedores o de buscar compradores, entre otras. por otra parte de evaluará el impacto de la herramienta propuesta por medio de indicadores económicos, ambientales y de satisfacción en conjunto con FENALCO (Federación Nacional de Comerciantes) puesto que dicha organización ha confiado en el proyecto debido a que esta busca el desarrollo del comercio, a través de la eficiencia y modernización de los empresarios.


CONCLUSIONES

En el transcurso de la estancia de verano se pudo adquirir conocimientos teóricos acera de Km0 así como de slow food esto con el fin de adaptarlos a un concepto dentro de la aplicación Remesalclic la cual es con la que se está trabajando en dicho proyecto,  si bien el poder generar dicha herramienta lleva tiempo y constantes modificaciones se llegó a la fase de presentarla a diferentes personas que conforman el sector HORECA dentro del eje cafetero de Colombia esto con el fin de dar a conocer no solo la plataforma sino también el obtener bases de datos y comenzar a generar contactos directos entre el cliente y proveedor. El proyecto espera generar un impacto a corto, mediano y largo  plazo. Su impacto será inmediato, porque desde el momento en que se registrarán los comerciantes en el programa y en la plataforma, se harán los negocios y monetizaran su participación en el proyecto. Al tener a un aliado como FENALCO, que puede seguir administrando dicha herramienta, se asegura su funcionamiento con la posibilidad de seguir mejorando el diseño inicial, llegando a más productores, empresarios o más programas de capacitación y  eventos.
Vazquez Mendez Lizeth Jackeline, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

RIESGO ACCIDENTE MOVILIDAD CICLISTA (RAMCI)


RIESGO ACCIDENTE MOVILIDAD CICLISTA (RAMCI)

Aviles Alvarado Manuel, Instituto Tecnológico de Morelia. García Sandoval Jesús Mario, Instituto Tecnológico Superior de Cajeme. Vazquez Mendez Lizeth Jackeline, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea el desarrollo de una plataforma, con base en algoritmos y técnicas de inteligencia artificial, donde el usuario pueda visualizar la clasificación del riesgo, resultado de un proceso de investigación y análisis que abarca desde la recolección de información de distintas bases de datos de instituciones dedicadas a recolectar información en donde ciclistas fueron parte de accidentes.



METODOLOGÍA

Desarrollar e implementar la plataforma inteligente de predicción de la severidad de accidentes de movilidad  ciclistas en tiempo real.  Para ello se definieron los siguientes fases: generación del dataset (homologación, variable de tráfico por vialidad, variable de tráfico de zona), predicción de severidad (selección de variables, pruebas de concepto con modelos de machine learning, codificación y pruebas de algoritmos en Python) e implementación de la plataforma.    


CONCLUSIONES

A la finalización del proyecto se destacan los siguientes puntos:  Se creó una plataforma web con base en inteligencia artificial (con aproximadamente 2 mil líneas de código en python). Se creó la arquitectura software (con aproximadamente 20 diagramas de planos arquitectónicos). Se creó la wiki del proyecto. Se crearon 7 repositorios. Se creó 2 la variables de flujo de tráfico. Como resultado, en la plataforma se pueden visualizar tres mapas distintos: mapa basado en los datos de la infraestructura de la ciudad para el uso de las bicicletas como medio de transporte; mapa con datos dinámicos respecto al día, la hora y el tráfico de la ciudad junto con los datos de infraestructura; y mapa con datos dinámicos personalizables según el usuario, tomando en cuenta su edad, sexo y los otros tipo de vehículos que circulan.
Vázquez Mora Jimena, Instituto Tecnológico de Tepic
Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla

DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA


DIGITALIZACIóN, SIMULACIóN VIRTUAL, FABRICACIóN DIGITAL E IMPLEMENTACIóN DE IA EN LA ENSEñANZA/APRENDIZAJE DE LA ARQUITECTURA

Rivera Rojas Karen Arlet, Benemérita Universidad Autónoma de Puebla. Vázquez Mora Jimena, Instituto Tecnológico de Tepic. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La fabricación digital y la IA no son tema nuevo, sin embargo, hay pocas personas que consideran obtener esas habilidades para su desarrollo profesional, la existencia de herramientas como la fotogrametría, la realidad virtual, el corte laser y la impresión 3D es desaprovechada si no se tiene a alguien con el conocimiento para manipularlas hacia el enfoque que requiera cada área. El objetivo dentro del programa delfín fue realizar practicas para el dominio total o parcial de estas herramientas de software y hardware que rigen las tecnologías de la fabricación digital y sobre todo encontrar sus aplicaciones en el área de la arquitectura desarrollando pequeños proyectos con este enfoque, ya fuese recreativo o funcional.



METODOLOGÍA

La primera actividad trabajada fue la fotogrametría en el software 3DF Zephyr. Esta aplicación permitió obtener un modelo 3D de un objeto real a partir de fotografías tomadas de distintos puntos al objeto. Finalmente, el modelo se puede exportar en distintos formatos para trabajarlo según se necesite. Se aprendió que para obtener el modelo se necesitan mínimo alrededor de 40 fotografías y preferentemente estas se deben de tomar de forma paralela axial al objeto, en un lugar que no proyecte sombras, para este caso fue útil que estuviese nublado en la ciudad. En el segundo ejercicio se practicó tomando fotos de objetos pequeños y fue aquí donde se conocieron los parámetros necesarios gracias a la prueba y error, y con esta experiencia para el último ejercicio se trató de captar una fachada colonial del centro histórico y pasarlo a modelo 3D. Se optó por la del palacio municipal ya que se ubica en esquina y tiene molduras interesantes. Para capturar se tuvo la idea de programar una ráfaga de 100 fotografías y dar un paso alrededor cada segundo para conseguir los ángulos suficientes, fue una opción muy eficiente pero se concluyó que las herramientas que más pudieron ayudar era un estabilizador o incluso un dron. Aun con este simple método se consiguió un modelo 3D.  Los detalles no son perfectos, esto por el desbalance en las fotografías y el desenfoque de varias de estas, pero este error se puede corregir utilizando mejor tecnología de captura. De igual forma como solo se contaba con fotografías frontales la cúpula no se alcanzó a modelar bien, para esto harían falta fotografías aéreas, aunque otra forma de resolverlo es pasando el modelo a un programa de modelado y completar la estructura. Después pasamos a la realidad virtual y el primer paso fue conocer el software con el que se trabajaría para usar las gafas RV Oculus. Se aprendió a hacer la calibración desde cero de las gafas y los controles para posteriormente controlar el manejo de estas en un recorrido ya existente y una aplicación para dibujo simple.  Posterior a la introducción se tomó un modelo 3D de un proyecto que previamente se había trabajado en el programa sketchup y texturizado en enscape este último brinda la oportunidad de ver el modelo en RV, así cada integrante pudo hacer un recorrido en las instalaciones del proyecto de forma virtual,  aunque la interacción es un poco limitada se caminar por los espacios libremente. La tercera etapa consistió en el manejo del software Slicer en el cual se puede obtener el archivo de planos para el ensamblaje de un modelo 3D ya sea en corte láser u origami, para esa practica se tomó uno de los objetos que se habían modelado con fotogrametría, después se trabajo en la aplicación de la cortadora donde se ajusta la hoja con los planos, finalmente se obtuvieron los cortes en el MDF para su ensamblaje. Por último, se trabajó con la impresión 3D por resina con LycheeSlicer con un modelo en formato STL para la práctica. Se aprendió a preparar desde el software los parámetros para enviar una impresión, la configuración de los bastones y del objeto en si, así como un poco del funcionamiento de la impresora para comprender cual debería ser el mejor manejo que se le puede dar y en que ocasiones es más conveniente que una de filamento, también se practicó como preparar la impresora al inicio y final de cada proyecto. Paralelo a todas estas actividades se indagó sobre la inteligencia artifical y las diferentes plataformas que se ofrecen de forma gratuita para trabajar imagenes u otros elementos que puedan apoyar la labor arquitectonica.      


CONCLUSIONES

Con las actividades trabajadas concluimos algunas aplicaciones para el área de la arquitectura. Empezando por la fotogrametría que extiende las oportunidades del modelado 3D ya que nos permite colocar objetos ya existentes sin necesidad de modelar de cero lo que en muchas ocasiones es necesario porque hay elementos que no se encuentran en internet. La herramienta de la realidad virtual brinda la opción de ofrecerle un recorrido más real a un cliente y no solo se limita a eso ya que también sirve al arquitecto para conocer mejor su propio proyecto y revisar si es habitable o hay detalles que corregir analizándolo de forma más realista. Finalmente, el corte laser e impresión 3D tienen aplicación en la materialización del proyecto, no se debe quedar en solo maquetas, se puede aplicar a gran escala, imprimiendo elementos decorativos o moldes para elementos estructurales personalizados para cada proyecto. La IA forma parte de diferentes software utilizados en la arquitectura, aun así hay diversas plataformas que permiten generar imágenes, cálculos y distribuciones de manera rápida, esto puede agilizar el trabajo del arquitecto en algunas de sus tareas que realiza.
Vazquez Moreno Diego Efrain, Instituto Tecnológico de Tepic
Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia

REALIZACIóN DE PROTOTIPO PARA ESCANEO DE FISIOLOGíA HUMANA POR FOTOMETRíA


REALIZACIóN DE PROTOTIPO PARA ESCANEO DE FISIOLOGíA HUMANA POR FOTOMETRíA

Vazquez Moreno Diego Efrain, Instituto Tecnológico de Tepic. Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La diplejía espástica o parálisis cerebral espástica es aquel diagnostico que ha usado en niños que presentan alteraciones motoras principalmente en las dos piernas, algunas de estas alteraciones van desde dificultades para caminar debido a la rigidez sus músculos de la cadera y piernas que hacen que estas se junten, roten hacia adentro y se crucen en la parte de las rodillas lo que provoca que caminen con las piernas juntas. En México de acuerdo a los datos del Instituto Nacional de Estadística y Geografía (INEGI), alrededor de 7.7 millones de personas se encuentran en una situación de alguna discapacidad, de ellos, se estima que 770 mil personas tienen algún diagnóstico de parálisis cerebral infantil. La problemática que se presenta en niños con diplejía es la dificultad para caminar es por ello que durante el verano de investigación se realizara un prototipo para escaneo de fisiología humana por fotometría para la ayuda en el escaneo de niños con esta discapacidad sin necesidad de traslados y en la facilidad de la realización de prótesis una vez escaneado.



METODOLOGÍA

El comienzo para llevar a cabo el proyecto de la estancia de investigación inicia con la introducción autodidacta enfocada a los sistemas de diseño mecánico, programación e impresión de piezas en 3D, investigación sobre el funcionamiento de drivers para motores a pasos y funcionamiento de motores a pasos, así como la visualización de videos para entender el funcionamiento de estos. Una vez recabado todo lo necesario para el proyecto, se utilizó un motor a pasos modelo STP-42D213, un módulo controlador de motores (driver) L298N, una placa arduino UNO, dos botones switch, dos resistencias de 1kilo ohm y un potenciómetro de 10 kilo ohm. Para la realización de las actividades primeramente se realizó la investigación sobre el funcionamiento del driver L298N. Posteriormente se realizó la conexión del driver al arduino así como la alimentación del driver. Ya realizada la conexión del driver se realizó un programa para que el motor a pasos funcionara de manera correcta y realizando las acciones de paro y arranque, sentido de giro y control de velocidad. Después de haber hecho el programa para el control del motor, se seleccionó la cámara a utilizar para el escaneo siendo este un Kinect del Xbox 360, posteriormente se realizó el armado de la estructura en donde se montaría el motor a pasos y el escáner y finalmente se diseñó en solidworks una base para la implementación del escáner en el motor a pasos y este pudiera cumplir con las funciones del programa anteriormente realizado (paro y arranque, sentido de giro y control de velocidad) para que este escanee de manera correcta y controlado por una persona. Una vez hecho el diseño se imprimió en 3D en material PLA e una impresora de la marca ender, ya impresas las piezas en 3D se armó la base y se comprobó que todo haya quedado correcto.


CONCLUSIONES

En esta estancia de investigación se logró adquirir nuevos conocimientos de los motores a pasos, drivers, programación, diseño e impresión en 3D debido a ello, se pusieron en práctica estos conocimientos para llevar a cabo la realización de un prototipo para escaneo de fisiología humana por fotometría, sin embargo, al ser un prototipo, este requiere de mejoras.
Vazquez Navarro Lucia Vanessa, Universidad Autónoma de Sinaloa
Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa

ESTUDIO DE NANOMATERIALES DE ZNS EN MATRIZ DE ZEOLITA CON POTENCIAL USO EN LA ELIMINACIóN DE COLORANTES CONTAMINANTE.


ESTUDIO DE NANOMATERIALES DE ZNS EN MATRIZ DE ZEOLITA CON POTENCIAL USO EN LA ELIMINACIóN DE COLORANTES CONTAMINANTE.

Vazquez Navarro Lucia Vanessa, Universidad Autónoma de Sinaloa. Asesor: Dr. Joaquín Flores Valenzuela, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Esta investigación surgio debido a que observamos los altas cantidades de colorantes contaminantes que existen en el medio ambiente, en especial en el agua. Por ello es posible utilizar alternativas para su eliminación por medio de la fotocatalisis.



METODOLOGÍA

Al iniciar el experimento el profesor nos indico como se deben registrar los datos adecuadamnete en la bitacora de laboratorio. Despues procedimos a limpiar todo el equipo y los utensilios que necesitaremos en la realización de la experimentación. Empezamos la experimentación se procedió a calcular las cantidades que se necesitarán de Sulfato de Zinc (ZnS) en cinco diferentes concentraciones  para cinco gramos de zeolita tipo A. Para preparar las muestras empezamos pesando 5 muestras de 5 gr de zeolita tipo A, despues procedemos a hidratarla en 50 ml de agua des-hionizada, para despues pesar la cantidad de de zinc que necesitaremos y se procedio a hidratarla  de la misma forma que la zeolita. Ambas se dejan hidratando minimamente por 24 horas. Pasando las 24 horas pasamos las muestras al equipo de termo baño, donde regulamos la temperatura a 50° C que es la ideal para que el experimento resulte de forma satisfactoria. Cuando las muestras alcanzan la temperatura indicada  se coloca en la zeolita  un agitador magnetico y le añadimos el zinc en forma de goteo continuo, despues de terminar la solución de Zinc, la muestra se deja en el termo baño por 25 minutos. Despues de terminar el tiempo de mezclado, la muestra pasa a un filtro, donde una vez filtrada la muestra se le dará dos lavados de agua deshionizada y se volvera a hidratar con 75 ml de agua des-ionizada y se volvera a dejar por 24 horas en reposo. El paso siguiente es calcular la cantidad de sulfato que necesitaremos en estas muestras y lo pesaremos para dejarla remojando con 50 ml de agua des-ionizada por 24 horas. A continuación se llevara el proceso de mezclado de la misma manera que la vez anterior pero en lugar de Zn se le cambiara por Sulfato (S) ya que el Zn esta agregado en la mezcla de zeolita, y de esta forma tengremos zeolita con ZnS.  Esta mezcla tambien se pasara a al filtro, pero esta vez recolectaremos la muestra y la etiquetaremos. De estas muestras salgran nanoparticulas de Zns en la matriz de la zeolta tipo A


CONCLUSIONES

Una vez terminadas las muestras se busca obtener nanoparticulas de Zns en la matriz de la zeolita tipo A, de esta forma buscaremos funciones para su aplicación.
Vázquez Núñez Lady Jasit, Instituto Tecnológico de Morelia
Asesor: Dra. Tania Méndez Romero, Instituto Tecnológico de Morelia

CARACTERIZACIóN FISICOQUíMICA DE RESIDUOS MADEREROS PARA LA PRODUCCIóN DE UN BIOCOMBUSTIBLE SóLIDO.


CARACTERIZACIóN FISICOQUíMICA DE RESIDUOS MADEREROS PARA LA PRODUCCIóN DE UN BIOCOMBUSTIBLE SóLIDO.

Vázquez Núñez Lady Jasit, Instituto Tecnológico de Morelia. Zamudio Hernández José Joel, Instituto Tecnológico del Valle de Morelia. Asesor: Dra. Tania Méndez Romero, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

El uso de biocombustibles ha sido promovido como una alternativa más sostenible a los combustibles fósiles, sin embargo, plantea desafíos importantes en relación con el impacto ambiental y la competencia con la producción de alimentos.  Uno de los problemas es el dilema entre el uso de tierras para la producción de biocombustibles y la producción de alimentos. La expansión de cultivos destinados a biocombustibles puede llevar a la deforestación y a la conversión de tierras agrícolas para uso energético, lo que puede reducir la disponibilidad de tierras para cultivos alimentarios y afectar la seguridad alimentaria en diversas regiones.  Además, algunos biocombustibles producidos a partir de cultivos agrícolas pueden tener un alto impacto ambiental debido a la intensificación del uso de agroquímicos y la demanda de agua, lo que puede llevar a la degradación de ecosistemas y la pérdida de biodiversidad.  En resumen, la importancia de los biocombustibles como una alternativa más sostenible a los combustibles fósiles está sujeta a un equilibrio delicado entre la producción de energía, la seguridad alimentaria y la preservación ambiental. Abordar estos desafíos de manera efectiva es esencial para maximizar los beneficios de los biocombustibles y minimizar sus impactos negativos en el medio ambiente y la sociedad. 



METODOLOGÍA

Acondicionamiento del aserrín: molienda y tamizado Reducimos el tamaño de aproximadamente 1kg de aserrín en un molino manual, ya que el molino eléctrico no reducía el tamaño del aserrín considerablemente.  Se analizo el tamaño obtenido, y se optó que con una molienda era suficiente para el tamaño de partícula que se necesita.  Se monto la torre de tamices cuya malla son de; 10, 18, 60, 120 y la base o pan, se realizó el proceso de clasificación. Determinación de la humedad relativa  En la estufa se colocó aserrín en dos crisoles con un peso de 3.014g y 3.022g, los crisoles se introdujeron primero en un desecador antes de utilizarlos para eliminar cualquier humedad que pueda afectar el resultado final.   Se introdujeron a la estufa a 107-121 °C hasta alcanzar un peso constante, con un tiempo de 30 minutos.  El peso del aserrín paso a 2.817g y 2.79g, respectivamente.  Comparar el contenido de humedad con el obtenido en la técnica con la estufa.  Determinación de la composición química de los residuos madereros:  Determinación de humedad   Se pesaron 4 crisoles vacíos y después se les agregó a cada uno aserrín malla 60.  Se introdujeron en la estufa a 105°C por 24 h.  Ya una vez pasado el tiempo se sacaron de la estufa y se colocaron en el desecador por 15 minutos.  Se pesaron, se tomaron los datos y se volvieron a colocar en el desecador. (Este paso se repitió unas 5 veces), hasta que el peso fue constante.  Se realizaron los respectivos cálculos, con base a la fórmula de humedad.  Hidrólisis ácida cuantitativa   Este trabajo se realizó a escala laboratorio, el proceso de obtención de azúcares reductores fue por medio de la hidrólisis ácida del aserrín, utilizando ácido sulfúrico diluido en condiciones de ebullición a reflujo y a presión atmosférica con el propósito de alcanzar una elevada conversión del aserrín a azúcares reductores.  Se preparó dos soluciones de ácido sulfúrico (H2SO4.) al 42 % y otra al 72 %.  En 6 tubos de ensaye con rosca se colocaron 0.5 g de aserrín.  Se hizo una dilución del 87.34 ml con agua destilada, se añadió en los tubos de ensaye con aserrín y se agitaron constantemente.  Se llevaron a baño maría hasta alcanzar la temperatura deseable.  Una vez sacado los tubos de ensaye del baño maría se colocaron en los 6 matraces previamente acondicionados cuidadosamente.  Se llevaron a refrigeración por 24 h, etiquetados y rotulados.  Pasado el tiempo se sacaron de refrigeración y se esperó unos minutos para posteriormente llevar 4 matraces a la autoclave a una presión de 0.16 mpa con una temperatura de 124 °C por 20 minutos.  Otro matraz se llevó a baño maría y el otro matraz se filtró sin pasar por ninguna otra operación.  Ya obtenidos los 6 matraces se filtraron con ayuda de un embudo y papel filtro y se llevaron a la estufa por 24 h.  Al día siguiente se sacaron de la estufa, se pesaron y se observó su coloración.  Se metieron al desecador y se dejaron por un lapso de 24 h.  Una vez que el tiempo paso, se sacaron y pesaron y se determinó la humedad que resultó para calcular los resultados obtenidos. 


CONCLUSIONES

Durante la estadía del programa DELFÍN se obtuvieron adquirir nuevos conocimientos teóricos y estos se llevaron a la práctica de revalorizar un residuo, tales como la obtención de humedad y cenizas del aserrín, y los resultados arrojaron que el aserrín tiene una muy buena cantidad de humedad para poder fabricar subproductos, en este caso para la elaboración de briquetas de aserrín. Además de ello, se hizo el análisis para la obtención de materiales lignocelulósicos, tales como la lignina, hemicelulosa y celulosa del aserrín, que a mayor contenido de lignina y bajo contenido de hemicelulosa y celulosa, es lo que potencializa a utilizar residuos madereros para la producción de biocombustibles de tipo sólidos.  Como resultado se obtuvo mayor cantidad de lignina y en menor proporción celulosa y hemicelulosa, sin embargo, no se descarta que en el futuro se pueda realizar el método de DNS el cual es una técnica colorimétrica que emplea un procedimiento que se basa en una reacción redox que ocurre entre el DNS y los azúcares reductores presentes en la muestra, seguido de la determinación espectro fotométrica a 540nm de los azucares reductores, entonces este metodo nos ayudaria a determinar cuantos azucares estan presentes en el aserrin a utilizar.  Es importante mencionar que con esta experimentación e investigación se espera que la fabricación de briquetas logre reducir la contaminación y así mismo tener reducción de residuos que se generan en los procesos madereros.  
Vázquez Padilla Anahí Montserrat, Universidad de Guadalajara
Asesor: M.C. Agustín Jaime Navarro, Universidad Tecnológica de Nayarit

PROPUESTA PARA LA MICRO GENERACIóN DE ENERGíA ELéCTRICA EN EL RíO “EL NARANJO” DE SANTA CRUZ DE MIRAMAR, SAN BLAS, NAYARIT.


PROPUESTA PARA LA MICRO GENERACIóN DE ENERGíA ELéCTRICA EN EL RíO “EL NARANJO” DE SANTA CRUZ DE MIRAMAR, SAN BLAS, NAYARIT.

Padilla Sandoval Valeria, Universidad de Guadalajara. Vázquez Padilla Anahí Montserrat, Universidad de Guadalajara. Asesor: M.C. Agustín Jaime Navarro, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Durante el verano de 2023 se desarrolló en la Universidad Tecnológica de Nayarit (UTN) una investigación perteneciente a la línea de Energía asequible y no contaminante, siendo este viable para la producción de energía limpia y gratuita para la población de Santa Cruz de Miramar, San Blas, Nayarit, México, aportando generación eléctrica que se requiere para el funcionamiento de dos cuartos fríos de yaca. El presente proyecto nació de un programa desarrollado en la Universidad Tecnológica de Nayarit, llamado Impulso Social, cuyo objetivo es La universidad en el territorio. Como punto de partida, docentes y administrativos seleccionados fueron capacitados en la técnica INCA RURAL; luego de capacitación e investigación de campo se hizo la aplicación del método INCA RURAL en Santa Cruz de Miramar. Santa Cruz de Miramar es una población rural ubicada en México en la Riviera Nayarit y es una localidad perteneciente al municipio de San Blas, la cual cuenta con ríos permanentes, donde el agua fluye de manera habitual durante todo el año. Se encontró un lugar en el río El Naranjo que reúne la mayoría de las condiciones para que, con una inversión económica baja, se pueda aprovechar el potencial de la energía mecánica del agua para transformarla en energía eléctrica mediante un generador. Inicialmente se tuvo la idea de diseñar un tubo con reducciones en su diámetro, esto con la finalidad de aumentar la velocidad del agua en su salida, y con ese chorro accionar una turbina Pelton. Finalmente, la propuesta evolucionó hacia la implementación de un tornillo helicoidal siendo un caso exitoso en España de la empresa Sinfín Energy, pues las condiciones en las que ellos lo aplicaron son semejantes a las medidas de altura con las que el enrocamiento los pobladores de Santa Cruz de Miramar ya cuenta. 



METODOLOGÍA

En este proyecto se buscó generar microenergía aprovechando la potencia mecánica del agua. Se realizaron propuestas de diseños que incluían tanto turbinas Pelton accionadas desde una garganta con reducción de diámetro, como tornillos helicoidales, con el objetivo de utilizar el agua del río El Naranjo que llega a un dique ubicado en la localidad de Santa Cruz de Miramar, San Blas, Nayarit, México. La investigación se dividió en dos vertientes fundamentales para lograr los objetivos, la primera consistió en investigación teórica realizada dentro de las instalaciones de la Universidad Tecnológica de Nayarit, y la segunda trató de investigación de campo. Dentro de la primera parte, lo que se hizo fue analizar, examinar y evaluar de forma general ambas propuestas, con lo que obtuvimos una comprensión más profunda y precisa de sus componentes características e implicaciones, por lo que la propuesta dominante fue la del tornillo helicoidal. Para llevar a cabo el diseño de las turbinas y tornillos, se empleó el software AutoCAD, el cual permitió crear a escala real los planos y representaciones gráficas necesarias para visualizar y analizar las estructuras. Además, se utilizó el software ANSYS para simular ciertas partes de los diseños y evaluar su comportamiento bajo diferentes condiciones y cargas. Esta simulación ayudó a comprender mejor el funcionamiento de la garganta y el torque que tendrían los tornillos, así como a optimizar su rendimiento. Para asegurar la eficiencia de los diseños, se realizaron cálculos mediante fórmulas pertinentes, considerando factores como la velocidad del agua, la altura de caída y las medidas y proporciones estándar tanto de la turbina como del tornillo. Ahora bien, en la segunda parte y para no solo tener un panorama con la información recabada y las teorías meramente salidas de cálculos, se realizaron visitas tanto al río como a la CMIC (Cámara Mexicana de la Industria de la Construcción), donde pudimos contrastar y experimentar lo referente a la primera parte con los datos, resultados e ideas salidas y expuestas de la realidad. Dentro de la evaluación, se tomó en cuenta un caso real donde la empresa Sinfin Energy utilizó un tornillo helicoidal para producir energía. Este caso sirvió como referencia para validar la viabilidad y efectividad de la propuesta ganadora, brindando resultados reales y respaldando la decisión de implementar el tornillo helicoidal en el proyecto de microgeneración de energía hidroeléctrica. 


CONCLUSIONES

Durante el proyecto enfocado en energías asequibles y no renovables, perteneciente a la estancia del Verano Delfín 2023 realizada en la Universidad Tecnológica de Nayarit, se logró realizar una propuesta de microgeneración de energía eléctrica en el río El Naranjo de Santa Cruz de Miramar. Al transcurrir de las semanas y los avances obtenidos se concluyó que, de acuerdo con las condiciones del río y los tiempos disponibles, el tornillo helicoidal en diagonal es el indicado para llevarse a cabo. El tornillo de Arquímedes se utiliza como una forma de aprovechar la energía cinética del agua en movimiento para generar electricidad. La generación con energía hidráulica es una forma de energía limpia y respetuosa con el medio ambiente. No produce gases de efecto invernadero ni contribuye al cambio climático, lo que ayuda a reducir la huella de carbono y mitigar los impactos ambientales. Esta investigación resultó interesante, puesto que el proyecto va mucho más allá que solo la teoría, pues va encaminado hacia la implementación y con ello la obtención de resultados beneficiosos para una comunidad y el medio ambiente en general, además de tener alto potencial en ser un proyecto escalable para fines semejantes.
Vázquez Pech Juan Román, Instituto Politécnico Nacional
Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca

DISEñO DIGITAL CON FPGA’S: SEñALES EMG PARA CONTROLAR UNA PRóTESIS DE MANO


DISEñO DIGITAL CON FPGA’S: SEñALES EMG PARA CONTROLAR UNA PRóTESIS DE MANO

Vázquez Pech Juan Román, Instituto Politécnico Nacional. Asesor: Dr. Erick Israel Guerra Hernández, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a un estudio realizado por la escuela nacional de medicina en México, se realizan anualmente aproximadamente 2300 amputaciones de extremidades torácicas, si bien existen opciones de prótesis para los pacientes amputados, éstas no son suficientes. Las prótesis pueden ser utilizadas para sustituir el apéndice perdido, sin embargo, idealmente se busca que sean capaces de emular el comportamiento de la mano, para permitir que la persona afectada retome sus actividades cotidianas sin impedimentos. Para cumplir este objetivo es necesario dotar la prótesis de mecanismos electro mecánicos que sean capaces de realizar movimientos específicos, así como que sean responsivos ante comandos del usuario. Uno de los más grandes retos para este tipo de prótesis consiste en el medio de comunicación que se debe establecer entre el usuario y el mecanismo. Debe de ser poco intrusivo con el resto de las actividades motoras del usuario, siendo fiable, exacto y preciso. Es por esto que en presente proyecto de investigación se pretende controlar los movimientos de una prótesis de mano de 5 grados de libertad mediante señales electromiograficas (EMG) adquiridas a través de una banda Myo. La banda Myo es capaz de adquirir señales EMG, que son las señales eléctricas generadas por los músculos durante la contracción y relajación. Estas señales son procesadas y utilizadas para controlar los movimientos de la prótesis de mano, mediante el uso de un FPGA. Con esta tecnología, se busca proporcionar a las personas con amputaciones una mayor funcionalidad y destreza en el uso de su prótesis, permitiéndoles realizar una amplia gama de movimientos naturales y precisos. El sistema de control basado en señales EMG ofrece una interfaz intuitiva y eficiente para el usuario, ya que los movimientos de la prótesis se activan de forma directa y natural a través de la contracción muscular.



METODOLOGÍA

La metodología se dividió en varias partes. En primer lugar, se preparó el software Quartus Prime Lite Edition que permite desarrollar firmare para dispositivos FPGA, y se configuró para usarse con la tarjeta de desarrollo DE-SoC1. De manera paralela se realizó una revisión al estado del arte del desarrollo de software para la banda Myo, pero dejó de tener soporte por parte de la empresa creadora en 2018 por lo que gran parte del software para la conexión con una computadora se encontró como un compendio de proyectos de código abierto. Posteriormente se definió la adquisición de datos a utilizar. Debido a los grados de libertad y rango de movimiento de la prótesis del laboratorio de decidió crear clasificaciones propias. Para esto conectó la banda miográfica y un script de Python con el cual se obtuvieran los valores de los electrodos. La banda permite adquirir 6 señales simultaneas, estos valores son agrupados en una ventana de tiempo de 16 datos, los cuales son promediados y almacenados como un punto en un espacio de trabajo de 6 dimensiones. Se definieron 3 posiciones de agarre de mano: reposo, pinza, puño. Para cada una de estas clases se realizó una toma de 200 datos, con intervalos de descanso y recalibración cada 50 datos para no sesgar el clasificador. Los datos adquiridos de cada posición son almacenados en un archivo de texto. A continuación se implemento el algoritmo del vecino más cercano (KNN) sobre las nubes de puntos almacenadas en los archivos de texto, y en tiempo real se establece el punto de prueba y posteriormente clasificarlo. Una vez definido el sistema de clasificación se procedió a la implementación del firmware. Se realizó una máquina de estados finitos en VHDL usando Quartus. Esta máquina de estados controla la posición del prototipo mediante la lectura de los encoders presentes en l dedo, la máquina de estados recibe como entrada, el estado actual definido por la clasificación enviada por la computadora; la cantidad de pulsos enviados por los encoder, para los dedos de la mano 2, 3 y 4, y además de los encoder que miden la posición del movimiento de flexión-extensión y abducción-aducción del pulgar. Fue necesario caracterizar el número de pulsos de los encoder necesarios para las posiciones deseadas, Una vez caracterizados se definen los estados y transiciones entre posiciones, para eso se utilizaron variables que llevan la posición de los dedos basado en el número de pulsos. Como siguiente paso se realizó la integración del sistema, para esto fue necesario establecer una conexión entre el clasificador y el FPGA utilizando un módulo Bluetooth, La computadora envía la clasificación en un vector de datos de 8 bits. Cuando el dato numérico recibido por el FPGA es mayor que el dato anterior, el sistema debe cerrar los dedos correspondientes, incrementando el contador de posición por cada pulso del encoder, caso contrario el sistema debe abrir los dedos, dando un decremento al contador por cada pulso. Finalmente se realizaron pruebas en tiempo real para comprobar el correcto funcionamiento del sistema, donde un usuario realizaba uno de los tipos de agarre del puño y se verificó que el FPGA llevará los dedos a la posición que imita la mano del usuario.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos de diseño en FPGA utilizando el software Quartus y el lenguaje descriptivo VHDL, también se diseñó un sistema de adquisición de datos electromiográficos utilizando la banda Myo, se aplicaron técnicas de procesamiento de señales así como la clasificación de señales aplicando un programa realizado en Python que implemente el algoritmo KNN para las señales. Se creó una conexión entre el FPGA y una computadora para la transmisión de datos por medio de Bluetooth que definen las entradas para una máquina de estados que dicta la posición y movimiento de una prótesis de mano. Como conclusión final, se realizaron varias pruebas al sistema y se logró identificar con precisión los movimientos de la mano y llevarlos a cabo en el prototipo, demostrando así la efectividad y funcionalidad del sistema desarrollado.
Vazquez Porras Roxana, Universidad de Sonora
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

USO DE RESIDUOS DE FILTROS DE CIGARRO PARA LA PREPARACIóN DE UN CATALIZADOR EMPLEADO EN LA PRODUCCIóN DE BIODIéSEL


USO DE RESIDUOS DE FILTROS DE CIGARRO PARA LA PREPARACIóN DE UN CATALIZADOR EMPLEADO EN LA PRODUCCIóN DE BIODIéSEL

Vazquez Porras Roxana, Universidad de Sonora. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Los desechos provenientes del cigarro son un tema muy importante en la contaminación del suelo mexicano, liberando lentamente los compuestos tóxicos que contienen, además, su desintegración puede tardar hasta 10 años, ya que la colilla de cigarro está hecha de acetato de celulosa, un polímero no biodegradable. La elaboración de catalizadores a partir de residuos es un tema muy estudiado, por ejemplo, de cereales, plásticos, cáscara de fruta (plátano, mango, coco) e incluso de huesos de animales, los cuales son empleados en la obtención de biodiesel (FAME por sus siglas en inglés), un biocombustible que presenta grandes beneficios en comparación con el diésel, ya que es amigable con el medio ambiente, es fácil de obtener y tiene un adecuado rendimiento. Por tanto, en este trabajo se muestra la preparación de un catalizador magnético, a través de carbonización hidrotermal, utilizando los residuos de filtros de cigarro y cloruros de hierro, el cual fue evaluado en transesterificación de aceite de soya con metanol.



METODOLOGÍA

Para la preparación del catalizador se recolectaron colillas de cigarro de lugares públicos y espacios para fumar. Posteriormente, se acondicionaron limpiando y lavando los filtros con una solución de NaOH 1% durante 1 h en agitación a 90 °C. Después, se lavaron con agua desionizada a punto de ebullición hasta pH constante y se secaron durante 12 h a 100 °C. Una vez limpios y secos, se colocó 1 g de los filtros de cigarro (picados finamente) en un reactor, a 180 °C durante 6 h, y se agregaron 1.25 g de FeCl3, 1.5 g de FeCl2, 3 g de NaOH en perlas, 0.58 g de EDTA y 30 ml de agua desionizada en donde se disolvieron los compuestos mencionados. Finalizado el tiempo de la carbonización hidrotermal, el material obtenido se secó a 100 °C, después se lavó hasta pH constante y se secó nuevamente a la misma temperatura. Finalmente, el catalizador se molió hasta obtener partículas finas. El catalizador preparado fue usado para obtener cinéticas de transesterificación a 40 y 50 °C en un rango de 0.25 a 5 h, empleando una relación molar de aceite de soya/metanol de 1/30 y 5% en peso de catalizador con respecto al aceite. Al final de cada reacción el catalizador se recuperó empleando un campo magnético y se eliminó el metanol que no reaccionó mediante evaporación. Posteriormente, cada una de las muestras obtenidas fueron cuantificadas empleando un cromatógrafo de gases, para lo cual se usó como estándar una solución de heptadecanoato de metilo. Las cinéticas de reacción fueron modeladas para obtener las constantes y orden de velocidad de reacción, así como la energía de activación a través de los modelos de pseudo primer y pseudo segundo orden.


CONCLUSIONES

Se cumplió el objetivo del proyecto al preparar un material catalítico a partir de residuos de filtros de cigarro para ser utilizado en la obtención de cinéticas de transesterificación de aceite de soya en las cuales se observaron porcentajes de formación de FAME superiores al 95% a partir de 1 h de reacción para las dos temperaturas empleadas (40 y 50 °C), logrando el equilibrio a las 2 h. Las cinéticas de reacción fueron descritas por el modelo de pseudo primer orden con coeficientes de determinación de 0.99, las constantes de velocidad de reacción estuvieron en el rango de 0.0648-0.1615 min-1 y la energía de activación fue de 76.78 kJ/mol, lo que confirmó que se trata de una reacción de transesterificación tipo heterogénea y además indicó que está controlada químicamente.  
Vázquez Trujillo Seth Urich, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

OPTIMIZACIóN DEL SISTEMA DE INYECCIóN DE HIDRóGENO EN MOTOR A GASOLINA


OPTIMIZACIóN DEL SISTEMA DE INYECCIóN DE HIDRóGENO EN MOTOR A GASOLINA

Vázquez Trujillo Seth Urich, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se organizo la implementación de una celda seca de hidrógeno a un automóvil de combustión interna buscando la reducción en el consumo de combustible y en las emisiones contaminantes. Se busco colocar la celda en el lugar más adecuado dentro del automóvil que permita el funcionamiento adecuado de la celda sin interferir con el motor y los demás componentes mecánicos, y sin poner en riesgo la seguridad del conductor y de la celda. Se hacen pruebas de colocación física de componentes para el óptimo desempeño.



METODOLOGÍA

Investigación y revisión del estado de la técnica para inyección de gas hidrógeno en la alimentación de un motor de combustión interna para manejo seguro de un sistema hibrido gasolina-hidrogeno. De entre las muchas formas de implementación del sistema de inyección de combustible seleccionaremos aquella qué sea más segura y viable. Adquisición de los materiales y pruebas iniciales. Seleccionar aquellos materiales que permitan el trabajo correcto del sistema y que sean durables, además realizar pruebas necesarias para determinar posibles cambios. Implementar la celda de hidrógeno con las mejoras realizadas en el compartimiento de un auto a gasolina con inyección electrónica. Entre las mejoras a realizar estará la colocación de un interruptor que controle el paso de hidrógeno a la cámara de admisión, la optimización del sistema y la medición del rendimiento de combustible.


CONCLUSIONES

Se logró la ubicación de la celda y sus componentes dentro del vano del motor sin que la temperatura afecte a mangueras, tanque y cables. Gracias a eso, el sistema de generación de hidrógeno funcionó correctamente. En un principio se pensó que la posición de los componentes no era adecuada porque no generaba suficiente hidrógeno; al hacer una revisión general del sistema se determino que las mangueras deben de quedar lo más tensas posibles, para facilitar el paso del agua entre el tanque y la celda.
Vazquez Valdez Valeria, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas

LESIONES MúSCULO-ESQUELéTICAS DE LOS TRABAJADORES DE OFICINA DE LA EMPRESA PEMEX EN CHIAPAS DURANTE EL PRIMER SEMESTRE DEL 2023


LESIONES MúSCULO-ESQUELéTICAS DE LOS TRABAJADORES DE OFICINA DE LA EMPRESA PEMEX EN CHIAPAS DURANTE EL PRIMER SEMESTRE DEL 2023

Vazquez Valdez Valeria, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Existe una gran relación entre la salud del ser humano y el trabajo que realiza;  ya que existe un sinfín de actividades que exponen a las personas provocando diferentes riesgos a la salud.  Gracias a su instinto de supervivencia, el ser humano ha realizado distintos trabajos desde sus inicios en la Tierra; sin embargo, al principio estas actividades eran de carácter personal y defensivo en vez de preventivo.  La mayoría de los estudios de ergonomía comenzaron a surgir alrededor del año 1857.



METODOLOGÍA

Según la Asociación Internacional de Ergonomía, la ergonomía es la disciplina científica que busca entender las interacciones entre el hombre y los elementos de un sistema. Por otro lado, es la profesión que aplica en el diseño tanto las teorías, principios, datos, como los métodos para optimizar el bienestar humano y el rendimiento global del sistema. Constantemente se realizan estrategias que procuran generar y promover el trabajo seguro y sano, así como buenos ambientes y organizaciones de trabajo, realzar el bienestar físico, mental y social de los trabajadores y respaldar el perfeccionamiento y el mantenimiento de su capacidad de trabajo.  Los factores de riesgo, son unas características del trabajo, que incrementa la posibilidad de que se produzcan accidentes o afecciones para la salud de los trabajadores. Una problemática que no es tan evidente a simple vista pero llega a tener un gran impacto en el trabajador son las actividades repetitivas, pues a pesar de crear una falta de entusiasmo y disminución de productividad, genera con el tiempo trastornos músculo-esqueléticos; creando distintos problemas como molestias, disconfort, o dolor en distintas áreas del cuerpo en distintos grados de intensidad dependiendo del tiempo de estas actividades y el peso que cargan los usuarios. Es importante conocer el tipo de trabajo que desempeña el trabajador para así poder evaluar los riesgos a los que está expuesto y las medidas que se ejercerá en la persona; ya que no son las mismas actividades de una persona que labora en el área de oficina a una persona que trabaja en el campo. Se seleccionaron a 50 trabajadores al azar del municipio de Reforma, Chiapas que trabajan en oficinas; para conocer sobre las condiciones del entorno laboral y recopilar información sobre las afectaciones que las actividades repetitivas les han generado en ellos. Se observó que la mayoría de las personas que tenían más de 5 años laborando tenían molestias en los hombros, el cuello y la espalda (sobre todo en la parte de abajo, la región lumbar); alrededor del 70% de la población encuestada ha presentado estas molestias durante varios días e incluso un par de semanas.  A pesar que el 80% de las personas ha presentado molestias y dolores en el cuerpo debido a las actividades repetitivas de su trabajo, no han presentado quejas ni suspendido ninguna actividad; lo más preocupante es que no se han presentado al doctor o con un especialista, ya que es una molestia soportable y no le dan la importancia debida.


CONCLUSIONES

Es desconcertante saber que a pesar de la información que existe para cuidar la integridad de las personas, se le dé caso omiso; las actividades repetitivas pueden parecer que no generan ningún inconveniente, pero con el tiempo puede provocar desgastes de las articulaciones, este tiende a cambiar gravedad del problema dependiendo a distintos factores como la fuerza, el nivel de repeticiones y la condición de la persona. Es importante que las empresas y los trabajadores pongan en práctica medidas para cuidar su bienestar como tomar en cuenta las posturas correctas que deben realizar, tener un control de los tiempos y el peso de las actividades repetitivas, distribuir la actividad con todo el cuerpo, controlar el ritmo en que realizas la actividad, utilizar herramientas de apoyo y alternar tareas que impliquen realizar otro movimientos. Un factor que también es importante si necesitas realizar alguna actividad repetitiva es estirar y calentar los músculos antes y después de ejecutar las tareas. Es evidente que no se pueden eliminar este tipo de tareas a la hora de trabajar; pero puedes tener muchas variaciones que te ayudan a reducir o eliminar el impacto negativo que estas actividades tienen en nuestro cuerpo.
Vazquez Vazquez Zaragoza Samantha Osiris, Instituto Tecnológico Superior de Guanajuato
Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato

APLICACIóN MóVIL PARA ESTIMULAR EL DESARROLLO COGNITIVO EN PERSONAS MAYORES CON ALZHEIMER


APLICACIóN MóVIL PARA ESTIMULAR EL DESARROLLO COGNITIVO EN PERSONAS MAYORES CON ALZHEIMER

Vazquez Vazquez Zaragoza Samantha Osiris, Instituto Tecnológico Superior de Guanajuato. Asesor: Dra. Wendoly Julieta Guadalupe Romero Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El ser humano siempre ha estado expuesto a factores que no podemos frenar, o erradicar, por ejemplo, la naturaleza, la evolución, el tiempo mismo, y uno de estos factores que nos regala este reloj imparable, es la vejez. El llegar a una edad avanzada se representa como parte del ciclo de nuestras vidas, pero, lo que esto trae consigo es un determinado número de padecimientos, limitaciones y complicaciones en nuestra salud física y mental. De esta manera, buscando dar una mejor calidad de vida emocional no sólo a la persona adulta mayor, sino a su entorno, por lo cual, se ha decidido poner en práctica los conocimientos tecnológicos adquiridos para crear una aplicación la cual sea de apoyo al área de la salud en la rama que afecta el deterioro cognitivo en los adultos mayores y pueda hacer lo siguiente: 1. Apoyar a retrasar el deterioro cognitivo en las personas mayores con ejercicios mentales diseñados en interfaces que contendrá la aplicación, buscando ayuden a trabajar de forma divertida su mente y reforzar su capacidad de retención 2. Ayudar a tener un momento sano de convivencia mientras se ejercita mentalmente y pone en práctica la interacción con los dispositivos móviles 3. Emplear escenarios cotidianos representados en diferentes niveles y modos de juego para generar una familiaridad con el ambiente de las interfaces, además, del uso accesible en dispositivos móviles para su mayor funcionamiento e interacción.



METODOLOGÍA

Para esta actividad, el cuidador deberá cargar imágenes previamente guardadas en el dispositivo móvil, preferentemente fotos de personas y/o lugares importantes para el usuario, ya que será el quien especifique a detalle lo que ve en cada imagen. Se recomienda que, de no tener archivos digitales, tomar fotos con la cámara del teléfono a fotografías para así poder tener acceso a los recuerdos. Después de tener listas las fotos en el dispositivo, dentro del apartado Álbum de los recuerdos en SoftMind, se podrá tocar cualquiera de los marcos que aparecen en la pantalla, al hacerlo, cas uno abrirá un explorador donde mostrará las imágenes almacenadas para seleccionar una, y quede guardada dentro del marco que se seleccionó. Una vez cargadas todas las fotos, se mostrará la pantalla al usuario (//Nota: De no tener un buen estado visual, favor de prever con sus respectivas gafas al usuario) y el/ella tendrá que identificar quiénes aparecen en la foto, dónde es, qué fecha fue (en caso de ser una celebración o un evento), hace cuánto tiempo fue, cómo se sentía en ese momento. La interfaz tendrá un botón de reset para limpiar todas las fotos y cargar nuevas. Cabe resaltar que la aplicación dejará de ser automática en esta actividad, por ello, es indispensable que cuidador tenga un claro contexto de las fotografías que se cargarán para así poder validar los datos proporcionados por el usuario. Después de algunas investigaciones a fondo por internet, no se encontró alguna aplicación móvil que realice actividades como el álbum de los recuerdos que forma parte de SoftMind. Al momento de iniciar el botón mostrará el mural de los recuerdos en donde obtendrá los siguiente: Cargar fotos: Al dar clic el botón Cargar fotos se guardarán en el mural las fotos añadidas. Volver al menú de inicio: Al dar clic en volver al menú automáticamente se va directamente al inicio. Borrar todas las fotos: Al dar el botón Borrar todas las fotos automáticamente se borran todas las fotos. Añadir foto: Al dar clic en algún marco de fotos, se abrirá una ventana del explorador de archivos en el dispositivo, a través del cual se seleccionará la imagen a mostrar en ese marco. El siguiente mural se va parecer el igual, nada más se agregan otras instrucciones en donde vendrá las preguntas. Añadir foto o seleccionar foto: Al elegir una foto, se pedirá al cuidador que llene un formulario para determinar el nivel de dificultad de la foto. (en la preguntas viene los siguientes) Determinar el nivel de dificultad de la foto, responde lo siguiente: ¿Cuántas personas aparecen en la imagen? 1 o 2     Más de 2     Más de 5 ¿Son familiares directos? Si              No ¿Son amigos? Si              No ¿Cuánto tiempo tiene la foto? Menor 3 meses     Mayor 3 meses     Menor 6 meses Cada foto tendrá un nivel de dificultad que le será asignado dependiendo de lo que se conteste en el formulario de cada foto. Existirán 3 niveles de dificultad para cada imagen: Fácil (1 punto) Medio (3 puntos) Difícil (5 puntos) Puntajes: Fácil = 1 Punto. Pregunta 1: 1 o 2 Pregunta 2: Si Pregunta 3: Si Pregunta 4: Menor a 3 Meses Medio = 3 Puntos. Pregunta 1: Más de 2 Pregunta 2: No Pregunta 3: Si Pregunta 4: Mayor a 3 Meses Difícil = 5 Puntos. Pregunta 1: Más de 5 Pregunta 2: No Pregunta 3: No Pregunta 4: Menor a 6 Meses Regresar al mural: Al dar clic el botón Regresar al Mural se enviará al mural con las fotos cargadas anteriormente. Restablecer las fotos: ahí en este caso va restablecer todas fotos.


CONCLUSIONES

Durante esta estancia, se logró cumplir con los objetivos establecidos desde un inicio, poniendo en práctica los conocimientos aprendidos durante la carrera y otros más adquiridos por parte del investigador a cargo del proyecto. Fueron semanas de aprender, ejecutar y aplicar principios, metodologías y técnicas multidisciplinarias para lograr este proyecto. Ahora viendo el trabajo concluido, podemos decir que fue un enorme plus extracurricular que fortaleció áreas como la competitividad, el trabajo en equipo y la participación.Estamos muy agradecidos por todo y ahora queda continuar por el camino que el programa DELFIN enormemente encaminó
Vega Arredondo Alma Lizeth, Instituto Tecnológico de Matamoros
Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez

REDUCCIóN DEL TIEMPO DE CONFIGURACIóN DE MAQUINARIA PARA CAMBIO DE MODELO EN UN PROCESO SMT.


REDUCCIóN DEL TIEMPO DE CONFIGURACIóN DE MAQUINARIA PARA CAMBIO DE MODELO EN UN PROCESO SMT.

Vega Arredondo Alma Lizeth, Instituto Tecnológico de Matamoros. Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En el área de controles y sensores de una empresa se fabrican por medio de un proceso SMT distintas PCBA's para la industria automotriz. Debido a la alta demanda, las prioridades de producción cambian constantemente y esto provoca que haya lapsos de tiempo muerto continuamente durante la configuración de la maquinaria para el cambio de modelo. Es necesario reducir el tiempo empleado para esta tarea ya que la productividad disminuye más del 50% por hora en algunos casos debido a las características del modelo.



METODOLOGÍA

Lo principal fue observar el proceso para saber las actividades que se realizan en el cambio de modelo y en base a estas tomar los datos necesarios para realizar el análisis del tiempo perdido en el proceso. Se enlistaron un total de 27 actividades como parte del proceso de cambio de modelo. Con la ayuda de un diagrama de Ishikawa se detectaron las causas raíz del problema las cuales son las siguientes: El personal no está capacitado para realizar todos los procesos de cambio de modelo y esto provoca que duren más tiempo de lo estimado realizando una actividad, de mismo modo se encontró que los manuales de descripción de la operación no son claros, por lo tanto, no son de ayuda. No hay una estructura establecida en la que a cada operador se le deleguen las actividades que tiene que realizar para optimizar el proceso. Falta de técnicos para ayuda en los problemas que se van suscitando durante el proceso. Los horarios de cambio de modelo por lo regular se dan a las horas de comida, esto implica que solo dos operadores lo realicen, por ende, el proceso es más tardado. Después de analizar las causas se proponen las siguientes soluciones: Proporcionar una capacitación al personal del área para disminuir el tiempo empleado y facilitar los manuales básicos de operación y ajuste de la maquinaria. Establecer un itinerario en el que se distribuyan las actividades que realizara cada operador para optimizar el proceso. Solicitar con anticipadamente la presencia de un técnico antes de la realización de un cambio de modelo. Programar los cambios de modelo en horarios en los que los operadores se encuentren en el área de trabajo para agilizar el proceso. Como parte de las soluciones al problema se realizó el itinerario de distribución de actividades tomando en cuenta que principalmente el cambio de modelo se hace con solo dos operadores y un técnico y ahora serán 4 operadores y el técnico, se eliminaron actividades que pueden realizarse por el jefe de área previamente al cambio de modelo como lo son la elaboración del check list, la impresión de las hojas de carga y la limpieza y liberación del esténcil antes del cambio de modelo, estas producian una perdia de al rededor de 20 minuntos dentro del proceso decambio de modelo.


CONCLUSIONES

Con los datos obtenidos de los cálculos y mediante la aplicación del itinerario se espera disminuir en un porcentaje mayor al 50% el tiempo de cambio de modelo, esto sin tomar en cuenta el tiempo que puede disminuir después de que todos los operadores están capacitados completamente para llevar a cabo las tareas del área.  También mediante la observación que se realizó en el proceso se encontró que al solo haber una persona capacitada para la inspección de las piezas ya terminadas se provoca un acumulamiento de producción al final de la línea y esto nos puede llegar a ocasionar un problema mayor.
Vega Chávez Bryan Daniel, Instituto Tecnológico de La Piedad
Asesor: Dra. Ma. Guadalupe Garnica Romo, Universidad Michoacana de San Nicolás de Hidalgo

BIOSíNTESIS DE NANOPARTíCULAS DE óXIDO DE TITANIO UTILIZANDO EXTRACTO DE STEVIA REBAUDIANA Y SU EFECTO BACTERICIDA


BIOSíNTESIS DE NANOPARTíCULAS DE óXIDO DE TITANIO UTILIZANDO EXTRACTO DE STEVIA REBAUDIANA Y SU EFECTO BACTERICIDA

Vega Chávez Bryan Daniel, Instituto Tecnológico de La Piedad. Asesor: Dra. Ma. Guadalupe Garnica Romo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las bacterias, en estos últimos años, se han vuelto más resistentes a los antibióticos. Por ello, industrias farmacéuticas, se han dado la tarea de obtener una nueva generación de fármacos a través de los nanomateriales metálicos. Sin embargo, en México y también en el mundo existen industrias que utilizan métodos para sintetizar nanomateriales que son poco amigables con el ambiente y que son potencialmente nocivos para la salud humana, debido a que los métodos convencionales generan residuos tóxicos. Durante el verano de la investigación se evaluará el efecto bactericida de las nanopartículas del óxido de titanio (TiO2), obtenidas por medio de una síntesis verde, el cual es un método amigable con el ambiente y no tóxico para la salud humana, ya que se utilizará el extracto de la Stevia rebaudiana para la obtención de este nanomaterial.



METODOLOGÍA

Se pesaron 2g de Stevia, después se vertió en un vaso de precipitado con 20ml de agua destilada previamente calentada a 60°C por 10 minutos. Después el extracto se centrifugó y se filtró. Se calentó 120ml de isopropanol calentado a 30°C sometido a agitación constante, posteriormente se le añadió isopropóxido de titanio al alcohol sin parar la agitación durante 15 minutos. Se añadió 1.333ml del extracto de Stevia al alcohol con el isopropóxido de titanio a la misma temperatura y agitando constante durante 15 minutos. La muestra se centrifugó a 2000rpm por 20 minutos y se filtró con papel filtro Whatman No. 1. La muestra fue secada a 80°C por 3 horas, donde se obtuvieron polvos de un color naranja-rojizos. Fueron tratadas térmicamente a 500°C por 1h, quedando así un polvo blanco Después, se repitió el proceso 6 veces más para obtener nanopartículas, pero sin calcinar, solamente dejándolas secadas a los 80°C para realizar también con ellas evaluación bactericida. Se utilizó el espectrofotómetro de UV-VIS PerkinElmer modelo Lambda 365 el espectrómetro de infrarrojo modelo Vertex 70 para la caracterización de las muestras. Se midió el tamaño de las nanopartículas secadas y para las calcinadas con un analizador de nanopartículas Horiba modelo SZ-100 con la finalidad de saber si tienen un tamaño adecuado a escala de nanómetros (nm) o poder determinar si estas se encuentran aglomeradas.Posteriormente se aplicó el potencial Z para ambas muestras para indicar el grado de repulsión entre partículas adyacentes, cargadas en una dispersión. Por difusión en disco, se utilizó la metodología descrita por Taroco et al. (2006) Las determinaciones se realizaron por triplicado. Los discos estériles de papel filtro Whatman No. 1 (2.5µm) de 6mm de diámetro se dejaron en contacto durante 24 h con los diferentes tratamientos que fueron: antibiótico gentamicina 5mg/ml como control positivo para la inhibición bacteriana, también se aplicó un control negativo utilizando agua destilada estéril. El efecto bactericida se evaluó en dos muestras de nanopartículas de óxido de titanio; N80 y N500, nombradas así por la temperatura y tratamiento a las que fueron sometidas. Cada muestra se ajustó a 5mg/ml en agua destilada estéril y se homogenizó en un baño ultrasónico 8892 de 60Hz a 25°C/1h. Para la evaluación bactericida se utilizó la cepa de Escherichia Coli, la cual fue sembrada en agar nutritivo y se incubó a 37°C/24h para obtener un cultivo fresco. Al observar el crecimiento adecuado se preparó el inóculo con la cepa en solución salina al 0.85%, el inóculo se ajustó entre 0.08 y 0.09 de absorbancia a 625nm (0.5 escala de McFarland) con un espectrofotómetro UV-visible Velab modelo VE-5100UV. Con un hisopo se sembró el inóculo en la placa de Agar Müeller Hinton con estría en forma paralela y bien compacta abarcando toda la superficie de la placa, este procedimiento se repitió dos veces más rotando la placa a 60°. En las placas inoculadas con la cepa, se colocaron los discos de papel filtro impregnados con cada tratamiento respectivo. Fueron cuatro placas las que se utilizaron, 2 para cada tratamiento, las cuales se dividieron en 5 secciones, en cada sección se colocó un disco con el control positivo, un disco con el control negativo y tres discos con la muestra de las nanopartículas de TiO2 correspondiente y se dejaron secar. Finalmente, las placas se incubaron a 37°C/24h y se midió el diámetro del halo de inhibición del crecimiento de los microorganismos y se cálculo el porcentaje del efecto inhibitorio relativo respecto al control positivo, se utilizó la fórmula establecida por Martínez (1996).


CONCLUSIONES

En el verano de la investigación se logró adquirir conocimientos sobre la síntesis verde y nanomateriales metálicos, pudiendo aplicar ambos durante este periodo haciendo biosíntesis de nanopartículas de óxido de titanio y aplicando métodos de caracterización, para posteriormente hacerles una evaluación bactericida. Sin embargo, no se obtuvieron los resultados deseados, ya que las nanopartículas no tuvieron un efecto inhibitorio con la cepa de E. Coli.  Se hicieron otras evaluaciones a concentraciones más elevadas, siendo estas de 12.5, 25, 50, 100 y 200mg/ml, sin éxito. Las razones del por qué no tuvieron un efecto bactericida las nanopartículas, pueden variar, pudiendo ser el tipo de tratamiento a las que fueron sometidas, que la cepa sea resistente al TiO2 con esos tratamientos o el tamaño de las nanopartículas que eran muy grandes, ya que en la medición de tamaño las nanopartículas obtuvieron promedios de miles de nanómetros, siendo esto un tamaño bastante grande para poder realizar una evaluación bactericida. En cuanto a los otros métodos de caracterización no se encontraron compuestos o elementos no deseados en las muestras. Y en cuanto a la técnica en el método de difusión en disco, se llevó a cabo de buena manera evitando cualquier tipo de inconveniente durante el proceso.
Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

ANDADERA RESCATADA


ANDADERA RESCATADA

Ramos Anastacio Amanda Rubi, Instituto Tecnológico de Querétaro. Vega Hernández Adriana Sayuri, Instituto Tecnológico de Querétaro. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Rescatar una andadera vieja y encontrar una solución que permita reutilizar la andadera de manera segura y eficiente para el nuevo usuario, garantizando su comodidad y bienestar. Se requiere un enfoque cuidadoso y experto para realizar ajustes y reparaciones adecuadas que se adapten a las necesidades y características específicas del usuario, asegurando la funcionalidad y seguridad del dispositivo. Nuestra propuesta busca cambiar esta realidad al desarrollar una andadera que cumpla con altos estándares de calidad y seguridad, al mismo tiempo que se centra en la sostenibilidad ambiental. Al utilizar materiales reciclados cuidadosamente seleccionados, no solo reduciremos el impacto en el medio ambiente, sino que también contribuiremos a la promoción de prácticas más responsables en el diseño de productos de apoyo.



METODOLOGÍA

Se analizará detalladamente la andadera vieja para determinar su estado general y su viabilidad para ser reutilizada y modificada. Se identificarán las partes y componentes que necesitan reparación, sustitución o ajustes para adaptarla a las necesidades del nuevo usuario. Se desarrollará un plan de diseño detallado para la adaptación de la andadera. Esto incluirá los ajustes ergonómicos necesarios, la incorporación de materiales reciclados en las partes dañadas o desgastadas, y la consideración de aspectos de seguridad y estabilidad. Esta metodología se centrará en lograr una adaptación sostenible de la andadera vieja, aprovechando materiales reciclados para reducir el impacto ambiental y ofrecer una solución práctica y accesible para el nuevo usuario. El proyecto busca destacar el valor de la reutilización responsable de equipos médicos y promover prácticas más sostenibles en el campo de la asistencia médica.


CONCLUSIONES

En conclusión, el proyecto "Andadera Rescatada" ha sido una iniciativa apasionante que ha buscado fusionar la innovación y la conciencia ambiental para ofrecer una solución accesible y responsable a las necesidades de movilidad reducida. A lo largo del desarrollo de este proyecto, hemos logrado demostrar las ventajas y desafíos de fabricar una andadera utilizando exclusivamente materiales reciclados. Tanto como la Sra. Alfonsa María de Jesús Bustos madre del el Sr. Mario Rafael Hernández Bustos, usuario de la andadera,  quedaron satisfechos son el resultado del proyecto. La principal fortaleza de esta propuesta ha sido el enfoque hacia la sostenibilidad ambiental, al reducir significativamente la cantidad de desechos generados y al fomentar la reutilización de materiales. Esta apuesta ha generado un impacto positivo en la comunidad, promoviendo prácticas más conscientes y sostenibles entre los colaboradores y usuarios potenciales. En resumen, estamos convencidos de que la andadera con materiales reciclados es un paso en la dirección correcta hacia un futuro más sostenible y consciente, y esperamos que este proyecto sea un punto de partida para impulsar más acciones en beneficio de nuestro planeta y de aquellos que requieren asistencia en su vida diaria.
Velasco Rubí Noemí, Instituto Tecnológico de Pachuca
Asesor: Dr. Gerónimo Arámbula Villa, Instituto Politécnico Nacional

EFECTO DEL GRADO DE COCIMIENTO DEL GRANO DE MAíZ DURANTE LA NIXTAMALIZACIóN EN LAS PROPIEDADES FISICOQUíMICAS Y REOLóGICAS DE LA MASA Y TORTILLA DE MAíZ.


EFECTO DEL GRADO DE COCIMIENTO DEL GRANO DE MAíZ DURANTE LA NIXTAMALIZACIóN EN LAS PROPIEDADES FISICOQUíMICAS Y REOLóGICAS DE LA MASA Y TORTILLA DE MAíZ.

Velasco Rubí Noemí, Instituto Tecnológico de Pachuca. Asesor: Dr. Gerónimo Arámbula Villa, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La tortilla de maíz es uno de los alimentos más importantes en México. Se estima que el 94% de la población mexicana consume este alimento, lo que lleva a una producción anual cercana a los 12 millones de toneladas. Las tortillas son elaboradas con masa de maíz nixtamalizado, obtenido a partir del método tradicional de nixtamalización. La industria de las tortillas utiliza diversos métodos de evaluación para determinar sus parámetros de operación. Sin embargo, muchas de estas técnicas se basan en formulaciones empíricas, lo que dificulta la estandarización de los procesos y la comprensión precisa de la influencia que tienen las variables involucradas sobre las características finales del producto. La nixtamalización es una etapa importante en el proceso de elaboración de las tortillas, ya que no solo permite la molienda para formar la masa y manipulación para el formateo de la tortilla, sino que también ocurren cambios bioquímicos mediante los cuales se desarrollan sus propiedades nutrimentales. Durante la nixtamalización, el grano se cuece en una solución alcalina a temperaturas cercanas al punto de ebullición, hasta que al grano pueda serle desprendida su capa externa o pericarpio. Aunque es un proceso experimental controlado, aún se desconocen los efectos precisos en las propiedades de la masa y tortilla de maíz.



METODOLOGÍA

Se utilizó maíz blanco híbrido Sinaloa e hidróxido de calcio grado alimenticio (Nixtacal). La caracterización del grano de maíz se realizó mediante la determinación del tamaño medio, el peso de mil granos y peso hectolítrico, el color se determinó utilizando un colorímetro Chromameter CR-210 y la prueba de dureza se realizó con un Analizador de Textura universal TA-XT2. Una vez caracterizado el maíz, durante la etapa de nixtamalización, se utilizó agua potable en relación 2:1 con el maíz a cocer, se calentó hasta una temperatura de 92°C, después se agregó el grano junto con un 2% de hidróxido de calcio (cal) respecto al peso del mismo. Experimentalmente se determinó que a los 20 min de cocimiento el pericarpio ya se lograba desprender, por lo que se fijó este valor como el punto central para establecer los niveles en la variable, tiempo de cocción. Así, se establecieron y evaluaron los siguientes tiempos de cocimiento: 10, 15, 20, 25 y 30 min. Una vez alcanzado cada valor, se dejó el nixtamal en reposo por 12 h y posteriormente, se separó del nejayote y se lavó levemente para después procesarse en un molino de piedras FUMASA US-25. A continuación, el material se sometió a un secado flash a 240-260°C y finalmente se obtuvieron harinas de maíz nixtamalizado tras una molienda en un molino Pulvex 200. A partir de estas harinas se elaboraron masas y tortillas para cada uno de los tratamientos. Se determinó la humedad de la harina y se adicionó el agua necesaria para conseguir una masa con una humedad de 52.5% y se almacenó una pequeña fracción de ésta para su análisis textural. Se obtuvieron tortillas de 12.5 cm de diámetro y 1.2 mm de espesor utilizando una máquina tortilladora manual de rodillos. Una vez obtenidas las tortillas, se pesaron y después se cocinaron en un comal a 270±10 °C por un tiempo de 17, 50 y 17 segundos por cada lado. Se registro el grado de inflado y capacidad de enrollamiento para cada tortilla. Posteriormente, se dejaron enfriar, se registró su peso y fueron almacenadas para su posterior análisis. Para la determinación de textura de masa, se midió la fuerza de cohesión y adhesión en una muestra de 25g empleando el Analizador de Textura universal TA-XT2, punta TA-18. Por su parte, la resistencia a la tensión en muestras de tortilla se midió utilizando la punta TA-96 y colocando probetas cortadas en forma de I, las mitades resultantes de esta prueba se sometieron después a corte con una punta TA-90. Se calculó la pérdida de peso en la cocción de las tortillas a partir de los datos de peso registrados, se determinó el color mediante el uso del colorímetro Chromameter CR-210 y se evaluó el contenido de humedad. Finalmente, se secaron muestras de tortillas, las cuales fueron molidas hasta un tamaño de partícula menor a 0.250 mm y la harina resultante fue empleada para la obtención del perfil de viscosidad amilográfico haciendo uso del Rapid Visco Analyzer.


CONCLUSIONES

El grano de maíz presentó un tamaño pequeño en comparación con datos de la bibliografía, con valores promedio de 8.84, 12.93 y 4.55 milímetros de largo, ancho y espesor respectivamente. Su color fue claro, con una diferencia de 32.69 unidades respecto a la referencia blanca. La humedad determinada fue de 12.9%, valor dentro de los límites recomendados para maíz blanco destinado a nixtamalización. El peso hectolítrico fue de 73.75 kg/hL y el peso de mil granos fue de 346.973 g, indicando granos compactos. El aumento del tiempo de cocimiento durante el proceso de nixtamalización del grano afectó las variables finales de calidad tanto de la masa como de la tortilla producida. Se encontró que la masa elaborada a partir del tratamiento de 30 min fue la adecuada para ser manipulada y troquelada, pues presentó valores medios de cohesión y adhesión entre los tratamientos evaluados. Por otro lado, un mayor tiempo de cocimiento provocó un aumento en la humedad de las tortillas, lo que a su vez permitió la obtención de un material más blando y flexible. Sin embargo, dichas tortillas presentaron una mayor pérdida de peso durante la cocción y por ende se presentó también un menor rendimiento de tortilla. Por otra parte, no se presentó efecto sobre el grado de inflado ni la rolabilidad en las tortillas, pues todas presentaron una formación de ampolla y rolado completo. En general, las tortillas elaboradas con granos de maíz cocidos durante 25 min resultaron las más adecuadas para el consumo inmediato o la elaboración de botanas por sus características de suavidad y flexibilidad. 
Velazquez Arce Ivan Aldahir, Universidad Politécnica de Texcoco
Asesor: Dr. Marco Augusto Miranda Ackerman, Universidad Autónoma de Baja California

PROYECTO DE DESPERDICIO DE ALIMENTOS(FOOD WASTE PROJECT)


PROYECTO DE DESPERDICIO DE ALIMENTOS(FOOD WASTE PROJECT)

Velazquez Arce Ivan Aldahir, Universidad Politécnica de Texcoco. Asesor: Dr. Marco Augusto Miranda Ackerman, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El reconocimiento de imágenes en la comida nos permite tener un menor desperdicio de comida en los restaurantes o donde se pueda aplicar este tipo de sistemas, el proyecto consiste en tomar fotografías digitales o poder utilizar el precisamente de imágenes para poder detectar la cantidad de alimentos que un comensal deja en su plato al final de su servicio de tal manera que el que prepara los alimentos sepa qué alimentos están desperdiciando y poder tener otra información útil para estimar y reducir el impacto ambiental y cómo su impacto en los  costos de operación de las empresas donde se propone aplicar este sistema de medición de desperdicio de alimentos. Por lo tanto es mejor utilizar inteligencia artificial porque es más estandarizado ya que no utiliza tantas herramientas como básculas con registro manual, bitácoras para tener un mejor control, sino solamente con algoritmos de visión se puede realizar el mismo procedimiento sin tanto equipo."Coronel-López et al., «Characterization of fruit and vegetable waste as an alternative ruminant feed in Pachuca, Hidalgo, Mexico»". Otro objetivo del procesamiento de imágenes en un proyecto de desperdicio de alimentos puede tener varios beneficios y aplicaciones.Por ejemplo, se puede aplicar en un restaurante de diversas formas para mejorar la experiencia del cliente, optimizar procesos internos y aumentar la eficiencia en general.   Aquí hay algunas formas en las que el procesamiento de imágenes podría ser útil: Clasificación y selección de alimentos: Utilizando técnicas de procesamiento de imágenes, es posible identificar y clasificar diferentes tipos de alimentos en función de su estado (maduro, dañado, en buen estado, etc.). Esto puede ayudar a separar los alimentos que aún son aptos para el consumo de aquellos que deben descartarse, lo que reduce el desperdicio de alimentos en la fase de selección. Detección de alimentos en mal estado: El procesamiento de imágenes también puede ayudar a detectar signos de descomposición, moho, plagas u otros problemas en los alimentos. Esto permite una rápida identificación y eliminación de productos no aptos para el consumo, evitando que se mezclen con los alimentos en buen estado y se desperdicien. Recomendaciones para el consumo o donación: Al conocer el estado y tipo de alimentos disponibles, es posible ofrecer recomendaciones a los usuarios sobre recetas o combinaciones de alimentos que se ajusten a sus necesidades y preferencias. También puede facilitar la donación de alimentos aptos para el consumo a organizaciones benéficas o bancos de alimentos. Educación y concienciación: El procesamiento de imágenes puede usarse para crear visualizaciones y gráficos que muestren el desperdicio de alimentos en diferentes contextos. Esto puede ser útil para educar y sensibilizar tanto a la población en general como a las empresas y organizaciones sobre la magnitud del problema y la importancia de reducir el desperdicio



METODOLOGÍA

Durante la estancia de este verano me dediqué a hacer códigos en Python mediante cursos en línea para poder ayudarnos a el procesamiento de imágenes ya tomadas por los estudiantes de veranos pasados, imágenes de diferentes tipos de comida (verduras y carne) y con platos de diferentes colores. Se evaluó el lenguaje R, Python y Matlab, pero se determinó que se harían los códigos en lenguaje Python porque tiene una librería que se llama OpenCV Por qué tienes las capacidades de procesamiento de imagen que nos ayudarían a realizar las prácticas correspondientes a la investigación. Se realizaron 24 codigos dirigidos al procesamiento de imágenes, cada uno de ellos hacen cosas diferentes por ejemplo detectan los colores que hay en las imágenes, calculan el área, hacen imágenes a blanco y negro para calcular los pixeles que hay en las imágenes  El procesamiento de imágenes es una tecnología clave que ha demostrado tener una gran importancia y utilidad en diversos aspectos. Algunos de los beneficios más destacados son:  Eficiencia a partir de la automatización: El reconocimiento de imágenes permite automatizar muchas tareas que antes requerían intervención humana. Por ejemplo, la clasificación de productos, el etiquetado y la identificación de códigos de barras pueden realizarse de manera rápida y precisa mediante sistemas de visión por computadora. Reducción de errores: Al automatizar tareas que anteriormente eran propensas a errores humanos, el reconocimiento de imágenes puede disminuir significativamente las equivocaciones en los procesos realizados, lo que a su vez reduce costos y aumenta la satisfacción del cliente.  


CONCLUSIONES

En resumen, el reconocimiento de imágenes permite ser aplicado en mayor automatización, eficiencia, precisión y seguridad a los procesos, lo que se traduce en una mejora significativa en la gestión de la cadena de suministro y en la experiencia tanto para las empresas como para los clientes a su vez aporta al mejoramiento del consumo en producción más responsable que ayuda en la nutrición, sociedad e impacto ambiental. Por lo tanto, el procesamiento de imágenes en un proyecto de desperdicio de alimentos puede ayudar a mejorar la eficiencia en la gestión de los recursos alimentarios, reducir las pérdidas y fomentar una mayor conciencia sobre la importancia de combatir el desperdicio de alimentos. Al utilizar estas tecnologías de manera inteligente, es posible contribuir significativamente a la reducción del desperdicio y promover prácticas más sostenibles en la industria alimentaria.  
Velazquez Bravo Ana Valeria, Universidad Tecnológica Paso del Norte
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

APLICACIóN DE METODOLOGíA DEL SIX SIGMA EN CASO DE QUEJAS AL CLIENTE


APLICACIóN DE METODOLOGíA DEL SIX SIGMA EN CASO DE QUEJAS AL CLIENTE

Velazquez Bravo Ana Valeria, Universidad Tecnológica Paso del Norte. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En la empresa MUEBLERIA AKEA la cual se dedica a la venta de productos domésticos para el hogar, mayormente su clientela es el público general el cual consume para su hogar propio. En los últimos meses se ha localizado un aumento de quejas.  Donde la clientela expresaba el aspecto más importante respecto al servicio que se les brinda en la línea de cajas, siendo el más importante la rapidez del cobro con 40% , siguiendo de la existencia de cajas disponibles con 30% , mientras tanto la amabilidad el 20% y por último el cobro correcto con 10% . Se obtuvo que el mayor problema fue la demora en las cajas por lo que se llegó a las posibles razones sean los cajeros , el número de artículos y la capacitación del empleado.



METODOLOGÍA

Se ha realizado una metodología de encuesta donde la clientela expresa su opinión eligiendo la opción con la que más se sienta acertada respecto a su caso específico , donde se llegó a la conclusión de que tiene la mayor causa de insatisfacción de demora en línea de cajas. Por lo que se definió el proyecto haciendo una introducción sobre la empresa y el planteamiento del problema así llegando al enunciado del problema . Se definió el proyecto con las fechas de avances según el DMAIC, siguiendo el mapeo del proceso del proyecto (SIPOC) al igual que un diagrama de flujo el actual y el ideal Se definió si la Y como la variable de respuesta es continua o discreta, así como la X   como variable de entrada del proceso, así como la relación de causa efecto entre anteriormente mencionadas. Se realizó la estadística descriptiva para la variable Y o de salida para ver cómo se comporta la variable en respuesta promedio como la desviación estándar.  Se realizo la definición de un análisis de correlación entre las variables y el desempeño para X y Y desarrollando las causas de acuerdo a alguna herramienta de la calidad, así como de acuerdo a ANOVA se identificó las variables que no intervienen con las variables de salida o requerimientos del cliente. Para representar el modelo actual . Se llevó a cabo el desempeño de las Y para determinar la capacidad a largo plazo .  Se realizo un plan de acción de mejora donde se realiza una lluvia de ideas para las posibles soluciones y por ende se evalúan dando así el diseño del plan de implementación. Se calculan las estadísticas de la mejora implementada como la capacidad del proceso. Se define la etapa del control donde se desarrolla el plan del control y se mantenga incluyendo graficas de control. 


CONCLUSIONES

Durante este periodo se obtuvieron conocimientos respecto a la metodología del Síx sigma Green belt con los cuales podremos ejecutar junto a las técnicas de análisis donde se atacan las variables que intervienen para eliminarlas del proceso y llegar el objetivo de reducir las quejas del cliente. 
Velazquez Estrada Jorge Alberto, Instituto Tecnológico de Tepic
Asesor: Dra. Alejandra Molina Osorio, Universidad Autónoma de Manizales

ANáLISIS DE ORGANIZACIóN INDUSTRIAL EN INDUSTRIA AUTOMOTRIZ EN MéXICO


ANáLISIS DE ORGANIZACIóN INDUSTRIAL EN INDUSTRIA AUTOMOTRIZ EN MéXICO

Javier Montalvo David, Benemérita Universidad Autónoma de Puebla. Velazquez Estrada Jorge Alberto, Instituto Tecnológico de Tepic. Asesor: Dra. Alejandra Molina Osorio, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Este presente proyecto teniendo como enfoque la industria automotriz en México tiene como objetivo analizar el poder de mercado y el desempeño en política de competencia en éste sector. Es de suma importancia conocer y analizar el comportamiento de los sectores industriales en México, qué factores influyen en la producción año con año y de qué manera se podría elevar el interés como recomendación a la producción en masa para la venta en territorio nacional, así como la exportación.  Dado que las empresas no solo se comportan de acuerdo a las leyes de oferta y demanda, sino que obedecen también a factores más allá de esta dicotomía como regulaciones, fusiones o adquisiciones y procesos de integración, es necesario explorar el nivel en el que el mercado automotriz mexicano se encuentra estructurado y no solo en la medida en la que los factores mencionados afectan sus productos. Debido a que México en particular posee una gran diversidad de empresas automotrices que producen tanto para el consumo nacional así como internacional, es muy cierto que existe en el mercado mexicano un conjunto de empresas que dominan la producción y venta de automóviles, por ello es necesario indagar en las variables que determinan las compañías que se encuentran en control del mercado mexicano y su nivel de competitividad.



METODOLOGÍA

Esta investigación es exploratoria, descriptiva y cuantitativa. La investigación en organización industrial en latino-américa es escasa y se busca explorar y analizar los sectores con mayores indicadores de concentración de mercado en oligopolios. Se plantea trabajar con datos tipo industriales y de panel desbalanceado acerca de la producción automotriz utilizando distintas fuentes para la creación de una base de datos econométricos.


CONCLUSIONES

Desde el 2005 hasta el presente año, General Motors, Nissan y Volkswagen se han posicionado como las empresas dominantes, puesto que abarcan dos terceras partes del sector automotriz, logrando consigo un gran poder de mercado.   Con el paso de los años, el poder que llegaron a tener dichas empresas fue reducido con la llegada de nuevas compañías automotrices, creando un mercado más competitivo y menos concentrado.   Los patrones de comportamiento a nivel producción han cambiado, la llegada de nuevas empresas y la diversificación de los modelos automotrices han propiciado un mercado automovilístico más desconcentrado.
Velázquez Pérez Fernando Ivan, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

CHIBI FOREST: VIDEOJUEGO PARA AYUDA DE REHABILITACION POSTURAL


CHIBI FOREST: VIDEOJUEGO PARA AYUDA DE REHABILITACION POSTURAL

Velázquez Pérez Fernando Ivan, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural es la capacidad del cuerpo para mantener una postura estable y equilibrada en una variedad de situaciones y actividades. Implica la coordinación de diferentes sistemas corporales que trabajan juntos para controlar la posición del cuerpo en cualquier entorno en el que se encuentre cualquier persona. Debido a la maduración de los diversos sistemas que controlan el cuerpo y permiten al individuo realizar las actividades diarias, las personas, especialmente los adultos mayores, pueden experimentar un deterioro en el control postural que conduce a la inestabilidad. En este caso no se trata solo de mantener el equilibrio del cuerpo en movimiento, sino también del cuerpo en reposo, por lo que es importante implementar estrategias para mejorar el control postural en los adultos mayores. Uno de los principales factores que contribuyen a la inestabilidad en las personas de edad es la disminución de la masa muscular y la fuerza, lo que afecta la capacidad de mantener una buena postura. Además, la pérdida de densidad ósea y la reducción de la flexibilidad también pueden afectar la estabilidad del cuerpo. Otro factor importante es el deterioro del sistema vestibular, que es el encargado de mantener el equilibrio y la orientación espacial. Con la edad, las células sensoriales del oído interno pueden degenerar, lo que provoca mareos y pérdida del equilibrio. Los estudios sobre este tema han concluido que el 50% de las caídas en los ancianos se deben a trastornos de la base de apoyo, el 35% al ​​desplazamiento lateral del centro de masa y solo el 10% a eventos fisiológicos.



METODOLOGÍA

En este caso, para poder realizar dicho proyecto, se tomó en cuenta el objetivo de ayudar de manera intuitiva, optima y divertida a cualquier persona que realice el ejercicio de rehabilitación, por lo tanto, se consideró realizar un videojuego con base al control postural, con la finalidad de poder recuperar el equilibrio del individuo. Se determinó que el proyecto seria con base en el ejercicio proporcionado por PROBAUAM, al cual se nombró como Chibi Forest, y que consiste en que el jugador es un guardia, dentro de un bosque, se le dará una breve introducción por voz de como jugar dicho juego, además los detalles fundamentales se mostrarán en pantalla. Las reglas del juego consisten en que debe activar una combinación de botones con los pies, para hacer subir o bajar una plataforma por la que pasarán los autos. Para poder cambiar la dirección de subir o bajar la plataforma en la que van a cruzar los automóviles y para accionarla, es necesario sentarse momentáneamente en una silla con un botón en el asiento para que la plataforma realice el movimiento en tal dirección. El objetivo del juego, es que la persona logre cierto puntaje mínimo para poder ganar, además de que tendrá tiempo estimado para poder cumplir dicho puntaje antes de que acabe el tiempo, si el jugador se equivoca de combinación de botones, se le mostrará un indicador que muestre que cometió un error así como la combinación correcta. Ahora se presentarán los numerosos beneficios que este ofrece: Los múltiples beneficios que ofrece realizar dicho ejercicio son: Mejora de la estabilidad y el equilibrio: Al ponerte de pie con un pie adelante y otro atrás, estás desafiando tu equilibrio y forzando a tu cuerpo a ajustarse y mantener una postura estable. Esto implica la activación de los músculos del núcleo (core), así como de los músculos de las piernas y los tobillos, que son fundamentales para mantener la estabilidad y el control del cuerpo durante el movimiento. Trabajo del componente axial: El componente axial, que incluye los músculos del núcleo y la columna vertebral, se verá involucrado en este ejercicio. Al ponerte de pie y sentarte repetidamente, estos músculos se activan para estabilizar la columna vertebral y mantener una postura adecuada. Coordinación y fluidez del movimiento: Este ejercicio también trabaja en la coordinación y la fluidez del movimiento, ya que requiere que realices una secuencia específica de movimientos para ponerte de pie y sentarte con un pie adelante y otro atrás. Por lo que ayuda a mejorar la capacidad de realizar movimientos coordinados y controlados en la vida diaria. Fortalecimiento de las extremidades inferiores: Al alternar la posición de los pies, estás trabajando los músculos de las piernas de manera asimétrica, lo que puede ayudar a fortalecer las extremidades inferiores y mejorar su estabilidad. Los múltiples beneficios que ofrece al jugar son: Aumento de la Conciencia Corporal: Los jugadores deben estar atentos a sus movimientos y postura en el juego, lo que aumenta la conciencia corporal. Esto se traduce en una mejor comprensión de su propio equilibrio y postura en la vida diaria. Feedback Inmediato: El juego proporciona retroalimentación inmediata en forma de indicadores visuales cuando los movimientos no son correctos. Esto permite a los jugadores ajustar sus acciones en tiempo real para mejorar su desempeño. Reducción del Aburrimiento: La monotonía es un problema común en la rehabilitación. Los videojuegos de realidad virtual ofrecen una solución entretenida que puede hacer que los ejercicios repetitivos sean más emocionantes y menos tediosos. Monitoreo y Evaluación: Los datos recopilados durante el juego pueden utilizarse para monitorear y evaluar el progreso del paciente a lo largo del tiempo, lo que permite ajustar la terapia según sea necesario.


CONCLUSIONES

Los videojuegos de realidad virtual, como "Chibi Forest", ofrecen una forma innovadora y entretenida de abordar los desafíos de rehabilitación postural. Al combinar la diversión del juego con los beneficios terapéuticos, estos juegos tienen el potencial de mejorar la calidad de vida de las personas, especialmente los adultos mayores, al fortalecer su control postural y su capacidad para mantener una postura estable en diferentes situaciones y actividades.
Velázquez Plascencia David, Universidad de Guadalajara
Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán

IMPORTANCIA DEL USO DE LOS POLíMEROS EN LA INDUSTRIA.


IMPORTANCIA DEL USO DE LOS POLíMEROS EN LA INDUSTRIA.

Gutierrez Torres Melanie Aidee, Universidad de Guadalajara. Ramírez Campos Karime Anahí, Universidad de Guadalajara. Santillán Martínez Fernanda Josefina, Universidad de Guadalajara. Velázquez Plascencia David, Universidad de Guadalajara. Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la Industria y los diversos sectores en los que se divide, depende mucho de un material avanzado: los polímeros. Estos, mayormente se utilizan en la creación e innovación de productos que faciliten su desarrollo y la forma en la que estos se pueden acoplar a nuestro estilo de vida. Pero, no se toman en cuenta del todo las consecuencias que puede traer al ambiente futuro el uso constante y desenfrenado de este material, pues tanto la producción de este mismo y de otros termoplásticos, traen un sinfín de afectaciones directas e indirectas al medio ambiente e incluso a nosotros mismos.



METODOLOGÍA

Los materiales poliméricos son elementos necesarios en nuestro día a día, por lo cual se debe disponer de un diseño y desarrollo racional que establezca parámetros de sostenibilidad. En los últimos años debido a las diferentes problemáticas que genera el sector industrial con el uso y creación de polímeros y sus productos, se han planteado nuevas vías científicas y tecnológicas para elaborar plásticos ecológicos, que impulsen nuevas materias primas menos contaminantes o cero contaminantes, así mismo se innova a partir de los reconocidos bio-polímeros, polímeros biobasados y polímeros nanotecnológicos, que no solo favorecen en la reducción de contaminación del planeta, sino que pueden reducir costos asociados a la producción y postconsumo por lo que van asociados a impulsar la reutilización, reparación y reciclaje final.


CONCLUSIONES

Con esta investigación, se busca concientizar a la Industria para que la innovación que tanto buscan desarrollar, vaya de la mano con el uso sostenible y poder lograr así, una industria resiliente ante los cambios negativos, pues de esta forma, se podrá lograr un equilibrio con el crecimiento y el cuidado mediambiental.  
Velázquez Villasana Francisco Alejandro, Instituto Tecnológico de Morelia
Asesor: Mg. Carlos Alejandro Ramirez Gómez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

DESARROLLO DE UN SISTEMA DE SUPERVISIÓN - CONTROL PARA GENERACIÓN DE ENERGÍA, A TRAVÉS DE INTERNET OF THINGS - IOT


DESARROLLO DE UN SISTEMA DE SUPERVISIÓN - CONTROL PARA GENERACIÓN DE ENERGÍA, A TRAVÉS DE INTERNET OF THINGS - IOT

Aguilar Reyes Brayan Jazheel, Instituto Tecnológico de Morelia. Sanjuan Camarena Julio César, Universidad Tecnológica de Nayarit. Velázquez Villasana Francisco Alejandro, Instituto Tecnológico de Morelia. Asesor: Mg. Carlos Alejandro Ramirez Gómez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los sistemas de autogeneración de energía a partir de fuentes renovables, como la energía solar fotovoltaica y eólica, están diseñados para funcionar sin la supervisión permanente de un profesional. Sin embargo, estos sistemas todavía requieren de inspecciones regulares para garantizar su correcto funcionamiento, ya que están expuestos a la intemperie y pueden sufrir fallas y problemas que afecten su rendimiento y vida útil.



METODOLOGÍA

Se diseñó un módulo para los sensores y se utilizó el software Proteus, programa en el cual se simuló el funcionamiento de estos para lograr un diseño eficiente.Para el diseño del sistema solar fotovoltaico fue necesario tomar en cuenta ciertos cálculos que nos permitieron establecer la cantidad de paneles, tipo de controlador, numero de baterías e inversor, cabe mencionar  que esto está sujeto a las necesidades que se requieran, otros datos muy importantes que se tomaron fue la hora solar pico que hay en la región asi como los días de autonomía, para poder validar y entender el funcionamiento se utilizó el software SharpDevelop que nos permitió realizar una simulación de este sistema para poder implementarlo físicamente.  La elección de la plataforma BLINK en la cual pudimos realizar nuestra base de datos, es muy didáctica, simple e intuitiva.Se realizó la conexión de los 3 sensores de voltaje y 3 sensores de corriente, además se adaptó una caja riel para el módulo de sensores y de la placa arduino Mega. Se utilizó un contenedor metálico con compuerta manual adaptando un sistema de empotramiento tipo RIEL DIN OMEGA y cableado eléctrico por medio de canaletas. Se continuó con la programación de la tarjeta Arduino para la realización de las primeras pruebas de recolección de datos. y posterior en envio a la tarjeta que nos ayudara a subir los datos a la nube, la cual ya recibe los datos de los sensores que le envia la tarjeta Arduino. Lo siguiente es subir los datos a la nube para poder visualizarlo de manera gráfica.


CONCLUSIONES

El impacto del proyecto es positivo ya que este busca implementar una red de IOT que permita al centro de formación monitorear y controlar los diferentes sistemas de energía con fuente renovables y de esta manera garantizar su buen funcionamiento y mejorar su vida útil. Esto da un paso a estrategias relacionadas con la economía del comportamiento que fomenta una ayuda para mejores decisiones frente al cuidado del medio ambiente a través de energías renovables. Tener un monitoreo en tiempo real con la red IOT en los sistemas fotovoltaicos es una manera de administrar el consumo, así mismo gestionar el progreso de las tareas de mantenimiento y control en caso de que surja algún evento fuera de lo normal e intervenir con anticipación personalmente para llevar a cabo el soporte. Queda pendiente la visualización de datos en la plataforma BLINK.
Velez Hidalgo Juan Pablo, Instituto Tecnológico Metropolitano
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

DESARROLLO DE COMPOSITES DE ACIDO POLILACTICO RECUBIERTO CON MEMBRANAS DE ACETATO DE CELULOSA Y CARBOXIMETIL CELULOSA, PARA SU USO COMO ANDAMIO CELULAR.


DESARROLLO DE COMPOSITES DE ACIDO POLILACTICO RECUBIERTO CON MEMBRANAS DE ACETATO DE CELULOSA Y CARBOXIMETIL CELULOSA, PARA SU USO COMO ANDAMIO CELULAR.

Velez Hidalgo Juan Pablo, Instituto Tecnológico Metropolitano. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El estudio de nanofibras es un tema de interés en la ciencia de biomateriales y nanotecnología. Se ha demostrado que el uso de nanofibras puede mejorar significativamente las propiedades mecánicas y funcionales de diversos materiales, lo que impulsa al estudio de nanofibras y entender cómo se comportan con otras materias mejorando sus propiedades mecánicas. El ácido poliláctico (PLA) es un material ampliamente utilizado en varias áreas debido a que es biodegradable y su gran facilidad con la impresión en 3D. Sin embrago, el PLA también presenta limitaciones en sus propiedades mecánicas. El recubrimiento con nanofibras de acetato de celulosa (AC) y carboximetil celulosa (CMC) podría mejorar las propiedades del PLA, lo que permitiría expandir la aplicación del PLA en dispositivos médicos.



METODOLOGÍA

Se utilizó una aplicación para diseñar el modelo de las probetas, las cuales se adaptaron para poder ser sujetadas en la máquina universal. Las probetas fueron impresas en una máquina 3D utilizando filamentos de PLA. En total, se fabricaron 35 probetas, y cada una tardo aproximadamente 1 hora y 30 minutos en imprimirse, por cada impresión se tomaron las medidas tanto de ancho como largo de cada probeta, utilizando un pie de rey y un nanómetro. Una vez concluidas las impresiones, se prepararon dos soluciones para electrohilar y recubrir las probetas. La primera solución fue una concentración del 14% en peso de Acetato de Celulosa (AC) diluido en acetona. La segunda solución consistió en una mezcla de Carboximetil Celulosa (CMC) y Alcohol Polivinílico (PVA), con una concentración del 6% en peso, 1 g de CMC a 5 g de PVA, diluida en H2O (agua). Una vez la mezcla de CMC/PVA estuvo homogénea se agregó Ácido Cítrico (ACI). Al tener las soluciones homogéneas y frías, se utilizó una máquina de electrohilado para obtener nanofibras de AC y CMC. Para el electrohildado de AC, se utilizaron Parámetros específicos en la máquina: 2 mL a 12.5 voltios. Para el electrohilado de CMC, se emplearon 0.2 mL a 12.5 voltios. Transcurrido las primeras membranas de nanofibras de AC y CMC, se recubrieron 10 probetas con nanofibras de AC. Estas se colocaron directamente en la máquina de electrohilado, y se realizaron movimientos circulares para recubrir el centro de cada probeta, con una duración de 1 hora cada recubrimiento en cada probeta. Para el recubrimiento de las otras 10 probetas con nanofibras de CMC, primero se obtuvieron membranas de nanofibras CMC mediante electrohilado, con una duración de 1 hora cada membrana. Luego, las membranas se entrecruzaron calentándolas en un horno a 150 °C durante 30 minutos, posteriormente se dejaron enfriar a temperatura ambiente. Las membranas ya frías se cubrieron de agua, después se pusieron en el centro de la probeta para recubrirlas. Finalmente, las probetas con el recubrimiento de CMC se secaron en un horno a 50 °C. Una vez completado el recubrimiento de las 10 probetas de AC, 10 probetas de CMC y 10 probetas de solo PLA, todas las probetas se sometieron a pruebas mecánicas de tensión utilizando una máquina universal. Se analizaron las gráficas y los valores proporcionados por la máquina universal para evaluar las propiedades mecánicas de las probetas recubiertas y sin recubrir.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos del electrohilado y las nanofibras para biomateriales y poner en práctica con diferentes máquinas y técnicas que se utilizan en el área de biomateriales. Sin embargo, al ser un trabajo que tomaba mucho tiempo en cada proceso aún falta terminar el último proceso que son las propiedades mecánicas de cada probeta y analizar si hay alguna diferencia con las probetas cubiertas y las de PLA. Se espera que las probetas de PLA recubiertas puedan alterar significativamente sus las propiedades mecánicas del material PLA.
Velez Parra Irwin Jared, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

OPTIMIZACIóN Y CREACIóN DE RUTAS PARA REDUCIR LA DISTANCIA Y EL TIEMPO EN TRáNSITO


OPTIMIZACIóN Y CREACIóN DE RUTAS PARA REDUCIR LA DISTANCIA Y EL TIEMPO EN TRáNSITO

Razo Rangel Diego Alejandro, Instituto Tecnológico Superior de Irapuato. Tenorio Mendoza Jonathan Yael, Instituto Tecnológico Superior de Irapuato. Velez Parra Irwin Jared, Instituto Tecnológico Superior de Irapuato. Zúñiga Páramo Karen Fernanda, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La creación de rutas eficientes y bien planificadas en logística es esencial para minimizar costos. Reducir el tiempo de tránsito y la distancia, optimizar la cantidad de carga en el transporte y seleccionar rutas seguras ayuda a mejorar el stock y la seguridad. Una adecuada planificación también permite la trazabilidad de los envíos para un seguimiento y control efectivo durante todo el proceso logístico. En la investigación, se propone centrarse en modelos TTRP (problema de rutas para camiones y remolques), donde se consideran vehículos compuestos por un camión y un remolque, y diferentes tipos de clientes que pueden ser atendidos por el camión solo o la unidad completa. El objetivo del TTRP es encontrar un conjunto de rutas con distancia total mínima, asegurando que cada cliente sea visitado por un vehículo compatible con su demanda y capacidad, sin superar el número limitado de camiones y remolques disponibles. Una particularidad del TTRP es que tanto el camión como el remolque tienen cierta capacidad de carga, y las mercancías pueden transferirse entre ellos durante la ruta en las plazas de aparcamiento del remolque.



METODOLOGÍA

La identificación y análisis de los procesos internos son fundamentales para construir rutas eficientes que minimicen costos y tiempos de transporte. Para ello, se consideran datos como la cantidad de clientes, sus coordenadas, las capacidades de los vehículos y las restricciones operativas. Se utilizará el método PLEB (Programación Lineal Entera Binaria) para la construcción de rutas, que es un algoritmo matemático para resolver problemas de optimización con variables de decisión enteras binarias. Factores importantes para la planeación de rutas incluyen determinar qué tipo de vehículo (tracto, tráiler o mixto) utilizar, la cantidad y tipo de clientes a atender, la secuencia de los destinos y el uso de softwares como el Lenguaje R para saber las rutas optimas y Veusz para graficar las rutas obtenidas. La planeación de rutas es esencial para garantizar entregas rápidas y puntuales, y se realiza trazando las rutas de distribución en un mapa, identificando los puntos de entrega y las mejores vías para cada zona, considerando la disponibilidad de vehículos para cubrir las entregas. En este trabajo, se utilizaron dos métodos para crear rutas eficientes: El método del vecino más cercano para la creación de rutas a partir de una secuencia de ubicaciones. Este algoritmo heurístico busca encontrar una solución aproximada al problema del viajante de comercio, minimizando la distancia o tiempo total recorrido. Aunque no garantiza la solución óptima, es eficiente y proporciona resultados rápidos. El método de clusters es otra estrategia empleada en la creación de rutas eficientes. Consiste en agrupar puntos de interés en clústeres según su proximidad espacial y luego generar rutas para visitar estos clústeres en un orden específico. Este enfoque busca optimizar la planificación de rutas al considerar la agrupación de ubicaciones cercanas.


CONCLUSIONES

La construcción de rutas es una práctica clave en diversos sectores para optimizar el movimiento de personas, vehículos o mercancías, mejorando la eficiencia y reduciendo costos y tiempos de viaje. El problema del enrutamiento de camiones y remolques (TTRP) es un desafío logístico que busca determinar la ruta óptima para una flota de camiones y sus remolques, cumpliendo con demandas de entrega y restricciones operativas. Se utilizan técnicas de optimización combinatoria y algoritmos heurísticos, como el método de Programación Lineal Entera Binaria, para encontrar soluciones óptimas o aproximadas. El lenguaje de programación R se utiliza para aplicar el modelo matemático y generar la ruta óptima, gracias a sus capacidades en estadísticas y análisis de datos. Veusz, una herramienta de visualización de datos científicos se emplea para representar gráficamente las rutas seleccionadas por R, facilitando la visualización y comprensión de la ruta óptima.
Veliz Castro Aldo Rosario, Universidad Autónoma de Occidente
Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente

EVALUACIóN DE LA REMOCIóN DE CONTAMINANTES POR HUMEDALES ARTIFICIALES DE BAJO COSTO


EVALUACIóN DE LA REMOCIóN DE CONTAMINANTES POR HUMEDALES ARTIFICIALES DE BAJO COSTO

Veliz Castro Aldo Rosario, Universidad Autónoma de Occidente. Asesor: Dr. Jeován Alberto Ávila Díaz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Las diferentes comunidades que no cuentan con servicios públicos como el drenaje y cuenten con relieve montañoso para aprovechar la gravedad y no utilizar bombas para trasportar el agua residual a los humedales. La construcción de un humedal en el hogar servirá para depurar el agua residual producida por las descargas que genera la familia en el baño, regadera, lavamanos, etc. Al no contar con servicios de drenaje, el agua residual se compone de aguas de lavado, fecales y limpieza por lo que llevan contaminantes, los más comunes se encuentran gérmenes patógenos, detergentes, solidos, fosforo y nitrógeno que llegan a cuerpos de agua cercanos (ríos, arroyos, lagunas, lagos) debido a la descarga obligada por parte de la población al no contar con servicios públicos.  



METODOLOGÍA

Solidos Disueltos Totales (SDT) Se tomaron muestras del humedal y en el registro de drenaje en recipientes de plásticos con capacidad de un 1L. Se tomaron dos recipientes de plástico (2L de agua del humedal y del drenaje) para ambos puntos de muestreo (humedal y drenaje), se llevaron al laboratorio para la determinación de solidos disueltos totales (SDT) con el procedimiento que indica la norma mexicana (NMX-AA-004-SCFI-2013). Se mezclo la muestra a fin de asegurar una distribución homogénea de sólidos suspendidos a través de todo el cuerpo del líquido. Las muestras deben estar a temperatura ambiente al momento de su medición, posteriormente se colocó la muestra bien mezclada en un cono Imhoff hasta la marca de 1 L. Dejo sedimentar 45 min, una vez transcurrido este tiempo desprender suavemente los sólidos adheridos a las paredes del cono con un agitador; mantener en reposo 15 min más y registrar el volumen de sólidos sedimentables en mL/L. Si la materia sedimentable contiene bolsas de líquido y/o burbujas de aire entre partículas gruesas, estimar aproximadamente el volumen de aquellas y restar del volumen de sólidos sedimentados.    Solidos Suspendidos Totales (SST) Para determinar solidos suspendidos totales (SST) se siguió el procedimiento de una norma mexicana (NMX-AA-034-SCFI-2015), primero se preparó las capsulas (Silica), luego se introdujo las cápsulas al horno (Uamato, modelo since 1889) a una temperatura de 105 °C ± 2 °C, 1 hora, al concluir el tiempo en el horno se trasladó la cápsula al desecador y se dejaro enfriar por 1 Hora, al pasar el tiempo se pesó en una balanza analítica (Denver Istruments). Determinación de nitrato. La determinación de nitrato se realizó con un equipo fotómetro multiparamétrico (HANNA instruments, modelo HI 83099) y el procedimiento se realizó como indica el fabricante. Con ayuda de una pipeta se introdujo 6 ml de la muestra en un recipiente de 10 ml de capacidad para posteriormente colocar la tapa, se selecciona la curva del nitrato en el fotómetro multiparamétrico y se introdujo el recipiente para luego cerrar la tapa del equipo fotómetro multiparamétrico, se seleccionó la tecla cero y en el momento que el equipo marque cero (-0.0-) está listo para la medición. Se retira el recipiente de la muestra y se le agrego un sobre del reactivo nitrate reagent (HI93728-0), inmediatamente se agito de arriba hacia abajo durante 10 segundos, cuando pasé el tiempo indicado se continu el mezclado invirtiendo la muestra suavemente durante 50 segundos, al terminó del tiempo se volvio a insertar el recipiente en el instrumento (fotómetro multiparamétrico) teniendo cuidado en no agitar la muestra, se seleccionará CRONOS y luego leer, aparece un cronometro de 4.30 minutos, al pasar el tiempo el instrumento da la medición de nitrato.   Determinación de fosfato La determinación de fosfato se realizó con un equipo fotómetro multiparamétrico (HANNA istruments, modelo HI 83099) y el procedimiento se realizó como indica el fabricante, se seleccionó el método de fosfato HR, se llena el recipiente con 10 ml de la muestra simple y se coloca en el soporte del instrumento (equipo fotómetro multiparamétrico), se selecciona la tecla cero y en el momento que el equipo marque cero (-0.0-) está listo para la medición. Se retira el recipiente de la muestra y se le agrega 10 gotas del reactivo phosphate HR reagent A (HI 9371A-0), después se le añadio un paquete con el reactivo phosphate HR reagent B (HI 93717B-0) al tener los dos reactivos se agita suavemente, se volve insertar el recipiente nuevamente en el equipo para seleccionar Cronos y al pasar 5 minutos se tiene la lectura del fosfato.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre las propiedades del agua residual de uso doméstico como también conocimientos de propiedades de plantas que depuran el agua residual, en este periodo que estuve trabajando aprendí técnicas y procedimientos que se deben realizar o seguir para determinar los parámetros que nos indicaran los niveles de disminución de la concentración de los contaminantes del agua residual Se espera tener una disminución de los contaminantes del agua recidul al termino o salida de los humedales, teniendo asi un agua con propiedades que se encuentren apropiadas para descargar en cuerpos de agua.
Venegas Cruz Isabel Concepción, Universidad Autónoma de Sinaloa
Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato

MINERíA DE DATOS PARA LPI


MINERíA DE DATOS PARA LPI

López González Javier Paulino, Instituto Tecnológico Superior de Irapuato. Quintana Frías Alina Rocío, Instituto Tecnológico Superior de Irapuato. Rodriguez Hernandez Claudia Paola, Instituto Tecnológico Superior de Irapuato. Venegas Cruz Isabel Concepción, Universidad Autónoma de Sinaloa. Asesor: Mtro. Daniel Armando Aguirre Ibarra, Instituto Tecnológico Superior de Irapuato



PLANTEAMIENTO DEL PROBLEMA

El índice de desempeño logístico (LPI) es una evaluación realizada por el Banco Mundial donde evalúa a más de 150 países. En el LPI se tiene información de categorías como aduanas, infraestructura, trazabilidad, calidad y tiempo de entrega. Sin embargo, para comprender mejor el índice hace falta información sobre indicadores económicos, sociales y de consumo de energía, por lo cual es necesario crear una base de datos.



METODOLOGÍA

Se realizó un código en la plataforma de Google Colab para hacer web scraping de páginas como calificadoras crediticias, la ONU y el World Factbook de la CIA. Se desarrolló el código con la librearía Pandas y BeautifulSoup para leer en un ciclo diversas url’s y acomodar la información en columnas en un archivo CSV según los selectores deseados.


CONCLUSIONES

El trabajo realizado permitió ahorrar tiempo, en un lapso de 703 segundos se obtuvo un archivo CSV con la información solicitada. Fue necesario hacer ajustes a los datos del archivo obtenido, pero fueron mínimos. El código realizado es útil para realizar otro tipo de trabajos similares, solo es cuestión de indicar las url’s y los selectores. El código fue probado con otras instancias como la página del Guanajuato International Film Festival y el Festival Internacional Cervantino; obteniendo resultados satisfactorios.
Venegas López Patricia Jimena, Instituto Tecnológico de Morelia
Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE MATERIALES CATALíTICOS DE NICOMO Y NIMOWSOPORTADOS EN SBA-15 Y ZR-SBA-15 UTILIZANDO áCIDO CíTRICO COMO AGENTE QUELANTE.


SíNTESIS DE MATERIALES CATALíTICOS DE NICOMO Y NIMOWSOPORTADOS EN SBA-15 Y ZR-SBA-15 UTILIZANDO áCIDO CíTRICO COMO AGENTE QUELANTE.

Venegas López Patricia Jimena, Instituto Tecnológico de Morelia. Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los biocombustibles, en comparación con los combustibles fósiles tradicionales como el petróleo y el gasolina, generalmente se consideran menos contaminantes en términos de emisiones de gases de efecto invernadero y ciertos contaminantes atmosféricos. Sin embargo, es importante destacar que los biocombustibles también pueden tener impactos ambientales y presentar ciertos desafíos. Aunque los biocombustibles generalmente emiten menos dióxido de carbono (CO2) que los combustibles fósiles durante su ciclo de vida, la producción y procesamiento de biocombustibles pueden generar emisiones significativas de otros gases contaminantes. Por ello, es necesario eliminar la mayor cantidad de oxígeno mediante procesos de hidrodesulfuración, en búsqueda de reducir la emisión de gases contaminantes a la atmósfera y disminuir el impacto al medio ambiente que estos generan. Los procesos de hidrodesulfuración se apoyan de catalizadores para aumentar la velocidad de la reacción para el proceso de refinación. Estos catalizadores se analizan y se comparan para designar el de mayor eficiencia y menor costo posible.



METODOLOGÍA

 Preparación de los soportes catalíticos SBA-15 y Zr-SBA-15 Para la síntesis de cada soporte se requirieron de 4 gramos de Pluronic P-123 que se diluyeron en 30 mililitros de agua desionizada. Se preparó una solución 2 molar con 20 mililitros de HCl y 100 mililitros de agua desionizada. De esta solución, se agregaban 30 mililitros al Pluronic en agitación cada 10 minutos. Esta solución permaneció en agitación hasta que se logró la disolución total del Pluronic P-123. Se preparó el sistema de calentamiento a 40°C para elevar la temperatura de la solución a 35°C para SBA-15 y de 45°C para Zr-SBA-15 dentro de un vaso de teflón. Se pesaron 8.5 gramos de TEOS (9.95 gr de TEOS y 0.5468 gr de propóxido de Zr en el caso de Zr-SBA-15). Cuando la disolución de Pluronic P-123 llegó a la temperatura deseada,esta solución se agregó gota a gota aún en agitación. Se tapó y se dejó reaccionar durante 20 horas. Transcurridas las 20 horas, se colocó el vaso de teflón en autoclave y dejó en maduración durante 24 horas a una temperatura de 80°C para realizar el tratamiento hidrotermal. Posteriormente, la solución madura se filtró y se lavó con agua desionizada en un embudo Buchner, que se sometió a vacío con un motor monofásico abierto a prueba de goteo de la marca SIEMENS. Se cubrió con papel Parafilm y se dejó secar por 24 horas. Una vez seco, se llevó a calcinar con una rampa de calentamiento de 0.8 °C (y 0.4°C para Zr-SBA-15) por minuto hasta una temperatura de 300°C, donde permaneció durante 1 hora, y después se elevó hasta 550°C con la misma rampa, y a esta temperatura permaneció 6 horas, para después regresar a temperatura ambiente. Ya frío, se calculó el volumen de impregnación al mojarlo con agua desionizada hasta sobrepasar la humedad insipiente. Se encontró que soportó 3.5 ml (3.2 ml para Zr-SBA-15) de agua antes de que esta fuera observable a simple vista y el soporte se formara en grumos. Con este valor se hicieron cálculos para las soluciones catalíticas. Se llevó a secar a una estufa de secado a 80°C. Preparación de la solución NiCoMo Para SBA-15, se pesaron 1.6914 gramos de heptamolibdato de amonio 4-hidrato cristal, 0.5128 gramos de nickel (II) nitrate hexahydrate, 0.5119 gramos de cobalt (II) nitrate hexahydrate y 0.3757 gramos de ácido cítrico. Para Zr-SBA-15, se pesaron 1.85 gramos de heptamolibdato de amonio 4-hidrato cristal, 0.5609 gramos de nickel (II) nitrate hexahydrate, 0.5599 gramos de cobalt (II) nitrate hexahydrate y 0.4109 gramos de ácido cítrico. En 5 mililitros de agua desionizada en agitación, se disolvieron el ácido cítrico y el heptamolibdato de amonio. Se agregó 1 mililitro de hidróxido de amonio y como paso siguiente, se agregaron el niquel y el cobalto. Se buscaba obtener un pH cercano a 9. La suma de los reactivos líquidos involucrados debía ser igual a 25 mililitros en total, para respetar la relación molar calculada para el volumen de impregnación calculado. Preparación de la solución NiMoW Para SBA-15 se requirieron de 0.7072 gramos de heptamolibdato de amonio 4-hidrato cristal, 1.1224 gramos de nickel (II) nitrate hexahydrate, 0.9905 gramos de metatungstato de amonio y 2.1926 gramos de ácido cítrico. Para Zr-SBA-15 se requirieron de 0.7071 gramos de heptamolibdato de amonio 4-hidrato cristal, 1.1224 gramos de nickel (II) nitrate hexahydrate, 0.9904 gramos de metatungstato de amonio y 2.1926 gramos de ácido cítrico. En una plancha de agitación, en 5 mililitros de agua se disolvieron el heptamolibdato de amonio, el ácido cítrico y el metatungstato de amonio. Se agregó un mililitro de hidróxido de amonio y después se agregó el niquel. La solución deseada requería de 25 mililitros de reactivos líquidos y un pH cercano a 9. Calcinación de los soportes impregnados con NiCoMo y NiMoW Para eliminar el agua y el hidróxido de amonio del soporte impregnado, se llevó a cabo la calcinación de los materiales bajo la misma rampa de calentamiento. Se inició elevando la temperatura hasta los 100°C, donde permaneció por 6 horas. Posteriormente, se elevó la temperatura a 500°C donde permaneció por 4 horas más, para después llevar a cabo un enfriamiento durante 5 horas.  


CONCLUSIONES

Resultados Los resultados de difracción de rayos X y de SEM por ángulo bajo siguen en espera. Conclusiones Se prepararon de manera exitosa los catalizadores junto con los soportes para cada uno. Se sigue en espera de los resultados de difracción de rayos X y microscopio electrónico de barrido para corroborar la existencia de las fases deseadas, así como del mapeo elemental.
Vera Garcia Marilu, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Post-doc Luis Rubén Pérez Pinzón, Universidad Autónoma de Bucaramanga

ESTRATEGIAS DE GESTIóN EMPRESARIAL PARA EL DESARROLLO DEL TURISMO EN APAN, HIDALGO


ESTRATEGIAS DE GESTIóN EMPRESARIAL PARA EL DESARROLLO DEL TURISMO EN APAN, HIDALGO

Vera Garcia Marilu, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Post-doc Luis Rubén Pérez Pinzón, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

El problema de esta investigación radica en la ausencia de estrategias consolidadas que permitan el crecimiento y la diversificación del sector turístico en la región. A pesar de los atractivos culturales, históricos y naturales que ofrece Apan, aún no ha logrado alcanzar su máximo potencial en términos de afluencia de visitantes y beneficios económicos sostenibles. Es por ello que se busca identificar lo que se a logrado hasta ahora en términos turísticos dentro de la región, considerando las características y necesidades específicas de la comunidad. 



METODOLOGÍA

Para alcanzar el objetivo, se empleará una metodología cualitativa, dónde se realizó una búsqueda en bases de datos académicas y bibliotecas digitales utilizando palabras clave relacionadas con el tema de estudio. Se incluyeron términos como "gestión empresarial", "desarrollo turístico", "Apan, Hidalgo", "estrategias turísticas", entre otros., y exploratoria ya que el tema no a sido lo suficientemente explorado y de esta manera generar ideas para futuras líneas de investigación.


CONCLUSIONES

Durante la revisión bibliográfica, se pudieron rescatar puntos que se consideran importantes, por una parte, se observo que dentro del municipio de Apan, Hidalgo no se cuentan con estrategias especificas enfocadas al sector empresarial, es por ello que se recomienda generarlas, ya que es importante potenciar el turismo como ente económico en la región, ya que como se observo dentro de los antecedentes la aplicación de estrategias empresariales efectivas y estratégicas puede ser el catalizador clave para impulsar el crecimiento y la sostenibilidad de la industria turística en Apan. En el aspecto turístico, Apan es rico en cultura e historia y la clave para lograr un crecimiento exitoso en el turismo de Apan, Hidalgo, radica en un enfoque integral que englobe una gestión empresarial sólida, el cuidado y protección del valioso patrimonio cultural y natural de la zona, y una estrecha colaboración entre los sectores público y privado. Al implementar de manera efectiva las estrategias propuestas, Apan tiene el potencial de consolidarse como un destino turístico atractivo, lo que conllevará beneficios económicos y sociales duraderos tanto para la comunidad local como para los visitantes.  
Vera Mar Esteban, Universidad de Sonora
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

OBTENCIóN Y CARACTERIZACIóN DE HIDROGELES ACRíLICOS REFORZADOS CON PARTICULAS LIGNOCELULóSICAS A PARTIR DE ASTILLAS DE MEZQUITE, PARA REMOCIóN DE METALES PESADOS.


OBTENCIóN Y CARACTERIZACIóN DE HIDROGELES ACRíLICOS REFORZADOS CON PARTICULAS LIGNOCELULóSICAS A PARTIR DE ASTILLAS DE MEZQUITE, PARA REMOCIóN DE METALES PESADOS.

Vera Mar Esteban, Universidad de Sonora. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El incremento de metales pesados en el agua plantea un grave problema principalmente vinculado a la actividad humana. La minería y la industria son las principales fuentes de contaminación, generando residuos que contienen elementos tóxicos como plomo, mercurio, cadmio, arsénico y cromo, que acaban llegando a los ríos y contaminando las aguas subterráneas. Para ejemplificar, los metales antes mencionados se encuentran en uso en diferentes actividades de la industria. Estos elementos se emplean en la producción de pinturas para la industria textil y gráfica, en el galvanizado de metales, así como en el procesamiento de papel en la industria papelera y como aditivos en la industria peletera. Esta situación compromete la seguridad alimentaria y la salud pública tanto a nivel local como global, y requiere una acción urgente para mitigar sus efectos perjudiciales.



METODOLOGÍA

Cocción La finalidad de este proceso fue el de eliminar la mayor cantidad de lignina de en este caso las astillas de mezquite. El procedimiento llevado a cabo se basó en preparar una solución también llamada licor con NaOH y Na2S, posteriormente pesar 1000g de astillas de mezquite y agregarlo al hornillo junto con el licor y 2 litros de agua destilada extra para sumergir bien las astillas. Depuración Este proceso se realizó después de la cocción para poder separar la pulpa de las astillas, colocando una pequeña porción de esta al depurador junto con agua de manera que el agitador del depurador hacia pasar las fibras de la pulpa por una malla las cuales posteriormente caían a una criba, las astillas o materia que no fuera lo suficientemente delgada se quedaba adentro del tanque y se desechaba.  Determinación de numero de kappa El método usado fue aplicado para determinar el grado de des lignificación de la pulpa antes obtenida.  El método usado fue el um-245 (número de kappa rápido 1991) el cual consiste en hacer una solución con 800 ml de agua destilada dispersando 4 g base seca de pulpa y añadirles permanganato de potasio 0.1 N y H2SO4 4 N para después agregarle KI 0.1 N y añadirle unas gotas de almidón al 0.2 % que funcionan como indicador para después titularlo con tiosulfato 0.2 N.  Blanqueamiento Una vez conseguido el porcentaje de lignina remanente en la pulpa se siguió con el proceso de blanqueo el cual tiene como objetivo la solubilización de la lignina. En el caso de la pulpa de mezquite se realizaron 5 blanqueamientos los cuales el primero se realizó con dióxido de cloro (13 g/l) llevándola a la pulpa y añadirle la cantidad de agua necesaria para obtener una consistencia de 10% y dejándola reposar en baño maría aproximadamente a 70 grados. El segundo blanqueo fue por extracción alcalina. El tercer blanqueo fue por medio de 5 g de peróxido al 30% y 1g de NaOH. El cuarto blanqueo utilizó el mismo procedimiento que el anterior. Para el ultimo fue mediante oxidación medio alcalino en frio. Determinación de alfa-beta-gamma celulosa Después de blanquear la pulpa se determinó el porcentaje de alfa celulosa la cual es la celulosa que no se encuentra degradada y por lo tanto tiene un mayor peso molecular, el porcentaje de beta celulosa es la celulosa degradada la cual tiene un peso molecular menor y la gamma celulosa son las hemicelulosas. Este proceso consiste en extraer consecutivamente la pulpa con soluciones de hidróxido de sodio al 17.5% y 9.45% .  Refinación Yocro   La finalidad de este proceso es abrir las fibras del mezquite para conseguir un tamaño menor de fibras. Oxidación Tempo En este proceso la finalidad es la misma que en el caso de la refinación yocro la obtención de fibras mas delgadas.  Preparación de Hidrogeles Se prepararon 11 hidrogeles de distinta composición de pulpa. El procedimiento llevado a cabo para su elaboración fue a partir de una solución el cual contenía acrilamida. La acrilamida polimerizada con el ácido acrílico se utiliza como superabsorbente, por su gran retención de agua dentro de su estructura. Pesaje de cero geles Se etiquetaron 5 probetas de cada cero gel tipo según su peso y se movieron a vasos en donde se les añadió agua destilada hasta el tope para estar haciendo un muestreo de su peso a lo largo de varias horas.  Una vez ya se dejaron de utilizar los hidrogeles se llevaron a liofilizar para remover la humedad de los hidrogeles a través de un secado en frío con la finalidad de en un futuro poder analizarlos.   Lectura de IR Con cada una de las pulpas se pesó aproximadamente un gramo para llevarlas a un horno a aproximadamente a 60 grados celcius para quitarles toda la humedad posible y después llevarla al espectrofotómetro infrarrojo. Lectura UV Por último, se volvió a hacer un muestreo, añadiéndole soluciones de distinta concentración de cromo una a cada probeta siguiendo la norma NMX-AA-044-5CFI-2014, con la finalidad de observar la variación de concentración con respecto al tiempo y el tipo de hidrogel. 


CONCLUSIONES

Ya que durante nuestra estancia se dedicó principalmente a la elaboración de hidrogeles y el pesaje de los cero geles solamente redactaré los resultados de estos. En el caso de mezquite se pudo observar que todos los hidrogeles alcanzaban su peso máximo entre las 24 y 35 horas en donde el que tuvo mayor porcentaje de absorción fue el hidrogel con 1.08 g base seca de pulpa refinada (HMP 1.08 g) el cual se hinchó 62.40 veces su tamaño en promedio y el de menor absorción fue el hidrogel con 1.08 g de materia prima (HMP 1.08 g) con una hinchazón de 37.51 veces su tamaño original.
Vera Paniagua Ingrid Enid, Instituto Tecnológico de La Piedad
Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara

DESAFÍOS Y BARRERAS EN LA VIDA LABORAL POST PANDEMIA PARA LOS EGRESADOS DE LA LICENCIATURA EN INGENIERÍA MECATRÓNICA DEL TECNOLÓGICO NACIONAL DE LA PIEDAD


DESAFÍOS Y BARRERAS EN LA VIDA LABORAL POST PANDEMIA PARA LOS EGRESADOS DE LA LICENCIATURA EN INGENIERÍA MECATRÓNICA DEL TECNOLÓGICO NACIONAL DE LA PIEDAD

Vera Paniagua Ingrid Enid, Instituto Tecnológico de La Piedad. Asesor: Mtra. Inés Hernández Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los egresados de la Licenciatura en Ingeniería Mecatrónica del Tecnológico Nacional de La Piedad se enfrentan a diversos desafíos y barreras en su vida laboral post pandemia. Sin embargo, también existen soluciones y ventajas que pueden ayudarles a superar estas dificultades y aprovechar las oportunidades que se presentan en el nuevo contexto laboral. La educación también ha experimentado cambios significativos durante la pandemia. Los egresados se han enfrentado a limitaciones académicas debido a la falta de acceso a laboratorios y equipos especializados. Sin embargo, también han surgido oportunidades en términos de acceso a recursos educativos en línea y la posibilidad de desarrollar habilidades autónomas para el aprendizaje a distancia. La investigación realizada plantea analizar los desafíos y barreras que enfrentan los egresados de la Licenciatura en Ingeniería Mecatrónica del Tecnológico Nacional de La Piedad en su vida laboral posterior a la pandemia. Se mencionan algunos desafíos que podrían surgir para estos egresados en el mercado laboral, como el aumento de la competencia debido a la cantidad de profesionales disponibles, los cambios en las demandas de la industria impulsados por la adopción de nuevas tecnologías, la falta de experiencia laboral debido a la limitación de oportunidades de pasantías y prácticas, la necesidad de adaptarse al trabajo remoto y el dominio de herramientas tecnológicas, post- pandemia. En el caso específico de los egresados de la Licenciatura en Ingeniería Mecatrónica del Tecnológico Nacional de La Piedad, es importante investigar los desafíos y barreras que enfrentan en su vida laboral posterior a la pandemia por varias razones: relevancia para el campo laboral, identificación de necesidades de capacitación, apoyo a la inserción laboral, mejora de la empleabilidad, contribución al desarrollo regional, etc. Y buscar estrategias y soluciones para estas, ya que en base a estas pueda desarrollarse de una manera estratégica para su solución.



METODOLOGÍA

Para abordar este problema de investigación, se realizaron estudios cualitativos y cuantitativos que involucran encuestas, entrevistas y análisis de datos para recopilar información sobre las experiencias de los egresados y las barreras específicas que enfrentan en su vida laboral post pandemia. Esto permitió identificar estrategias y recomendaciones para apoyar a los egresados en su transición al mercado laboral y superar los desafíos existentes. Este proceso se estructuro en varias fases las cuales sientan una base suficiente para respaldar la congruencia de la investigación, donde se aplicaron los instrumentos y se capturaron por medio de un formulario de Google, el cual nos proporciona algunas graficas de sus respuestas y se analizaron otras; posteriormente se realizó un análisis de estadística descriptiva y pruebas estadísticas con las dimensiones de los resultados obtenidos en base a esta.


CONCLUSIONES

Con la investigación desarrollada se espera obtener como resultado estrategias para que los docentes y alumnos a egresar tomen en cuenta según los aspectos identificados en la misma. Los egresados se enfrentan a desafíos significativos en su vida laboral post pandemia. La disminución de oportunidades laborales, la necesidad de adaptarse a nuevas tecnologías, la escasez de experiencia laboral, la posibilidad de reorientar su carrera profesional y los desafíos del trabajo remoto son algunas de las principales barreras a las que se enfrentan. Para superar estos obstáculos, es fundamental mantenerse actualizado en las últimas tecnologías, desarrollar habilidades blandas y buscar oportunidades para adquirir experiencia práctica en el campo. Además, la colaboración entre instituciones educativas y empresas puede ser clave para facilitar la transición de los egresados al mercado laboral y fomentar su crecimiento profesional. Sin embargo, como se logra apreciar a lo largo del desarrollo de la investigación, ellos tienen soluciones y ventajas a su disposición. La flexibilidad laboral, la transformación digital, el equilibrio entre la vida profesional y personal, la calidad de vida laboral y la adaptación a la educación en línea son aspectos clave en los que pueden enfocarse. Al desarrollar habilidades relevantes y aprovechar las oportunidades tecnológicas, podrán superar los desafíos y tener una vida laboral satisfactoria.
Verde Mercado Ruth Sarahi, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente

DESARROLLO DE UNA RED NEURONAL PARA LA INTERPRETACIóN DE UN CUERPO HUMANO


DESARROLLO DE UNA RED NEURONAL PARA LA INTERPRETACIóN DE UN CUERPO HUMANO

Verde Mercado Ruth Sarahi, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

La identificación de un cuerpo humano en dibujos o figuras antiguas en papel, talladuras o cualquier otro material puede llegar a ser complejo de poder interpretar para el ojo humano, la capacidad que tiene el cerebro de poder determinar una figura abstracta es muy variante, dado que no se tiene certeza ni seguridad al momento de la descripción de una imagen, esto deriva problemas dependiendo de las circunstancias en las cuales la interpretación correcta de lo que se ve debe de ser tan precisa sin tener un rango de fallo elevado. Esto llega a ser imposible para el ser humano, dado que cada uno tiene una diferente percepción de los dibujos o formas abstractas por lo cual esto puede dificultar el conceso sobre la interpretación correcta de una forma abstracta.



METODOLOGÍA

Para el desarrollo de este proyecto se utilizaron las redes neuronales convolucionales que se usa para el análisis y la identificación del cuerpo humano mediante el procesamiento de datos con una tipología similar a la de una cuadrícula, cuyo fin es detectar y clasificar dicho cuerpo. Este tipo de redes neuronales están compuestos de capas de nodos que cuentan con una capa de entrada, capas ocultas y una capa de salida, donde todos los nodos están conectados con un valor asociado de manera que, si la salida de un nodo individual posee un valor por encima del valor umbral especificado de cada nodo, dicho nodo se activa y manda la información a la siguiente capa de la red para ello la red comienza a entrenarse y poder diferenciar si la imagen, dibujo o pintura pertenece a un cuerpo humano dando una mejor precisión en el resultado. Estas redes convolucionales aprenden representaciones cada vez más abstractas de los datos que reciben de las imágenes, las neuronas detectan líneas, formas y texturas, entre otras cosas, para reconocer las partes de un cuerpo humano.  Herramientas Python: Se programo en este lenguaje ya que es apto para todas las plataformas podemos ejecutarlo en diferentes sistemas operativos sin ningún problema, es un lenguaje multiparadigma lo que permite que sea muy flexible y fácil de aprender y es totalmente gratuito. Matplotlib:Es una librería de Python especializada en la creación de gráficos permite crear y personalizarlos definir la figura que contendrá el gráfico. Tensorflow :Para la programación se utilizaron las librerías tensorflow ya que estas facilitan la creación de modelos de aprendizaje permitiendo construir y entrenar redes neuronales para detectar patrones y razonamientos usados por los humanos entrenando modelos que ayuden a ser más eficientes con la detección del cuerpo humano. Datasets: Sirven para almacenar utilizando un sistema de datos estructurados por lo cual la red neuronal va aprender en base a los datos con los cuales se le entrena, y entre más datos sean introducidos en su aprendizaje, mayor será la inteligencia que desarrolle.


CONCLUSIONES

Las Redes Neuronales están inspiradas en la biología, esto significa que están formadas por elementos que se comportan de manera análoga a las neuronas en las funciones más elementales y están organizadas de una forma similar a la del cerebro. Finalmente, los avances de la inteligencia han permitido que la tecnología ahorre ciertas tareas a los humanos y la vemos implicada en diferentes aspectos de nuestras vidas. Las funciones matemáticas son un factor determinante para ayudar a la red neuronal a poder decidir o incluso predecir algunos comportamientos de forma más rápida que un ser humano, todo esto gracias al procesamiento computacional que se utiliza en ellas. Una red neuronal convolucional puede tener incontables capas, las cuales aprende a reconocer diferentes características en la imagen. Los filtros se aplican a las imágenes de entrenamiento en varias resoluciones, y la salida de la convolución de cada imagen se usa como entrada para el siguiente nivel. Los filtros comienzan como características muy simples, como el brillo y los bordes, y crecen en complejidad hasta que defina características únicas de su objeto. Estás redes proporcionan una arquitectura óptima para descubrir y aprender características clave de datos de imágenes y series temporales, esta tecnología es clave en aplicaciones como capturas de imágenes médicas, usualmente para detectar células cancerosas en imágenes que no puedan ser interpretadas fácilmente por los expertos en el área, en procesamiento de audio que funciona en la detección de palabras clave para poder identificar una palabra determinada y finalmente en detección de objetos como lo es la conducción autónoma que es la encargada de detectar señales y otros objetos a fin de tomar decisiones optimas. El presente proyecto de investigación y aplicación de un modelo de capas para predecir las partes del cuerpo humano, sienta una base en la investigación para ser continuada y mejorada en un futuro. 
Villa Enriquez Carolina, Instituto Tecnológico Superior de Cananea
Asesor: Dr. Miguel Alejandro Barreto Cruz, Corporación Universitaria Minuto de Dios

RESPONSABILIDAD SOCIAL CORPORATIVA & BIENESTAR LABORAL: CLAVES PARA EL ÉXITO CORPORATIVO


RESPONSABILIDAD SOCIAL CORPORATIVA & BIENESTAR LABORAL: CLAVES PARA EL ÉXITO CORPORATIVO

Villa Enriquez Carolina, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Miguel Alejandro Barreto Cruz, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

     Las universidades al funcionar como empresas para obtener y garantizar su sostenibilidad financiera buscan un impacto positivo en la sociedad para que la empresa logre tener un buen posicionamiento. El problema de que las organizaciones no apliquen la responsabilidad social corporativa radica en que se pierden oportunidades para generar un impacto positivo en la sociedad y obtener un buen posicionamiento de la organización. En este contexto surge la necesidad de aplicar la responsabilidad social corporativa para abordar los aspectos internos de la organización con el bienestar laboral de sus colaboradores. En la actualidad, las empresas no solo deben preocuparse por obtener beneficios económicos, sino también por su impacto social. Los niveles de estrés laboral han ido aumentando cada vez más, debido a la exigencia por parte de los directivos. Natalia Gaviria González (2022) señala que Colombia es uno de los países más afectados por el estrés laboral Con más de 57%, el país supera la media de estrés laboral en Latinoamérica cuyos resultados fueron de 56% y a 50% a nivel global (p.1). Donde surge a siguiente pregunta de investigación. ¿De qué manera UNIMINUTO como organización socialmente responsable es coherente con los procesos de bienestar laboral que aplica para el éxito corporativo?    Del cual se desprenden un objetivo general y tres objetivos específicos los cuales son los siguientes: Objetivo general:​ Analizar a UNIMINUTO como organización socialmente responsable si coherente en los procesos de bienestar laboral para obtener éxito corporativo.​ Objetivos específicos:​ Identificar los principios de responsabilidad social corporativa en la gestión empresarial que se asocian al bienestar laboral para el éxito corporativo.  Determinar las principales estrategias y políticas de bienestar laboral utilizadas por UNIMINUTO para promover el bienestar físico, mental y emocional de sus empleados. Describir los beneficios y las ventajas competitivas que puede obtener una empresa al integrar la responsabilidad social corporativa y el bienestar laboral en su gestión empresarial.



METODOLOGÍA

Enfoque: Cualitativo Tipo:  Fenomenológico  Contexto:   - Colaboradores UNIMINUTO  -Empresas RSC  Sujetos:  Empresas  Colaboradores  Técnicas  Entrevistas  Encuestas  Gestión / análisis documental   


CONCLUSIONES

Resultados de 50 fuentes rastreo:  Tipo de publicación  Artículo de investigación 80%   Tesis 16%   Libro 4%  Contexto ( País)   Colombia  13  España  10  Perú   9  Ecuador 6  México   5  Argentina 3  Cuba 1  Bolivia 1  Costa Rica 1  Venezuela 1  Sujeto  Empresas 29  Colaboradores 20  Salud 1  Año de publicación  2019 -9  2020 -15  2021 -14  2022 -10  2023- 2        En conclusión, la implementación efectiva de la Responsabilidad Social Corporativa implica que las empresas deben asumir la responsabilidad de sus acciones y decisiones, considerando el bienestar de sus colaboradores. La RSC no solo es una muestra de compromiso ético, sino también una estrategia inteligente para fomentar el éxito corporativo de la organización.         Por otro lado, el Bienestar Laboral juega un papel muy importante en la productividad, el compromiso.  Una fuerza laboral saludable y feliz se traduce en un ambiente de trabajo positivo, una mayor eficiencia y menor cantidad de renuncias o despidos de colaboradores. Promover el bienestar laboral implica proporcionar condiciones laborales seguras, oportunidades de desarrollo profesional, equilibrio entre la vida laboral y personal, así como programas de bienestar físico y emocional.        Cuando se tiene RSC en las organizaciones pueden obtener una ventaja competitiva significativa. Los colaboradores se sentirán más motivados y comprometidos, lo que se traduce en un mayor desempeño y una mayor productividad. Asimismo, la sociedad verá a la empresa como un agente de cambio positivo, lo que generará una mayor confianza y preferencia por parte de los clientes y consumidores.        En resumen, la Responsabilidad Social Corporativa es un gran pilar para obtener el éxito corporativo de la organización. No solo se beneficia la organización en términos de reputación y rentabilidad, sino que también contribuyen al desarrollo sostenible y al bienestar general de la sociedad. Las organizaciones que adopten estas claves como parte integral de su cultura empresarial estarán mejor posicionadas para enfrentar los desafíos y aprovechar las oportunidades que el futuro les depara. 
Villa Raigoso Kiara Andrea, Universidad Autónoma de Manizales
Asesor: Dr. Juan Carlos Elizondo Leal, Universidad Autónoma de Tamaulipas

ANáLISIS Y PROCESAMIENTO DE SEñALES ELECTROMIOMICAS PARA EL CONTROL DE UNA PRóTESIS DE MANO


ANáLISIS Y PROCESAMIENTO DE SEñALES ELECTROMIOMICAS PARA EL CONTROL DE UNA PRóTESIS DE MANO

Villa Raigoso Kiara Andrea, Universidad Autónoma de Manizales. Asesor: Dr. Juan Carlos Elizondo Leal, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La Asociación Colombiana de Medicina Física y Rehabilitación indica que en el país hay una incidencia de amputación de 200 a 300 personas por cada 100.000 habitantes, ya que entre el 5 y 10% de la población discapacitada de Colombia corresponde a amputación de extremidades. Esta cifra es aumentada debido al Conflicto armado de este país, el Observatorio de Minas de Vicepresidencia de la República presenta registros de más de 3.000 víctimas, de estos hay más de 2.300 heridos, de los cuales, la mayoría presenta mutilaciones y amputaciones de sus extremidades. En la actualidad en México más del 0.5% de las personas vive con la perdida de un miembro, en el día se realizan alrededor de 500 amputaciones, esta cifra se ve en aumento debido al incremento de la patología de diabetes y enfermedades vasculares. Ante la amputación o perdida de un miembro superior, el principal objetivo es mejorar la calidad de vida del paciente, por lo cual, se sugiere la adaptación e implementación de prótesis de mano o brazo. Las prótesis más avanzadas se encuentran con un costo muy elevado, estas no son muy accesibles para la mayoría de la población, por esto, se tienden a adquirir prótesis estéticas o mecánicas, las cuales son las de más bajo costo debido a sus limitadas funciones. Por lo anterior, durante el verano de investigación se estudia la actividad mioeléctrica con el fin de operar una prótesis de mano de bajo costo, con el propósito de aumentar la accesibilidad de esta tecnología.



METODOLOGÍA

Se empleo el sistema de Aura Mirai Innovation, el cual es una tecnología que permite el monitoreo de diferentes bioseñales, se ejecutó el software de Aura para la lectura de las señales, se utilizó una placa de Arduino uno, y el software de Anaconda específicamente la interfaz en Spyder. Para la adquisición de la señal se conectaron dos canales del dispositivo, el canal uno en el músculo flexor radial del carpo, el canal dos en el músculo extensor radial del carpo, la referencia en el músculo braquial, las conexiones anteriores corresponden al brazo derecho, por último, la tierra fue conectada en el hueso cubito, en la articulación de la muñeca; esta información fue registrada en el software de Aura, en el cual se transmitían los datos en formato LSL. En el preprocesamiento de la señal se programó el código en Python, en el cual, mientras recibe el flujo de datos tipo LSL (Lab Streaming Layer), se va llenando un vector en tiempo real, a este vector se le aplica un filtro pasa bandas delimitado en las frecuencias de 15 Hz a 50 Hz, en el procesamiento se calcula la desviación estándar de los datos filtrados, se grafica la señal filtrada y la desviación estándar mientras se procesan los datos. Se realizan pruebas del código, se determina un valor de la desviación estándar, el cual, es el umbral donde ocurre la fuerza de los músculos, se establece la comunicación entre Python y Arduino, donde se programa un servomotor, el cual cambia su sentido de giro, dependiendo de la desviación estándar que reciba y su condicional, con esto se conecta a la prótesis de mano, por lo tanto, cuando se genera un cambio brusco en la actividad eléctrica de los músculos es posible visualizar el efector como el movimiento de un dedo de la prótesis. Mientras se realizaba la estructura del código se realizaron varias pruebas al adquirir la señal de diferentes individuos, con el fin de establecer un valor de referencia que fuese ejecutable con diferentes sujetos, con esto se determino que cuando la desviación estándar fuese superior a 250 el servomotor debe cambiar el sentido de giro, y cuando sea menor retornara al sentido de giro definido por defecto.


CONCLUSIONES

Se logró obtener movimiento en la prótesis de mano al realizar el análisis de la actividad mioeléctrica. Gracias al filtro pasa bandas se obtuvo la filtración adecuada de los datos. En un trabajo futuro se planea implementar un a red neuronal para aprender la actividad mioeléctrica del movimiento de cada falange, para brindar mas movimientos a la prótesis. La desviación estándar es clave en la determinación del movimiento de la prótesis de mano.  
Villafuerte Martínez Naomi Arelí, Universidad de Colima
Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California

ADQUISICIóN, PROCESAMIENTO Y ANáLISIS COMPARATIVO DE LAS SEñALES ELECTROENCEFALOGRáFICAS EN PERSONAS AUTISTAS Y NEUROTíPICAS ANTE ESTíMULOS SENSORIALES AUDITIVOS.


ADQUISICIóN, PROCESAMIENTO Y ANáLISIS COMPARATIVO DE LAS SEñALES ELECTROENCEFALOGRáFICAS EN PERSONAS AUTISTAS Y NEUROTíPICAS ANTE ESTíMULOS SENSORIALES AUDITIVOS.

Cárdenas Canales René Patricio, Instituto Politécnico Nacional. Noyola Zamora Marianne Denis, Instituto Politécnico Nacional. Rodriguez Acuña Ricardo, Instituto Tecnológico Superior de Cajeme. Villafuerte Martínez Naomi Arelí, Universidad de Colima. Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El trastorno del espectro autista (TEA) es una condición del neurodesarrollo caracterizada por alteraciones en la comunicación e interacción social, así como en el procesamiento sensorial. Esto representa un desafío significativo para la sociedad debido a su alta prevalencia y las dificultades que su población puede experimentar en diversos aspectos de su vida. Dentro del autismo, se experimentan diferencias en la sensopercepción que pueden variar de un individuo a otro. Algunas personas pueden experimentar una audición típica o tener habilidades auditivas excepcionales, mientras que otras pueden enfrentar dificultades en su procesamiento. El análisis comparativo de la respuesta eléctrica cerebral mediante electroencefalografía (EEG) entre personas autistas y neurotípicas (es decir, sin trastornos neurológicos) frente a estímulos sensoriales auditivos se ha convertido en una herramienta de investigación relevante para comprender las bases neurobiológicas de las diferencias en el procesamiento sensorial entre ambos grupos. Por tanto, surge la necesidad de formular la siguiente interrogante: ¿Existe una diferencia significativa en la respuesta eléctrica cerebral en personas autistas y neurotípicas ante estímulos sensoriales auditivos? Este estudio tiene como objetivo principal comparar las respuestas cerebrales mediante EEG en individuos autistas y neurotípicos al exponerse a estímulos sensoriales auditivos.



METODOLOGÍA

El inicio del proyecto involucró una revisión de la literatura existente con el objetivo de obtener información sobre la reactividad eléctrica cerebral de personas autistas frente a potenciales evocados auditivos y sobre las áreas cerebrales implicadas en el procesamiento de la información sonora. Durante el proceso de consulta, se realizaron pruebas con dos sistemas de EEG disponibles para la investigación el Emotiv EPOC+ de 14 canales y el Open BCI de 8 canales para determinar cuál se adaptaba mejor a las necesidades del proyecto, considerando aspectos como la comodidad, la ubicación y tipo de los electrodos, el formato de la información numérica, la posibilidad de agregar marcadores y los insumos disponibles para su mantenimiento y correcta colocación.  Se tomó una clase enfocada en la sensopercepción y las crisis sensoriales en el trastorno del espectro autista se estableció un protocolo de actuación en caso de que un participante presente señales de malestar o desencadene una crisis durante la presentación de los estímulos auditivos. Para su presentación, los estímulos auditivos se dividieron en dos categorías, con una duración de dieciséis segundos cada uno, y separados con silencios de la misma magnitud. Estas consistieron en diez sonidos cotidianos y diez frecuencias dentro del umbral auditivo, las cuales se determinaron al relacionarse con la regularidad con la cual se presentan en la vida diaria. Para su estandarización, se utilizó una aplicación de celular para medir los decibelios percibidos desde la perspectiva del sujeto de estudio. Para la delimitación de la población, se utilizó el Cuestionario de cociente del espectro autista (Baron-Cohen, 2001), el cual es empleado para cuantificar los rasgos autistas. Se seleccionaron dos personas autistas, y dos personas neurotipicas ambos de la misma edad y sexo. Una mujer autista de veintidós años y un varón autista de dieciséis años, y en contraparte, una mujer neurotípica de veintidós años y un varón neurotípico de dieciséis años. Se les realizó una entrevista sobre su historial clínico y posteriormente se les aplicó el Cuestionario de sensibilidad auditiva (Khalfia y col., 2002). Para el escenario se seleccionó uno de los salones de la universidad y se tomaron las medidas necesarias para eliminar la mayor cantidad de sonidos de fondo durante las pruebas y se utilizó una bocina ubicada a un metro de distancia del sujeto. Antes de iniciar las pruebas, se realizó un ejercicio de respiración con el objetivo de que el individuo se encontrará relajado. Posteriormente, se colocó al sujeto en posición sentado con la bocina a la espalda. Frente a él, se situaron dos observadores, los cuales anotaron las reacciones conductuales que el sujeto de prueba pudiera presentar durante la reproducción de sonidos. Para el procesamiento de los datos, se diseñó un programa en Matlab que separó y filtró las respuestas para poder determinar la potencia y frecuencia de onda percibida durante la presentación de los estímulos, cuestión que ayudará a comparar las señales entre cada grupo de individuos.


CONCLUSIONES

Se espera, a través del análisis de la actividad eléctrica cerebral con la utilización de MATLAB, obtener un mayor entendimiento de los mecanismos subyacentes a las peculiaridades sensoriales observadas en personas autistas, lo que podría contribuir a mejorar la evaluación diagnóstica y el diseño de intervenciones terapéuticas para este trastorno del neurodesarrollo. Además, se espera que los resultados obtenidos puedan ayudar en las necesidades sensoriales individuales de las personas autistas. Este estudio de comparación de la respuesta eléctrica cerebral mediante EEG permitió obtener señales de biopotenciales cerebrales que brindan información sobre las bases neurobiológicas de las diferencias en el procesamiento sensorial en el trastorno del espectro autista. Este enfoque puede proporcionar una visión más profunda de cómo el cerebro de las personas con TEA responde de manera distinta a los estímulos auditivos en comparación con el cerebro de individuos neurotípicos y así crear un ambiente menos abrumador para ellas, lo que contribuiría a su bienestar y rendimiento en distintos contextos. Un mayor entendimiento de los mecanismos subyacentes a las peculiaridades sensoriales observadas en personas autistas puede llevar a una mejora en la evaluación diagnóstica y facilitar el diseño de intervenciones terapéuticas más específicas y efectivas, adaptadas a las necesidades sensoriales individuales de cada persona con TEA.
Villalpando Alonso Pablo Raziel, Universidad Tecnologica de León
Asesor: Dr. Heraclio García Cervantes, Universidad Tecnologica de León

PROGRAMACIóN DE SISTEMA AUTOMATIZADO PARA MEDICIóN DE PARáMETROS FíSICOS UTILIZANDO REALIDAD AUMENTADA E INTERNET DE LAS COSAS.


PROGRAMACIóN DE SISTEMA AUTOMATIZADO PARA MEDICIóN DE PARáMETROS FíSICOS UTILIZANDO REALIDAD AUMENTADA E INTERNET DE LAS COSAS.

López Arias Ernesto Leonardo, Universidad Tecnologica de León. Villalpando Alonso Pablo Raziel, Universidad Tecnologica de León. Asesor: Dr. Heraclio García Cervantes, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

En la industria, la eficacia de los procesos muchas veces puede verse comprometida, debido a que muy a menudo no se suelen alcanzar los parámetros requeridos para acatar el control de calidad, generando como consecuencia una disminución parcial e incluso total en la producción, en muchas empresas, el prescindir de una producción continua y eficaz representa una pérdida significativa de recursos, tales cómo, tiempo, capital, materiales, entre otros. Muchas veces, la interacción hombre-máquina es bastante lenta, esto es causado por diversos factores, tales cómo, el transporte de maquinaria es lento, invasivo, costoso, entre otros. Esto representa diversos retrasos en la producción. A la hora de capacitar nuevos trabajadores un problema recurrente es que no se logra que el aprendizaje sea consistente, el aprendizaje del trabajador puede resultar poco eficaz e incluso ambiguo, teniendo consecuencias en la producción a corto o largo plazo, la realidad aumentada nos ayudará a que el aprendizaje se desarrolle de mejor manera y lo más clara posible. Con una correcta implementación de la realidad aumentada e internet de las cosas, nos permitirá lograr una medición e interacción en tiempo real, mejorando increíblemente el proceso de recolección e interpretación de datos, disminuyendo en gran medida el problema de los estándares de calidad, problemas de aprendizaje en la capacitación, beneficiando al empleador y a los empleados, permitiendo ahorrar una cantidad nada despreciable de recursos, capital, y tiempo, lo cual podría ayudar a mejorar considerablemente la calidad de los productos, a desarrollar e incluso hacer posible pulir y mejorar en gran medida los procesos en las corporaciones



METODOLOGÍA

La realidad aumentada (RA) es la integración de información digital a una imagen del mundo real con ayuda de la cámara de los diferentes dispositivos tecnológicos. La RA consiste en tomar una imagen como referencia, la cual es procesada por un algoritmo de detección de bordes en el cual se prepara la imagen para la etapa de segmentación y reconocimiento de patrones. Este proceso permite determinar la posición en la cual se debe reemplazar un objeto real por uno virtual, tomando en cuenta posición y perspectiva. Una ventaja que ofrece RA es que permite incorporar objetos reales con virtuales en el mismo entorno, en donde se pueden manipular artefactos reales interaccionar con objetos virtuales. La RA tiene un gran número de aplicaciones abarcando diferentes áreas: educativa, industrial, capacitación, publicidad, médicas, etc. 


CONCLUSIONES

Se desea obtener información usando diferentes sensores, sobre parámetros físicos como lo son temperatura, humedad, intensidad luminosa con la finalidad de tener un monitoreo para un lugar en específico con ayuda de la realidad aumentada e internet de las cosas. Todo esto como una herramienta de aprendizaje para los alumnos y una gran cantidad de aplicaciones en la parte industrial y educativa. La realidad aumentada se vuelve muy atractiva y de gran apoyo para poder tener acceso a objetos desde largas distancias y poder monitorear los mismos.
Villanueva López Ingrid, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez

MONITOREO DE UN SISTEMA FOTOVOLTAICO USANDO INTERNET DE LAS COSAS (IOT)


MONITOREO DE UN SISTEMA FOTOVOLTAICO USANDO INTERNET DE LAS COSAS (IOT)

Villanueva López Ingrid, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Introducción La humanidad se encuentra en constante actualización y principalmente en el sector industrial, ya que constantemente surgen innovaciones para optimizar los procesos y servicios. La Industria 4.0 está creando cambios en la forma de operación de los negocios lo que implica que los negocios se ven obligados a competir. Esta revolución implica la combinación de técnicas avanzadas de producción y operaciones con tecnologías inteligentes que serán integradas a las organizaciones, personas y activos. Por otro lado, en sistemas fotovoltaicos es posible ver la producción de energía en el sitio donde se encuentran, pero no siempre de forma remota. Cuando el usuario no se encuentra en el sitio de la instalación no puede conocer la producción del sistema, a qué temperatura y a qué humedad se encuentran. Tomando en cuenta lo anterior, este proyecto busca implementar sensores en una batería de 12V con una carga para poder monitorear su funcionamiento de una forma más fácil, de modo que no se requiera usar un multímetro, simplemente entrar a ThingSpeak a observar los valores gráficamente. En un futuro se pretende que este proyecto se aplique para un sistema fotovoltaico añadiendo sensores de voltaje, corriente e iluminación, para que el usuario pueda monitorear remotamente la producción de energía en tiempo real y así también la temperatura y humedad. Para llevar a cabo este prototipo se hizo uso de la placa de desarrollo NodeMCU ESP8266, el software Arduino IDE, ThingSpeak, sensor de voltaje 25V DC, sensor de corriente ACS712, sensor de temperatura DHT11 y el convertidor analógico digital ADS1115. Justificación El diseño y construcción de este prototipo proporcionará información de parámetros básicos de un panel fotovoltaico que podrán ser consultados a través la interfaz ThingSpeak. La implementación de este proyecto beneficia al propietario del sistema fotovoltaico ya que este permite monitorear de manera remota el voltaje, la corriente y potencia que se genera en el sistema en tiempo real.  Asimismo, que sea posible conocer la temperatura y humedad del ambiente en el que se encuentra en el sistema. Objetivo general Diseñar y construir un prototipo electrónico que permita el monitoreo en tiempo real de las variables características de un sistema de generación fotovoltaica usando Internet de las Cosas (IoT). Objetivos específicos Recopilación de información e investigación de la teoría de la recolección de energía basada en sistemas fotovoltaicos con monitoreo de variables características usando IoT. Verificar trabajos similares apoyados en registros e información (Estado del Arte). Diseñar y construir un prototipo electrónico aplicado al sistema de recolección de energía fotovoltaica con acceso remoto de datos vía IoT. Desarrollar un procedimiento de pruebas de funcionamiento del sistema de monitoreo fotovoltaico en su conjunto, mediante gráficas de comportamiento de sus variables características. Problemas a resolver Monitoreo de voltaje, corriente y potencia cuando el propietario no se encuentre cerca de la instalación información de sensores de forma gráfica, de modo que permita observar el incremento y decremento de variables Alcances y limitaciones Para las investigaciones se estima el tiempo de una semana y para el prototipo de dos semanas. Las pruebas se realizarán con una batería de 12 V y la implementación final del proyecto es en un sistema fotovoltaico Las variables a monitorear son el voltaje, la corriente, la potencia, temperatura y humedad



METODOLOGÍA

Diseño del programa comenzando con el módulo DHT11 y procediendo con el ADC y los sensores de voltaje y corriente Construcción del circuito de acuerdo a los pines determinados en el código Se carga el programa a la placa para comprobar que todo esté correcto Se crea un circuito de 6 leds en serie (los cuales en conjunto consumen 11.3V aproximadamente) con una fuente de alimentación de 12V DC Conectar los sensores de voltaje y corriente al circuito recientemente realizado Sensor de voltaje: Positivo a polo positivo de batería y negativo a polo negativo de batería Sensor de corriente: Positivo a polo positivo de batería y negativo a ánodo de primer led        6. Cargar el programa y observar los valores de los parámetros    


CONCLUSIONES

En el presente proyecto se realizó desde el diseño, programación y prototipado hasta las pruebas con una batería de 12 V, buscando principalmente recopilar información de parámetros como voltaje, corriente, potencia, temperatura y humedad a través de sensores con el objetivo de conocer el funcionamiento del circuito. Esta información es visualizada en ThingSpeak de forma gráfica y en el monitor serial numéricamente. El uso de estas tecnologías permite monitorear remotamente sistemas y procesos, de forma que este proyecto busca aplicarse en un sistema fotovoltaico en el futuro. Los resultados obtenidos fueron evaluados con un multímetro y comparados con la temperatura y humedad en la ciudad de Tonalá Chiapas, comprobando que los sensores indicaban valores cercanos a los reales.
Villanueva Ortega Manuel, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO E IMPLEMENTACIóN DE UN SITIO WEB COMO HERRAMIENTA DE CONCIENTIZACIóN INFANTIL ENTRE LOS 6 A 12 AñOS SOBRE LA DISCAPACIDAD EN MéXICO EN 2023


DISEñO E IMPLEMENTACIóN DE UN SITIO WEB COMO HERRAMIENTA DE CONCIENTIZACIóN INFANTIL ENTRE LOS 6 A 12 AñOS SOBRE LA DISCAPACIDAD EN MéXICO EN 2023

de la Cruz Arzate Haleb, Instituto Tecnológico de Ciudad Altamirano. Rios Sanchez Francisco Obed, Instituto Tecnológico de Ciudad Altamirano. Rodriguez Noguez Leslim Noemi, Instituto Tecnológico de Ciudad Altamirano. Villanueva Ortega Manuel, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la discapacidad forma parte de nuestras sociedades porque en ellas encontramos personas con una variedad de condiciones físicas, intelectuales, mentales, psicosociales, sensoriales, auditiva y visuales que obstaculizan su participación de forma plena y efectiva en las sociedades. Estas discapacidades pueden ser desde el nacimiento o desarrollarse a lo largo de la vida, además de manifestarse en diferentes maneras y niveles de gravedad. Conocer acerca de las discapacidades es de gran importancia para las sociedades, ya que esto permite el desarrollo, comunicación y satisfacción de las personas que cuentan con estas condiciones, por lo tanto se han hecho grandes progresos para que el mundo sea más accesible para las personas que viven con discapacidad; sin embargo, se requiere mucho más trabajo para satisfacer sus necesidades (Organización Panamerica de la Salud, s/f). De acuerdo con la Organización Mundial de la Salud (Organización Mundial de la Salud, 2023) señalo que, a nivel mundial, se calcula que 1300 millones de personas, es decir, el 16 % de la población mundial, sufren actualmente una discapacidad importante. Sin embargo, las personas con discapacidad son objeto de discriminación y exclusión, fomentando así, las desigualdades sociales en el mundo.  Entre las causas de esta situación se debe por la falta de conocimiento que hay en la sociedad sobre esta condición dando como resultado que las personas con discapacidad no puedan gozar de sus derechos plenamente.   En América Latina y el Caribe, según el Banco Mundial (Banco Mundial, s.f.) señala que, en 2020, vivieron 85 millones de personas con discapacidad, es decir, uno de cada tres hogares vive con una persona con algún tipo de discapacidad, sin embargo, los hogares con personas con discapacidad son más vulnerables pues se estima que uno de cada cinco hogares en situación de pobreza extrema vive una persona con discapacidad. En el ámbito de educación, el analfabetismo es cinco veces mayor en las personas con discapacidad y el 15 % de niños con discapacidad no van a la escuela. En el ámbito laboral, una de cada dos personas con discapacidad no trabaja en el mercado laboral y los que trabajan, ganan entre el 6 y 11 % menos por el mismo empleo que otros trabajadores. Como resultado, la discriminación produce países que no se desarrollan por el límite de oportunidades que ofrece.   A nivel nacional, de acuerdo con cifras en el Censo de Población y Vivienda 2020 del INEGI (INEGI, s/f) en México hay aproximadamente 6 millones de personas con algún tipo de discapacidad, posteriormente, de acuerdo con ENADIS 2022 (INEGI, 2023), 33.8 % de las personas con discapacidad de doce años y más manifestó haber sido discriminado durante los últimos doce meses. En México, según el Banco Mundial (Banco Mundial, 2021) las personas con discapacidad tienen una media del 24 % de no completar su educación primaria y el 30 % si pertenecen a una minoría etnoracial y, además, un trabajador con discapacidad gana en promedio $ 0.8 de cada dólar que recibe un trabajador sin discapacidad. En términos generales, México es un país en donde las personas con discapacidad encuentran dificultades en su vida cotidiana generando falta de oportunidades, pobreza, falta de reconocimiento en las leyes, falta de acceso a la educación y claramente, la discriminación.  



METODOLOGÍA

Para la metodología se realizó por la metodología cascada que consta de los sguientes pasos: 1.- Especificación de requisitos: Para obtener los requisitos era necesario obtenerlos de primera mano por parte de la población de estudio, es decir, los niños de 6 a 12 años, La encuesta se realizo en Google Forms, este cuestionanrio consto de 14 preguntas. 2.- Analisis: Con la información obtenida se crearon tablas de información en donde se proporcionaba los porcentajes de las respuesta. 3.- Diseño: Para el diseño se realizo bajo la experiencia UI/UX 4.- Implementación: Se implemento con las tecnologías HTML, CSS y Javascript. Se realizo la pagina index (página principal) en donde se encuentran las diferentes discapacidades que existen: fisicas, mentales e intelectuales, viscerales, sensoriales y  multiples. 5.- Evaluación y pruebas: Se revisó a que no hubiera fallas de lógica y de sintaxis. 6.- Documentación de proyecto: Se desarrollaron informes cada viernes de las diferentes actividades que se realizaron en la semana. 7.- Entrega del informe final: Se entrego el resumen de lo desarrollado en la instancia.  


CONCLUSIONES

En conclusión, el lograr concientizar a una población es un reto ya que esta tiene diferentes estigmas y perspectivas acerca de las discapacidades, una de las formas que más alcance se tiene es a través de la internet y se logra la importancia de sensibilizar a través de la información a los niños, debido a que el programa es corto se tuvo que realizar una encuesta a los niños de 6 a 12 años, sin embargo, como nos encontramos en periodo de vacaciones no se logró aplicar las encuestas de manera correcta. Sin embargo, el contenido del sitio web se extrajo de diferentes fuentes de información como organizaciones internacionales y nacionales. Con esta información se realizo el sitio web mostrando contenido informativo que servirá para que los niños conozcan acerca de las diferentes discapacidades que existen en el país.
Villanueva Pardo Said, Universidad de Guadalajara
Asesor: Dr. Heber Vilchis Bravo, Universidad de Ciencias y Artes de Chiapas

CARACTERIZACIóN ELéCTRICA DE MATERIALES SEMICONDUCTORES


CARACTERIZACIóN ELéCTRICA DE MATERIALES SEMICONDUCTORES

Villanueva Pardo Said, Universidad de Guadalajara. Asesor: Dr. Heber Vilchis Bravo, Universidad de Ciencias y Artes de Chiapas



PLANTEAMIENTO DEL PROBLEMA

En los últimos años el constante crecimiento de industrialización y el avance de procesos tecnológicos, han aumentado considerablemente la demanda energética en México, esto, a su vez, ha llevado al alto consumo de combustibles fósiles. Por ello, encontrar e innovar en tecnologías que nos permitan aprovechar las energías renovables se ha vuelto una necesidad. La generación eléctrica mediante el efecto piezoeléctrico es una nueva propuesta de energía limpia; es la propiedad que ciertos materiales tienen para generar energía al ser accionados, es decir, el material se puede polarizar eléctricamente cuando se somete a una presión.  



METODOLOGÍA

En este trabajo, la metodología usada  es experimental. Como introducción al comportamiento eléctrico de los materiales semiconductores se inició con la obtención de curvas corriente vs voltaje (I-V). Se obtuvieron las curvas experimentales I-V de una resistencia comercial de 22 kilo ohm y de un diodo comercial 1N4007. La caracterización eléctrica de la resistencia se realizó aplicando un barrido de voltaje de -2 a 2 volts con incrementos de 0.05 V, mientras que la del diodo se realizó aplicando barridos de voltaje de -1 a 2 V con incrementos de 0.1 V. Para la caracterización eléctrica I-V se usó un multímetro de banco, una fuente de alimentación keithley 2231-A-30-3 y cuatro cables banana-caimán. El segundo método de caracterización eléctrica fue efecto piezoeléctrico medido mediante microscopia de fuerza atómica (AFM). Esta herramienta nos permite estudiar la topografía (superficie) de materiales semiconductores y obtener imágenes con altas resoluciones en escalas nanométricas, al mismo tiempo, se pueden obtener curvas de voltaje contra fase y voltaje contra magnitud cuya interpretación de relaciona con la propiedad piezoeléctrica del material bajo estudio. Su funcionamiento consta en una sonda (cantiléver) que puede estar o no en contacto con la superficie de la muestra dependiendo la configuración que se quiera utilizar. Cuando el cantiléver interactúa con la superficie intervienen las fuerzas débiles y las fuerzas de Van der Waals atrayendo o repulsando la sonda. El movimiento de la sonda es detectado mediante la deflexión de un láser enfocado en la cara posterior de la sonda. Las deflexiones se detectan en un sensor sstm obteniendo así graficas de topografía, fase, magnitud y señal de error. Mediante la sonda se puede aplicar una diferencia de potencial sobre la muestra para alinear las cargas, lo que permite observar las zonas con diferente polaridad en las gráficas de magnitud y fase, lo que está relacionado con las propiedades piezoeléctricas del material. Durante esta estancia de investigación pude operar el equipo AFM modelo XE7 de la marca Park System, en cuyo software especializado se realiza espectroscopia eléctrica, IV, fotocorriente, prueba Kelvin y piezoelectricidad. De esta manera, aprendí a configurar y operar el equipo. El modo que se usó para la caracterización (de los dos modos que tiene) fue por contacto, durante el procedimiento primero se cargó un área de 6x6 µm aplicándole una diferencia de potencial de -10 V, posteriormente se cambió la polarización a +10 V en una segunda área de 4x4 µm, al interior de la primer área. Finalmente, se sondea un área de 8x8 µm, que incluye las dos áreas anteriores, con una diferencia de potencial de 0 V a una frecuencia de 0.5 Hz. De la imagen obtenida se hace un análisis para interpretar los resultados gráficos.


CONCLUSIONES

A lo largo de estas siete semanas se desarrollaron conocimientos teóricos en el tema de energías renovables y conocimientos prácticos en el manejo del microscopio de fuerza atómica. Con base a la metodología usada en esta investigación se concluye de los análisis hechos que las muestras de silicio poroso infiltradas con oxido de galio son más propensas a cargarse eléctricamente. Esto debido a cargas que se acumulan en los intersticios del silicio poroso con el óxido de galio, los que se observó en las gráficas de espectroscopia, obtenidas al someter las muestras a diferencias de potencial en el AFM, en las que se aprecian las diferentes polaridades en las áreas estudiadas.  
Villapudua Rivera Luis Fernando, Universidad Autónoma de Sinaloa
Asesor: Dra. Ma. del Carmen Chávez Parga, Universidad Michoacana de San Nicolás de Hidalgo

GENERACIóN DE BIOGáS POR DIGESTIóN ANAEROBIA A PARTIR DE NOPAL (OPUNTIA FICUS-INDICA) Y NEJAYOTE


GENERACIóN DE BIOGáS POR DIGESTIóN ANAEROBIA A PARTIR DE NOPAL (OPUNTIA FICUS-INDICA) Y NEJAYOTE

Villapudua Rivera Luis Fernando, Universidad Autónoma de Sinaloa. Asesor: Dra. Ma. del Carmen Chávez Parga, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la búsqueda de soluciones sostenibles para abordar los desafíos ambientales y energéticos, la generación de biogás mediante la digestión anaerobia funge como una prometedora alternativa para la producción de energía renovable y la gestión adecuada de residuos orgánicos En México, tradicionalmente se suele consumir productos como nopal (Opuntia ficus-indica) y tortillas, mismos que durante su producción generan residuos, en el caso de las tortillas se forma el nejayote durante el proceso de cocción del maíz y cal lo que lo hace un residuo bastante alcalino. Tanto los residuos de nopal como el nejayote presentan potencial para la generación de biogás debido a su contenido de materia orgánica. El nopal destaca principalmente por su contenido de carbohidratos (12-17%), mientras que el nejayote por su contenido de carbohidratos (37.8-55.7%) y proteínas (4.9-7.4%). El objetivo del trabajo presente es determinar la concentración de metano (CH4) en un biogás generado a partir de nopal y nejayote, igualmente también se pretende evaluar la sostenibilidad energética de este proceso tomando en cuenta la energía necesaria para mantener y alimentar el reactor RAFA contra la energía capaz de obtener por medio del biogás.



METODOLOGÍA

El estudio fue realizado en la División de Estudios de Posgrado de la Facultad de Ingeniería Química de la Universidad Michoacana de San Nicolás de Hidalgo en el Laboratorio de Ingeniería Ambiental. La generación de biogás se llevó a cabo en un Reactor Anaerobio de Flujo Ascendente (RAFA) escala piloto con dimensiones de 39 cm de altura y un diámetro interno de 25.5 cm durante 25 días. La temperatura del reactor fue monitoreada con un termopar y estabilizada con un par de resistencias programadas para detenerse una vez que el termopar indique 35.0°C. Los análisis fisicoquímicos realizados para monitorear el comportamiento del sistema fueron: determinación de pH, alcalinidad, conductividad, relación alfa (solo al inóculo), sólidos totales y sólidos totales volátiles. La determinación de sólidos totales y sólidos totales volátiles fueron realizadas según la norma mexicana NMX-AA-034-SCFI-2015. La determinación de alcalinidad se basó en la norma mexicana NMX-AA-036-SCFI-2001. El pH y la conductividad fueron obtenidos mediante el uso de un multiparamétrico marca Thermo Scientific modelo Orion STAR A329 portable pH/conductivity meter siguiendo las normas NMX-AA-008-SCFI-2016 y NMX-AA-093-SCFI-2000, respectivamente. Con respecto al cálculo de la relación alfa del inóculo se tomó como como señal analítica el volumen de H2SO4 0.02 N usado para llegar a un pH de 5.75 y como señal de fondo el volumen de ácido usado para llegar a un pH de 4.3. Para la alimentación (realizada una vez por semana) del reactor se realizó el siguiente procedimiento: Pesar y preparar 750 gramos de nopal , este pasa por un proceso de molienda y trituración con el fin de facilitar la hidrólisis. Se mezclan 3.5 litros de agua caliente para nuevamente triturarlo y filtrar la fibra, la mezcla resultante se homogeniza con 1 litro de nejayote y un alcalinizante, en este caso, 5 gramos de óxido de calcio.  Una vez filtrada toda la fibra, la mezcla homogénea es alimentada al reactor. La determinación del porcentaje de metano en el biogás se realizó en un cromatógrafo de gases BUCK Scientific®, con detector de Ionización de flama (FID) y conductividad térmica (TCD) y columna empacada con silica gel en tubo de acero inoxidable de 1 m de longitud y 1/8de diámetro. Las condiciones de operación son la temperatura del horno de 100ºC a 200ºC, del detector FID 150 -200ºC y del TCD 100 -130ºC.


CONCLUSIONES

Se tuvo un promedio de producción de 1.5 L de biogás por día y mediante la cromatografía de gases se encontró que el biogás obtenido contiene 62% de CH4. El gasto energético semanal incluyendo la energía necesaria para mantener la temperatura del reactor y la energía para llevar a cabo los procesos de tratamiento de la alimentación (molienda, trituración y calentamiento) fue de 16.652 kW, y la energía neta capaz de producir el biogás obtenido durante una misma semana es de 209.265 kW, por lo tanto, la producción de biogás por digestión anaerobia a partir de nopal y nejayote se puede considerar enérgeticamente sostenible.
Villares López Arvell Mexicali, Universidad Nacional de Ingeniería
Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa

TRANSICIóN ENERGéTICA SOSTENIBLE EN NICARAGUA: ESTUDIO DEL POTENCIAL TECNOLóGICO DE NICARAGUA PARA LA PRODUCCIóN DE HIDRóGENO VERDE


TRANSICIóN ENERGéTICA SOSTENIBLE EN NICARAGUA: ESTUDIO DEL POTENCIAL TECNOLóGICO DE NICARAGUA PARA LA PRODUCCIóN DE HIDRóGENO VERDE

Villares López Arvell Mexicali, Universidad Nacional de Ingeniería. Asesor: Dra. Milen Balbis Morejon, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

 Nicaragua, en comparación con otros países latinoamericanos aún se encuentra en una etapa incipiente en lo que respecta a este desarrollo tecnológico, político y social de la tecnología del hidrñogeno verde, no obstante, es importante destacar que el país posee los recursos necesarios para posicionarse como un actor relevante en la implementación de esta prometedora tecnología que contribuya al desarrollo de la nación e igualmente, que sea participe de la lucha contra el cambio climático. Con el enfoque adecuado y una estrategia bien alineada con las políticas y la gestión de las tecnologías, Nicaragua tiene el potencial de sumarse a la vanguardia de la adopción de energías limpias y sostenibles, contribuyendo así a un futuro más respetuoso con el medio ambiente.  



METODOLOGÍA

El estudio se llevó a cabo mediante una metodología mixta que combina la revisión bibliográfica, el análisis de datos cuantitativos y la recopilación de información de fuentes primarias. En primera instancia se realizó una exploración y análisis sobre el estado actual de la energía en el marco de la transición energética nacional e internacional en base a las perspectivas de diversos autores e instituciones relacionadas al trabajo de transición energética para conocer el panorama global sobre la crisis climática y el camino hacia la descarbonización.   Una vez realizada la documentación y análisis sobre la transición energética, se procedió a realizar una revisión bibliográfica sobre el uso de las tecnologías para la producción energética con énfasis en las energías renovables para conocer las ventanas de oportunidad y beneficios que conlleva la implementación de las mismas y su estado actual a nivel global, no obstante, se documentó de igual manera acerca de la producción energética por vías no renovables, principalmente por reformado de hidrocarburos pues es la causante de múltiples efectos nocivos para el medio ambiente y que hoy día se trata de la vía energética predominante en muchas regiones, siendo la contraparte de las energías renovables en cuanto a costo, vía de obtención, viabilidad técnica, entre otros factores.   Seguidamente, se realizó una revisión del estado del arte a nivel internacional del hidrógeno verde y como este representa la piedra angular para el futuro con cero emisiones netas de carbono. Se revisaron diversos artículos internacionales acerca de países fuertemente industrializados y como iniciaron con la implementación de esta tecnología y los resultados obtenidos sobre esta, así mismo, se recolectaron datos e información acerca de proyectos o fuentes de obtención de hidrógeno verde a nivel nacional e internacional  Para indagar sobre la producción de hidrógeno verde en Nicaragua, se realizó una revisión y análisis sobre la matriz energética del país a través de datos relevantes de diversas instituciones del estado responsables de la gestión energética nicaragüense para discernir sobre el estado actual de Nicaragua en el contexto de la viabilidad técnica, ambiental y sociopolítica de la implementación de la tecnología del hidrógeno verde y las fuentes de obtención disponibles en el país.


CONCLUSIONES

Se evaluó el potencial y la viabilidad técnica, económica y ambiental de las tecnologías existentes en la región en el contexto de la transición energética para la producción de hidrógeno verde en Nicaragua, y se concluye que el país presenta una apta capacidad para la adaptación a esta tecnología de acuerdo a sus capacidades sociopolíticas, geográficas y económicas.  Fue posible analizar el estado actual de Nicaragua en el marco de la transición energética y se determinó que a pesar de no estar a la vanguardia en lo que a otros países de América Latina respecta, han sido muchos los esfuerzos de instituciones tanto privadas como públicas para lograr una transición sostenible en el país centroamericano a través de la implementación de políticas de cambio e inversiones en diversos proyectos.  Se logró identificar las tecnologías renovables disponibles en la región que propicien la producción de hidrógeno verde, el progreso en la energía eólica, solar e hidráulica son las ventanas de oportunidad previstas.     
Villaseñor Castañeda Gerardo, Universidad de Guadalajara
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

ESTUDIO DEL COMPORTAMIENTO DE LA LUZ DIFUSA EMITIDA POR PROCESOS DE DEPOSICIóN DE METAL POR LáSER


ESTUDIO DEL COMPORTAMIENTO DE LA LUZ DIFUSA EMITIDA POR PROCESOS DE DEPOSICIóN DE METAL POR LáSER

Villaseñor Castañeda Gerardo, Universidad de Guadalajara. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la industria se utilizan distintos métodos de manufactura, las cuales van desde las más básicas y conocidas como lo puede ser la forja, hasta técnicas como las DED (Direct Energy Deposition) en la cual se encuentra la técnica de LMD (Laser Metal Deposition). Está técnica consta de transmitir energía por medio de un haz láser que al llegar a un sustrato funde el material (polvo o alambre metálico). Esta es una técnica de manufactura aditiva ya que estamos hablando de adherir un elemento a otro, sin embargo esta técnica es relativamente nueva por lo que aún no se tiene bien caracterizadas las condiciones óptimas durante su operación, esto debido principalmente a que cada material, aleación o compuesto presenta distintas propiedades y por ende requerirá cambios en los parámetros del proceso. Por lo que uno de sus mayores retos es el monitoreo, el cual nos sirve para conocer los fenómenos que ocurren durante el proceso de fundición de material reforzante a material base. Durante este proceso se destaca la emisividad la cual se refiere a la capacidad de un material para emitir luz térmica o radiación electromagnética. Cuando el láser incide en el sustrato, se genera una intensa fuente de calor que hace que el material experimente cambios de fase. Estos cambios de fase, como la fusión y la solidificación del material, pueden afectar significativamente la emisividad del sustrato, es decir, la cantidad de luz térmica que emite. La emisividad puede variar con la temperatura y la composición del material, lo que hace que su medición y comprensión sean fundamentales para el estudio del comportamiento de la luz difusa en el proceso de LMD. Entender la emisividad es importante porque puede afectar la distribución de la luz en el proceso de LMD y, por lo tanto, tener un impacto en la transferencia de energía, la calidad del depósito y la estabilidad del proceso en general. Investigar la emisividad en este contexto permitiría mejorar la comprensión de los fenómenos térmicos que ocurren durante el proceso de deposición y, potencialmente, optimizar las condiciones de operación para obtener resultados más precisos y eficientes.



METODOLOGÍA

Se llevó a cabo un estudio del estado del arte de la técnica LMD (Laser Metal Deposition) para comprender a fondo el proceso de trabajo de esta técnica. Durante este proceso, se analizaron los distintos parámetros involucrados, como la potencia del láser, la velocidad de alimentación del material, la distancia focal del láser y el flujo de gas de protección, con el objetivo de obtener una visión completa de sus aplicaciones y posibles mejoras. Una vez conocido el trasfondo del proceso y los fenómenos físicos de óptica, transferencia de energía y comportamiento del material que ocurren durante el proceso de depósito de material, se procedió a realizar simulaciones para tratar de replicar las pruebas experimentales con la intención de validarlas. Se utilizaron distintos softwares especializados en óptica y fotónica debido a que el monitoreo que se plantea realizar es el análisis de las longitudes de onda, la dispersión de la luz y la transferencia de energía provenientes de la piscina fundida. Por lo tanto se buscó desarrollar métodos y técnicas para capturar y analizar de manera más precisa y eficiente la luz difusa, lo que contribuiría a una mejor comprensión y control del proceso de LMD. Posterior a las pruebas de los distintos softwares para validar cuál sería el más funcional y que cubra las necesidades del proyecto se determinó usar el Ansys Speos. Se realizaron pruebas de simulación del montaje de los elementos individual y posteriormente en conjunto para darle una mayor proximidad a las pruebas experimentales. Los datos obtenidos en la simulación se registran y comparan contra las pruebas ya realizadas experimentalmente. Las configuraciones que solicitaba el sistema para simular fueron obtenidas de los valores reales como lo son: Distancia de posición de los elementos de LMD. Distancia de posición de los elementos de monitoreo. Propiedades y capacidades de los elementos de monitoreo. Longitudes de onda captadas en las pruebas experimentales. Parámetros de condiciones iniciales del LMD. Posterior a las pruebas y comparaciones de la parte experimental con la parte teórica se realizó un manual de usuario para el CIDESI y que quede como base para futuros trabajos de simulación.


CONCLUSIONES

Entender la emisividad es importante porque puede afectar la distribución de la luz en el proceso de LMD y, por lo tanto, tener un impacto en la transferencia de energía, la calidad del depósito y la estabilidad del proceso en general. Investigar la emisividad en este contexto permitiría mejorar la comprensión de los fenómenos térmicos que ocurren durante el proceso de deposición y, potencialmente, optimizar las condiciones de operación para obtener resultados más precisos y eficientes. Durante la estancia se adquirió conocimiento teórico en temas de óptica, fotónica, tribología, termodinámica y procesos de manufactura avanzada (Manufactura Aditiva). Además de llevarlos a la práctica y aplicación de un proyecto real. De los análisis y simulaciones se encontraron algunas relaciones entre los fenómenos láser-materia los cuales arrojan información sobre si se genera un defecto o no en una pieza que se esté imprimiendo, esto servirá para generar un nuevo sistema de monitoreo óptimo y con ello atacar un problema actual de la manufactura que es los datos obtenidos durante la fabricación de algún componente o reparación.
Villegas Duque Oscar Fabian, Servicio Nacional de Aprendizaje SENA - Regional Caldas
Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia

IMPLEMENTACIÓN DE UN SITIO WEB PARA PROMOVER LAS BUENAS PRÁCTICAS DE GOBERNANZA DE DATOS PARA PYMES.


IMPLEMENTACIÓN DE UN SITIO WEB PARA PROMOVER LAS BUENAS PRÁCTICAS DE GOBERNANZA DE DATOS PARA PYMES.

Villegas Duque Oscar Fabian, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

En el contexto actual de las micro, pequeñas y medianas empresas (MiPymes), la gestión adecuada de datos es un factor crítico para su éxito y competitividad en el mercado. La Gobernanza de Datos se ha convertido en un aspecto esencial para asegurar la calidad, integridad, seguridad y disponibilidad de la información empresarial. Sin embargo, muchas MiPymes enfrentan dificultades para acceder a recursos y conocimientos que les permitan implementar prácticas efectivas de Gobernanza de Datos.  La falta de información clara y accesible sobre Gobernanza de Datos limita la capacidad de las MiPymes para comprender su importancia y beneficios potenciales. Como resultado, muchas empresas pueden enfrentar problemas de calidad de datos, riesgos de seguridad, falta de transparencia y dificultades para tomar decisiones informadas basadas en datos confiables.  Además, aunque existen recursos y guías disponibles en línea sobre Gobernanza de Datos, la mayoría de ellos están diseñados para grandes empresas con mayores recursos y capacidades técnicas, lo que no se ajusta a las necesidades y recursos limitados de las MiPymes.  Por lo tanto, surge la necesidad de implementar una solución que brinde a las MiPymes acceso a información relevante y práctica sobre Gobernanza de Datos de manera accesible y comprensible. En este sentido, el desarrollo de un sitio web que promueva las buenas prácticas de Gobernanza de Datos se presenta como una oportunidad para abordar esta problemática.



METODOLOGÍA

Se empleará la metodología ágil Scrum que es una metodología de trabajo iterativa e incremental para la gestión de proyectos, desplegado principalmente en el desarrollo ágil de software. Con Scrum, se adoptará un enfoque iterativo e incremental, dividiendo el proyecto en sprints cortos y enfocados. Esto permitirá una mayor flexibilidad, adaptabilidad y colaboración en el proceso de desarrollo, fomentando la entrega de funcionalidades de valor de manera temprana y continua. Además, Scrum facilitará la comunicación efectiva entre el equipo de desarrollo y los stakeholders, asegurando una implementación exitosa y una mejora constante del producto final. 


CONCLUSIONES

La plataforma web lograría mejorar el acceso a la información sobre Gobernanza de Datos, permitiendo a las MiPymes tener una visión más clara y completa de la importancia de la gestión de datos. Además, la divulgación de las buenas prácticas se genera conciencia en las MiPymes sobre la necesidad de implementar políticas y procesos adecuados para garantizar la calidad y seguridad de los datos. Por otro lado, el fortalecimiento de la visualización y gestión de datos brinda a las MiPymes una herramienta eficiente para tomar decisiones más informadas y alcanzar sus objetivos empresariales de manera más efectiva. En resumen, la implementación de la página web tiene un impacto positivo en la promoción de la Gobernanza de Datos en las MiPymes, empoderándolas en la gestión eficiente de su información. 
Villegas Jiménez Adolfo Armando, Instituto Politécnico Nacional
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

CAUSAL SCORING MEDICAL IMAGE EXPLANATIONS


CAUSAL SCORING MEDICAL IMAGE EXPLANATIONS

Villegas Jiménez Adolfo Armando, Instituto Politécnico Nacional. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

El campo en el que se enfoca el proyecto es en el área de la salud, donde los resultados obtenidos por una Red Neuronal Artificial (RNA) llegan a ponerse en duda, debido a que no se quiere poner en riesgo la salud del paciente si dicho resultado llegará a ser incorrecto. La condición de salud que se explorará es el de la litiasis urinaria que es el desarrollo de solidos minerales, comúnmente conocidos piedras renales. El 10% de la población, de países industrializados, llega a sufrir un episodio de piedras renales durante su tiempo de vida. Estudios recientes han determinado que el riesgo de recurrencia aumenta hasta un 40% en menos de 5 años. Las piedras renales se forman por diferentes razones como lo son los malos hábitos alimenticios, la cantidad de líquido que bebe la persona, por antecedentes familiares de salud y el realizar poco ejercicio. Esto causa el desarrollo de diferentes tipos de cálculo renal, el identificarlo es importante, ya que se puede llegar a un diagnóstico sobre el cómo se formó el respectivo solido mineral.



METODOLOGÍA

Para explorar este respectivo problema se adentró en los campos de la explicabilidad e inferencia causal. Identificaremos los factores causales que conducen a una clasificación de imagen, mediante la examinación de las partes de la imagen de entrada. Para esto, usaremos un modelo que estimara la medición causal y anticausal de la clase de un objeto. También se hizo uso del método de explicabilidad Grad-CAM, el cual es un método que genera un mapa de calor sobre la imagen de entrada, destacando así la sección importante que tomo en cuenta la RNA para la clasificación del objeto. Grad-CAM será importante ya que con el generaremos las máscaras de segmentación que nos indicaran que área de la imagen es el objeto y cual área es el contexto. El modelo para obtener las mediciones de la relación causal y anticausal es el Neural Causation Coefficient (NCC), del artículo Discovering Causal Signals in Images, de donde nos guiamos para el entrenamiento y pruebas del modelo. También nos guiamos del trabajo para la obtención de los resultados de la medición causal-anticausal. Se hizo uso de muestras observacionales sintéticas, obtenidos de una mezcla de distribuciones Gaussianas. El conjunto de datos utilizado para las pruebas fue el conjunto de datos Tubingen. Una vez obtenido el modelo para las mediciones causales, se explorará el desarrollo del procedimiento para obtener las mediciones causal y anticausal en una clase del conjunto de datos MSCOCO y posteriormente pasar al conjunto de datos de piedras renales. Después se entrena un modelo para la clasificación de objetos, haciendo uso del modelo ResNet18 para la extracción de características. Los datos a utilizar en el entrenamiento será el conjunto de imágenes de Pascal VOC 2012. Contando con el modelo NCC y el clasificador de objetos entrenados, se obtendrá las mediciones causales y anticausales de la clase bicicleta de MSCOCO, en donde se hace uso de los bouding boxes, los cuales utilizamos para cubrir con cuadros negros los objetos de la categoría de la imagen, de aquí obtenemos la imagen con el objeto y la imagen con el contexto. La imagen original, el objeto y el contexto pasan primero por la ResNet18 para la extracción de características, después las características obtenidas de la imagen original pasan por la clasificación, de los resultados obtenidos, de la imagen original, pasa al modelo NCC para obtener la medición causal y anticausal. Una vez obtenidos los resultados pasamos a obtener las máscaras de segmentación generadas con GradCAM, este método es modificado para obtener la imagen con la región destacada de la clasificación, la imagen solo con el objeto y la imagen solo con el contexto. Se usarán como entrada para la obtención de los resultados de mediciones causales, y compararlos con los resultados previos. Una vez obtenido los resultados, se pasará a obtener estás mediciones con el conjunto de imágenes de piedras renales. El conjunto se compone de seis tipos de piedra renal que son el: Ia, IVa1, IVa2,  IVc, IVd y Va. Cada imagen está acompañado de su respectiva imagen segmentada con valores de 0 y 1 en las imágenes. Al hacer uso de un nuevo conjunto de imágenes, se requirió entrenar el modelo clasificador de objetos y del modelo ResNet18 que fuera entrenado únicamente con las imágenes de piedras renales. Se hace una pequeña base de datos, con el fin de verificar la relación entre imagen original e imagen segmentada. Para la obtención de la imagen con el objeto y el contexto, se hace uso de la imagen segmentada, con los valores 0 y 1.  Se ingresaron las imágenes de piedras renales a la implementación de Grad-CAM para obtener la imagen solo con el objeto y el contexto. Una vez obtenidas las imágenes correspondientes a las que fueron segmentadas manualmente y las que fueron generadas por Grad-CAM, se ingresan las imágenes para la obtención de la medición de la relación causal y anticausal de cada una de las clases del conjunto de piedras renales.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos en los campos de la causalidad y explicabilidad para ponerlos en práctica de manera aplicable en el área de la salud que es donde se requieren de los campos mencionados para otorgar un resultado confiable y aportar a una conclusión eficaz en el diagnóstico. Como observación, está el explorar diferentes imágenes de piedra renal que aporten a la medición causal y anticausal, ya que si se checan los valores con las mediciones obtenidas con la clase seleccionada del conjunto de datos MSCOCO. Entre las conclusiones está que el fondo negro pudo afectar a estas mediciones por lo que se espera esto cambie más adelante Se espera obtener más resultados con diferentes experimentos.
Villegas Paleo Litzi Yareli, Instituto Tecnológico Superior Purépecha
Asesor: M.C. Jorge Luis Alfaro Rosas, Universidad César Vallejo

MéTODOS DE INGENIERíA PARA LA MEJORA DE LA CALIDAD EN EMPRESAS METALMECáNICAS EN LATINOAMéRICA EN EL PERIODO 2014-2022.


MéTODOS DE INGENIERíA PARA LA MEJORA DE LA CALIDAD EN EMPRESAS METALMECáNICAS EN LATINOAMéRICA EN EL PERIODO 2014-2022.

Villegas Paleo Litzi Yareli, Instituto Tecnológico Superior Purépecha. Asesor: M.C. Jorge Luis Alfaro Rosas, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

Se realizó la presente investigación con la finalidad de dar respuesta a la siguiente pregunta: ¿Qué métodos de Ingeniería se conocen para la mejora de la Calidad en Empresas Metalmecánicas en Latinoamérica en el periodo 2014 - 2022?, con la obtención de la información se espera determinar los puntos que pueden mejorar la calidad en las Empresas Metalmecánicas. Por lo tanto, el objetivo de estudio es conocer los métodos de Ingeniería para la mejora de la Calidad en Empresas Metalmecánicas en Latinoamérica en el periodo 2014 - 2022. El presente estudio se justifica entonces para indagar en información ya existente sobre los métodos de Ingeniería en Empresas Metalmecánicas que ya han sido aplicados. Con esto se pretende obtener información real de empresas dedicadas a la industria metalmecánica que se encuentran en Latinoamérica, para saber la evolución que han tenido durante un periodo establecido que será del 2014 - 2022. La información que se conoce es que las empresas Metalmecánicas son de importancia para toda Latinoamérica porque son el sector que proveen las maquinas industriales y herramientas a las demás industrias metálicas. Por ende, el objetivo es conocer los métodos de ingeniería que algunas empresas aplican para que ese producto sea metal o hierro el cual se distribuye cuente con la calidad que debe de tener.  



METODOLOGÍA

Con respecto al tipo de investigación el análisis que se requiere realizar en esta investigación es cuantitativo, por lo que se necesitan datos numéricos y porcentajes, los cuales nos demuestres mejoras de la calidad en las Empresas Metalmecánicas en Latinoamérica. El análisis para obtener información sobre las Empresas Metalmecánicas en Latinoamérica se realizó en Julio de 2023, donde la intención es recolectar información real de empresas dedicadas a la industria en mención dentro del periodo 2014 - 2022. Con respecto a los criterios de inclusión como parte de la selección de las investigaciones se toma en cuenta lo siguiente: Artículos de estudio de Empresas dedicadas a la industria Metalmecánica en toda Latinoamérica.  Publicaciones del 2014 - 2022, cuyo objetivo es conocer cómo se manejan las empresas dentro de una época más actual, ya que para la aplicación de los métodos de calidad ya cuentan con varios años. Indagar en artículos de fuentes confiables, con el tiempo de periodo establecido y datos reales. Investigaciones de corte cuantitativo, experimental o preexperimental Investigaciones principalmente en Latinoamérica en idioma español. Respecto a los criterios de exclusión no se tomará en cuenta en el análisis las siguientes: Investigaciones de datos de universidades Fuentes comunes Información no coherente Investigaciones que sean menores al año 2014 Investigaciones descriptivas o teóricas Investigaciones que estes en otro idioma que no sea español Para la indagación de información se realiza en las bases de datos de revistas científicas Redalyc, Scielo y Scopus. Para la búsqueda de información se considera en el título, las palabras claves: Métodos de ingeniería de calidad, productos, empresas de industria metalmecánica. Respecto a la codificación de datos se realizó en tablas, para un mejor entendimiento.


CONCLUSIONES

En la realización de la revisión sistemática de la literatura científica se dan a conocer experiencias de aplicación de métodos de ingeniería para la mejora de la calidad en empresas metalmecánicas en Latinoamérica en el período 2014 - 2022. En las experiencias de aplicación de métodos de ingeniería para la mejora de la calidad en empresas metalmecánicas en Latinoamérica en el período 2014 - 2022, se llegó a encontrar 13 experiencias exitosas que representan el 100% de los artículos analizados. Todos cuentan con información diferente ya que son amplios los métodos de ingeniería y que cuentan con herramientas y técnicas que ayudan a empresas de diferentes maneras. Con los artículos analizados, se obtiene una respuesta favorable a nuestra pregunta de investigación la cual es, ¿Qué métodos de Ingeniería se conocen para la mejora de la calidad en Empresas Metalmecánicas en Latinoamérica en el periodo 2014 - 2022?, por ello como se menciona en el capitulo de resultados las empresas dedicadas a la Metalmecánica si implementan métodos de ingeniería para poder mejorar la calidad de sus productos, reducir costos, reducir la variabilidad que pueda llegar a existir dentro de los procesos de fabricación, y así poder satisfacer las necesidades a los clientes con productos de calidad.    La limitación en la presente revisión sistemática, fue la mínima cantidad de artículos de empresas metalmecánicas.   Los métodos de ingeniería son varios y cada uno cuenta con sus propias herramientas y técnicas para poder lograr su cometido, que es ayudar mediante implementaciones de los métodos y moldearlos respecto a lo que la empresa quiera lograr. 
Virrueta Sanchez Karla Monserrat, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

EVALUACIóN DEL FUNCIONAMIENTO HIDRáULICO DEL ACUíFERO MORELIA-QUERéNDARO


EVALUACIóN DEL FUNCIONAMIENTO HIDRáULICO DEL ACUíFERO MORELIA-QUERéNDARO

Virrueta Sanchez Karla Monserrat, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Reportan una sobreexplotación del agua subterránea en el valle de Morelia provocando el descenso progresivo de los niveles del agua en el área localizada entre Cointzio y el poblado de Charo, alcanzando un máximo de 30 m en el intervalo de 1977-1990 se considera que son aproximadamente  acuíferos explotados. México extrajo durante el 2017 un total de 34 385 millones de m3 de agua al año (Conagua 2018)  se utiliza principalmente en zonas de riego de las cuales se estiman que son alrededor de unas 6.5 millones de hectáreas. Se busca generar un modelo de las aguas subterráneas del acuífero Morelia-Queréndaro el cual sirva como modelo de gestión en el cual se puedan localizar las principales zonas afectadas.



METODOLOGÍA

El acuífero a analizar se ubica en los municipios Morelia, Querendaro, Zinapecuaro en el estado de Michoacan en Mexico  posee una área total de 3534.9  Se empleo el programa de Modflow es un software utilizado para simular y predecir las condiciones de las aguas subterráneas, este resuelve ecuaciones diferencias finitas, simula el flujo subterráneo de un acuífero permitiendo analizar la evolución de los niveles y especificando: bombeos, ríos, drenes, infiltración de las precipitaciones En base a la informacion existente se definio una malla de 30 x 30,  con un espesor de 25 x 30  las dimensiones que conforman la malla considerando 16 pasos de tiempo o sea, 16 años desde 2007 que se tiene registro hasta la actualidad, se consideraron las celdas activas, inactivas y el nivel estático del acuífero ademas se consideraron parámetros de extracciones e infiltraciones, los manantiales, la conductividad hidráulica, porosidad, el almacenamiento del acuífero, tranmisividad y entradas y salidas verticales asi como horizontales y en base a  ello lo adecuamos a resultados mas recientes y considerando que los valores en total resulten. Se analizo el nivel estatico y el proceso de caliracion de 15 celdas ya que en total conforman 750 al modelo y de ellas 15 son las que debian calibrarse y en este aspecto las celdas del an El total de salidas subterraneas es 241441052.8, el total de entradas es 87952011.84 y la recarga vertical total es de 286670011.84 considerando estos parámetros entre otros se realizo la modelación del acuífero.


CONCLUSIONES

La falta de infromacion en Mexico respecto a las aguas subterráneas es muy extenso por lo cual, requiere mayor labor.  Los modelos subterráneos nos ayudan a ver el comportamiento de los acuíferos ante las acciones de extracción por lo que es posible ubicar las zonas de mayor afectación y distinguir el uso que esta causando mayor impacto. Una vez calibrado el modelo se podrá analizar la sobreexplotación actual y  el descenso progresivo de los niveles del agua con respecto al año 2007 que es donde se tiene el primer registro. 
Vivar Olvera Marco Antonio, Benemérita Universidad Autónoma de Puebla
Asesor: Post-doc Diana Patricia Tobón Vallejo, Universidad de Medellín

SEGMENTACIóN DE TUMORES CEREBRALES A PARTIR DE IMáGENES DE RESONANCIA MAGNéTICA BASADO EN SAM (SEGMENT ANYTHING MODEL) Y POSTPROCESO DE CLASIFICACIóN DE MáSCARAS


SEGMENTACIóN DE TUMORES CEREBRALES A PARTIR DE IMáGENES DE RESONANCIA MAGNéTICA BASADO EN SAM (SEGMENT ANYTHING MODEL) Y POSTPROCESO DE CLASIFICACIóN DE MáSCARAS

Vivar Olvera Marco Antonio, Benemérita Universidad Autónoma de Puebla. Asesor: Post-doc Diana Patricia Tobón Vallejo, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

Los tumores cerebrales representan un desafío significativo en el campo de la neurología y la oncología, ya que su diagnóstico temprano y preciso es crucial para el tratamiento efectivo y el pronóstico del paciente. Sin embargo, la identificación y clasificación precisas de los tumores cerebrales a menudo enfrentan obstáculos debido a la variabilidad en su apariencia y ubicación, lo que puede llevar a errores diagnósticos y retrasos en el inicio del tratamiento. La segmentación de imágenes es una tarea que se lleva a cabo en el campo de la visión artificial, subcategoría de la inteligencia artificial, con el objetivo de generar un mapa de segmentación capaz de identificar los diferentes elementos que se encuentran en una imagen digital. Técnicamente es el proceso de asignar una clase a cada píxel de una imagen. El trabajo de investigación presente está relacionado con el Objetivo 3 de los objetivos de desarrollo sostenible de la Agenda 2030 para el Desarrollo Sostenible, el cual se centra en Garantizar una vida sana y promover el bienestar para todos en todas las edades y la meta 3.4 de este objetivo Para 2030, reducir en un tercio la mortalidad prematura por enfermedades no transmisibles mediante la prevención y el tratamiento y promover la salud mental y el bienestar.



METODOLOGÍA

Se hizo una búsqueda exhaustiva de un dataset que constara de Imágenes de Resonancia Magnética del cerebro y sus respectivas mascaras para identificar la zona de tumor cerebral, en procesamiento de imágenes a este proceso se le conoce como segmentación y al hacer una operación AND entre la MRI y la máscara se obtiene una ROI. Una vez que se tenían las matrices que pasaron el filtro ante errores de dimension se tuvieron que normalizar, castear y dejarlas con un solo canal para poderlas guardar localmente en formato bmp. Para la obtención de mascaras negativas se usó Segment Anything Model (SAM), el cual produce máscaras de objetos de alta calidad a partir de input prompts, como puntos o cuadros, y se puede utilizar para generar máscaras para todos los objetos de una imagen. Para una sola MRI podemos obtener hasta 8 mascaras, pero dentro de estas 8 hay una que, si representa el tumor, por lo que se tiene que eliminar esta para que se queden solo las máscaras negativas. De las ROI se extrajeron sus características por textura, morfológicas y de distribución de sus pixeles, es importante mencionar que cada mascara operada con su respectiva MRI representa una instancia.  En esta etapa se cargaron los datos en un data frame para su análisis en gráficos tipo pairplot, los cuales ayudan a visualizar el espacio de características por pares y en la diagonal, muestra la distribución de cada característica respecto a las clases; también se evaluó la capacidad de una característica para separar las clases utilizando los gráficos tipo boxplot; se cuantificó la separabilidad de las clases, utilizando el computo del área bajo la curva ROC. Finalmente se eligieron las características que combinadas o individualmente podían separar mejor nuestros datos respecto a su clase. En este caso nos quedamos con 4 características para entrenar el modelo: extensión, skewness, mediana y rango Inter cuartil, sin olvidar la etiqueta de clase. Una vez obtenido los diferentes pliegues de datos y a la vez normalizados se procedió a entrenar diferentes modelos, tales como, Logistic Regression, Support vector machines, Random Forest y Decision Tree. De estos 4 algoritmos se pudo identificar a 2 que tuvieron mejor desempeño, Logistic Regression y Random Forest; por lo tanto, estos son los que se usaron en la arquitectura final de nuestro sistema. En esta última etapa se usó GridSearchCV para mejorar los 2 algoritmos con mejor rendimiento mencionados anteriormente, en una etapa anterior los algoritmos se entrenaban con la mayoría de hiperparámetros por default, sin embargo, aquí se busca la mejor combinación posible de estos para obtener un mejor clasificador. Finalmente se probó la arquitectura completa la cual en primera instancia SAM obtenía todas las máscaras de una MRI, de todas las máscaras que podía obtener SAM , solo una era la correcta, por este motivo el siguiente proceso fue la obtención de las características de la ROI en base a todas las máscaras y la MRI de prueba, como proceso final se ejecutaba 1 de los 2 modelos clasificadores a elección del usuario para obtener la máscara que representaba el área de interés (ROI) dentro de nuestra MRI. En los falsos positivos se puede observar como la ROI toma en algunas ocasiones la figura completa del cerebro, así como zonas con valores altos en los pixeles y también zonas muy reducidas en cuanto a morfología. Por otro lado, los falsos negativos, se producen por el color del tumor ya que en algunas ocasiones son de valores más bajos, tendiendo al negro, pero en realidad la mayoría tienden a ser valores altos. Se obtuvoun F1 score de 0.90 para el conjunto de entrenamiento y 0.94 para el conjunto de prueba, siendo estos los más bajos obtenidos en la experimentación. Se debe tomar en cuenta que esta métrica de evaluación está basada en nuestros vectores de características; mientras que en otros trabajos con los mismos objetivos esta métrica se saca en base a los pixeles.


CONCLUSIONES

Los resultados obtenidos son alentadores ya que nuestro sistema completo está siendo capaz de clasificar las máscaras correctamente en un alto índice y por lo tanto ayuda a identificar tumores cerebrales con una tasa de error baja. Hay que tomar en cuenta que la experimentación se hizo con una muestra de un dataset, por lo que se espera potenciar el sistema en un futuro haciendo uso del dataset completo y siendo más específicos con los tipos de tumor y las vistas de las MRI; así mismo se espera hacer un análisis más exhaustivo de las características que se pueden extraer de las ROI buscando una alta representatividad de cada clase. Finalmente quiero agradecer a Diana Patricia Tobón Vallejo, PhD. y a Andrés Felipe Orozco Duque, PhD. por compartir su conocimiento, experiencia y su invaluable asesoría durante mi estancia de investigación.
Witron Coronado Jose Juan, Universidad Autónoma de Sinaloa
Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

ENSEñANZA DE IDIOMAS POR MEDIO DE BOTS INTERACTIVOS.


ENSEñANZA DE IDIOMAS POR MEDIO DE BOTS INTERACTIVOS.

Duran Partida Jose Jhovany, Universidad Autónoma de Sinaloa. Witron Coronado Jose Juan, Universidad Autónoma de Sinaloa. Asesor: Dr. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El constante crecimiento de las tecnologías, además de muchos beneficios ha traído con ella bastantes mitos, específicamente hablando sobre la inteligencia artificial hay demasiados sobre esta misma, tanto positivos como negativos.   Otro de los puntos a tocar es el bajo porcentaje de hablantes de inglés en México comparado con los más de mil millones de hablantes en el mundo, todo esto pese a compartir frontera con Estados Unidos   El objetivo de este proyecto es la enseñanza de idiomas de personas no hablantes de inglés, por medio del desarrollo de bots en WhatsApp.



METODOLOGÍA

En el desarrollo de este proyecto es fundamental conocer las bases del lenguaje de programación a utilizar, una vez se tienen sentadas las bases para la utilización del mismo, posteriormente se pretende comenzar a buscar las librerías necesarias para el desarrollo del proyecto.   Una vez se tiene ubicada la librería a utilizar, es necesario adaptarse a la misma. Razón por la que también es necesario un estudio previo de los métodos propios de la misma, así como la realización de diferentes pruebas para ver el alcance de la misma.   Tener una base de datos estable es fundamental para el desarrollo del proyecto. Haciendo el análisis del alcance y de la escalabilidad del proyecto, se llegó a la decisión sobre qué base de datos utilizar, la cual debe de estar preparada para los futuros avances que se tendrán en el desarrollo.   El análisis y desarrollo de flujos de la conversación son la ruta crítica del proyecto, de modo que es la parte donde todas las piezas de la instigación encajan, una vez se tiene el análisis, lo primordial es hacer la conexión con la base de datos, para posteriormente, agregar los mismos datos a los flujos de la conversación.   La parte de la optimización y pruebas es importante, una vez terminada la parte del desarrollo, se debe de preparar el programa para llevarlo a producción con el menor número de fallos posibles.   Una vez se tienen las pruebas unitarias y de integración, se procede a realizar las pruebas con usuarios reales, donde se nos dieron sugerencias, así como la detección de algunos fallos, los cuales fueron arreglados, dando una segunda fase de pruebas con usuarios reales, las cuales tuvieron resultados bastante positivos a favor del proyecto, lo cual nos permitió llevar el proyecto a fase de producción.


CONCLUSIONES

El desarrollo de este proyecto nos permitió tener una visión más amplia conforme a la administración de proyectos de software, ya que si no se tiene un análisis previo, no se tiene la dirección que llevará el proyecto, así como el gran aprendizaje por parte de la logica de programacion, el como realizar las pruebas en un proyecto y el cómo pasar un proyecto a la fase de producción por medio de contenedores que albergan el proyecto.
Xicohtencatl Gómez Alexa Irene, Universidad Veracruzana
Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia

PROTOTIPO DE UN SISTEMA MODULAR PREFABRICADO PARA VIVIENDA SOCIAL FLEXIBLE Y SOSTENIBLE EN VERACRUZ, MÉXICO.


PROTOTIPO DE UN SISTEMA MODULAR PREFABRICADO PARA VIVIENDA SOCIAL FLEXIBLE Y SOSTENIBLE EN VERACRUZ, MÉXICO.

Gutierrez Valadez Nancy Montserrat, Universidad de Guadalajara. Peña Plascencia María Fernanda, Universidad de Guadalajara. Saucedo Cazares Jessica Monserrat, Universidad Veracruzana. Xicohtencatl Gómez Alexa Irene, Universidad Veracruzana. Asesor: Dr. Rolando Arturo Cubillos González, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

En Poza Rica de Hidalgo, Veracruz, México, existe falta de salubridad, seguridad, confort y estética en la vivienda social. Esto hace que los usuarios carezcan de una buena calidad de vida.  Además, el sitio de los conjuntos habitacionales no es accesible debido a que se ubican en la periferia de la ciudad. Por otra parte, la falta de planeación de equipamiento urbano provoca el abandono de las viviendas. Lo que genera conjuntos fantasma propicios a ser zonas de inseguridad. Esa problemática social debe ser atendida para los estándares de calidad. La población se ve obligada a trasladarse para acceder a los servicios con los que no se cuenta dentro de la unidad, generando viviendas dormitorio. A causa de que éstas se encuentran alejadas del centro urbano, el costo de vida se incrementa volviéndose inaccesible.   Por tanto, se considera que el diseño de vivienda social no atiende las necesidades básicas de los usuarios de esta tipología de vivienda. ¿Podríamos proponer una alternativa de diseño de vivienda social flexible y sostenible para Poza Rica Veracruz?  El objetivo de esta investigación fue diseñar una unidad habitacional flexible y sostenible mediante el sistema modular. La hipótesis de trabajo de esta investigación fue Si diseñamos una vivienda social flexible y sostenible a partir de un sistema modular, mejoraremos las condiciones de los usuarios de la vivienda de bajos ingresos en Poza Rica.



METODOLOGÍA

La metodología utilizada en este proyecto se enfocó en primer lugar, en realizar un análisis de las necesidades habitacionales de la población objetivo y las condiciones del contexto. Luego, se revisaron investigaciones previas sobre vivienda social para identificar las mejores prácticas de proyectos análogos. En la siguiente fase, se desarrolló el diseño arquitectónico y urbano del prototipo de vivienda con módulos de 3.5 m. x 3.5 m. Además, se determinaron los parámetros de diseño estructural necesarios para garantizar la resistencia y estabilidad de la estructura. Se adoptó un enfoque modular para permitir ampliaciones futuras según las necesidades cambiantes de los usuarios. Esto implica la utilización de componentes prefabricados que se puedan ensamblar fácilmente y de manera eficiente. Se utilizaron herramientas de modelado tridimensional y simulación para evaluar la eficiencia térmica y energética del modelo propuesto. Finalmente, se presenta una propuesta integral que contempla la vivienda de interés social en Poza Rica. Desde una perspectiva flexible y sostenible, integrando el espacio público, el semipúblico y el privado. Contribuyendo de esta manera al desarrollo de un hábitat más inclusivo y amigable con el medio ambiente. Esta metodología garantiza un enfoque general del prototipo de vivienda social, con la visión de mejorar la calidad de vida de la población beneficiaria.


CONCLUSIONES

Con base al método planteado, se generó en el conjunto habitacional espacios públicos, semipúblicos y privados. Se toma en cuenta la importancia de tener comercio de fácil acceso para los habitantes. Asimismo, suficientes zonas con arbolado para generar un microclima y mejorar el confort del sitio. El área pública se compone de espacios verdes, comercio y vialidades seguras para el peatón. Los puntos de recolección de basura, caseta y cajones de estacionamiento son los espacios semipúblicos. Mientras que la unidad habitacional es de carácter privado, siendo esta el protagonista del conjunto. La alternativa planteada de vivienda social tiene como objeto generar espacios más seguros y confortables para quienes carecen de tener un ingreso económico digno. Como resultado, se produce un prototipo de sistema modular, para vivienda social flexible y sostenible. La implementación de componentes prefabricados que se puedan ensamblar fácilmente agiliza el proceso de construcción y facilita la posibilidad de modificar la vivienda en el tiempo. Asimismo, se busca optimizar el uso de recursos y minimizar los residuos durante la construcción, incorporando principios de sostenibilidad en cada etapa del proceso. El diseño estructural propuesto para el prototipo busca no solo brindar viviendas seguras y adecuadas a las familias de escasos recursos, sino también promover una solución resiliente y adaptable a largo plazo en el contexto de la vivienda social en el municipio de Poza Rica. Se busca en cada parte del proceso de diseño, la oportunidad de generar un cambio dentro del mercado inmobiliario.  En la mayor parte del territorio mexicano surgen problemas con la vivienda social por lo que la posibilidad de desarrollar propuestas a partir de un diseño modular permite reproducir esta experiencia en otras regiones. Abriendo así, el mercado a un mayor número de consumidores. El concepto de flexibilidad se desarrolla cuando los usuarios tienen la libertad de modificar los espacios dentro del módulo de acuerdo con necesidades. En definitiva, el resultado de la investigación permite construir diferentes tipologías de vivienda adaptándose a un sitio en particular. Lo que brinda alternativas que ayudan a mejorar la vivienda social de cualquier ciudad. Se concluye entonces que, la construcción masiva de viviendas sociales en México está dejando de lado a los usuarios. Por lo que, como solución se propone un módulo prefabricado, que funcione como base para proyectar un conjunto habitacional. De esta manera, se relacionan en nuestro prototipo las estrategias bioclimáticas y alternativas sustentables con la vida diaria de las personas.
Xinol Sanchez Victor Manuel, Instituto Tecnológico de Chilpancingo
Asesor: M.C. Víctor Manuel Jacobo Adán, Instituto Tecnológico de Iguala

PáGINA WEB C.B.T.I.S. NO. 56


PáGINA WEB C.B.T.I.S. NO. 56

Cruz Moctezuma Ricardo Leonel, Instituto Tecnológico de Chilpancingo. Marquez Cayetano Ruth, Instituto Tecnológico de Chilpancingo. Xinol Sanchez Victor Manuel, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Víctor Manuel Jacobo Adán, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La institución educativa C.B.T.i.s. No. 56 en Iguala de la Independencia, Guerrero, enfrenta el desafío de contar con una página web desactualizada y no adaptativa a diferentes dispositivos, lo que dificulta el acceso y la experiencia de los usuarios. Además, carece de un sistema de gestión de contenidos que permita administrar dinámicamente los distintos apartados de la página, como:  Departamentos de servicios escolares, docentes y vinculación,  Oficinas de becas y construyeT,  Anuncios del inicio, Enlaces importantes,  Promoción institucional y la opción de Transparencia.  Esta situación ocasiona dificultades para proporcionar información actualizada y relevante a la comunidad educativa y al público en general. El proyecto aborda la necesidad de actualizar y hacer adaptable la página web a diferentes dispositivos, así como implementar un sistema de gestión de contenidos que permita una administración dinámica de los diferentes apartados. Es fundamental establecer roles de administradores y editores para garantizar una gestión eficiente y segura de los usuarios y contenidos. También se debe establecer criterios claros para el formato y tamaño de las imágenes que se podrán subir a los apartados, así como definir los criterios del formato y calidad de los videos.   



METODOLOGÍA

El presente plan de trabajo tiene como objetivo principal modificar la página web del C.B.T.i.s. No. 56, ubicado en Iguala de la Independencia, Guerrero, con el fin de actualizarla y hacerla adaptativa a diferentes dispositivos. Además, se busca incluir módulos que permitan administrar dinámicamente los contenidos de diferentes apartados de la página. Para lograrlo, se utilizará el modelo de desarrollo ágil RAD (Rapid Application Development), que permitirá un enfoque iterativo e incremental, garantizando la participación activa de los usuarios y una entrega temprana de funcionalidades. A continuación se especifican las fases:  Fase 1: Modelado de la gestión Actividades: Identificar los objetos relevantes para la página web de la institución, como departamentos, oficinas y secciones. Documentar los procesos de gestión actuales e identificar áreas de mejora. Reunión con los responsables de la institución para entender los requisitos de gestión y los flujos de información. Fase 2: Modelado de datos Actividades: Definir las características de cada objeto, como los datos que se deben almacenar y los vínculos entre ellos. Obtener la aprobación del modelo de datos por parte de la autoridad máxima de la institución. Fase 3 : Modelado de procesos Actividades: Diseñar una propuesta de diseño actualizado y adaptativo para la página web, asegurando que se cumplan los requisitos de los diferentes dispositivos y reflejando la identidad visual de la institución. Crear prototipos interactivos o wireframes que muestren cómo se verán los diferentes apartados y módulos con el gestor de contenido integrado.   Fase 4 y 5 : Generación de aplicaciones y pruebas y entrega.  Actividades 4: Desarrollar los componentes necesarios para la gestión de usuarios, roles y permisos. Implementar el gestor de contenido para cada una de las secciones especificadas. Integrar los componentes desarrollados en la página web existente. Actividades 5: Realizar pruebas exhaustivas de todos los componentes y asegurar su correcto funcionamiento. Preparar una documentación detallada que explique los pasos necesarios para administrar y actualizar el contenido de la página web. Entregar la versión final de la página web actualizada y adaptativa. Manual del software diseñado, con el objetivo de que los participantes puedan utilizarlo de forma correcta y eficiente.


CONCLUSIONES

Durante el desarrollo del proyecto de modificación y actualización de la página web del C.B.T.i.s. No. 56, se ha logrado un avance significativo en la resolución de la problemática planteada. La implementación de la metodología de Desarrollo Rápido de Aplicaciones (RAD) ha permitido un enfoque ágil y eficiente, lo que ha facilitado la entrega temprana de funcionalidades y la participación activa de los usuarios en el proceso de desarrollo.  El proyecto ha sido un éxito en la solución de la problemática inicial, y se espera que la nueva página web actualizada y adaptativa mejore significativamente la visibilidad del C.B.T.i.s. No. 56 en línea, brindando una experiencia de usuario más satisfactoria y facilitando la comunicación de información relevante a la comunidad educativa y al público en general. El equipo de desarrollo ha adquirido valiosos conocimientos y experiencias en el desarrollo de sistemas de software administrativo, así como en el trabajo en equipo, lo que representa un enriquecimiento profesional para cada uno de sus miembros.  
Yañez Rodriguez Santiago, Instituto Tecnológico de Morelia
Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara

CREACIóN DE UN DASHBOARD PARA CONTROL DE SENSORES A TRAVéS DE LA NUBE UTILIZANDO RASPBERRYPI Y ESP32


CREACIóN DE UN DASHBOARD PARA CONTROL DE SENSORES A TRAVéS DE LA NUBE UTILIZANDO RASPBERRYPI Y ESP32

Ruiz Moreno Diego Iván, Instituto Tecnológico de Morelia. Yañez Rodriguez Santiago, Instituto Tecnológico de Morelia. Asesor: Dr. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En el mundo de la tecnología, la conectividad y el acceso remoto son esenciales para controlar dispositivos de manera eficiente. Una solución innovadora y versátil para esto es crear un dashboard en la nube para el control de sensores. Para este proyecto, se utilizan herramientas de conexión como MQTT, especialmente adecuado para dispositivos con pocos recursos y ubicaciones remotas. Se emplean una Raspberry Pi y un ESP32 como núcleos centrales. La Raspberry Pi, una computadora de placa única, es asequible y altamente versátil, mientras que el ESP32 es un potente microcontrolador IoT con conectividad Wi-Fi y Bluetooth. Node-RED es la plataforma de programación visual elegida para integrar y visualizar los resultados. Su interfaz amigable facilita la creación de flujos de datos entre dispositivos y servicios conectados, ideal para proyectos de IoT.



METODOLOGÍA

Configuración de la Raspberry Pi En el marco de nuestro proyecto, utilizaremos la Raspberry Pi como el núcleo central de nuestro sistema. La Raspberry Pi será responsable de adquirir datos de sensores, procesar la información y comunicarse con la nube para permitir el acceso remoto y el control de los dispositivos conectados. Para comenzar a utilizarla se necesita la app Raspberry Pi Imager donde se usa una memoria SD como el boot del sistema operativo, ahí se selecciona el sistema a instalar, en este caso es Raspberry Pi OS Bullseye, una versión de Debian 11 optimizada para este tipo de dispositivos.   Configuración del ESP32 La tarjeta ESP32 entre muchas de sus ventajas se encuentra la posibilidad de ser programada a través del software Arduino IDE, solo fue necesario hacer algunas configuraciones de conectividad, en cuanto a la programacion se utilizan las librerías WiFi, PubSubClient y DHT. Se definen constantes para el pin del sensor y el tipo de sensor. Se inicializan objetos WiFiClient y PubSubClient, así como una variable para almacenar los datos. La función setup() configura la comunicación, la conexión WiFi y el cliente MQTT. La función loop() verifica y mantiene la conexión MQTT, lee la temperatura y humedad, publica los datos en el servidor y espera un segundo. La función reconnect() intenta conectar el cliente MQTT al servidor. La función setup_wifi() configura la conexión WiFi. La función callback() convierte el mensaje recibido en una cadena de caracteres. Se asume que hay un servidor MQTT en la dirección IP especificada y un tópico "canal". Si se usa un sensor diferente, ajustar la configuración del tipo de sensor y reemplazar la librería DHT.   Instalación de Node-RED Su instalación es sencilla ya que muchos de sus paquetes ya se encuentran instalados dentro de la configuración inicial como parte del software recomendado, solo se necesita ejecutar los comandos: sudo apt install build-essential git curl apt-get install nodered node-red-pi --max-old-space-size=256 Para correrlo localmente solo es necesario ejecutar en la consola el comando node-red donde se observa cómo se comienza a desplegar información acerca de la conectividad y servicios de los que se dispone dentro de la app y es detenido con las teclas Ctrl -C Una vez que Node-RED esté en funcionamiento, se puede acceder al editor de Node-RED abriendo un navegador web y navegando a http://localhost:1880. (localhost refiere a la dirección ip de la raspberry)   Flujo en Node-RED Una vez abierto Node-RED desde el Raspberry Pi solo queda la configuración que hará la recepción y visualización de los datos leídos por el sensor Nodos utilizados: MQTT IN El nodo MQTT In (entrada MQTT) en Node-RED se utiliza para recibir mensajes desde un broker MQTT y utilizar esos mensajes en el flujo de Node-RED Se debe agregar el broker del cual se recibirá la información, en este caso fue un broker genérico gratuito del cual su dirección es emqx.broker.io, conectado a través del puerto 1883. Además, el nodo debe estar suscrito a un tópico antes especificado en el código de ESP32, ya que deben ser iguales para establecer el intercambio de datos Function El nodo "Function" en Node-RED se utiliza para agregar código personalizado en JavaScript al flujo. Este nodo es extremadamente versátil y te permite realizar diversas operaciones y transformaciones de datos dentro de tu flujo. En este caso fue utilizado para crear una función que separe los valores de temperatura y humedad detectados por el sensor para ser analizados por separado gracias al siguiente código: msg.payload=msg.payload.split(,) msg.payload=msg.payload [0] return msg; Gracias a esta función, los valores serán separados donde se encuentre una coma y así podrán ser mostrados por separados en el panel de control final Gauge El nodo "gauge" en Node-RED Dashboard es un nodo incorporado proporcionado por el módulo Node-RED Dashboard. Permite crear y mostrar visualizaciones de medidores dentro de su panel de control de Node-RED. Node-RED Dashboard es un módulo opcional que proporciona un conjunto de nodos y una interfaz de usuario basada en web para crear paneles de control en tiempo real para visualizar y controlar datos Solo fue necesario editar el nombre y la escala de visualización de los datos, ya está optimizado para su visualización en tiempo real Despliegue del dashboard Para acceder al Node-RED Dashboard, abre el navegador web e ingresa a http://localhost:1880/ui. 


CONCLUSIONES

El proyecto de manejo a distancia de sensores con ESP32 y Node-RED ofrece una solución poderosa y versátil para monitorear y controlar dispositivos y datos en tiempo real. La combinación de ESP32 y Node-RED crea un sistema eficiente y flexible para la gestión de datos y la automatización. Aprovechamos las ventajas del ESP32, como su conectividad Wi-Fi y Bluetooth, para comunicarnos con diversos sensores y dispositivos, monitoreando parámetros ambientales como temperatura, humedad y movimiento. Node-RED se ha destacado como una valiosa herramienta para diseñar flujos de trabajo e interactuar con los datos de los sensores. Su interfaz visual intuitiva facilita la creación y modificación de flujos de manera rápida y sencilla, haciéndola accesible a usuarios de diferentes niveles de habilidad técnica.
Yañez Valenzuela Leonardo, Instituto Tecnológico de Sonora
Asesor: Dr. Alexander de Jesus Pulido Rojano, Universidad Simón Bolivar

DISEñO DE UN ALGORITMO DE ENVASADO DE PRODUCTOS INDIVISIBLES PARA LA MEJORA DE LOS PROCESOS EN MáQUINAS MULTICABEZALES


DISEñO DE UN ALGORITMO DE ENVASADO DE PRODUCTOS INDIVISIBLES PARA LA MEJORA DE LOS PROCESOS EN MáQUINAS MULTICABEZALES

Yañez Valenzuela Leonardo, Instituto Tecnológico de Sonora. Asesor: Dr. Alexander de Jesus Pulido Rojano, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

En el presente proyecto, se ha realizado el diseño de un algoritmo de envasado de productos indivisibles para la mejora de los procesos en máquinas multicabezales valiéndose del análisis de datos estadísticos. Una pesadora multicabezal consta de varias tolvas en las que se distribuye el producto, combinando el peso que más se aproxima al valor nominal en el envasado. El objetivo es simular el proceso de empacado de productos indivisibles cuyo peso total debe ser mayor o igual a su peso objetivo del empaque, cuando el número de tolvas consideradas es igual a k=1 y k=2.



METODOLOGÍA

Se ha utilizado un algoritmo aproximado el cual prueba el caso en el que el número de tolvas consideradas en cada operación de envasado para formar el paquete es constante y fijado de antemano, y procede que al suministro del producto a las n tolvas de pesaje sea fijado en 1 unidad, con su correspondiente peso medio y desviaciones estándar.


CONCLUSIONES

El coeficiente de variación muestra una disminución en su porcentaje a medida que se eleva el peso objetivo. El error del cuadrado medio muestra una disminución en sus valores a medida que se eleva el peso objetivo. En 8 tolvas, los datos descartados muestran valores de 0 siendo su peso objetivo T de 1.4kg a 1.8kg, a excepción de los 1.9kg, que se descartan el 2% de su valor. A partir de 10 tolvas en ascendente, los datos descartados arrojan valores de 0. Por último, el sobrepeso muestra una disminución en sus valores a medida que se eleva el peso objetivo. Haciendo un análisis para 10, 12, 14, 16, 24, 32 y 48 tolvas, los datos de la media, desviación estándar, coeficiente de variación, error cuadrado medio y sobre peso fueron muy similares, a excepción de los datos como se comentó anteriormente.
Yepes Mendoza Maileth Yoelis, Universidad Simón Bolivar
Asesor: Dra. Santos Adriana Martel Estrada, Universidad Autónoma de Ciudad Juárez

MECANISMOS DE MUERTE CELULAR PRODUCIDOS POR NANOPARTíCULAS BASADAS EN CARBONO


MECANISMOS DE MUERTE CELULAR PRODUCIDOS POR NANOPARTíCULAS BASADAS EN CARBONO

Palacio Castillo Daniel Santiago, Universidad Autónoma de Manizales. Yepes Mendoza Maileth Yoelis, Universidad Simón Bolivar. Asesor: Dra. Santos Adriana Martel Estrada, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Resumen:  El número de publicaciones relacionadas con el uso de nanopartículas crece año con año. No obstante,  es importante enfatizar el problema de la citotoxicidad de dichas partículas.  Los mecanismos de muerte celular producidos por nanopartículas basadas en carbono han sido estudiados ampliamente,  pero no hay un documento que condense los resultados de múltiples estudios en donde se aborde dicha problemática. 



METODOLOGÍA

En la presente investigación se recopilaron datos de 80 publicaciones, incluyendo revistas y libros,  desde 2012 a 2022 encontradas en bases de datos como Elsevier, Google Scholar, Springerlink y Ebsco para analizar los diferentes mecanismos de muerte celular reportados en investigaciones previas.    Se enfatizó la búsqueda en la necrosis y apoptosis reportada en investigaciones en donde utilizaron nanotubos de carbono, fullereno, el grafeno, los puntos cuánticos de carbono y nanodiamantes.


CONCLUSIONES

De acuerdo con la información recopilada, se pudo determinar que las diferentes nanopartículas basadas en carbono cuentan con la propiedad de acarreamiento de fármacos al sitio de unión, lo cual es importante al momento de tratar enfermedades como el cáncer, dado que facilita la distribución del medicamento sin efectos secundarios indeseados.    De igual forma, se determinó que todas estas nanopartículas son capaces de generar un mecanismo de muerte celular en común llamado apoptosis, este es conocido como muerte celular programada, el cual es un proceso celular genéticamente mediado por las células que inducen su propia muerte en respuesta a determinados estímulos.   Se logró determinar que los cinco tipos de nanopartículas basadas en carbono son capaces de producir muerte celular y, además, servir como tratamiento potencial para el tratamiento del cáncer. No obstante, no hay información suficiente para declarar si el mecanismo de muerte celular predominante producido es la apoptosis o necrosis, por lo que son importantes investigaciones futuras para evaluar su factibilidad como acarreador de fármacos. 
Yndriago Olivares Jesus Enrique, Universidad de Pamplona
Asesor: Mg. Lewin Andrés López López, Universidad del Valle

SISTEMA INTELIGENTE DE CULTIVOS URBANOS IOT.


SISTEMA INTELIGENTE DE CULTIVOS URBANOS IOT.

Bermon Cárdenas Johan Sebastian, Universidad de Pamplona. Yndriago Olivares Jesus Enrique, Universidad de Pamplona. Asesor: Mg. Lewin Andrés López López, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

El consumo de alimentos en el mundo está mayormente abastecido por minimercados, supermercados y almacenes de cadena (ANDI, s.f., párr. 1). Sin embargo, esta dependencia ha llevado a una creciente escasez de alimentos en ciertas regiones debido a la alta demanda de recursos y los impactos económicos provocados por eventos como la pandemia y conflictos bélicos. Como resultado, se ha generado una inflación global que dificulta el acceso equitativo a los alimentos para toda la población. Además, los métodos de agricultura utilizados en países con baja infraestructura tecnológica requieren una gran cantidad de recursos naturales, como el agua, y presentan una eficiencia baja al cultivar en extensas áreas (ANDI, s.f., párr. 2). Por lo tanto, la agricultura tradicional hace un uso ineficiente de los recursos naturales y energéticos y es una situación preocupante con el pasar de los años, donde se agotan cada vez más tales recursos. Lo anterior plantea nuevos desafíos para la sostenibilidad del sistema alimentario con el uso del conocimiento y las tecnologías recientes, además del análisis y capacidad de procesamiento de los datos. El presente proyecto tiene como objetivo abordar estos problemas mediante la implementación de un plan de agricultura familiar que sea replicable en entornos urbanos. Para ello, se propone el uso de un sistema inteligente basado en Internet de las cosas (IoT), que emplee los sistemas de comunicación actuales y la red de datos para monitorear el estado y salud de cada cultivo (ANDI, s.f., párr. 3). Esta solución permitirá mejorar la eficiencia en el uso de los recursos naturales y energéticos, garantizando modalidades de consumo y producción sostenibles en línea con el Objetivo de Desarrollo Sostenible 11 (ODS 11) de las Naciones Unidas (NNUU, s.f.).



METODOLOGÍA

La metodología seleccionada para desarrollar el prototipo que permita la especificación y elaboración del modelo ecosostenible de agricultura urbana será Design Thinking. A continuación, se presentan los propósitos de cada etapa: Empatizar: En esta etapa, se abordó la situación problemática relacionada con el consumo y producción sostenible en un cultivo bajo techo. Definir: Una vez recopilada la información relevante, se establecieron los datos necesarios para construir un sistema IoT que permita el monitoreo de una planta alimenticia. Idear: Aquí se proyectó la elaboración de un sistema de monitoreo para cultivos en tierra bajo condiciones variables, por medio de tres niveles de experimentación. Prototipar: Se procedió a construir el prototipo físico del sistema de monitoreo, ajustando la electrónica de los componentes y el sistema de comunicación IoT entre sensores y una plataforma Web que recopila los datos. Probar: Se lograron realizar las pruebas de comunicación entre dispositivos periféricos y el nodo central, y es necesario complementar las lecturas de las variables para que se optimicen los tiempos de respuesta del sistema ante monitoreo continuo.


CONCLUSIONES

Según la información recopilada, se resalta la importancia de monitorear las variables de: temperatura, luminosidad, humedad (tanto relativa como del terreno), para garantizar mejores condiciones de crecimiento de una planta. Se propuso un modelo experimental para investigar los efectos de la luminosidad de tipo artificial (LED), por medio de variaciones controladas de ciclos de luz y oscuridad, emulando el comportamiento del sol durante un día. Se lograron utilizar apropiadamente los protocolos de comunicación de tipo Suscriptor y Publisher como mecanismo de implementación de IoT en plataformas Web. Resultados Obtenidos Recopilación de la información de proyectos, artículos, tesis y conferencias acorde al enfoque del proyecto, por medio de las bases de datos de uso libre en la Universidad del Valle. Establecimiento de una Rapsberry como servidor local, que centraliza la información del sistema, implementando el protocolo de comunicación MQTT para un monitoreo de tres niveles de cultivos bajo techo. Elaboración de una interfaz gráfica en lenguaje Java, apoyado de las librerías de Swing para el desarrollo del entorno, los elementos de interacción y la visualización para el usuario. Diseño en un software CAD para la estructura tipo armadura del sistema de riego, refrigeración, luminosidad, disposición de macetas, electrónica y alimentación. Diseño materializado de la estructura para el sistema de monitoreo con IOT de las plantas, donde se implementaron tubos de PVC  y botellas plásticas para conformación del proyecto. Diseño de una aplicación en celular para recibir los datos provenientes del bróker con las variables ambientales en la nube. Resultados por Obtener Comprobar la funcionalidad de la estructura vinculada al sistema de monitoreo en sus tres niveles. Validar la influencia de las variables elegidas, con especial atención en la luminosidad dada por una luz LED. Lograr la integración de los tres niveles con el bróker en la nube a través de una conexión Wi-Fi hacia la aplicación móvil. Demostrar la viabilidad del prototipo desarrollado para el monitoreo de cultivos urbanos bajo condiciones controladas y variables. Obtener información valiosa sobre la correlación de la luminosidad con luz LED y el crecimiento de la planta alimenticia. Referencias: Asociación Nacional de Empresarios de Colombia (ANDI). (s.f.). Las tendencias del consumo de alimentos. Recuperado de https://www.andi.com.co/Home/Noticia/17181-las-tendencias-del-consumo-de-alimentos Naciones Unidas (NNUU). (s.f.).Consumo y producción responsables. Objetivos de Desarrollo Sostenible. Recuperado de https://www.un.org/sustainabledevelopment/es/sustainable-consumption-production/
Zacariaz Martínez Sandra Teresa Giuliani, Universidad Tecnologica de León
Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León

PROCESO DE ELECTROCOAGULACIÓN PARA REMOCIÓN DE GLIFOSATO COMERCIAL EN AGUA CON ELECTRODOS DE ALUMINIO Y HIERRO


PROCESO DE ELECTROCOAGULACIÓN PARA REMOCIÓN DE GLIFOSATO COMERCIAL EN AGUA CON ELECTRODOS DE ALUMINIO Y HIERRO

Espinosa López Alondra Yazmín, Universidad Tecnologica de León. Gomez Hurtado Elvira Berenice, Universidad Tecnologica de León. Valdivia Moreno Oscar Emmanuel, Universidad Tecnologica de León. Zacariaz Martínez Sandra Teresa Giuliani, Universidad Tecnologica de León. Asesor: Dr. Alan Daniel Villalobos Lara, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

En los ultimos años, han aumentado los problemas derivados del uso agroindustrial del herbicida glifosato, debido a que puede filtrarse en diferentes medios naturales, como los mantos acuiferos, causando daños al medio ambiente y a la salud de los seres humanos. El presente proyecto contribuye a atender dicho problema utilizando la electrocoagulación como medio de remoción del glifosato. 



METODOLOGÍA

Se realizaron experimentos a nivel laboratorio y se encontraron los parámetros adecuados para alcanzar altos niveles de remoción de una solución sintética con una concentración de 270 mg/L de glifosato. Se estudio el efecto de la variación del factor densidad de corriente  con los valores de 2.5 mA/cm2, 5.5 mA/cm2, 7.5 mA/cm2, 0.3 g/L de Cloruro de sodio, electrodos de aluminio y hierro  y tiempos de electrolisis de 20, 40, 60, 80 y 100 minutos.


CONCLUSIONES

Los resultados de la eliminación de glifosato se evaluaron de modo indirecto, a través de la demanda química de oxigeno (DQO). La remoción máxima obtenida de la electrocoagulación con electrodos de aluminio  fue de 48,75%, mientras que con electrodos de  hierro se obtuvo una remoción de 20%; en ambos casos con una densidad de corriente de 7.5 mA/cm2
Zalasar Chavez Sandra Rocio, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

ANáLISIS BIBLIOMéTRICO DE LA AGROECOLOGíA COMO ESTRATEGIA DE ADAPTACIóN Y MITIGACIóN A LOS EFECTOS DEL CAMBIO CLIMáTICO EN EL SECTOR CAFETERO


ANáLISIS BIBLIOMéTRICO DE LA AGROECOLOGíA COMO ESTRATEGIA DE ADAPTACIóN Y MITIGACIóN A LOS EFECTOS DEL CAMBIO CLIMáTICO EN EL SECTOR CAFETERO

Zalasar Chavez Sandra Rocio, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

El cambio climático se manifiesta a través de fenómenos como el aumento de la temperatura, la variabilidad de las precipitaciones y la intensificación de eventos climáticos extremos (Anh et al., 2023). Estos cambios tienen consecuencias directas en los agroecosistemas cafeteros con efectos en la productividad, calidad y resiliencia de los cultivos. Las temperaturas más altas pueden alterar los procesos de floración y maduración del café, mientras que la variabilidad de las precipitaciones puede provocar sequías prolongadas o lluvias intensas, lo que afecta negativamente la salud de las plantas y aumenta el riesgo de plagas y enfermedades (Morales-Cruz et al., 2023). En este contexto, la agroecología ha surgido como un enfoque prometedor que brinda principios sobre como estudiar, diseñar y gestionar los agroecosistemas para que puedan ser productivos, resistentes a plagas y conservadores de nutrientes (Altieri, 2002) para la adaptación y mitigación de los impactos del cambio climático en el sector cafetero y mayor resiliencia de los sistemas de cultivo de los agricultores. Por otra parte, el manejo de prácticas como sombra en los cafetales y la asociación de cultivos con coberturas vegetales minimizan los efectos de la variabilidad climática (Turbay et al., 2014).



METODOLOGÍA

Este estudio tuvo como objetivo general proporcionar un análisis bibliométrico sobre el potencial de la agroecología como estrategia de adaptación al cambio climático en el sector cafetero. para su desarrollo se realizó un estudio descriptivo de carácter cualitativo que empleó la base de datos de Scopus para la búsqueda de las publicaciones en el período 2013 hasta Julio de 2023. Se realizaron tres ecuaciones de búsqueda de manera independiente: climate change AND coffee, agroecology AND coffee y climate change AND agroecology, los datos extrajeron en formato .csv (Microsoft Excel). La fecha de recuperación fue 18 de Julio de 2023. Por cada ecuación de búsqueda se realizó un análisis bibliométrico en el cual se analizó la coocurrencia de palabras de los autores y coautoría por autores, organizaciones y países mediante el software VOSviewer (versión 1.6.19). El mapeo de coocurrencia o red semántica se refiere a la interacción entre palabras claves; mientras que la coautoría se refiere a las interacciones de autores, países contribuyentes para el desarrollo de áreas de investigación (Tamala et al., 2022). En el mapeo de coocurrencia de palabras se estableció como factor limitante la ocurrencia de mínimo de 5 palabras claves proporcionadas por los autores de los artículos. VOSviewer tiene tres tipos de visualización: visualización de red, superposición y visualización de densidad, en este estudio solo se utilizó la visualización de red. Por otro lado, el análisis bibliométrico se realizó con un gran número de publicaciones científicas, según Rogers et al. (2020) recomiendan revisar un número igual o mayor a 200 artículos. Además, se realizó un análisis de artículos científicos seleccionados para comprender los efectos del cambio climático y la agroecología como estrategia de solución.


CONCLUSIONES

El análisis bibliométrico de co-ocurrencia de las palabras evidencia que las palabras claves por autor más importantes son: cambio climático, agroecología, adaptación y agricultura sostenible. Para la búsqueda climate change AND coffee, el análisis de coautoría reporta que Estados Unidos concentra la mayor investigación y producción científica; mientras que Brasil y Colombia, sus principales colaboradores, tienen necesidades de encontrar medidas para la adaptación y mitigación del cambio climático. Por otro lado, con la ecuación climate change AND agroecology se encontró que Reino Unido y Francia son los colaboradores en las publicaciones con Estados Unidos. La producción científica relacionado agroecology AND coffee registrada en Scopus arrojó 112 documentos. Lo que significa que para futuras investigaciones este campo podría ser tomado como un tema potencialmente importante. Es relevante destacar que el mayor numero de publicaciones fue realizado en las áreas de las ciencias agrícolas y medioambientales. Los temas de investigación se enfocan en la interacción del cambio climático y café, impactos de las variables climáticas en el café arábiga, estrategias y capacidades de adaptación, sistemas agroforestales, resiliencia de cultivos, prácticas agroecológicas y pequeños productores a escala global con casos particulares de análisis en países productores.
Zamarripa Manriquez Luz Manuel Alejandro, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

SISTEMA DE SEGURIDAD EN CELDA DE HIDROGENO


SISTEMA DE SEGURIDAD EN CELDA DE HIDROGENO

Zamarripa Manriquez Luz Manuel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se realizó la implementación de una celda seca de hidrogeno a un automóvil de combustión interna buscando obtener una reducción en el consumo de combustible y en las emisiones contaminantes. Debido a las características del hidrógeno como su velocidad de llama, inflamabilidad, y riesgo de fuga debido a su tamaño molecular fue necesario implementar medidas de seguridad para evitar que el hidrógeno fluya en dirección contraria se almacene en lugares no deseados y peligrosos se propone un sistema de válvulas para re direccionar el flujo y diversas medidas de seguridad para contener al hidrógeno en caso de sobre producción.



METODOLOGÍA

Durante el desarrollo de este proyecto se llevó a cabo las siguientes actividades  Investigación y revisión del estado de la técnica para inyección de gas hidrogeno en la alimentación de un motor de combustión interna. Seleccionaremos aquella qué puedo hacer utilizada en un motor a combustión con inyección electrónica  Para detener la generación de hidrogeno en la celda electrolítica Para manejo seguro de un sistema hibrido gasolina_hidrogeno Implementación de un sistema de válvulas que permitan el paso del hidrogeno hacia el motor pero que no permitan que este se almacene en el burbujeador en las mangueras para evitar un posible accidente. Investigar la adaptación de un sistema de para en caso de emergencia cuando el hidrógeno se encuentre retenido en el tanque o en las mangueras. Adquisición de los materiales y pruebas iniciales Implementar la celda de hidrogeno con las mejoras realizadas en el compartimiento de un auto a gasolina con inyección electrónica. Realización de pruebas del sistema en su conjunto. Ya una vez determinadas las adaptaciones del sistema se procederá a realizar pruebas de funcionamiento tanto de encendido como de movilidad de vehículo. Optimización del sistema y medición del rendimiento de combustible.


CONCLUSIONES

En este trabajo se implementó una celda seca a un motor de combustión interna, obteniendo beneficios en el consumo y la emisión de gases contaminantes. Para lograr esto fue necesario realizar varias modificaciones, como la adaptación de un burbujeador para evitar la fuga de hidrógeno del sistema, de igual manera se modificó la integración de la celda colocado válvulas de no retorno, válvulas check, las cuales solo permitirán el paso en una solo dirección del hidrogeno impidiendo su retorno al burbujeador con la intención de evitar una posible acumulación de hidrogeno que pudiera provocar una explosión dentro del burbujeador. Adicionalmente, se revisó que las mangueras fueran de un grosor adecuado, que el tanque de almacenamiento tuviera una presión de trabajo adecuada.
Zamarripa Pichardo Miguel Angel, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

MEJORA DE EFICIENCIA EN GENERADOR DEL PROTOTIPO "AEROGENERADOR 2.0".


MEJORA DE EFICIENCIA EN GENERADOR DEL PROTOTIPO "AEROGENERADOR 2.0".

Zamarripa Pichardo Miguel Angel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Se propone trabajar en el diseño de una mejora en el generador eléctrico de un Mini Aerogenerador, en el cual originalmente cuenta con un solo embobinado, se planea conseguir que genere un mayor voltaje para aprovechar de mejor manera toda el área de trabajo del mismo generador. La idea inicial es implementar embobinados individuales conectados en serie, aprovechando así la mayor cantidad de espacio posible, asimismo, se propone cambiar el diseño del rotor (portaimanes) para hacerlo mas ligero y ayude a conseguir el objetivo principal, que es el obtener un mayor voltaje.



METODOLOGÍA

Para realizar este proyecto, se trabajo en base a la siguiente metodología: Etapa inicial. Planteamiento del problema a resolver. Determinación de los objetivos generales y específicos. Etapa de diseño Estudio del diseño inicial y generación de propuestas de mejora. Revisión de presupuestos. Selección de modelos de generadores eléctricos. Etapa de construcción Diseño en CAD de todo el generador para simulaciones. Selección y adquisición de componentes para el generador eléctrico. Puesta en marcha Planteamiento de experimentos de medición. Pruebas y ajustes Realización de pruebas y ajustes del sistema completo. Toma de resultados Análisis de los resultados.  


CONCLUSIONES

Durante la estancia en este Verano Delfín, se logró implementar las mejoras propuestas en el generador eléctrico, aprovechando de mejor manera el área con respecto al volumen de los embobinados, haciéndolo uno mismo, en las pruebas realizadas en el nuevo generador eléctrico se obtuvo un voltaje 3 veces mayor que con el generador anterior.
Zamora Blanco Jesús Miguel, Universidad de Guadalajara
Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California

ADQUISICIÓN Y PROCESAMIENTO DE SEÑALES ELECTROENCEFALOGRÁFICAS DURANTE EL PROCESAMIENTO DE DILEMAS MORALES


ADQUISICIÓN Y PROCESAMIENTO DE SEÑALES ELECTROENCEFALOGRÁFICAS DURANTE EL PROCESAMIENTO DE DILEMAS MORALES

Franco Miramontes Ariana Belén, Universidad de Guadalajara. Santana Franco Edith Marlene, Universidad de Guadalajara. Silva Montes de Oca Carlos, Universidad de Guadalajara. Zamora Blanco Jesús Miguel, Universidad de Guadalajara. Asesor: Dr. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El procesamiento moral comprende sistemas neurológicos que forman el pensamiento moral, dirigen cognición y acción a objetivos internos como imaginar acontecimientos distantes y representar estados mentales en otros. La corteza prefrontal ventromedial se activa, según estudios de RNM funcional, cuando se hacen juicios morales o cuando se observan fotos que hacen referencia a emociones sociales como la solidaridad, la justicia y la culpa. También al plantearse dilemas, especialmente cuando estos implican contemplar la posibilidad de tener que actuar de forma que se pueda dañar a otros. Existen muchos estudios sobre el procesamiento moral, dando un enfoque desde ámbitos psicoeducativos pero hay poca evidencia de alta precisión bioeléctrica y componentes electroencefalográficos asociados al procesamiento moral. Es por eso que durante este verano de investigación, se estudian las señales electroencefalográficas adquiridas durante la presentación de dilemas morales en adultos jóvenes.   



METODOLOGÍA

Se adquirieron señales electroencefalográficas de ocho sujetos de estudio, entre los rangos de edad de 21 y 23 años, con características neurotípicas, cuatro con problemas visuales, 6 diestros y 2 zurdos.  A cada uno de los sujetos, se les realizó un previo cuestionario para descartar cualquier problema neurológico para después presentarle, por medio de un software, una serie de dilemas morales, en donde se les explica una situación en la que tienen que decidir si realizar o no la solución que se presenta con una posibilidad de tener que actuar de forma que se pueda dañar a otros por el bien general.  El software se conforma de 12 dilemas morales, en los que cada uno se divide en tres partes, primero dando un contexto general de la situación, después presentando el problema y la posible solución, y finalmente la pregunta donde el sujeto debe de responder con un sí o un no a la posible solución presentada.  Durante toda la presentación de los 12 dilemas se toman señales electroencefalográficas por medio de 6 electrodos de copa de oro, ubicados en las zonas prefrontal, frontal y temporal (según el sistema 10-20: Fp1, Fp2, F3, F4, F7, F8, T5, T6); utilizando el software y hardware de OpenBCI sincronizado al software de dilemas por medio de un marcador.  Para la identificación de cada dilema y sus partes en las señales electroencefalográficas se utilizó el marcador temporal previamente mencionado, para dividir las señales y facilitar el procesamiento de las mismas.   En el planteamiento del problema y de la posible solución de cada dilema, se espera ver una activación en el área prefrontal, lo cual se traduce en un cambio de la potencia de los componentes frecuenciales de las señales obtenidas en dichos electrodos. Para tener una mejor comparativa en el cambio de las señales electroencefalográficas se realizó un registro baseline o controlado sin estímulos exteroceptivos, que consta de tres etapas, los primeros 30 segundos del registro el sujeto está en estado de relajación con ojos abiertos, en la segunda etapa el sujeto debe de cerrar los ojos, teniendo esta una duración de 30 segundos más, para finalizar con una etapa de 2 minutos en la que el sujeto se mantiene con los ojos cerrados mientras que se le pide imaginar diferentes figuras geométricas para mantener un estado de concentración y relajación. Para el procesamiento de la información adquirida en el procesamiento moral, se tomaron las señales adquiridas y se dividieron según los segmentos de interés para el análisis, siendo estos antes y después del planteamiento del problema moral, posteriormente, se calculó el espectrograma de cada uno de estos canales para tener de primera instancia una comparativa visual de los cambios de la potencia en cada frecuencia a través del tiempo, posteriormente, se aplicaron herramientas estadísticas como el cálculo de la desviación estándar para tener una comparativa cuantitativa de los cambios que se produjeron durante todo el procesamiento moral.


CONCLUSIONES

Durante el procesamiento de dilemas morales se encontró un cambio significativo en la potencia de ondas beta en el área prefrontal del cerebro, mayormente de los electrodos F7 y F8 en comparación con el segmento de línea base, ocurriendo esto mismo para el caso del planteamiento del contexto del dilema en comparación con el registro de línea base, no se encontró un cambio significativo entre la activación de estos canales en la misma banda durante el procesamiento moral del dilema en comparación con el planteamiento del contexto del dilema.
Zamorano Nuñez Herandy Jacqueline, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Ana Beatriz Carrera Aguilar, Universidad Nacional Autónoma de México

INFRAESTRUCTURA Y COMUNIDAD: UN ANÁLISIS EN LA EX HACIENDA, EL HOSPITAL CUAUTLA, MORELOS.


INFRAESTRUCTURA Y COMUNIDAD: UN ANÁLISIS EN LA EX HACIENDA, EL HOSPITAL CUAUTLA, MORELOS.

Torres Quintana Astrid Itzel, Instituto Politécnico Nacional. Vázquez Castrejón Flor Natividad, Universidad Autónoma de Guerrero. Zamorano Nuñez Herandy Jacqueline, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Ana Beatriz Carrera Aguilar, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La Ex Hacienda El Hospital, es una comunidad ubicada a 5 kilómetros al suroeste del centro del municipio de Cuautla, Morelos, tiene una larga historia como lugar dedicado a la producción de caña de azúcar, cuya importancia ha perdurado a lo largo del tiempo. Sin embargo, en las últimas décadas, esta localidad ha enfrentado desafíos significativos en cuanto a su infraestructura debido al crecimiento demográfico experimentado en la zona. El crecimiento demográfico sin planificación ha generado problemas en el entorno urbano y el medio ambiente, que requieren atención inmediata.  



METODOLOGÍA

  Definición de objetivos  Diseño de instrumento para la  recolección de datos  Análisis de sitio - reconocimiento del lugar  Recopilación de datos  Análisis de datos  Resultados Evaluación del estado actual  Identificación de necesidades y deficiencias Propuesta de mejoramiento  Conclusiones 


CONCLUSIONES

  Tras realizar una evaluación de infraestructura y entorno urbano en la localidad de Ex Hacienda El Hospital, mediante un acercamiento directo a la comunidad a través de encuestas y entrevistas con los residentes locales, hemos obtenido resultados que nos permitieron proponer intervenciones futuras en diferentes áreas clave, como movilidad y transporte, servicios públicos, medio ambiente y equipamiento urbano. Estas intervenciones buscan transformar la Ex Hacienda El Hospital en una localidad más sostenible, funcional y con una mejor calidad de vida para sus habitantes.
Zamudio Hernández José Joel, Instituto Tecnológico del Valle de Morelia
Asesor: Dra. Tania Méndez Romero, Instituto Tecnológico de Morelia

CARACTERIZACIóN FISICOQUíMICA DE RESIDUOS MADEREROS PARA LA PRODUCCIóN DE UN BIOCOMBUSTIBLE SóLIDO.


CARACTERIZACIóN FISICOQUíMICA DE RESIDUOS MADEREROS PARA LA PRODUCCIóN DE UN BIOCOMBUSTIBLE SóLIDO.

Vázquez Núñez Lady Jasit, Instituto Tecnológico de Morelia. Zamudio Hernández José Joel, Instituto Tecnológico del Valle de Morelia. Asesor: Dra. Tania Méndez Romero, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

El uso de biocombustibles ha sido promovido como una alternativa más sostenible a los combustibles fósiles, sin embargo, plantea desafíos importantes en relación con el impacto ambiental y la competencia con la producción de alimentos.  Uno de los problemas es el dilema entre el uso de tierras para la producción de biocombustibles y la producción de alimentos. La expansión de cultivos destinados a biocombustibles puede llevar a la deforestación y a la conversión de tierras agrícolas para uso energético, lo que puede reducir la disponibilidad de tierras para cultivos alimentarios y afectar la seguridad alimentaria en diversas regiones.  Además, algunos biocombustibles producidos a partir de cultivos agrícolas pueden tener un alto impacto ambiental debido a la intensificación del uso de agroquímicos y la demanda de agua, lo que puede llevar a la degradación de ecosistemas y la pérdida de biodiversidad.  En resumen, la importancia de los biocombustibles como una alternativa más sostenible a los combustibles fósiles está sujeta a un equilibrio delicado entre la producción de energía, la seguridad alimentaria y la preservación ambiental. Abordar estos desafíos de manera efectiva es esencial para maximizar los beneficios de los biocombustibles y minimizar sus impactos negativos en el medio ambiente y la sociedad. 



METODOLOGÍA

Acondicionamiento del aserrín: molienda y tamizado Reducimos el tamaño de aproximadamente 1kg de aserrín en un molino manual, ya que el molino eléctrico no reducía el tamaño del aserrín considerablemente.  Se analizo el tamaño obtenido, y se optó que con una molienda era suficiente para el tamaño de partícula que se necesita.  Se monto la torre de tamices cuya malla son de; 10, 18, 60, 120 y la base o pan, se realizó el proceso de clasificación. Determinación de la humedad relativa  En la estufa se colocó aserrín en dos crisoles con un peso de 3.014g y 3.022g, los crisoles se introdujeron primero en un desecador antes de utilizarlos para eliminar cualquier humedad que pueda afectar el resultado final.   Se introdujeron a la estufa a 107-121 °C hasta alcanzar un peso constante, con un tiempo de 30 minutos.  El peso del aserrín paso a 2.817g y 2.79g, respectivamente.  Comparar el contenido de humedad con el obtenido en la técnica con la estufa.  Determinación de la composición química de los residuos madereros:  Determinación de humedad   Se pesaron 4 crisoles vacíos y después se les agregó a cada uno aserrín malla 60.  Se introdujeron en la estufa a 105°C por 24 h.  Ya una vez pasado el tiempo se sacaron de la estufa y se colocaron en el desecador por 15 minutos.  Se pesaron, se tomaron los datos y se volvieron a colocar en el desecador. (Este paso se repitió unas 5 veces), hasta que el peso fue constante.  Se realizaron los respectivos cálculos, con base a la fórmula de humedad.  Hidrólisis ácida cuantitativa   Este trabajo se realizó a escala laboratorio, el proceso de obtención de azúcares reductores fue por medio de la hidrólisis ácida del aserrín, utilizando ácido sulfúrico diluido en condiciones de ebullición a reflujo y a presión atmosférica con el propósito de alcanzar una elevada conversión del aserrín a azúcares reductores.  Se preparó dos soluciones de ácido sulfúrico (H2SO4.) al 42 % y otra al 72 %.  En 6 tubos de ensaye con rosca se colocaron 0.5 g de aserrín.  Se hizo una dilución del 87.34 ml con agua destilada, se añadió en los tubos de ensaye con aserrín y se agitaron constantemente.  Se llevaron a baño maría hasta alcanzar la temperatura deseable.  Una vez sacado los tubos de ensaye del baño maría se colocaron en los 6 matraces previamente acondicionados cuidadosamente.  Se llevaron a refrigeración por 24 h, etiquetados y rotulados.  Pasado el tiempo se sacaron de refrigeración y se esperó unos minutos para posteriormente llevar 4 matraces a la autoclave a una presión de 0.16 mpa con una temperatura de 124 °C por 20 minutos.  Otro matraz se llevó a baño maría y el otro matraz se filtró sin pasar por ninguna otra operación.  Ya obtenidos los 6 matraces se filtraron con ayuda de un embudo y papel filtro y se llevaron a la estufa por 24 h.  Al día siguiente se sacaron de la estufa, se pesaron y se observó su coloración.  Se metieron al desecador y se dejaron por un lapso de 24 h.  Una vez que el tiempo paso, se sacaron y pesaron y se determinó la humedad que resultó para calcular los resultados obtenidos. 


CONCLUSIONES

Durante la estadía del programa DELFÍN se obtuvieron adquirir nuevos conocimientos teóricos y estos se llevaron a la práctica de revalorizar un residuo, tales como la obtención de humedad y cenizas del aserrín, y los resultados arrojaron que el aserrín tiene una muy buena cantidad de humedad para poder fabricar subproductos, en este caso para la elaboración de briquetas de aserrín. Además de ello, se hizo el análisis para la obtención de materiales lignocelulósicos, tales como la lignina, hemicelulosa y celulosa del aserrín, que a mayor contenido de lignina y bajo contenido de hemicelulosa y celulosa, es lo que potencializa a utilizar residuos madereros para la producción de biocombustibles de tipo sólidos.  Como resultado se obtuvo mayor cantidad de lignina y en menor proporción celulosa y hemicelulosa, sin embargo, no se descarta que en el futuro se pueda realizar el método de DNS el cual es una técnica colorimétrica que emplea un procedimiento que se basa en una reacción redox que ocurre entre el DNS y los azúcares reductores presentes en la muestra, seguido de la determinación espectro fotométrica a 540nm de los azucares reductores, entonces este metodo nos ayudaria a determinar cuantos azucares estan presentes en el aserrin a utilizar.  Es importante mencionar que con esta experimentación e investigación se espera que la fabricación de briquetas logre reducir la contaminación y así mismo tener reducción de residuos que se generan en los procesos madereros.  
Zamudio Sanchez Haydee Guadalupe, Instituto Tecnológico Superior de Los Reyes
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

ADICIóN DE FIBRAS DE POLIPROPILENO EN CONCRETOS PARA CONSTRUCCIONES FUTURAS: UNA REVISIóN.


ADICIóN DE FIBRAS DE POLIPROPILENO EN CONCRETOS PARA CONSTRUCCIONES FUTURAS: UNA REVISIóN.

Zamudio Sanchez Haydee Guadalupe, Instituto Tecnológico Superior de Los Reyes. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente existe una gran cantidad de desechos de material de polipropileno. Según estudios realizados la Asociación Nacional de Industrias del Plástico (Anipac), México es catalogado como el mayor productor de polipropileno el cual se enfoca en resinas a partir de materia prima renovable, materiales recuperados y estrategias circulares. Se estima una producción aproximada de 590 mil toneladas anuales. Por otra parte, el concreto es un material de construcción que en estado endurecido presenta propiedades físicas y mecánicas. Este material es el producto de mezclas de varios componentes en diversas proporciones las cuales son combinadas a mano o en mezcladoras mecánicas, para así mismo producir un gel que se deja moldear y que al endurecerse o fraguar, forma una materia compactada como piedra artificial que después de cierto tiempo adquiere altas resistencias a esfuerzos de comprensión. Actualmente los concretos presentan problemáticas muy variadas, estos surgen debido a los cuidados y la falta de estos al momento de hacer el procedimiento de las mezclas de concreto y mortero y a los materiales que se les agregan a estos. Los problemas más comunes hoy en día son: agrietamiento, plasticidad, fraguado prematuro, eflorescencia, inadecuada compactación y baja resistencia. Estos problemas son ocasionados por un inadecuado manejo de la cantidad agregada de los materiales a la mezcla, es decir, se coloca menor o mayor cantidad de cemento del especificado en el diseño de una mezcla de concreto, los agregados no cumplen con su función, se coloca menor o mayor cantidad de arena y agua, o sé cambia la cantidad de los aditivos. Es por esta razón que se llevó a cabo una previa investigación y experimentación sobre el agregado de fibras de polipropileno a mezclas de concreto para el mejoramiento de las mismas y que a futuro puedan ser aplicadas en construcciones futuras de cualquier tipología.



METODOLOGÍA

Se estudió el comportamiento del concreto con la incorporación de fibras cortas de polipropileno en estado endurecido. Para esto se realizó una mezcla de concreto siguiendo el método de ACI. El proceso de mezclado se realizó en un periodo aproximado de 5 minutos y las fibras de polipropileno se fueron agregando al trompo de mezcla durante el proceso de mezclado del concreto, para su adecuada dispersión y homogenización. Se realizó a cabo un total de 18 cilindros y 6 vigas con mezcla y fibra adicionada. También se realizaron 18 cilindros y 6 vigas para que estas sirvieran como muestras testigo para hacer una comparación de sus propiedades físicas y mecánicas con las muestras que contenían fibras de polipropileno. Para los cilindros con fibras adicionadas se emplearon las siguientes cantidades de material para la mezcla: cemento (10.088 kg), arena (22.531 kg), grava (32.982 kg), agua (10.366 kg), aditivo fluidificante (0.66 lts) y microfibra de polipropileno (0.020 kg). Para las vigas con fibras adicionadas se emplearon las siguientes cantidades de material para la mezcla: cemento (28.925 kg), arena (64.601 kg), grava (94.567 kg), agua (29.722 kg), aditivo fluidificante (0.191 lts) y microfibra de polipropileno (0.058 kg). Para las muestras testigo (convencional), se empleó la siguiente cantidad para la mezcla: cemento (10.088 kg), arena (22.531 kg), grava (32.982 kg), agua (10.366 kg). Para las vigas testigo se emplearon las siguientes cantidades de material para la mezcla: cemento (28.925 kg), arena (64.601 kg), grava (94.567 kg) y agua (29.722 kg). Es importante mencionar que se realizaron pruebas destructivas y no destructivas, a los 7 y 28 días a los especímenes para conocer su comportamiento mecánico en diferentes lapsos de tiempo. Las adiciones de fibras de polipropileno en el concreto en estado endurecido, mejoró el incremento de la tenacidad y de la resistencia al impacto. Respecto a previas investigaciones se encontraron otros estudios realizados en los cuales se agregaron fibras de polipropileno a la mezcla de concreto y se obtuvo que no existe modificación en la resistencia por la incorporación de fibras y no se encontraron cambios en la rigidez del concreto. Cabe mencionar que la masa unitaria y el contenido del aire atrapado se modificaron ligeramente, el uso de fibra de polipropileno redujo en forma importante el agrietamiento por contracción plástica.  


CONCLUSIONES

Durante la estancia de verano se logró conocer el comportamiento que tiene el concreto al adicionarle fibras de polipropileno. Gracias a estas fibras el concreto tuvo más adherencia y más resistencia comparado con los concretos testigos, sin embargo, no se tuvo una adecuada compactación debido a que a esta no se le realizo el procedimiento de varillado, esto con el fin de conocer las alteraciones que tendría la mezcla al no realizarse de manera adecuada. Es importante mencionar que las fibras sintéticas recicladas (fibras de polipropileno) agregadas en las pruebas realizadas ayudan a reducir la segregación de la mezcla de concreto y previenen la formación de fisuras durante las primeras horas de colocación del concreto o mientras la mezcla permanece en estado plástico. Con el tiempo puede irse mejorando este tipo de concreto para que pueda ser empleado en construcciones futuras de diversa tipología. El emplear este tipo de concreto con fibras recicladas de polipropileno no solo podría mejorar la vida útil de las construcciones si no también tendría un impacto positivo para el medio ambiente ya que se le estará dando otro uso a este residuo.
Zamudio Zepeda Raul Rodrigo, Instituto Tecnológico de Tlalnepantla
Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional

SIMULACIóN DE UN COLECTOR SOLAR SOMETIDO A CONVECCIóN NATURAL MEDIANTE EL SOFTWARE ANSYS FLUENT


SIMULACIóN DE UN COLECTOR SOLAR SOMETIDO A CONVECCIóN NATURAL MEDIANTE EL SOFTWARE ANSYS FLUENT

Zamudio Zepeda Raul Rodrigo, Instituto Tecnológico de Tlalnepantla. Asesor: Dr. Juan Rodríguez Ramírez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En México la energía solar es desaprovechada o de difícil acceso para la población, no obstante, tiene grandes beneficios económicos, energéticos y ambientales como lo son: Recurso gratuito Recurso inagotable No contamina al ambiente Tecnología madura y confiable Uno de los principales usos para la energía solar son la conservación de los alimentos por deshidratación. Por lo que se requieren dispositivos solares que sean accesibles, es decir, económicos, eficientes y simples. Para lograr este objetivo se debe de implementar un diseño que no sea complejo de fabricar y para ello en este verano de investigación se comprobó una propuesta de diseño la cual se introdujo a simulación de dinámica de fluidos (CFD) y transferencia de calor por medio del software Ansys Fluent para poder discutir las posibles mejoras al diseño sin afectar el coste de este.



METODOLOGÍA

Se genero la geometría CAD en el software inventor, únicamente se dibujaron el colector solar, la cámara de secado, las 8 charolas para el alimento, el cristal y el fluido que en este caso es aire. Se exporto la geometría al Mesh de Fluent, en el cual se estableció una malla de 0.00397 m con calidad Ortogonal, se le agregaron etiquetas de nombre a zonas de interés para la simulación como lo son la entrada y salida del aire, el cristal y el absorbedor. Una vez que se realizó la malla en la geometría se procedió a la configuración de la simulación, iniciando con la selección de los modelos matemáticos. Se habilito la ecuación de la energía, el modelo viscoso k-épsilon (2 eqn) y para radiación el modelo Rosseland. Debido a estos modelos se deben de especificar las propiedades físicas y térmicas de cada material involucrado, es decir, el aire, el cristal y del acero. Posterior a esto se especifican las condiciones frontera de la geometría, para la entrada del colector solar se especifica una velocidad de 2.5 m/s, al cristal se le aplica la condición de radiación y especificando como material semitransparente, por último, al absorbedor se le aplica la condición de convección y se le establece un coeficiente de convección de 15.2 W/(m2·K). Se debe de establecer que la simulación se iniciara desde la entrada (Inlet) del colector solar y definir el numero de iteraciones que se quieran realizar, el número de estas va a depender de la complejidad del modelo, geometría y de la buena configuración de los pasos anteriores, esto con el fin de lograr una convergencia de la solución. Ya que la simulación haya concluido se procede a generar los gráficos para visualizar el gradiente de temperatura y el grafico de las líneas de trayectoria de la velocidad.


CONCLUSIONES

Mediante la interpretación de los gráficos generados en la simulación se concluye que la geometría propuesta es viable y genera un gradiente de temperatura suficiente para el deshidratado de alimentos, además de que la dinámica de fluidos se comporta de manera adecuada dentro del colector y la cámara de secado propiciando una adecuada transferencia de calor. Este gradiente puede ser mejorado con la implementación de dispositivos que generen turbulencia en el fluido (Turbuladores), se sigue trabajando en la simulación con dicha mejora, pero esto acompleja la simulación y la configuración de los parámetros.
Zapata Alvarez Nayeli, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia

MINERÍA DE OPINIONES EN TWITTER PARA EVALUAR EL SERVICIO DE AGUA POTABLE EN MÉXICO MEDIANTE CLASIFICACIÓN AUTOMÁTICA DE TEXTOS.


MINERÍA DE OPINIONES EN TWITTER PARA EVALUAR EL SERVICIO DE AGUA POTABLE EN MÉXICO MEDIANTE CLASIFICACIÓN AUTOMÁTICA DE TEXTOS.

Zapata Alvarez Nayeli, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

El agua es un recurso natural primordial para la existencia de todos los seres vivos incluidos entre ellos los seres humanos, ya que es fundamental para muchas de las tareas que desarrollan día a día como también para consumo, además de que tener acceso a ella garantiza la salud y el bienestar de los humanos, pero a lo largo de los años hemos sobre explotado y abusado del uso de este recurso (CNDH, 2018). En México se han vivido días de escasez en el servicio del agua, impactando de manera significativa en la vida de las personas. Es muy importante abordar este problema pueden presentarse consecuencias negativas a nivel individual, social y ambiental. Algunas de estas consecuencias incluyen un gran riesgo de enfermedades relacionadas con el consumo de agua contaminada, conflictos por el acceso al agua, poca calidad de vida de la población que se vea afectada y daños ambientales debido a la sobreexplotación de los recursos hídricos obteniendo cambio climático (Semarnat,2015). De acuerdo con el problema antes mencionado, se ha notado que existen distintas opiniones y percepciones que las personas hacen con respecto al servicio de agua potable en diferentes contextos geográficos y socioeconómicos. Algunas personas muestran satisfacción con el servicio, mientras que otras lo califican como deficiente o insatisfactorio. Esto indica que existe una gran variedad de opiniones las cuales deben ser estudiadas y comprendidas en mayor profundidad. Se pretende estudiar las opiniones que se proporcionan a través de Twitter ya que pueden ser analizadas para obtener información valiosa que en un futuro puede ser de utilidad para distintas organizaciones o instituciones de México y les permita tomar decisiones informadas, basadas en evidencia para que puedan mejorar la calidad del servicio y satisfacer las necesidades de la población. En particular, se propone utilizar técnicas de análisis de sentimientos y minería de datos en la plataforma de Twitter para llevar a cabo el análisis e identificar algunos patrones que pueden surgir en relación con la percepción del servicio.



METODOLOGÍA

El proyecto se desarrolló siguiendo la metodología CRISP-DM, la cual integra todas las tareas necesarias en los proyectos de minería de datos, desde la fase de comprensión del problema hasta la puesta en producción de sistemas automatizados analíticos, predictivos y/o prospectivos. aplicando las fases de comprensión de los datos, preparación de los datos, modelado, evaluación y despliegue (Álvarez, 2021). CRISP-DM proporciona una estructura sólida y sistemática para abordar el proyecto de manera eficiente, para ello se trabajó con las fases de esta metodología del siguiente modo: En la fase de Comprensión del problema, es crucial comprender a fondo el objetivo del proyecto y las necesidades específicas, se identificó las razones por las que se recurrió a la minería de opiniones en Twitter sobre el servicio de agua potable en México. La fase de preparación de los datos fue crucial para asegurar la calidad de los resultados. Se recopilaron los datos relevantes de Twitter mediante técnicas de web scraping a través de python y se realizó la clasificación a través de gramas de palabras y pesos booleanos. En la fase de modelado, se aplicaron algoritmos como Support Vector Machine (SVM), Naive Bayes y regresión lineal, para clasificar los tweets en categorías de sentimiento positivo o negativo. También se exploraron técnicas de procesamiento del lenguaje natural (NLP) para mejorar la clasificación y la interpretación de los textos. La evaluación del modelo fue una etapa a la que no se pudo llegar durante el transcurso del tiempo establecido por el programa. Pero se pueden llevar a cabo validaciones cruzadas y otras técnicas de evaluación de modelos. para el despliegue del modelo en producción. Se pretende llevar a cabo la implementación de un sistema automatizado para analizar nuevos tweets en tiempo real y evaluar constantemente la percepción de los usuarios.


CONCLUSIONES

De acuerdo con los resultados obtenidos del análisis de opiniones en Twitter sobre el servicio de agua potable en México mediante la clasificación automática de textos, se ha logrado obtener información valiosa que puede ser de gran utilidad para distintas instituciones públicas encargadas de la distribución y saneamiento del agua, para poder mejorar el servicio. En primer lugar, se ha identificado una clara diferencia de cantidades en las opiniones negativas (, alrededor del 96.7%) entre las opiniones positivas (aproximadamente el 3.3%) de los usuarios. Esto muestra que existe un alto grado de insatisfacción y preocupación por parte de los usuarios con el servicio de agua potable en el país. Además, mediante la aplicación de técnicas de procesamiento del lenguaje natural y análisis de sentimientos, se ha logrado clasificar los tweets en categorías de sentimiento positivo o negativo. Asimismo, se ha identificado una lista de palabras clave y términos más significativos que se mencionan con mayor frecuencia en los tweets relacionados con el servicio de agua potable. Estos términos pueden ser de gran relevancia para las autoridades y responsables del sector, ya que brindan información sobre las áreas específicas que requieren mayor atención y mejora. En cuanto a la evaluación de los modelos de clasificación utilizados, se observó que la eficiencia del algoritmo de Maquina de Soporte Vectorial (SVM) fue de aproximadamente 35.0%, mientras que el algoritmo de Naive Bayes obtuvo una eficiencia de alrededor del 31.664%, y el algoritmo de Regresión Logística alcanzó una eficiencia de aproximadamente el 36.664%. Estos resultados sugieren que aún hay margen de mejora en la precisión de los modelos y que se pueden explorar otras técnicas y enfoques para mejorar la clasificación de las opiniones. Sin embargo, se reconoce que el proyecto aún puede continuar evolucionando y mejorando, considerando la ampliación del conjunto de datos y la exploración de otras técnicas de análisis y clasificación.
Zaragoza Jr. Victor Manuel, Universidad de Guadalajara
Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla

FABRICACIóN, PROGRAMACIóN Y VALIDACIóN DE DISPOSITIVO DE MEDICIóN DE RUIDO AMBIENTAL


FABRICACIóN, PROGRAMACIóN Y VALIDACIóN DE DISPOSITIVO DE MEDICIóN DE RUIDO AMBIENTAL

Reynoso Romo Juan Ramón, Universidad de Guadalajara. Zaragoza Jr. Victor Manuel, Universidad de Guadalajara. Asesor: Dr. Filiberto Candia García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En los países que se encuentran en desarrollo se identifica una problemática persistente que se caracteriza por ser teórica y con baja relación a la aplicación industrial. La necesidad de fabricar, programar y validar un dispositivo de medición de flexión en elementos estructurales delgados se justifica por la importancia de adquirir un profundo conocimiento en áreas fundamentales como Vibraciones Mecánicas o Mecánica de Sólidos. Los prototipos funcionales permiten la validación de dispositivos que se fabrican con la finalidad de medir, analizar y reportar, el comportamiento de los elementos estructurales que conforman la disposición de un chasis, armazón, armadura o estructura, tanto de las construcciones civiles como de la industria metalmecánica, ya sea de funcionamiento estático o móvil. Siendo la resonancia y la perdida de rigidez por efecto de cargas armónicas que se presenta en los elementos estructurales esbeltos. Es de suma relevancia determinar experimentalmente los efectos y cambios que se generan en la frecuencia fundamental por una excitación armónica de amplitud constante aplicada a una columna esbelta de sección transversal constante. El resultado es una gráfica comparativa de la respuesta dinámica determinada por métodos analíticos y de manera experimental en un modelo didáctico instruccional.



METODOLOGÍA

El diseño del modelo de estudio se desarrolló mediante tecnologías de diseño, fabricada por impresión 3D y se configuro de manera flexible, adaptativa e integrada, por ello tiene la capacidad funcional, tanto para instrumentarse como viga o columna. En nuestro caso la configuración utilizada es tipo columna. El modelo cuenta con una masa en la parte superior para generar un movimiento más notorio, en la misma parte superior se encuentra colocado un acelerómetro MPU6050 conectado al Arduino; en la parte inferior está colocado un peso para evitar movimientos no deseados. Para la operación en la adquisición, acondicionamiento, análisis y presentación de datos, se utilizaron distintos programas tanto en Arduino como en Matlab y Simulink. Al momento de configurar la tarjeta Arduino se utilizaron dos programas, uno para la calibración de ejes del acelerómetro y un segundo programa para la configuración de la tarjeta a modo de adquisición de datos. En la utilización del programa Matlab en su extensión Simulink se realizó la configuración para la adquisición, visualización y almacenamiento de datos proporcionados por el MPU6050. Estos datos almacenados se utilizaron desde el Workspace de Matlab para así procesar la señal, tanto con la transformada de Fourier (FFT) como en la conversión de aceleración a distancia por medio de scripts en Matlab. La FFT en señales es utilizada para pasar la propia señal, que se encuentra en función del tiempo, a un dominio de frecuencia, facilitando la obtención de información, de esta manera es más sencillo el análisis de las señales por su simplificación, así como la muestra de características que no son fácilmente identificables en el dominio del tiempo. Esto permite analizar la señal en términos de sus frecuencias constituyentes, lo que puede ser útil para entender su contenido espectral y realizar operaciones de filtrado, compresión de datos y modulación. En Simulink para la adquisición y visualización de datos obtenidos por medio del sensor, el programa consta de tres graficas distintas para cada eje (x,y,z). Dicho programa consta de un I2C Read para la lectura de los datos obtenidos mediante Arduino, después se encuentra un bloque que nos realiza una operación de productos para la conversión del valor obtenido en función de la gravedad, posteriormente pasa a Demux el cual extrae la señal del vector de entrada y emite señales separadas, las cuales están ordenados de arriba hacia abajo en el orden x, y y z que corresponden a cada uno de los ejes; donde luego va hacia un filtro pasabajas con valor de referencia 3 en el cual se tienen dos salidas, una hacia el bloque To Workspace que nos manda los valores al workspace de Matlab, y la otra hacia el scope donde permiten visualizar rápidamente los datos de la simulación a lo largo del tiempo. Durante el análisis de las gráficas experimentales de vibraciones con y sin amortiguamiento, se observa que existe una gran similitud con las gráficas de la solución exacta, avanzando de la compresión analítica conceptual a la aplicación práctica en cuanto a las propiedades dinámicas de la estructura: Periodo y Frecuencia. El presente estudio de investigación aplicada se centra en la transferencia de tecnología y busca proporcionar una experiencia integral que puede ser reproducida exitosamente, ya sea a través de un enfoque educativo guiado por un docente o de manera autodidacta sin requerir asistencia externa.


CONCLUSIONES

Este modelo experimental busca ser aplicado en la instrucción de las materias fundamentales en el plan de estudios de la licenciatura en ingeniería. Estas asignaturas abarcan un extenso contenido analítico, tanto en los principios que describen los fenómenos físicos, como en las conexiones que brindan soluciones a diferentes tipos de situaciones o escenarios que involucran condiciones operativas regulares o de emergencia, sin importar si son poco significativas o catastróficas. Adquirir una comprensión clara de la relación entre las condiciones operativas de una estructura y las consecuencias que se producen al exceder sus propiedades geométricas, físicas o mecánicas, es un aspecto crucial en el ámbito de la ingeniería. Este conocimiento y experiencia son altamente valiosos, ya que fortalecen la formación del ingeniero y les otorgan la capacidad de analizar y predecir el comportamiento de elementos estructurales esbeltos frente a vibraciones mecánicas. Dicho entendimiento se puede lograr más fácilmente haciendo uso de la tecnología tanto para adquirir señales, procesarlas y analizar las distintas condiciones que se presentan en las estructuras con la finalidad de poder tener información precisa y particular de cada estructura.
Zaragoza Mendoza Gonzalo, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Martha Yaneth Segura Ruiz, Universitaria Agustiniana Uniagustiniana

REQUERIMIENTOS PARA EL DESARROLLO DE UN TUTOR INTELIGENTE INCLUSIVO PARA LA ENSEÑANZA-APRENDIZAJE DE LA PROGRAMACIÓN ORIENTADA A OBJETOS


REQUERIMIENTOS PARA EL DESARROLLO DE UN TUTOR INTELIGENTE INCLUSIVO PARA LA ENSEÑANZA-APRENDIZAJE DE LA PROGRAMACIÓN ORIENTADA A OBJETOS

González García Edgardo Mauricio, Instituto Tecnológico de Morelia. Perez Baxcajai Alma Rosa, Universidad Mexiquense del Bicentenario. Zaragoza Mendoza Gonzalo, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Martha Yaneth Segura Ruiz, Universitaria Agustiniana Uniagustiniana



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a una encuesta realizada por Microsoft en abril del 2016, 70% de los jóvenes dice saber de tecnología, pero 6 de cada 10 jóvenes no saben lo que es programar. Se conoce que en las escuelas de nivel básico se promueva el aprendizaje a nivel básico de lenguajes como Java y C++, sin embargo, no se ahondan en temas más avanzados como puede ser los impartidos en la materia de programación orientada a objetos, la cual sirve de piedra angular para los diferentes paradigmas del desarrollo de software que hay actualmente. La programación orientada a objetos (POO) es un tema esencial en el ámbito de la informática y el desarrollo de software. Sin embargo, muchos estudiantes encuentran dificultades para comprender los conceptos y principios fundamentales de la POO, lo que puede obstaculizar su progreso académico y su capacidad para desarrollar aplicaciones y soluciones informáticas de manera efectiva. Además, existe una necesidad creciente de brindar una educación inclusiva que atienda las diversas necesidades de los estudiantes, incluidos aquellos con discapacidad auditiva. Los métodos de enseñanza tradicionales pueden no ser adecuados para todos los estudiantes y pueden dejar a algunos atrás, lo que resulta en una brecha de conocimiento y comprensión. Para abordar estos desafíos, se propone desarrollar un tutor inteligente e inclusivo para estudiantes de programación orientada a objetos. El tutor inteligente será una herramienta interactiva basada en la inteligencia artificial y la programación orientada a objetos que ayudará a los estudiantes a comprender los conceptos y principios clave de la POO, resolver dudas y brindar un apoyo personalizado adaptado a las necesidades individuales de cada estudiante. El problema radica en definir los requisitos y características específicas que debe tener este tutor inteligente para garantizar su efectividad y su inclusividad. Es fundamental identificar las funcionalidades clave que permitirán al tutor brindar explicaciones claras y ejemplos prácticos y garantizar la accesibilidad para personas con discapacidades. Además, se deben definir las bases de hechos que contendrán la información necesaria para que el tutor inteligente proporcione respuestas precisas y relevantes a las preguntas de los estudiantes, así como analizar la estructura del motor de inferencia para que pueda proporcionar una asistencia contextualizada. En este escenario, durante la estancia de verano se investigaron las diferentes características y requerimientos de un sistema experto innovador y accesible que ofrezca una amplia gama de herramientas didácticas interactivas, destinadas a facilitar el aprendizaje de programación orientada a objetos.



METODOLOGÍA

Mediante una metodología explorativa se busca comprender el problema de manera más profunda, recopilando y analizando la información relevante de diversas fuentes. Para poder desarrollar de forma exitosa la investigación se establecieron los objetivos del tutor inteligente, como brindar apoyo a los estudiantes, facilitar el aprendizaje de conceptos complejos, resolver dudas y adaptarse a las necesidades individuales, de igual forma determinar los aspectos clave de la inclusión que se deben abordar, como la accesibilidad para personas con discapacidad auditiva. En la investigación se realizó la revisión bibliográfica sobre los principales conceptos de la programación orientada a objetos, la educación inclusiva y las tecnologías de tutoría inteligente. Se recopilaron y analizaron investigaciones y proyectos similares relacionados con sistemas expertos, el lenguaje de programación Python, tutores inteligentes y el aprendizaje de programación orientada a objetos. También se identificaron las necesidades específicas de los estudiantes de programación orientada a objetos y los posibles obstáculos que pueden enfrentar. Al seguir una metodología explorativa, es posible diseñar un tutor inteligente inclusivo y efectivo para estudiantes de programación orientada a objetos, teniendo en cuenta las necesidades y perspectivas de los usuarios y asegurándote de brindar un apoyo valioso en su proceso de aprendizaje.


CONCLUSIONES

Durante la estancia de verano se pudo definir los requisitos de la base de hechos, la base de conocimientos y el motor de inferencia del tutor inteligente con información recopilada hasta el momento, la cual incluye características y algunos ejemplos relacionados con la programación orientada a objetos, así como características de accesibilidad para personas con discapacidad auditiva y los requisitos no funcionales para el sistema experto. Los requisitos se muestran a continuación:  El sistema experto debe incluir explicaciones sobre la creación e interpretación de diagramas y códigos. Capacidad para responder preguntas: El sistema experto debe ser capaz de responder preguntas formuladas por los usuarios sobre conceptos de programación orientada a objetos, proporcionando explicaciones claras y ejemplos relevantes. Explicaciones paso a paso: El sistema debe ser capaz de ofrecer explicaciones detalladas y paso a paso sobre cómo abordar ciertos problemas o implementar determinadas funcionalidades en programación orientada a objetos. Recomendaciones y sugerencias: El sistema experto debe ser capaz de identificar y señalar errores comunes en el código para proporcionar recomendaciones y sugerencias útiles siguiendo las mejores prácticas en programación orientada a objetos. Soporte para diferentes niveles de habilidad: El sistema debe ser capaz de adaptarse y brindar apoyo a usuarios con diferentes niveles de habilidad en programación, desde principiantes hasta expertos. Evaluación del rendimiento del usuario: El sistema debe contar con mecanismos para evaluar el progreso y el rendimiento del usuario. Ayuda contextual y documentación integrada: El sistema debe proporcionar ayuda contextual para funciones y métodos, y también contar con documentación integrada que ofrezca descripciones detalladas. Al ser un proyecto extenso aún falta mucho por investigar, analizar y desarrollar. Se espera que los resultados alcanzados sirvan como base para el logro de los objetivos del proyecto y para futuras investigaciones.
Zatarain Zavala Paola Lizbeth, Instituto Tecnológico de Tepic
Asesor: Mg. Sofía Brisseth de Jesús Sulbaran Siado, Corporación Universitaria Reformada

ANáLISIS DE LA ECONOMíA CIRCULAR EN MéXICO Y COLOMBIA


ANáLISIS DE LA ECONOMíA CIRCULAR EN MéXICO Y COLOMBIA

Estrada Ramírez Eva Jimena, Tecnológico de Estudios Superiores de Tianguistenco. Zatarain Zavala Paola Lizbeth, Instituto Tecnológico de Tepic. Asesor: Mg. Sofía Brisseth de Jesús Sulbaran Siado, Corporación Universitaria Reformada



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la economía circular ha tenido relevancia en América Latina debido al incremento en la generación de residuos causados por diferentes factores dentro de los cuales encontramos el crecimiento poblacional y el desarrollo económico mundial, esto provoca que la producción y consumo de bienes o servicios aumente significativamente causando una sobre explotación sobre los recursos naturales y desequilibrios ecosistémicos. Este modelo es planificado de diferente manera en cada país, y según su gobernanza e instituciones que estén basadas en políticas fundamentales para la transición hacía la economía circular, depende el éxito del cumplimiento de los ODS, por ello ¿Cuál es el avance y aporte en términos de la economía circular en Colombia y México?.



METODOLOGÍA

La presente investigación es de tipo cualitativa, en la cual se realizó una búsqueda de información de forma lineal en documentos públicos de ambos países, revisión sistemática de las políticas públicas y marco normativo, artículos científicos y bases de datos para poder responder el planteamiento del problema. La economía circular es un enfoque económico que busca reducir la dependencia de los recursos naturales finitos, maximizar el valor y su utilidad a lo largo de su ciclo de vida, minimizando la generación de residuos y la extracción de los recursos naturales. El principal aporte diferenciador del modelo de economía circular es su carácter sistémico y holístico para impulsar la transformación de los sistemas productivos, de esquemas lineales hacia modelos circulares (Sandoval-García., 2022). En el marco normativo de Colombia, la transición hacia un modelo de negocios circular, ha tomado carácter desde la promulgación de la Estrategia Nacional de Economía Circular (ENEC), la cual tiene como objetivo principal promover la transición hacia un modelo económico más sostenible y circular en el país. El gobierno de México ha comenzado a impulsar políticas y estrategias para fomentar la economía circular. Por ejemplo, se está incentivando a la aprobación de la Ley General de Economía Circular; busca contrarrestar la generación excesiva de residuos y promover el reciclaje, rediseño y reutilización de los mismos (Instituto Belisario Domínguez del Senado de la República, 2021). Mientras tanto, en México cada municipio y entidad tiene sus propias características en torno a la generación y manejo de sus residuos, por ello, existen diferentes Planes Estatales para la Prevención y Gestión Integral de Residuos (De Diputados et al., 2003). Además, existen varios esquemas de recolección y reciclaje, que han impulsado la sociedad y sectores industriales específicos, como los residuos de envases de plástico, papel, cartón y residuos electrónicos. En Colombia, gran parte de la actividad de reciclaje todavía se lleva a cabo en el sector informal, es decir, recolectan, clasifican y venden materiales reciclables de manera independiente, sin una vinculación formal a empresas o programas de reciclaje, pero en algunos lugares, los recicladores han sido reconocidos legalmente y se les ha obtenido ciertos derechos y beneficios a través de políticas de inclusión social para su formalización (López, L. K. R, 2015)


CONCLUSIONES

Tanto en Colombia como México están trabajando para promover la economía circular como una estrategia para abordar los desafíos ambientales y sociales relacionados con la gestión de residuos y el uso de recursos. Aunque ambos países han avanzado en la implementación de políticas y programas, todavía hay oportunidades para mejorar y fortalecer sus enfoques hacia una economía más circular y sostenible. Además, ambos países se enfrentan al reto de mejorar las condiciones de los recicladores informales y promover una gestión más inclusiva y sostenible de los residuos. La formalización, el reconocimiento legal y la promoción de la economía circular son algunas estrategias clave para mejorar la situación de recicladores en Colombia y México.
Zavala Ascencio Jessica Citlali, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas

CAPATACITACIÓN EN SEGURIDAD Y SALUD EN EL TRABAJO


CAPATACITACIÓN EN SEGURIDAD Y SALUD EN EL TRABAJO

Zavala Ascencio Jessica Citlali, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Benito Zamorano González, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

¿Cuáles son las necesidades de capacitación en seguridad y salud de los trabajadores de la industria petrolera ubicados en Reforma, Chiapas durante el primer semestre del 2023?



METODOLOGÍA

Título: Evaluación de la Efectividad de la Capacitación en Seguridad y Salud en el Trabajo en el Contexto Laboral La capacitación en seguridad y salud en el trabajo es un aspecto fundamental para garantizar un ambiente laboral seguro y protegido para los empleados. Con el objetivo de evaluar la efectividad de las iniciativas de capacitación en este ámbito, se llevó a cabo una investigación utilizando la metodología de encuesta. Esta metodología se escogió debido a su capacidad para recopilar datos directamente de los participantes y obtener una visión detallada de sus percepciones y experiencias. Diseño de la Encuesta: La encuesta fue diseñada para recopilar información relevante sobre la capacitación en seguridad y salud en el trabajo. Se estructuró en una combinación de preguntas cerradas y abiertas para permitir tanto respuestas cuantitativas como cualitativas. Las preguntas cerradas permitieron la recopilación de datos cuantificables, mientras que las preguntas abiertas brindaron a los participantes la oportunidad de expresar opiniones y detalles adicionales. Muestra: La muestra consistió en empleados de diversas industrias y niveles jerárquicos, seleccionados al azar de varias empresas en la región. Se buscó incluir una representación equitativa de diferentes departamentos y roles dentro de las organizaciones. La participación fue voluntaria y anónima para garantizar la sinceridad de las respuestas. Recopilación de Datos: La encuesta se distribuyó electrónicamente a través de plataformas de encuestas en línea, lo que permitió una fácil accesibilidad para los participantes. Se brindó un período de tiempo adecuado para que los encuestados completaran el cuestionario en función de su disponibilidad. Análisis de Datos: Una vez recopilados los datos, se realizó un análisis estadístico para examinar patrones y tendencias en las respuestas cerradas. Para las respuestas abiertas, se realizó un análisis de contenido cualitativo para identificar temas y opiniones emergentes. Esto permitió una comprensión completa de las percepciones de los empleados con respecto a la capacitación en seguridad y salud en el trabajo.


CONCLUSIONES

Los resultados de la encuesta proporcionaron una visión en profundidad de la efectividad de la capacitación en seguridad y salud en el trabajo en el contexto laboral. Estos hallazgos podrán utilizarse para informar futuras estrategias de capacitación y mejorar la seguridad y el bienestar de los empleados en su entorno laboral. En resumen, la encuesta realizada utilizando la metodología de investigación ha sido una herramienta valiosa para evaluar la percepción y la efectividad de la capacitación en seguridad y salud en el trabajo. Los datos recopilados a través de esta encuesta ofrecen información clave que puede guiar las decisiones y mejoras en las prácticas de seguridad laboral en las organizaciones.
Zavala Damián Paulina Jannet, Instituto Tecnológico Superior del Sur de Guanajuato
Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla

BIOCOMBUSTIBLE SóLIDO CON ALTO PODER CALORíFICO DERIVADO DE LOS DESECHOS QUE PRODUCEN LOS EBANISTAS.


BIOCOMBUSTIBLE SóLIDO CON ALTO PODER CALORíFICO DERIVADO DE LOS DESECHOS QUE PRODUCEN LOS EBANISTAS.

Zavala Damián Paulina Jannet, Instituto Tecnológico Superior del Sur de Guanajuato. Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Se sabe que las carpinterías son consideradas como industrias generadoras de residuos sólidos, de manera que con el paso del tiempo se van acumulando toneladas de desperdicios de materia prima, trayendo consigo una contaminación significativa al ambiente y consecuencias a la salud y seguridad humana debido a la inconsciencia de no saber qué disposición final darle y además que no cuenta con un valor agregado para que exista más interés en los ebanistas en recolectar sus residuos.



METODOLOGÍA

Para obtener la cantidad de desechos sólidos por semana de la carpintería, se pesó el aserrín en una báscula que no es de presión, sin contar el peso del recipiente constante de un kilo. Posteriormente se procedió a la técnica de secado para eliminar la humedad de estos desechos sólidos de manera natural utilizando la energía solar durante un tiempo de 48 hrs. El porcentaje de humedad que se obtuvo del proceso de secado fue de 0.5%,el cual garantiza que el biocombustible tendrá el poder calorífico inferior mencionado para su proceso de combustión. El biocombustible sólido será utilizado para suplir la madera y el carbón que son combustibles utilizados para elaborar alimentos, sin embargo este biocombustible no emitirá cantidades de contaminantes como los combustibles anteriormente mencionandos. Las briquetas que se elaboren con el aserrín no comprometen el cambio de sabor de los alimentos y tendrán un costo menor a la madera o el carbón.


CONCLUSIONES

En la tabla que se realizó para obtener los pesos promedio de cada día que se pesó el aserrín, se puede observar que la mayor cantidad recolectada fue el jueves y la cantidad mínima se obtuvo el sábado. El tipo de madera que se trabaja en la carpintería es el pinus sylvestris (pino silvestre), el cual tiene un poder calorífico inferior de 4,470 kcal/kg y un poder calorífico superior de 3,200 kcal/kg
Zavala López Quetzali Daniela, Universidad Politécnica de Texcoco
Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave

LA CULTURA DE LA CALIDAD COMO HERRAMIENTA DE GESTIÓN INTERNA Y ADAPTACIÓN AL ENTORNO. UN ESTUDIO DE CASOS MÚLTIPLES EN EMPRESAS LATINOAMERICANAS. CASO: APLICACIÓN DEL BENCHMARKING EN LA GESTIÓN DE LA AGENCIA DE TRANSPORTES CMC EN LA CIUDAD DE GUASAVE, SINALOA


LA CULTURA DE LA CALIDAD COMO HERRAMIENTA DE GESTIÓN INTERNA Y ADAPTACIÓN AL ENTORNO. UN ESTUDIO DE CASOS MÚLTIPLES EN EMPRESAS LATINOAMERICANAS. CASO: APLICACIÓN DEL BENCHMARKING EN LA GESTIÓN DE LA AGENCIA DE TRANSPORTES CMC EN LA CIUDAD DE GUASAVE, SINALOA

Palomo Garcia Emily Jazel, Instituto Tecnológico de Piedras Negras. Reyes Sanchez Dayan Pamela, Universidad César Vallejo. Salgado Álvarez Evelyn America, Instituto Tecnológico de Ciudad Juárez. Zavala López Quetzali Daniela, Universidad Politécnica de Texcoco. Asesor: Dr. Juan Héctor Alzate Espinoza, Instituto Tecnológico Superior de Guasave



PLANTEAMIENTO DEL PROBLEMA

La agencia de Transportes CMC es una empresa de paquetería y carga situada en el municipio de Guasave, Sinaloa; teniendo envíos en toda la zona norte y central del país caracterizada por su calidad en el ámbito de la logística, constantemente busca mantenerse a la vanguardia respecto al resto de compañías dedicadas al mismo rubro, derivando en la necesidad de buscar constantemente nuevas ideas y modelos que le permitan mantener su posicionamiento, analizando las cualidades y necesidades de la agencia de transporte se optó por implementar la herramienta para la gestión de calidad Benchmarking con el fin de incrementar la productividad y calidad de su servicio tomando como punto de comparación a la empresa Mercado Libre.



METODOLOGÍA

En primera instancia se realizó una comparativa en el modelo de negocios de mercado libre respecto a su proceso de envíos analizando detalladamente los siguientes puntos en común de ambos negocios Procesamiento de las cargas Logística del servicio Administración de contenedores y almacén Trazamientos de rutas Sistema de Navegación Inspección y mantenimiento de vehículos Monitoreo de las rutas  Evaluación de entrega del cliente Cada uno de estos aspectos fue evaluado en una escala de 1 a 5 para medir el nivel de rendimiento con base encuestas realizadas por personal interno y consumidores, si existía una diferencia en un punto específico donde Mercado Libre tuviera una nota superior se detectaba una oportunidad de mejora, en primera instancia la comparativa arrojo que el tipo de contenedores implementados por Mercado Libre estaban diseñados con un procesos ergonómico adaptados al tipo de mercancía las cuales requerían ciertas características para evitar cualquier tipo de maltrato durante su traslado, los contenedores estaban clasificados de acuerdo al material de carga, plásticos, maderas, metal, entre otros; en base a ello se tomó medida diversificar los tipos de contenedores para el transporte de mercancías específicas que permitan entregar cargas en mejores condiciones. El siguiente punto de comparación donde existió una diferencia significativa fue en el sistema de navegación, la propuesta utilizada por Mercado Libre permite realizar entregas de forma agilizada seleccionando un trayecto preestablecido dónde pueden evitarse retrasos por tráficos o congestionamiento vial, se trata de un software avanzado que gestiona las rutas más óptimas para manejar, indicando las horas adecuadas de circulación para coordinar los descansos de los conductores optimizando los tiempos de entrega y garantizando un mejor calidad, posterior a ello se trabajó en un sistema de navegación para la compañía CMC que utiliza un algoritmo similar que permita reducir el mayor número de incidencias y retrasos durante el transporte de mercancías.  Otra área de oportunidad encontrada fue el monitoreo de rutas, una de las problemáticas habituales en la compañía CMC es el hecho de que tanto los monitoristas cómo los ruteros en ocasiones olvidan recibir el sello de entrega que valida cuando un envió fue realizado, esto es un punto de alto rigor debido a que si se omite debe regresarse nuevamente al destino para obtenerlo, situación que genera una pérdida de tiempo y dinero para la compañía, tomando como referencia nuevamente el método empleado en Mercado Libre dónde la validación para cargamentos de dicha magnitud ahora se realiza de forma digital utilizando unos celulares que los transportistas llevan con una clave por parte del cliente y un número de carga, los datos se vacían en el sistema una vez la carga ha sido entregada llevando un control total de los envíos.  Cómo última observación se consideró la evaluación de entregas del cliente; ambas empresas utilizan el clásico sistema de una lista de cualidades que el cliente califica en base a su experiencia, mientras que en CMC sólo se calificaba de forma general el envío, en Mercado Libre adicionalmente se califica al transportista de forma individual, no solía considerarse un punto relevante evaluar al repartidor, pero posteriormente termino llevándose a la práctica calificando aspectos como: Actitud del repartidor, estado de la mercancía, tiempo de entrega, comunicación, ahora incluso cuando se trata de clientes frecuentes ellos pueden solicitar un repartido en particular con base en su experiencia previa si el servicio les pareció de su agrado, fortaleciendo en el proceso la relación de cliente a empresa.


CONCLUSIONES

Las mejoras introducidas permitieron lograr un incremento en el nivel de satisfacción del cliente, redujo notablemente los gastos de transporte, el nuevo sistema de rutas ha optimizado considerablemente los tiempos de entrega aumentando la productividad de la compañía CMC. La selección de la metodología BenchMarking resultó sumamente favorable, considerando que Mercado Libre es la empresa de E-commerce más grande de Latinoamérica con uno de los sistemas de entrega por excelencia a nivel mundial resultó un excelente punto de comparación, permitiendo extraer atributos favorables de este negocio para fortalecer los puntos débiles de la empresa de transportes y cargas CMC. La evaluación de personal y la opción para seleccionar un transportista de forma predilecta han logrado atraer a un mayor número de clientes, la necesidad de seguir compitiendo en la industria logística y la aplicación de herramientas para la gestión de la calidad seguirán ayudando a mantener el posicionamiento de este negocio en el futuro.
Zavala Torres John Paul, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor: Mg. Rene Ramirez Fernandez, Corporación Universitaria Americana

HACIA UNA ENERGíA SUSTENTABLE: VIABILIDAD ECONóMICA Y TéCNICA DE LA INTEGRACIóN PARCIAL DE PANELES SOLARES EN LA INSTITUCIóN UNIVERSITARIA AMERICANA DE BARRANQUILLA


HACIA UNA ENERGíA SUSTENTABLE: VIABILIDAD ECONóMICA Y TéCNICA DE LA INTEGRACIóN PARCIAL DE PANELES SOLARES EN LA INSTITUCIóN UNIVERSITARIA AMERICANA DE BARRANQUILLA

Zavala Torres John Paul, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Mg. Rene Ramirez Fernandez, Corporación Universitaria Americana



PLANTEAMIENTO DEL PROBLEMA

Con el incremento constante de las tarifas y la factura eléctrica, se ha vuelto imperativo explorar alternativas que permitan reducir la dependencia de fuentes de energía convencionales y, al mismo tiempo, mitigar el impacto ambiental asociado a su generación. En este sentido, el uso de energías renovables ofrece una solución viable y efectiva. Entre las diversas opciones disponibles, los paneles solares se han destacado como una de las formas más eficientes de obtener energía sostenible y rentable. ¿Puede desarrollarse una solución factible técnicamente y sostenible, para reemplazar paulatinamente la dependencia de las generadoras de energía tradicionales utilizando sistemas de generación con paneles solares?



METODOLOGÍA

El proyecto utiliza una metodología cuasi experimental donde se busca poner a prueba la factibilidad de la utilización de energía solar en una institución de educación superior en la ciudad de Barranquilla, Colombia. Se desarrollaron diferentes técnicas incluyendo la revisión bibliográfica, la exploración en la web y en revistas indexadas, en la búsqueda de proyectos similares desarrollados en otros lugares del mundo. Finalmente se desarrolló una simulación en el software PVSystem para validar los resultados esperados.


CONCLUSIONES

Con base en los resultados de los estudios técnicos desarrollados, se ha logrado diseñar una solución adecuada en relación con el objetivo inicialmente planteado y dar respuesta a la pregunta de investigación. Esto fue posible gracias a una profunda investigación bibliográfica y búsquedas en diferentes páginas web de empresas dedicadas a la instalación de paneles solares, desarrollo de proyectos y venta de materiales asociados. Esta solución fue probada utilizando el software de simulación PV System, utilizando la licencia gratuita de 30 días. Este software es el más utilizado por las empresas que se dedican a la instalación de paneles solares. Según el diseño propuesto y validado en la simulación, los costos reales para llevar a cabo la propuesta serían de $20.257.390 COP. Considerando que, con esta inversión, y teniendo en cuenta los horarios normales de oficina, que normalmente no abre los domingos, así como que el sistema reduce en un 60% el costo de la factura eléctrica podemos calcular un ahorro anual de $5,314,324.80 lo cual indica que, en un período de 4 a 5 años ya estaría amortizada la inversión desarrollada y estaría produciéndose un ahorro anual por ese valor, durante el resto de vida útil de los paneles, calculado en aproximadamente 25 años. Estos datos justifican la inversión de manera indiscutible
Zazueta Morales Kevin David, Universidad Tecnológica de Nayarit
Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz

CONTANDO UNA HISTORIA DE MIGRACIóN EN COLOMBIA: UNA EXPERIENCIA CON REALIDAD VIRTUAL


CONTANDO UNA HISTORIA DE MIGRACIóN EN COLOMBIA: UNA EXPERIENCIA CON REALIDAD VIRTUAL

Avila Avila Esperanza Margarita, Universidad Tecnológica de Nayarit. Diaz Angel, Universidad de Guadalajara. Zazueta Morales Kevin David, Universidad Tecnológica de Nayarit. Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

La crisis migratoria que afecta a Venezuela hacia Colombia es un fenómeno complejo que ha generado desafíos significativos en términos de un flujo migratorio descontrolado, así como importantes impactos socioeconómicos y la aparición de xenofobia y discriminación. Esta situación ha sido impulsada principalmente por la profunda crisis política, económica y social que ha experimentado Venezuela en los últimos años. Según la Organización Internacional para las Migraciones (OIM), se estima que más de 5 millones de venezolanos han abandonado su país desde aproximadamente el año 2015, siendo Colombia el país que ha recibido la mayor cantidad de migrantes venezolanos en comparación con otras naciones de América Latina y el Caribe. Por lo tanto, resulta fundamental comprender los desafíos que enfrenta Colombia y las implicaciones a corto y largo plazo de esta crisis migratoria. Es por esta razón que consideramos que el uso de tecnología de Realidad Virtual puede ser una herramienta invaluable para fomentar la empatía y sensibilización ante esta situación. La inmersión que brinda la Realidad Virtual puede ayudar a generar una mayor comprensión de la realidad de los migrantes y las dificultades que enfrentan, lo que permitirá una perspectiva más cercana y empática hacia sus circunstancias. No obstante, es importante destacar que la solución a la crisis migratoria va más allá de la empatía y la sensibilización. Se requiere una respuesta integral que incluya medidas políticas, sociales y humanitarias para abordar los retos que enfrentan tanto los migrantes como los países receptores. La cooperación internacional y el apoyo solidario son fundamentales para encontrar soluciones sostenibles a esta situación compleja.



METODOLOGÍA

Para llevar a cabo esta línea de investigación, fue necesario completar diversos cursos en la plataforma de Unity Learn, incluyendo VR Development, Roll-a-ball e Introduction to 3D Animations. Estos cursos nos proporcionaron los conocimientos y la lógica de programación necesarios para desarrollar diferentes escenas que narran la historia de una inmigrante venezolana en el puente fronterizo entre Colombia y Venezuela. Mediante la animación del Avatar, lipsync y la inclusión de objetos, creamos variaciones de las escenas con el fin de analizar cuáles generaban un mayor impacto en el usuario. En general, el proyecto consiste en un avatar que explica su razón para emigrar a Colombia, los sucesos que atravesó durante el proceso y cómo se estableció en el país vecino. Es importante mencionar que en este proyecto se abordaron temas clave como el diseño, la programación orientada a objetos, el uso de máquinas de estado y la implementación de animaciones. Este enfoque en el uso de Unity y las diferentes técnicas aplicadas permitieron crear una experiencia inmersiva y emotiva que busca generar empatía y conciencia en quienes interactúan con la historia de la inmigrante. Al combinar la tecnología de Realidad Virtual con una narrativa impactante, se logra transmitir de manera más efectiva la realidad y los desafíos que enfrentan los migrantes venezolanos al cruzar la frontera hacia Colombia.


CONCLUSIONES

En conclusión, el proyecto realizado durante el verano, que consistió en desarrollar una escena de Realidad Virtual basada en la historia de una migrante venezolana y las dificultades que enfrentó, ha sido una experiencia valiosa y enriquecedora en múltiples aspectos. A través de la creación de esta experiencia inmersiva, se logró adquirir un profundo conocimiento teórico y práctico en el desarrollo de Realidad Virtual, lo que incluyó el dominio de la lógica de programación y el diseño de escenas envolventes. Estos nuevos conocimientos representan una habilidad técnica relevante y actual, que pueden ser utilizados con aplicaciones potenciales en diversas áreas profesionales. Uno de los aspectos más significativos del proyecto fue su enfoque en contar la historia de la migrante, lo que permitió comprender de manera más cercana las dificultades y desafíos a los que se enfrentan quienes atraviesan procesos migratorios. La Realidad Virtual resultó ser una poderosa herramienta para fomentar la empatía y la sensibilización, ya que los usuarios podían prácticamente "ponerse en los zapatos" de la protagonista y experimentar de forma más íntima su realidad. Al abordar temas relacionados con la migración y la reducción de desigualdades, el proyecto contribuyó directamente al logro del Objetivo de Desarrollo Sostenible (ODS) número 10, que busca reducir las desigualdades dentro y entre países. La Realidad Virtual tiene el potencial de generar conciencia sobre los desafíos sociales y fomentar la solidaridad hacia las personas que enfrentan situaciones difíciles como las migrantes. En resumen, el proyecto de desarrollo de una escena de Realidad Virtual ha sido una experiencia enriquecedora tanto a nivel técnico como humano. Ha demostrado el poder de la tecnología para crear empatía y sensibilización en torno a temas sociales importantes, al tiempo que ha contribuido a abonar al cumplimiento del ODS de reducción de desigualdades. Este tipo de iniciativas creativas y concienciadoras son fundamentales para promover una sociedad más inclusiva y solidaria, y es una muestra del impacto positivo que puede tener la tecnología cuando se utiliza para el bienestar de la humanidad.
Zendejas Gutierrez Simón Jonathan, Universidad Tecnologica de León
Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León

SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)


SISTEMA DE MEJORA DE LA APLICACIóN ÚNICA DEL REGISTRO DE LA INFORMACIóN (MAURI)

Andrade de Pro Carlos René, Universidad Tecnologica de León. Gutiérrez Alcantar Maria Guadalupe, Universidad Tecnologica de León. Gutierrez Perez Brenda Esmeralda, Universidad Tecnologica de León. Hernandez Tavares Sergio, Universidad Tecnologica de León. Zendejas Gutierrez Simón Jonathan, Universidad Tecnologica de León. Asesor: Mtra. Myriam Soria García, Universidad Tecnologica de León



PLANTEAMIENTO DEL PROBLEMA

La Universidad Tecnológica de León (UTL) es una institución educativa pública de educación superior, fundada en 1995. La universidad cuenta con diversas áreas que dan apoyo al área académica, una de ellas es, la Dirección de Desarrollo Académico y Docente (DAyD) quién ha presentado la necesidad de automatizar la gestión de los procesos de Innovación educativa y de Formación académica debido a la creciente demanda de sus servicios, así como, la necesidad de implementar nuevos procesos que se tienen planeados. Cabe mencionar que la UTL cuenta con un Sistema de Información Táctico Operativo (SITO) que controla gran parte de los procesos académicos y de gestión, por lo que sería necesario que la creación de este sistema conviva con los datos que el SITO ya produce, pero que se conserve como un sistema independiente.



METODOLOGÍA

Tomando en cuenta el planteamiento del problema se decidió implementar la metodología de desarrollo de software denominada Ciclo de Vida Cascada con la variación del modelo V. Esta fusión de metodologías nos va obligando a realizar verificaciones y validaciones constantes del desarrollo del producto pasando por cada una de sus fases: Análisis, Diseño, Desarrollo, Pruebas, Cierre. Obteniendo como resultado un producto con la calidad esperada por el equipo y por las clientes. Adicional a la metodología, en cada fase se implementaron buenas prácticas de desarrollo de software como lo son: Técnicas de recolección de requerimientos, gestión de requerimientos, diseño UML, diseño de interfaces, generación y aplicación de estándares de desarrollo, pruebas unitarias, pruebas de integración, verificaciones y validaciones, La solución técnica para el proyecto consistió en el uso de las siguientes herramientas: SQL-server, HTML, JavaScript, JSP, XML y Vuetify. Se pretende que este sistema sea alojado en la nube de Azure, sin embargo, la pruebas en la nube ya no corresponden al alcance de este proyecto.  


CONCLUSIONES

Se cumplieron los objetivos y alcance señalado por nuestras clientes, gracias a la colaboración y compromiso tanto de las clientes como por el equipo. Dedicar tiempo no solo de desarrollo sino también de verificación y validación nos permitió un avance más certero y confiable. Se hizo una exposición final y la entrega de la Línea Base de Cierre a la Jefatura de Sistemas Informáticos quiénes serán los responsables de la instalación y mantenimiento del sistema.  
Zendejas Martínez Juan Carlos, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtra. Ambar González Guadarrama, Tecnológico de Estudios Superiores de Valle de Bravo

APP INTERACTIVA PARA EL FOMENTO DEL LENGUAJE MAZAHUA


APP INTERACTIVA PARA EL FOMENTO DEL LENGUAJE MAZAHUA

Zendejas Martínez Juan Carlos, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Ambar González Guadarrama, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El declive de las lenguas indígenas en nuestro país, incluyendo el Mazahua, representa un problema importante. Factores como el bullying hacia niños indígenas que hablan esta lengua y la limitada comunicación pública han contribuido a su desaparición progresiva. La lengua es fundamental para la transmisión de conocimiento y tradiciones, y es crucial para la identidad de una comunidad. El proyecto "Maza-Aprende" busca preservar nuestras raíces y tradiciones, desarrollando una web app interactiva para niños de educación básica. El objetivo es fomentar el conocimiento y aprecio por nuestras raíces y extender esta iniciativa a otras regiones del país.



METODOLOGÍA

El proyecto 'Maza-Aprende' se basó en la tesis titulada 'APP INTERACTIVA PARA EL FOMENTO DEL LENGUAJE MAZAHUA', la cual proporcionó los conocimientos fundamentales y datos necesarios para la investigación. Para el desarrollo de la aplicación web, utilizamos el framework 'Laravel' para su creación y aprovechamos su modelo vista controlador. Empleamos 'MYSQL' como la base de datos para almacenar y gestionar la información. Preparamos el entorno instalando Laravel y XAMPP en sus versiones 8.1.0 para garantizar compatibilidad. Procesamos la información previamente recopilada, verificando la integridad de los archivos de audio e imágenes para palabras en Mazahua. Almacenamos la información en la base de datos y creamos un modelo relacional para acceder a los datos necesarios. Antes de la programación, diseñamos mockups con Figma para representar visualmente el proyecto final. Creamos una paleta de colores basada en la vestimenta tradicional Mazahua para reflejar su cultura y tradiciones. El logo se diseñó tomando en cuenta la paleta de colores y elementos distintivos de la cultura Mazahua, como el venado. En la programación de la web app, comenzamos con la página principal, que muestra cuatro secciones principales: 'Aprender más sobre los Mazahua': Presentamos información en tarjetas largas con imágenes atractivas y animación CSS. '¿Qué es Maza-Aprende?': Explicamos el propósito y objetivo de la aplicación. 'Aprendiendo y repasando': Ofrecemos lecciones interactivas por medio de recursos educativos con audio en Mazahua. '¡Ponte a prueba!': Se está implementando un juego de memorama para evaluar conocimientos. Cada sección se diseñó cuidadosamente para brindar una experiencia atractiva y educativa a los usuarios, fomentando el aprendizaje y la apreciación de la cultura Mazahua.


CONCLUSIONES

El desarrollo de este proyecto ha sido una experiencia enriquecedora al trabajar con el framework Laravel y explorar la lengua Mazahua. Aunque el proyecto está casi terminado, considero que se pueden realizar mejoras adicionales, especialmente en la parte de evaluación, como un memorama más eficaz y otras opciones de evaluación. Este proyecto tiene un enorme potencial para impulsar la educación del Mazahua entre las nuevas generaciones y puede expandirse para preservar nuestra herencia cultural. Es fundamental preservar y fomentar las lenguas indígenas para mantener nuestras raíces y cultura. La continuidad de este tipo de iniciativas es crucial para mantener viva la diversidad lingüística y promover la valoración de las tradiciones ancestrales en el mundo moderno.
Zepeda García Ma. Lizbeth, Universidad de Guadalajara
Asesor: Dr. Lorenzo Tepech Carrillo, Universidad Autónoma Benito Juárez de Oaxaca

SíNTESIS DE PEROVSKITAS Y SU CARACTERIZACIóN POR DRS


SíNTESIS DE PEROVSKITAS Y SU CARACTERIZACIóN POR DRS

Hernandez Mota Ariadna Atzin, Instituto Politécnico Nacional. Zepeda García Ma. Lizbeth, Universidad de Guadalajara. Asesor: Dr. Lorenzo Tepech Carrillo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Los óxidos con estructura perovskita son materiales con muchas aplicaciones debido a sus propiedades ópticas, mecánicas, eléctricas y magnéticas, por ejemplo, las perovskitas a base de cobalto y de titanio son uno de los candidatos más competitivos con actividad electrocatalítica y se  están empleando cada vez más como detectores selectivos de gases contaminantes generados en procesos industriales. Además presentan muchas propiedades interesantes para su uso en la energía, tales como superconductividad a alta temperatura, ferroelectricidad, ferromagnetismo, termoelectricidad, alta conductividad térmica, resistencia térmica a altas temperaturas y propiedades de transporte. La perovskita SrCoO3 presenta una estructura ortorrómbica después de ser calcinada a la temperatura correcta y tiene propiedades ferromagnéticas y muestra una conductividad metálica. El objetivo es sintetizar nanopartículas de BaCoO3 y SrCoO3, utilizando el método de síntesis hidrotermal, para obtener un polvo precursor homogéneo y llevarlo a calcinar para finalmente conseguir la perovskita. El material fue estudiado por espectroscopia de difracción difusa.  



METODOLOGÍA

Para preparar las muestras de cobalto(III) perovskita de bario (BaCoO3) y cobalto(III) perovskita de estroncio (SrCoO3), partiendo de los reactivos: nitrato de cobalto hexahidratado (Co(NO3)2*6H2O-98%), nitrato de estroncio (Sr (NO3)2-99%), nitrato de bario (Ba(NO3)2-99%), utilizando hidróxido de sodio (NaOH) como precipitante, hidróxido de amonio (NH₄OH) como agente quelante y agua destilada como solvente,  es necesario conocer el peso de cada reactivo a utilizar para la obtención de ambas perovskitas (tabla 1 y tabla 2) y las reacciones químicas que se llevarán a cabo durante el proceso, en este caso se requieren obtener dos gramos de cada uno de los productos. Lo primero que se requiere para llevar a cabo la síntesis es, colocar agua destilada en un vaso de precipitado y agregar el hidróxido de amonio, mientras se encuentra la solución en agitación constante y a una temperatura de 70° C, después utilizando las cantidades correctas, se agregan los precursores  Ba(NO3)2 y Co(NO3)2*6H2O o Sr(NO3)2 y Co(NO3)2*6H2O (dependiendo de la perovskita que se esté elaborando). Una vez que los compuestos se encuentren disueltos, adicionar el hidróxido de sodio (NaOH) para lograr obtener un precipitado de los hidróxidos y trasladar toda la solución a un vaso de teflón para el tratamiento hidrotermal. Una vez que la muestra deja de cambiar de color se introduce en un sistema cerrado para colocarlo en el horno tipo mufla, ajustando las temperaturas y tiempos del horno. Este tratamiento se realiza para completar la reacción de obtención de los hidróxidos, aunque es posible que se encuentren en la solución aun antes del tratamiento térmico. La muestra se lava con agua destilada por 4 veces para quitar la mayor cantidad posible de hidróxido de amonio; posteriormente, se pone a secar hasta lograr evaporar el agua y obtener un polvo sólido, después se trituran las muestras en el mortero de ágata para ser caracterizadas mediante DRS en el espectrofotómetro. Tras tener el polvo precursor, este se deposita en un crisol de alúmina para calcinarlo y obtener la perovskita buscada, dependiendo los tiempos y temperaturas del tratamiento térmico.  


CONCLUSIONES

Al reaccionar, se produce un precipitado azul de Co(OH)2, que espontáneamente se transforma a la fase rosa claro Co(OH)2 con mayor estabilidad termodinámica y precipitan de la solución acuosa los hidróxidos, de acuerdo con las ecuaciones siguientes, dependiendo de la síntesis que se esté realizando.   Ba(NO3)2 (ac) + 2NaOH(ac)    →    Ba(OH)2 (s)  + 2NaNO3 (ac)   (Ecuación 1) Co (NO3)2 (ac) + 2NaOH(ac)    →    Co(OH)2 (s)   + 2NaNO3 (ac)  (Ecuación 2)   Sr(NO3)2 (ac) + 2NaOH(ac)    →    Sr(OH)2  (s)  + 2NaNO3 (ac)   (Ecuación 3) Co (NO3)2 (ac) + 2NaOH(ac)    →    Co(OH)2 (s)   + 2NaNO3 (ac)  (Ecuación 4)   Al obtener el polvo precursor después de la síntesis y el sacado de la muestra, este se va a calcinar, se encuentra reportado que a medida que la temperatura incrementa los hidróxidos se transforman en óxidos, mostrado en las ecuaciones 5 y 6, 7 y 8 respectivamente.    Ba(OH)2 (s)   → BaO(s)  + H2O(g)   (Ecuación 5) Co(OH)2  (s)   → CoO(s) + H2O(g)     (Ecuación 6)   Sr(OH)2 (s)   → SrO(s)  + H2O(g)      (Ecuación 7) Co(OH)2  (s)  → CoO(s) + H2O(g)      (Ecuación 8)   Tras completar la reacción para los óxidos se llevan a cabo las ecuaciones restantes para la obtención de cada una de las perovskitas, en donde mientras se calcina el polvo los óxidos pasan a transformarse en las perovskitas deseadas, cuando la temperatura de calcinación se encuentra entre los 850 y 1050° C la fase de la perovskita ya se encuentra formada, para el procedimiento de ambas síntesis se utilizó una temperatura de 900°C, por lo que se puede suponer que se formaron de forma correcta las perovskitas.   CoO (s)  + BaO(s)  → BaCoO3(s)   (Ecuación 9)   CoO (s)  + SrO(s)  → SrCoO3(s)   (Ecuación 10)   Se estudió las microestructuras y el mecanismo de formación para la realización de las perovskitas SrCoO3 y BaCoO3, mediante el cual fueron sintetizados por una ruta hidrotermal, fueron analizados por la técnica DRS ya que esta es más conveniente para caracterizar los nanomateriales en polvo, se determinó que ambas perovskitas muestran reflectancia en ciertos picos puntuales, estos materiales pueden producirse por medio de la calcinación de una mezcla de polvos de Ba(OH)-CoO3 y  Sr(OH)-CoO3.  Se encontró que las perovskitas a base de cobalto (Co) reflejan muy poco, en cambio, las perovskitas a base de titanio (Ti) presentan una curva más amplia de reflectancia.   
Ziranda González Anahi Monserrat, Instituto Tecnológico de Morelia
Asesor: Dr. José Fernando Covián Nares, Instituto Tecnológico de Morelia

BIOPELíCULA A BASE DE QUITOSANO Y MANZANILLA (CHAMAEMELUM NOBILE) CON ACTIVIDAD MICROBICIDA Y BIOSENSORIAL PARA LA DETECCIóN DE INFECCIONES


BIOPELíCULA A BASE DE QUITOSANO Y MANZANILLA (CHAMAEMELUM NOBILE) CON ACTIVIDAD MICROBICIDA Y BIOSENSORIAL PARA LA DETECCIóN DE INFECCIONES

Romero Garcia Kevin Imanol, Instituto Tecnológico de Morelia. Ziranda González Anahi Monserrat, Instituto Tecnológico de Morelia. Asesor: Dr. José Fernando Covián Nares, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad que provoca consecuencias en el portador, siendo uno de los más comunes la falta de cicatrización en la piel, lo cual puede derivar en infecciones. El quitosano y la manzanilla han demostrado tener propiedades cicatrizantes, y microbicidas por lo que se propone una biopelícula donde se conjunten ambos, además de agregar un biosensor de origen vegetal que detecte un cambio de pH en la herida, indicativo del desarrollo de infecciones, por medio de un cambio colorimétrico.



METODOLOGÍA

Se obtuvo la manzanilla mediante la compra de materia prima en el mercado local, una vez que se contó con la manzanilla se procedió a secar la flor y tallo por separado, ya secas se realizó una maceración de las flores de la manzanilla, y se molieron los tallos de la misma planta después se agregó a unos tubos falcón la cantidad de 1 g de las flores por cada 10 ml de disolvente y 1g de tallo molido por cada 10 ml de disolvente. Por último, se filtró y después de dejarse concentrar por 48 horas estaba listo el extracto para ser usado y llevado a las pruebas de actividad antioxidante (DPPH) y polifenoles totales. Para la prueba DPPH se pesó 0.0019g de reactivo DPPH para prepararse en 50mL de metanol al 80% con ayuda de un matraz aforado una vez preparada la disolución se dejó reposar por 20 min en completa oscuridad es ese periodo de tiempo se extrajo 50 microlitros de los extractos de la flor de manzanilla y tallo para depositarse en un tubo de ensaye y realizar la prueba por duplicado. Se les adiciono 50 microlitros de metanol al 80% a cada tubo de ensaye y una vez terminados los 20 min de espera 2.9 mL del reactivo DPPH. Se agito y se dejó reposar los tubos de ensaye por otros 20 min en total oscuridad. Se prepararon 2 blancos uno directo del matraz y otro con 80% de metanol. Una vez que se terminaron los 20 min de espera se llevó al espectrofotómetro a medir y poder sacar los cálculos pertinentes. Para la prueba de polifenoles totales se realizó una disolución de 1mlL de muestra del extracto de manzanilla diluido en 9mL de agua destilada. Se hizo la prueba por duplicado en un total de 4 tubos de ensaye. Se añadió 50 microlitros de los extractos de manzanilla y tallo de manzanilla a cada tubo de ensaye y se completó con 450 microlitros de agua destilada, añadiéndose el reactivo de Folin ciocalteu en un total de 250 microlitros y se envolvió toda la gradilla con aluminio para evitar el contacto con la luz. Cuando se termine un periodo de 8 minutos en oscuridad se les añadió 250 microlitros de NaCO₃ al 20% y una vez que se presentó una coloración blanca (transparente), se dejó por 30 minutos en oscuridad nuevamente. Terminado el periodo de tiempo se llevó al espectrofotómetro a medir absorbancia. Para la obtención de la biopelicula se preparó una solución de CaCl2 al y una solución de ácido acético en proporción 3:1, de las soluciones anteriormente preparadas, agregando 0.72 g de quitosano. Posteriormente se adicionó el extracto de manzanilla y glicerina a fin de obtener una mejor consistencia. La mezcla se colocó en un molde y se dejó secar por 48 horas. En el caso del biosensor, se obtuvo un extracto acuoso de Jamaica, el cual se obtuvo dejando reposar durante 48 horas la Jamaica en agua. Transcurrido ese lapso de tiempo se le realizo pruebas de pH, con el objetivo de observar si existía un cambio colorimétrico en el extracto dependiendo de la variación del mismo. Posterior se impregno con el colorante un pedazo de cinta microporo dejándolo secar durante 24 horas, para añadirlo así a la biopelicula.


CONCLUSIONES

Durante la estancia en el verano se logró adquirir el conocimiento de como realizar pruebas de cuantificación polifenólica y DPPH, así como también la obtención de extractos. Con esto se determinó con mayor cantidad de polifenoles totales y actividad antioxidante únicamente la flor de la manzanilla, ya que el tallo y la mezcla de ambos resultaron con menor actividad antioxidante y cantidad de polifenoles totales. Así como también se obtuvo una biopelicula con propiedades de porosidad, flexibilidad y consistencia adecuada para el uso de la piel, con un biosensor de origen vegetal que cambia de color ante un pH alcalino similar al que pH de una infección en la piel.
Zumaya Mercado Ciara Gabriella, Universidad de Guadalajara
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PIRóLISIS DE MEZQUITE Y COCO A TRAVéS DE CONCENTRACIóN SOLAR


PIRóLISIS DE MEZQUITE Y COCO A TRAVéS DE CONCENTRACIóN SOLAR

Escobedo de la Cruz Glorialicia, Universidad de Sonora. Guerrero Palomares Lessly Yadira, Universidad Estatal de Sonora. Nolasco Martinez Jose Uriel, Benemérita Universidad Autónoma de Puebla. Zumaya Mercado Ciara Gabriella, Universidad de Guadalajara. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La producción de carbón vegetal se lleva a cabo a través de calentar la madera a altas temperaturas con una presencia mínima de oxígeno, cuyo resultado es un material combustible, poroso y con alto contenido en carbono que se aprovecha, mayoritariamente, como combustible, no solo de uso doméstico. A diferencia de la leña, el carbón tiene un mayor poder calorífico, no libera casi nada más que dióxido de carbono; ya que al combinarse el carbón del elemento con el oxígeno del entorno se forma esa reacción química. Sin embargo, su proceso de producción sigue siendo perjudicial hacia el ambiente, por lo que en este proyecto de investigación se busca obtener el mismo resultado mediante un proceso renovable en donde se aproveche la radiación solar en forma de energía solar térmica por concentración solar fototérmica para llevar a cabo la pirolisis de madera de mezquite y sustrato de coco. OBJETIVO  Obtener carbón vegetal mediante un proceso renovable, en este caso energía termosolar por concentración solar fototérmica, cumpliendo con el proceso de pirolisis para materia prima de madera de mezquite y sustrato de coco.



METODOLOGÍA

El proceso de pirólisis es la degradación térmica de una sustancia en ausencia de oxígeno, por lo que dichas sustancias se descomponen mediante calor, sin que se produzcan las reacciones de combustión. Para la obtención del carbón vegetal de coco y de mezquite se plantea el uso de tecnologías de energía solar. Las características básicas para realizar el proceso:  El único oxígeno presente es el contenido en el residuo a tratar. Las temperaturas de trabajo son inferiores a las de la gasificación, oscilando entre 400 °C, 600 ºC y 800 °C en las pruebas realizadas.   Uso de un reactor fijo de acero inoxidable.  Fuente de energía a través de concentración solar fototérmica. La energía que se utilizó para el proceso de la pirolisis es a base de la concentración solar fototérmica, por lo que se considera como un intercambiador de calor que transforma en energía solar a energía térmica a través de una concentración óptica. En la plataforma solar de Hermosillo se cuentan con varios tipos de concentración solar, pero para esta investigación se eligió enfocarse en un horno solar.  El sol es una fuente de energía distante que nos brinda radiación, dicha energía es la que utiliza el helióstato para reflejarla en el espejo parabólico de concentración. Una vez que la radiación es dirigida al concentrador estas son redirigidas hacia el foco de la parábola que en este caso es la posición o es la distancia a la que se encuentra nuestro reactor. Este factor es importante para saber la intensidad de radiación que va a recibir el reactor. En este caso para nuestra muestra se colocó a una distancia de 1.5 m del concentrador.  El análisis que se busca con el proceso de la pirolisis con la concentración solar a través de las distintas pruebas realizadas es ver el comportamiento de acuerdo con las tres temperaturas máximas que se consideraron y compararlos con los resultados obtenidos de cada muestra. A su vez también analizar el porcentaje de fracción volumétrica.  Como resultado del proceso se obtiene:  1. Gas, cuyos componentes básicos son CO, CO2, H2, CH4 y compuestos más volátiles procedentes del cracking de las moléculas orgánicas, así mismo con los ya existentes en los residuos. 2. Residuo líquido, compuesto básicamente por hidrocarburos de cadenas largas como alquitranes, aceites, fenoles, ceras formados al condensar a temperatura ambiente.  3. Residuo sólido, compuesto por todos aquellos materiales no combustibles, los cuales o bien no han sido transformados o proceden de una condensación molecular con un alto contenido en carbón, metales pesados y otros componentes inertes de los residuos.


CONCLUSIONES

A lo largo de nuestra estancia de verano se presentó un descubrimiento principal en la Plataforma Solar de Hermosillo que nos permitió obtener una aplicación de la energía termosolar en el proceso de pirolisis de mezquite y de coco, el cual nos ayudó a determinar las temperaturas y las tasas óptimas de calor a partir de la calidad química del carbón que se obtuvo, ya que según las diferentes variables de temperatura que manejamos se obtuvo una respuesta óptima en la liberación de gases (Metano, Monóxido de Carbono e Hidrogeno). Sin embargo, esta aplicación se obtuvo a base de la concentración solar que nos permitió aplicar metodologías novedosas y utilizar dispositivos especializados que son únicos en su tipo.
Zúñiga Páramo Karen Fernanda, Instituto Tecnológico Superior de Irapuato
Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

OPTIMIZACIóN Y CREACIóN DE RUTAS PARA REDUCIR LA DISTANCIA Y EL TIEMPO EN TRáNSITO


OPTIMIZACIóN Y CREACIóN DE RUTAS PARA REDUCIR LA DISTANCIA Y EL TIEMPO EN TRáNSITO

Razo Rangel Diego Alejandro, Instituto Tecnológico Superior de Irapuato. Tenorio Mendoza Jonathan Yael, Instituto Tecnológico Superior de Irapuato. Velez Parra Irwin Jared, Instituto Tecnológico Superior de Irapuato. Zúñiga Páramo Karen Fernanda, Instituto Tecnológico Superior de Irapuato. Asesor: Dr. Ricardo Perez Rodríguez, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La creación de rutas eficientes y bien planificadas en logística es esencial para minimizar costos. Reducir el tiempo de tránsito y la distancia, optimizar la cantidad de carga en el transporte y seleccionar rutas seguras ayuda a mejorar el stock y la seguridad. Una adecuada planificación también permite la trazabilidad de los envíos para un seguimiento y control efectivo durante todo el proceso logístico. En la investigación, se propone centrarse en modelos TTRP (problema de rutas para camiones y remolques), donde se consideran vehículos compuestos por un camión y un remolque, y diferentes tipos de clientes que pueden ser atendidos por el camión solo o la unidad completa. El objetivo del TTRP es encontrar un conjunto de rutas con distancia total mínima, asegurando que cada cliente sea visitado por un vehículo compatible con su demanda y capacidad, sin superar el número limitado de camiones y remolques disponibles. Una particularidad del TTRP es que tanto el camión como el remolque tienen cierta capacidad de carga, y las mercancías pueden transferirse entre ellos durante la ruta en las plazas de aparcamiento del remolque.



METODOLOGÍA

La identificación y análisis de los procesos internos son fundamentales para construir rutas eficientes que minimicen costos y tiempos de transporte. Para ello, se consideran datos como la cantidad de clientes, sus coordenadas, las capacidades de los vehículos y las restricciones operativas. Se utilizará el método PLEB (Programación Lineal Entera Binaria) para la construcción de rutas, que es un algoritmo matemático para resolver problemas de optimización con variables de decisión enteras binarias. Factores importantes para la planeación de rutas incluyen determinar qué tipo de vehículo (tracto, tráiler o mixto) utilizar, la cantidad y tipo de clientes a atender, la secuencia de los destinos y el uso de softwares como el Lenguaje R para saber las rutas optimas y Veusz para graficar las rutas obtenidas. La planeación de rutas es esencial para garantizar entregas rápidas y puntuales, y se realiza trazando las rutas de distribución en un mapa, identificando los puntos de entrega y las mejores vías para cada zona, considerando la disponibilidad de vehículos para cubrir las entregas. En este trabajo, se utilizaron dos métodos para crear rutas eficientes: El método del vecino más cercano para la creación de rutas a partir de una secuencia de ubicaciones. Este algoritmo heurístico busca encontrar una solución aproximada al problema del viajante de comercio, minimizando la distancia o tiempo total recorrido. Aunque no garantiza la solución óptima, es eficiente y proporciona resultados rápidos. El método de clusters es otra estrategia empleada en la creación de rutas eficientes. Consiste en agrupar puntos de interés en clústeres según su proximidad espacial y luego generar rutas para visitar estos clústeres en un orden específico. Este enfoque busca optimizar la planificación de rutas al considerar la agrupación de ubicaciones cercanas.


CONCLUSIONES

La construcción de rutas es una práctica clave en diversos sectores para optimizar el movimiento de personas, vehículos o mercancías, mejorando la eficiencia y reduciendo costos y tiempos de viaje. El problema del enrutamiento de camiones y remolques (TTRP) es un desafío logístico que busca determinar la ruta óptima para una flota de camiones y sus remolques, cumpliendo con demandas de entrega y restricciones operativas. Se utilizan técnicas de optimización combinatoria y algoritmos heurísticos, como el método de Programación Lineal Entera Binaria, para encontrar soluciones óptimas o aproximadas. El lenguaje de programación R se utiliza para aplicar el modelo matemático y generar la ruta óptima, gracias a sus capacidades en estadísticas y análisis de datos. Veusz, una herramienta de visualización de datos científicos se emplea para representar gráficamente las rutas seleccionadas por R, facilitando la visualización y comprensión de la ruta óptima.